- ИИ стал частью повседневной жизни, но публичные чатботы могут представлять угрозу для конфиденциальности.
- Инженер Google Харш Варшни советует не делиться с ИИ личными данными.
- Публичные модели могут использовать информацию для обучения и ваши данные могут попасть в чужие ответы.
- Важно выбирать подходящую модель: для рабочих проектов или корпоративных задач лучше использовать закрытые версии ИИ.
- Варшни также рекомендует регулярно удалять историю чатов и использовать временные режимы для разовых запросов.
- При выборе ИИ лучше пользоваться известными продуктами с понятными правилами конфиденциальности, такими как Google-продукты, ChatGPT от OpenAI и Claude от Anthropic.
- В настройках приватности стоит отключать опции, которые позволяют использовать ваши данные для обучения моделей.
Как безопасно работать с ИИ: инженер Google предупредил об опасности
15 дек 2025
Краткий пересказ
от нейросети YandexGPT
Обложка: Изображение с сайта freepik.com