- ИИ-модели могут деанонимизировать пользователей в социальных сетях с высокой точностью.
- Исследователи провели серию экспериментов с использованием больших языковых моделей (LLM).
- В ходе экспериментов, 68% пользователей были раскрыты ИИ, а точность идентификации достигала 90%.
- Для экспериментов использовались данные из профилей, сообщений и комментариев на различных ресурсах.
- LLM-модели работают лучше, чем классические методы деанонимизации, с плавным снижением точности и высокой полнотой.
- Псевдонимы больше не гарантируют безопасность, пользователи рискуют раскрытием личных данных.
- Технологии деанонимизации могут использоваться для различных целей, включая выявление критиков, целевую рекламу и мошеннические схемы.
- Исследователи предлагают меры защиты, такие как ограничение доступа к данным, мониторинг сбора информации, встроенные механизмы защиты в LLM и удаление старых публикаций.
ИИ-модели могут деанонимизировать пользователей с высокой точностью
5 мар 2026
Краткий пересказ
от нейросети YandexGPT
Обложка: Изображение с сайта freepik.com