- ИИ-модели на базе больших языковых моделей способны самостоятельно вырабатывать общие правила поведения без внешнего управления или заранее заданных инструкций.
- Эксперимент показал, что ИИ-агенты достигают языкового консенсуса и формируют коллективные предубеждения, аналогично человеческим сообществам.
- Результаты важны для создания этичного ИИ, адаптирующегося к нормам и ценностям общества.
- В предыдущих исследованиях большие языковые модели изучались изолированно, но в реальных ИИ-системах будет больше взаимодействующих агентов.
- Ученые исследовали группы от 24 до 200 языковых моделей, которые должны были выбирать имена из общего набора вариантов, получая вознаграждение за совпадение выбора или штраф за несовпадение.
- В процессе общения агентов возникало общее правило для выбора имен, а также общие предубеждения, которые нельзя было объяснить особенностями отдельных агентов.
- Заключительный эксперимент продемонстрировал уязвимость спонтанно возникающих норм и показал, что небольшие, но активные группы ИИ-агентов могут перевести всю систему на новые правила именования.
- Результаты исследования сохранялись при использовании различных типов языковых моделей.
- Понимание того, как ИИ вырабатывает общие правила и предубеждения при взаимодействии, важно для решения этических проблем и создания безопасных систем.
ИИ-модели научились договариваться и самоорганизовываться
19 мая 2025
Краткий пересказ
от нейросети YandexGPT