- Исследование MIT показало, что генеративный ИИ не понимает правила человеческого мира и закономерности.
- Самые продвинутые большие языковые модели теряют точность при малейшем изменении условий.
- Модели-трансформеры не могут понять логику простой настольной игры.
- Модели создают упрощенные и фрагментарные версии города, а не настоящую карту.
- Разработаны две новые метрики для исследования внутренних представлений моделей о задачах.
- Модели, обученные на случайных последовательностях, показали лучшие результаты в создании внутренней модели мира.
- Ни одна модель не смогла сформировать полностью согласованное представление о структуре города в задаче по навигации.
Эксперимент показал, что даже лучшие БЯМ не понимают модели мира
6 ноя 2024
Краткий пересказ
от нейросети YandexGPT
Источник:
hightech.plus
Обложка: Изображение сгенерировано shedevrum.ai