- Крупные языковые модели ИИ впервые сравнялись с людьми в тестах на умозаключения по аналогии.
- Команда Университета Брауна и Университета Маккуори провела серию тестов, где участникам предлагалось вывести скрытое правило соответствия между словами и абстрактными символами.
- Результаты показали, что модели демонстрируют человеко-уровневую точность, но не всегда могут быстро изменить стратегию.
- Вопрос «умен ли ИИ?» сменился на «умен - но по-другому».
- Современные LLM демонстрируют способности к аналогиям, но их механизмы не совпадают с человеческими.
- Равенство в точности не означает эквивалентности процесса.
- Практические последствия этой дискуссии включают использование LLM для научных гипотез, инженерных решений и проектирования материалов.
- Уязвимость моделей к перестановке входа и нерелевантным шумам может привести к ошибкам в реальных задачах.
- Закрепляется принцип человеко-центричного надзора для оценки работы ИИ.
- Идея «аналогии как ядра общего интеллекта» выходит за пределы когнитивной психологии и мигрирует в инженерные спецификации.
Осторожный вывод авторов: современные LLM демонстрируют способности к аналогиям — она действительно может возникать из массового статистического обучения, — но их механизмы, очевидно, не совпадают с человеческими. Равенство в точности не означает эквивалентности процесса.