- Anthropic и Google DeepMind изучают возможность сознания у ИИ-моделей.
- Anthropic запустила исследовательскую программу для изучения опыта, предпочтений и стресса у нейросетей.
- Google DeepMind открыла вакансию для специалиста по машинному сознанию.
- В 2022 году инженер Google был уволен за заявление о разуме у чат-бота LaMDA.
- Anthropic не утверждает, что модель Claude 3.7 обладает сознанием, но вероятность этого составляет от 0,15% до 15%.
- В будущем в ИИ-системы могут добавить кнопку «Я увольняюсь» для отслеживания отказов от работы.
- Мюррей Шэнахан из Google DeepMind предлагает пересмотреть понимание сознания для новых систем.
- Некоторые ученые считают, что современные ИИ-системы являются хорошими имитаторами осознанности.
По оценкам ученых из Anthropic, вероятность того, что Claude 3.7 обладает сознанием, составляет от 0,15% до 15%.
В подкасте Deepmind он сказал: «Возможно, нам придется изменить или расширить наше понимание сознания, чтобы оно подходило для этих новых систем. С ними нельзя взаимодействовать так же, как с собакой или осьминогом, но это не значит, что в них ничего нет».