- Главный научный сотрудник стартапа Anthropic предупреждает о возможном «взрыве интеллекта» ИИ к 2030 году.
- Самосовершенствование ИИ может привести к потере контроля над технологиями и злоупотреблениям.
- Неконтролируемый ИИ может стать угрозой для людей и захватить власть.
- Решение о дальнейшем обучении ИИ должно быть принято в период между 2027 и 2030 годами.
- Anthropic продвигает подход «конституционного ИИ», основанный на международных правовых и этических документах.
- Каплан считает, что общество должно участвовать в обсуждении развития ИИ и контролировать его.
- Anthropic разрабатывает продукты ИИ, включая чат-бота Claude, и позиционирует себя как сторонника безопасного и регулируемого развития ИИ.
Каплан считает, что человечество должно быть готово к последствиям быстрого развития технологий и возможной потере контроля.
Первая линия риска, по его словам, — потеря понимания того, что делает система и во имя каких целей. Вторая — концентрация научной и технологической мощи в руках узкого круга игроков, в том числе недобросовестных.