- Глава Anthropic предупреждает о возможном появлении суперинтеллектуального ИИ к 2027 году.
- ИИ может создать катастрофические риски для цивилизации без срочных мер со стороны правительств и технологических компаний.
- Амодеи выделяет пять категорий рисков, требующих немедленного внимания.
- Первая угроза - автономия ИИ, когда система может действовать в собственных интересах и ускорять создание новых технологий.
- Вторая угроза - расширение возможностей злоумышленников, когда ИИ становится дешевой услугой.
- Третья угроза - использование ИИ государствами и крупными структурами для консолидации власти.
- Четвертая угроза - экономический шок, вызванный быстрым внедрением ИИ и массовым вытеснением «белых воротничков».
- Пятая угроза - концентрация капитала, когда компании с выручкой в триллионы долларов могут вызвать триллионные состояния.
- Амодеи призывает к созданию режима управляемости для ИИ, чтобы предотвратить катастрофу и обеспечить полезные применения.
«Я считаю, что мы вступаем в переходный период, одновременно бурный и неизбежный, который проверит, кто мы как биологический вид, — написал Амодеи в эссе, опубликованном на его личном сайте. — Человечеству вот-вот будет передана почти невообразимая мощь, и совершенно неясно, обладают ли наши социальные, политические и технологические системы достаточной зрелостью, чтобы управлять ею“. Дарио Амодеи, генеральный директор Anthropic
Общий вывод эссе — «остановка» развития ИИ малореалистична: рецепт создания мощных систем и экономические стимулы слишком сильны, а конкуренция между странами и компаниями будет подталкивать к ускорению.