- OpenAI предупреждает о возможном использовании её языковых моделей для создания биологического оружия.
- ИИ может легко воспроизводить уже известные патогены, упрощая создание биологического оружия.
- OpenAI усиливает тестирование безопасности моделей, чтобы гарантировать их безопасность.
- Компания Anthropic также вводит жесткие ограничения для своих моделей, включая модель Claude Opus 4, получившую ранг ASL-3.
- Anthropic подчеркивает необходимость усиления мер безопасности из-за способности модели Opus 4 синтезировать уже известные угрозы.
- Исследования подтверждают тревогу индустрии о возможности использования LLM для создания токсичных материалов.
- Угрозы от LLM могут скрываться между объяснением сложных процессов и созданием биологического оружия.
- Безопасность AI выходит за рамки теоретических страхов и требует практического контроля, оценки и оперативной защиты.
Anthropic подчеркивает, что даже если сама модель Opus 4 не обладает инструкциями для новейших биотехнологий, её уровень позволяет подготовить и синтезировать уже известные угрозы — а значит, усиление мер безопасности является не опцией, а необходимостью.