- Исследователи из Palo Alto Networks Unit 42 обнаружили, что большие языковые модели (LLM) способны генерировать тысячи модификаций вредоносного кода JavaScript.
- В результате тестирования ИИ создал более 10 тыс. копий кода, уклоняющихся от обнаружения в 88% случаев.
- LLM пока не разрабатывают вредоносное ПО с нуля, но отлично маскируют уже существующие угрозы.
- Злоумышленники могут применять ИИ для переписывания кода, делая его сложным для обнаружения.
- Несмотря на усилия разработчиков LLM, преступники уже используют инструменты вроде WormGPT для создания фишинговых писем и разработки нового вредоносного ПО.
- ИИ использует стандартные методы запутывания для обхода антивирусов, делая код более безобидным.
- Эксперты видят в этом положительный потенциал, так как ИИ может стать мощным помощником в обнаружении и нейтрализации угроз.
ИИ научился создавать тысячи вирусов: их не видят антивирусы
26 дек 2024
Краткий пересказ
от нейросети YandexGPT
Обложка: Изображение из статьи