- Российские ученые разработали метод GLiRA для защиты данных в нейросетях.
- GLiRA помогает выявить уязвимости и предотвратить утечку конфиденциальной информации.
- Метод основан на технологии дистилляции знаний и позволяет создавать теневые модели для анализа данных.
- GLiRA показал на 7% более высокую точность атак по сравнению с предыдущими методами.
- Метод поможет разработать более эффективные стратегии защиты данных и повысить уровень безопасности ИИ-систем.
В России придумали, как защитить нейросети от утечек данных
25 мар 2025

Краткий пересказ
от нейросети YandexGPT
Источник:
hightech.fm
Обложка: Изображение из статьи