- Российские исследователи разработали новый метод сжатия больших языковых моделей.
- Метод позволяет уменьшить объем моделей на 25-36% без потери в точности.
- Результаты исследования опубликованы в Findings of the Association for Computational Linguistics.
- Большие языковые модели, такие как ChatGPT и LLaMA, дороги в использовании из-за огромного размера.
- Метод «Прокруста» ускоряет процесс сжатия нейросети без потери качества работы.
- Метод «Прокруста» работает быстро и может применяться к существующим системам ИИ.
- Новый подход на 9-10% быстрее существующих методов сжатия ИИ и на 9-10% точнее.
- Ускорение внедрения ИИ в устройства с ограниченными вычислительными ресурсами делает ИИ более доступным.
Разработан метод сжатия больших языковых моделей без потерь в качестве
17 фев 2026
Краткий пересказ
от нейросети YandexGPT
Источник:
tass.ru
Обложка: Изображение с сайта freepik.com