- Галлюцинации в языковых моделях (LLM) - серьезная проблема, снижающая их надежность и ограничивающая применение в критически важных областях.
- Галлюцинации LLM возникают из-за данных, используемых для обучения, и особенностей процесса обучения.
- Метрики и подходы к оценке галлюцинаций включают использование эталонных данных (BLEU, ROUGE, METEOR, BERTScore) и без них (FActScore, доля близких по смыслу ответов, классификатор согласованных тестов, Question-Answer Score).
- Способы минимизации галлюцинаций включают предварительную очистку и проверку данных, использование RAG, метод few-shot learning, метод Self-Consistency, метод самопроверки и метод цепочки проверки (CoVe).
- Комбинация различных подходов позволяет снизить риски, связанные с галлюцинациями, и повысить надежность LLM.
Галлюцинации в языковых моделях: виды, причины и способы уменьшения
29 мар 2025

Краткий пересказ
от нейросети YandexGPT
Источник:
habr.com
Обложка: Изображение сгенерировано recraft.ai