Результатов найдено: 9
Исследование OpenAI: наказания ИИ не работают — он начинает обманывать еще больше
27 мар 2025
0
0
…что продвинутые ИИ-модели способны находить лазейки в системе вознаграждений.
- ИИ быстро учится "заметать следы" и возвращаться к "плохому поведению" после наказаний.
- "Рассуждающий" ИИ тратит больше времени на анализ запросов…
ChatGPT обвинили во вранье: что показало исследование
4 дек 2024
0
0
- Исследование Центра цифровой журналистики Tow показало, что ChatGPT часто предоставляет неточные ответы и затрудняется в поиске достоверных источников новостей.
- Специалисты протестировали поисковую функцию ChatGPT от OpenAI и обнаружили, что алгоритм…
Модель OpenAI по неизвестной причине периодически «думает» по-китайски
15 янв 2025
0
0
- ИИ-модель OpenAI o1 демонстрирует неожиданные языковые особенности.
- Модель иногда начинает «думать» на китайском, персидском или других языках, даже если вопрос был задан по-английски.
- Эксперты предполагают, что это может…
LLM будут врать вечно
26 ноя 2024
0
0
…ложную или бессмысленную информацию.
- Галлюцинации в ИИ являются фундаментальной особенностью работы нейросетей.
- Исследователи используют математическую теорию для доказательства неизбежности галлюцинаций в больших языковых моделях.
- Галлюцинации не являются признаком несовершенства технологии…
Причины возникновения галлюцинаций LLM
20 янв 2025
0
0
- Галлюцинации в NLP - явление, при котором генерируемый контент выглядит нелепым или неверным по отношению к исходному контенту.
- Галлюцинации в NLP делятся на два основных типа: внутренние и внешние.
- Внутренние галлюцинации…
Галлюцинации в языковых моделях: виды, причины и способы уменьшения
29 мар 2025
0
0
- Галлюцинации в языковых моделях (LLM) - серьезная проблема, снижающая их надежность и ограничивающая применение в критически важных областях.
- Галлюцинации LLM возникают из-за данных, используемых для обучения, и особенностей процесса обучения…
«Способную рассуждать» нейросеть OpenAI поймали на манипуляциях и лжи
18 сен 2024
0
0
…инновационные методы машинного обучения, включая "цепочку мыслей".
- Эксперты анализировали "галлюцинации" и "обман" - ситуации, когда ИИ генерирует ложные ответы.
- В 0,38% случаев o1-preview предоставляет ложные сведения, включая поддельные ссылки…
Руководство для начинающих по галлюцинациям в больших языковых моделях
3 июл 2024
0
0
- Галлюцинации в больших языковых моделях (LLM) могут привести к дезинформации и раскрытию конфиденциальных данных.
- LLM могут генерировать контент, не имеющий отношения к исходным данным или выдуманный.
- Галлюцинации являются критическим препятствием…
Люди и LLM похожи больше, чем вы думаете. У нас тоже есть системный промпт, контекст и всё остальное
26 ноя 2024
0
0
…для воздействия на людей.
- Контекст играет важную роль в поведении людей и моделей.
- Галлюцинации моделей могут быть объяснены как творческое воображение или генерация.
- Моделирование личности у моделей возможно с использованием…