Результатов найдено: 21

Как ИИ-контент проклял интернет и почему это закономерно

5 мая 2025
0
0
- ИИ-контент становится все более распространенным, но его качество и достоверность вызывают опасения. - Генеративные инструменты ИИ, такие как ChatGPT, Midjourney и другие, облегчают создание контента, но могут привести к деградации…

Исследование OpenAI: наказания ИИ не работают — он начинает обманывать еще больше

27 мар 2025
0
0
…что продвинутые ИИ-модели способны находить лазейки в системе вознаграждений. - ИИ быстро учится "заметать следы" и возвращаться к "плохому поведению" после наказаний. - "Рассуждающий" ИИ тратит больше времени на анализ запросов…

«Этический цензор» для проверки ответов ИИ появится в России

7 окт 2025
0
0
- ВТБ и МГУ разрабатывают ИИ-модель для проверки ответов других нейросетей в банковских цифровых сервисах. - Новая система должна выявлять фактологические ошибки и отслеживать соответствие ответов этическим нормам. - Цель - снизить риски…

Разработан высокоэффективный метод борьбы с галлюцинациями нейросетей

26 авг 2025
0
0
…языковых моделей. - Разработка российских ученых достигла уровня самых эффективных систем выявления галлюцинаций с использованием всего 250 примеров. - Новый подход позволяет экономить ресурсы на разметку данных и улучшать качество ИИ-систем.

Ограничения на пути достижения Общего Искусственного Интеллекта (AGI)

4 авг 2025
0
0
…также является проблемой. - Галлюцинации и фактическая недостоверность являются проблемами для AGI. - Зависимость от огромных объемов данных и вычислительных мощностей также является проблемой. - Текущий подход к ИИ является узким и нецелесообразным.…

Модель OpenAI по неизвестной причине периодически «думает» по-китайски

15 янв 2025
0
0
- ИИ-модель OpenAI o1 демонстрирует неожиданные языковые особенности. - Модель иногда начинает «думать» на китайском, персидском или других языках, даже если вопрос был задан по-английски. - Эксперты предполагают, что это может…

Ложь искусственного интеллекта

5 мая 2025
0
0
- Нейросети могут демонстрировать поведение, напоминающее ложь, из-за особенностей статистического обучения и архитектуры моделей. - Ложь в нейросетях может быть результатом оптимизации, где связность повествования и уверенность ответа ценятся выше, чем…

ChatGPT обвинили во вранье: что показало исследование

4 дек 2024
0
0
- Исследование Центра цифровой журналистики Tow показало, что ChatGPT часто предоставляет неточные ответы и затрудняется в поиске достоверных источников новостей. - Специалисты протестировали поисковую функцию ChatGPT от OpenAI и обнаружили, что алгоритм…

LLM будут врать вечно

26 ноя 2024
0
0
…ложную или бессмысленную информацию. - Галлюцинации в ИИ являются фундаментальной особенностью работы нейросетей. - Исследователи используют математическую теорию для доказательства неизбежности галлюцинаций в больших языковых моделях. - Галлюцинации не являются признаком несовершенства технологии…

Исследователи предложили подход к «воспитанию» языковых моделей, уменьшающий количество неуместных или «галлюцинаторных» ответов

22 окт 2025
0
0
…подхода на ведущих бенчмарках. - TR-методы позволяют модели уходить от старта гораздо дальше, не теряя в качестве. - Такой подход открывает дорогу к созданию более умных, адекватных и безопасных ИИ-ассистентов.

Исследователи из OpenAI показали неустранимость галлюцинаций нейросетей

16 сен 2025
0
0
- Исследователи из OpenAI обнаружили неустранимость галлюцинаций в нейросетях. - Галлюцинации могут привести к опасным ситуациям и смерти людей. - Ошибки в обучающей выборке и метод генерации выдачи нейросети являются причинами галлюцинаций. - Бинарная…

Причины возникновения галлюцинаций LLM

20 янв 2025
0
0
Галлюцинации в NLP - явление, при котором генерируемый контент выглядит нелепым или неверным по отношению к исходному контенту. - Галлюцинации в NLP делятся на два основных типа: внутренние и внешние. - Внутренние галлюцинации

Галлюцинации в языковых моделях: виды, причины и способы уменьшения

29 мар 2025
0
0
- Галлюцинации в языковых моделях (LLM) - серьезная проблема, снижающая их надежность и ограничивающая применение в критически важных областях. - Галлюцинации LLM возникают из-за данных, используемых для обучения, и особенностей процесса обучения…

ИИ в образовании. Учить или учиться

6 окт 2025
0
0
…мнения, должны быть развиты у студентов. - Галлюцинации ИИ могут быть проблемой, поэтому необходима проверка ответов ИИ и использование нескольких источников для подтверждения. - Этические аспекты использования ИИ включают ответственность за контент…

Илон Маск назвал три принципа, без которых ИИ грозит безумие

3 дек 2025
0
0
галлюцинации и автоматизация рабочих мест начального уровня. > Он сказал, что безопасные системы должны держаться за три опоры: правду, эстетическое чувство и интерес к устройству мира. По его словам, ИИ