- Большие языковые модели (БЯМ), такие как ChatGPT-4, пока не могут надежно обрабатывать данные из медицинских записей.
- Исследование на 96 тысячах клинических записей пациентов, пострадавших в авариях на электросамокатах, показало низкую точность ChatGPT-4 в определении наличия шлема.
- Модель также испытывала трудности с интерпретацией отрицательных формулировок и воспроизведением результатов.
- Традиционные методы текстового поиска и обработки естественного языка также имеют ограничения в извлечении информации из медицинских записей.
- Использование шлема играет решающую роль в снижении тяжести травм, но информация об этом часто «закопана» в медицинских записях.
- ChatGPT показал ограниченную точность в определении наличия шлема на основе анализа клинических записей, особенно в отрицательных формулировках.
- Проблемы надежности и галлюцинаций ограничивают применение больших языковых моделей в медицине.
ChatGPT-4 раскритиковали за неточный анализ медицинских записей
20 авг 2024
Краткий пересказ
от нейросети YandexGPT
Источник:
hightech.plus