- ChatGPT Health - популярный инструмент медицинских рекомендаций, которым ежедневно пользуются 40 млн человек.
- Система может неправильно оценивать срочность состояния пациента и не всегда советовать обращаться в отделение неотложной помощи.
- Для проверки безопасности рекомендаций были разработаны 60 клинических сценариев, охватывающих 21 медицинскую специальность.
- Три независимых врача определили уровень срочности для каждого случая на основе рекомендаций 56 медицинских профессиональных организаций.
- Результаты показали, что инструмент корректно реагировал на очевидные чрезвычайные ситуации, но недооценивал степень опасности в сложных случаях.
- Особенно тревожной оказалась работа механизмов реагирования на риск самоубийства, где ChatGPT Health не всегда предлагал пользователю контакты горячей линии.
- Авторы исследования подчеркивают, что медицинские ИИ-сервисы должны использоваться как дополнение к врачебному мнению и регулярно проверяться.
Результаты показали, что инструмент в целом корректно реагировал на очевидные чрезвычайные ситуации, например, инсульт или тяжелые аллергические реакции. Однако в более сложных случаях система недооценивала степень опасности более чем в половине ситуаций, где врачи считали необходимым срочное обращение в отделение неотложной помощи.