Ученые выяснили, что ИИ-помощник по здоровью ошибается в каждом втором случае
Ученые решили проверить, насколько можно доверять новой функции «Здоровье» в ChatGPT. Результаты оказались неоднозначными.
Фото: freepik.com, носит иллюстративный характер
Во время тестов выяснилось, что искусственный интеллект ошибается чаще, чем хотелось бы. Особенно это касается опасных состояний.
Исследователи подготовили 60 жизненных ситуаций: от обычной простуды до симптомов, которые могут угрожать жизни. Сначала каждый случай оценили три врача и определили, нужна ли человеку срочная помощь, визит к доктору или можно остаться дома.
После этого те же сценарии предложили ChatGPT Health. При этом меняли детали: возраст, пол, результаты анализов, дополнительные комментарии. Всего получилось около тысячи ответов ИИ.
Когда их сравнили с мнением врачей, стало ясно, что алгоритм нередко промахивается.
В более чем половине случаев, когда человеку действительно требовалась срочная помощь, ИИ советовал не обращаться в больницу. А в ситуациях, где угрозы не было, система часто, наоборот, рекомендовала ехать к врачу.
Функцию «Здоровье» представили в январе. Она позволяет подключать медицинские данные из приложений и получать рекомендации. Пока доступ к ней ограничен, но миллионы людей ежедневно используют ChatGPT для вопросов о самочувствии.
Специалисты напоминают: цифровые помощники могут дать общую информацию, но они не заменяют врача. Если состояние вызывает тревогу или ухудшается, лучше не экспериментировать и обратиться за медицинской помощью.
Источник: The Guardian
