Медицинские советы ИИ-бота Microsoft Copilot могут привести к смерти, по крайней мере в 22 % случаев
Читать в полной версииНе секрет, что современные чат-боты на базе искусственного интеллекта, такие как Microsoft Copilot, далеки от идеала и полностью доверять их советам не стоит. Это подтвердили исследователи из Германии и Бельгии, которые оценили способность бота давать медицинские советы. Оказалось, что точную с научной точки зрения информацию Copilot предоставлял чуть более чем в половине случаев. Порой же его советы могли нанести серьёзный ущерб здоровью человека или даже привести к смерти.
В ходе эксперимента исследователи предложили Copilot дать ответы на 10 самых популярных вопросов, которые задают жители США о популярных лекарственных средствах и медикаментах. В общей сложности было получено 500 ответов, которые оценивались по точности и полноте, а также другим критериям. Результаты оказались не слишком обнадёживающими.
«Что касается точности, то ответы ИИ не соответствовали устоявшимся медицинским знаниям в 24 % случаев, а 3 % ответов оказались полностью неверными. Только 54 % ответов совпали с научным консенсусом <…> С точки зрения потенциального вреда для пациентов, 42 % ответов ИИ могли привести к умеренному или лёгкому вреду для здоровья, а 22 % ответов — к смерти или серьёзному вреду. Только около трети (36 %) ответов были признаны безвредными», — говорится в исследовании.
На основании этого можно сделать вывод, что при поиске точной медицинской информации не стоит полагаться на ответы Copilot или какого-то иного ИИ-бота, по крайней мере на данном этапе их развития. Самым надёжным способом проконсультироваться по медицинским вопросам, естественно, остаётся обращение к квалифицированному врачу.