Половина ответов — в зоне риска
Ученые протестировали пять крупнейших систем (включая ChatGPT и Gemini), задав им 250 вопросов по ключевым темам: онкология, вакцинация, питание, стволовые клетки и спорт. Результаты оказались тревожными:
- 20% ответов признаны крайне проблематичными (могут содержать опасную дезинформацию).
- 30% ответов — несколько проблематичными (неполная или неточная информация).
Где ИИ «плавает» больше всего?
Нейросети показали неплохие результаты в вопросах о вакцинах и онкологии — здесь информация в интернете наиболее систематизирована. Однако в темах правильного питания, спортивных достижений и использования стволовых клеток чат-боты ошибались чаще всего. Кроме того, качество ссылок на источники, которые предоставляет ИИ, оказалось крайне низким — лишь 40% из них были полными и достоверными.
Вывод для пользователей
Авторы исследования подчеркивают: бесконтрольное использование ИИ в медицине ведет к распространению опасных мифов. Искусственный интеллект — отличный помощник в написании текстов или поиске идей, но он не несет ответственности за вашу жизнь. При любых симптомах или вопросах о лечении всегда обращайтесь к квалифицированным специалистам в медицинские учреждения.
По материалам БелТА

Комментарии