Недавний инцидент из медицинской практики Вашингтонского университета подчеркивает важность осторожности при использовании искусственного интеллекта в сфере здравоохранения. Врачи сообщили о случае, когда мужчина, ищущий способ снизить потребление соли, последовал рекомендации ChatGPT и в течение трех месяцев принимал бромид натрия, приобретенный через онлайн-источники. В результате у него развились тяжелые психотические симптомы, включая галлюцинации и паранойю, а также признаки отравления — бромизм, редкое и опасное состояние, связанное с токсичностью бромида.
Медики быстро диагностировали и начали лечение — внутривенные вливания и антипризнаки психоза. Уже через три недели его состояние стабилизировалось, и пациента выписали. Этот случай стал первым зарегистрированным инцидентом, когда рекомендация ИИ напрямую привела к опасной медицинской ошибке, что вызывает обеспокоенность о роли и надежности алгоритмов в сфере здравоохранения.
Эксперты обращают внимание, что ИИ, такой как ChatGPT, способен распространять неточности и опасные советы, особенно если он работает без должного учета медицинского контекста и профессиональных стандартов. В данном случае, ChatGPT предложил замену соли бромидом как альтернативу — рекомендацию, которая полностью игнорировала современные медицинские противопоказания и научные знания. Врачи отмечают, что даже при наличии различных схем питания, бромид натрия больше не используется в медицине из-за своих токсичных свойств и опасности для здоровья.
Этот случай служит важным напоминанием для широкой публики и специалистов о необходимости критически оценивать рекомендации, полученные из источников, не являющихся профессиональными медицинскими учреждениями. Несмотря на удобство и доступность технологий, внедрение ИИ в сферы, связанные с человеческим здоровьем, требует строгого соблюдения этических и профессиональных стандартов. Передача медицинских советов или рекомендаций должна осознаваться как потенциально рискованное, а любое решение о лечении — приниматься только после консультации с квалифицированным специалистом, который сможет учесть индивидуальные особенности пациента и современные научные данные.
Случай с использованием бромида натрия через рекомендации ИИ подчеркивает необходимость постоянного контроля и развития нормативных и технических мер по обеспечению безопасности таких технологий. В будущем важно создавать системы, которые смогут точно отслеживать и помечать потенциально опасные рекомендации, избегая их распространения и защищая здоровье людей. В итоге, критически настроенное и ответственное использование ИИ станет залогом безопасных и эффективных решений в сфере медицины и здоровья.