
Image by Denise Chan, from Unsplash
Мужчина отравил себя, следуя совету ChatGPT
60-летний мужчина самостоятельно вызвал у себя редкое психическое заболевание XIX века, следуя советам от ChatGPT.
Спешите? Вот краткие факты:
- Он заменил обычную соль на токсичный бромид натрия на три месяца.
- Был госпитализирован с галлюцинациями, параноей и нарушениями электролитного баланса из-за отравления.
- ChatGPT предложил бромид в качестве замены хлорида, не предупредив о возможных рисках для здоровья.
Кейс-стадия, опубликованная в Анналах внутренней медицины, раскрывает случай мужчины, страдающего от бромизма, состояния, вызванного отравлением бромидом натрия.
По всей видимости, это было вызвано его попыткой заменить поваренную соль опасной химической субстанцией, которую ChatGPT предложил ему использовать. По сообщениям, мужчина прибыл в отделение скорой помощи, испытывая паранойю, аудиальные и визуальные галлюцинации, и обвинял своего соседа в отравлении.
Последующие медицинские тесты выявили аномальные уровни хлоридов, а также другие показатели, подтверждающие отравление бромом. Мужчина рассказал, что соблюдал ограничительную диету и использовал бромид натрия вместо соли. Он сделал это после того, как спросил у ChatGPT, как исключить хлорид из своего рациона питания.
«В течение 3 месяцев он заменил хлорид натрия на бромид натрия, полученный из интернета после консультации с ChatGPT,» — говорится в исследовании. Исследователи объясняют, что бромид натрия обычно используется как средство против судорог для собак или очиститель для бассейнов, но в больших количествах он токсичен для человека.
Мужчина провёл в больнице три недели, где его состояние постепенно улучшалось благодаря лечению.
Исследование подчеркивает, как инструменты ИИ могут предоставлять неполные и опасные рекомендации пользователям. В ходе теста исследователи попросили ChatGPT предложить альтернативы хлориду, и в результате получили ответ — бромид натрия. В этом ответе отсутствовало любое предупреждение о его токсичности или запрос о контексте вопроса.
Исследование предупреждает, что ИИ также может распространять дезинформацию и не обладает критическим суждением медицинского специалиста.
404Media отмечает, как OpenAI недавно объявила о улучшениях в ChatGPT 5, стремясь предоставить более безопасную и точную медицинскую информацию. Этот случай показывает важность осторожного использования ИИ и консультаций с квалифицированными медицинскими специалистами при принятии решений о здоровье.