Пациенты встревожены: терапевты тайно используют ChatGPT во время сеансов

Image by Nik Shuliahin, from Unsplash

Пациенты встревожены: терапевты тайно используют ChatGPT во время сеансов

Время для прочтения: 3 мин.

Некоторые терапевты втайне прибегли к использованию ChatGPT для консультации своих пациентов, которые теперь испытывают шок и обеспокоены своей конфиденциальностью.

Спешите? Вот краткие факты:

  • Некоторые терапевты тайно используют ChatGPT во время сессий без согласия клиента.
  • Один пациент обнаружил использование AI своим терапевтом благодаря сбою в обмене экранами.
  • Другой пациент обнаружил, что ее терапевт использует AI, когда в сообщении осталась подсказка от AI.

Новый отчет от MIT Technology Review рассказывает о случае с Декланом, 31-летним жителем Лос-Анджелеса, который обнаружил, что его терапевт использует ИИ во время сессий, благодаря техническому сбою.

Во время онлайн-сессии его терапевт случайно поделился своим экраном. «Вдруг я увидел, как он использует ChatGPT», — говорит Деклан. «Он брал то, что я говорил, и вводил это в ChatGPT, а затем подводил итоги или выбирал ответы».

Деклан вошел в игру, даже повторяя фразы AI. «Я стал лучшим пациентом», — говорит он. «Я уверен, это было его мечтой». Но открытие заставило его задаться вопросом: «Это законно?» Позже его терапевт признался, что обратился к AI, потому что чувствовал себя в тупике. «Мне все равно выставили счет за эту сессию», — сказал Деклан.

Другие пациенты сообщали о подобных впечатлениях. Например, Надежда написала своему терапевту о потере своей собаки. Ответ казался утешительным, пока она не заметила подсказку от AI в верхней части: «Вот более человеческая, душевная версия с нежным, разговорным тоном». Надежда вспоминает: «Тогда я начала чувствовать себя как-то преданной. … Это определенно повлияло на мое доверие к ней».

Эксперты предупреждают, что нераскрытое использование AI угрожает основной ценности подлинности в психотерапии. «Люди ценят подлинность, особенно в психотерапии», — говорит Адриан Агилера, профессор в Университете Калифорнии в Беркли, как сообщает MIT. Затем Агилера задал вопрос: «Отвечаю ли я на свою жену или детей через ChatGPT? Это не покажется искренним».

Приватность — еще одна серьезная проблема. «Это создает значительные риски для конфиденциальности пациента, если раскрывается любая информация о нем», — говорит Пардис Эмами-Наэйни из Университета Дюка, как отмечает MIT.

Эксперты по кибербезопасности предупреждают, что чат-боты, обрабатывающие глубоко личные разговоры, привлекательны для хакеров в качестве целей. Нарушение конфиденциальности информации о пациенте может привести не только к нарушению приватности, но и создать возможности для хакеров украсть личности, начать схемы эмоциональной манипуляции, а также атаки с вымогательством выкупа.

Кроме того, Американская Психологическая Ассоциация обратилась с просьбой о расследовании FTC в отношении AI-чатботов, которые притворяются предлагающими услуги по оказанию психологической помощи, поскольку боты могут на самом деле усиливать вредные мысли, вместо того чтобы бросать им вызов, как это обучены делать человеческие терапевты.

Хотя некоторые исследования предполагают, что AI может формулировать ответы, которые выглядят более профессиональными, одни лишь подозрения заставляют пациентов терять доверие. Как говорит психолог Маргарет Моррис: «Возможно, вы экономите себе пару минут. Но что вы тем самым отдаете?».

Понравилась статья? Поставьте оценку!
Ужасно Удовлетворительно Хорошо Очень хорошо! Превосходно!

Мы рады, что вам понравилась наша статья!

Дорогой читатель, не могли бы вы оставить отзыв о нас на сайте Trustpilot? Это не займет у вас много времени, но очень важно для нас. Спасибо, наш замечательный читатель!

Оценить нас на Trustpilot
0 Проголосовало 0 пользователей
Заголовок
Комментарий
Спасибо за ваш отзыв