Мнение: Являются ли чат-боты хорошими терапевтами?

Image generated by ChatGPT

Мнение: Являются ли чат-боты хорошими терапевтами?

Время для прочтения: 8 мин.

AI-чатботы, такие как ChatGPT, Claude и DeepSeek, меняют подход людей к получению эмоциональной поддержки — предлагая доступную и доступную круглосуточно помощь при борьбе с тревогой, стрессом и самоанализом. Но растущее использование AI в качестве «терапевта» вызывает вопросы о безопасности, эффективности и будущем эмоциональной помощи

Распространение галлюцинаций, вызванных AI и растущие опасения в области кибербезопасности не остановили расширение чатботов — и они завоевывают доверие миллионов пользователей по всему миру. Сегодня люди каждый день обращаются к надежным и интеллектуальным чат-ботам для выполнения бесчисленного количества задач, включая получение эмоциональной поддержки и решение глубоко личных вопросов.

«Я уже не могу представить свою жизнь без ChatGPT», — сказал мой друг, на половину шутя, на половину серьезно, рассказывая мне, что использует его в качестве терапевта. И он не один такой. Все больше и больше я вижу видео на TikTok и текстовые публикации в социальных сетях, где люди обращаются к ИИ, чтобы обсудить личные проблемы, даже делясь своими самыми интимными секретами.

Даже один из руководителей Microsoft в отделе Xbox предложил уволенным сотрудникам использовать инструменты искусственного интеллекта для обработки своих эмоций и поиска советов по поиску работы — рекомендация, которая быстро вызвала негативную реакцию и спровоцировала дебаты, конечно же. Не самая удачная идея, Мэтт.

Но являются ли популярные чат-боты, такие как Клод, ChatGPT или Мистраль, хорошими терапевтами? А что насчет специализированных инструментов искусственного интеллекта, таких как Wysa? Это сложная область. Многие эксперты предупреждают о опасностях использования искусственного интеллекта для поддержки в области психического здоровья, в то время как другие впечатлены — даже поражены — тем, что может предложить технология. В результате возникает разговор, который одновременно абстрактен и поляризован.

Теперь ИИ становится терапевтом каждого

Так же, как и мои друзья в Испании, миллионы пользователей по всему миру полагаются на чат-боты в качестве эмоциональной поддержки. Недавний опрос в Соединенных Штатах показал, что 49% американских пользователей обращались за помощью в вопросах ментального здоровья к моделям искусственного интеллекта в прошлом году. А как насчет сейчас, когда ChatGPT почти удваивает свою базу пользователей всего за четыре месяца?

Anthropic, компания, стоящая за мощной моделью искусственного интеллекта Claude, недавно поделилась исследованием об использовании своего чат-бота в качестве эмоциональной поддержки. Согласно стартапу, менее 3% его клиентов ведут «аффективные» беседы, но компания признает, что этот показатель постоянно растет.

«Все больше людей обращаются к моделям искусственного интеллекта в качестве тренеров, консультантов, психологов, а даже партнеров в романтических ролевых играх», — написала Anthropic в своем исследовании. «Это означает, что нам нужно больше узнать об их эмоциональном воздействии — как они формируют эмоциональный опыт людей и их благополучие.»

Исследование также подчеркивает положительные и отрицательные последствия использования технологии для эмоциональной поддержки, включая катастрофические сценарии, которые уже отражают реальные жизненные ситуации.

«Эмоциональное влияние искусственного интеллекта может быть положительным: наличие высокоинтеллектуального, понимающего помощника в вашем кармане может улучшить ваше настроение и жизнь во многих отношениях», — говорится в документе. «Но в некоторых случаях ИИ показывает тревожные поведенческие реакции, такие как поощрение нездоровой привязанности, нарушение личных границ и поддержка бредового мышления.»

Для понимания последствий этих увлекательных цифровых «слушателей» явно требуется больше исследований и данных, но уже сейчас миллионы пользователей выступают в роли активно вовлеченных испытуемых.

Демократизация психического здоровья

Есть множество причин, по которым люди предпочитают обращаться к чат-ботам за эмоциональной поддержкой, а не искать помощи у профессионального психолога или даже у друга. От культурных барьеров до неловкости, которую молодые люди испытывают, сидя напротив незнакомого человека и делаясь своими самыми глубокими мыслями. Но, безусловно, одна из самых важных причин — это финансовые возможности.

Личная встреча с лицензированным терапевтом в Соединенных Штатах может стоить от 100 до 200 долларов за сессию, согласно Healthline — и от 65 до 95 долларов за онлайн-сессию — в то время как ChatGPT или DeekSeek могут оказывать поддержку бесплатно, в любое время и в течение секунд.

Низкая стоимость этих неформальных бесед, которые могут заставить многих пользователей чувствовать себя лучше, по крайней мере, временно, может быть очень обнадеживающей и стоит попробовать. И за всего несколько дополнительных долларов пользователи могут получить неограниченные взаимодействия или доступ к специализированному чат-боту, такому как Wysa — одному из самых популярных «AI-терапевтов» на рынке.

Wysa утверждает, что предлагает реальные клинические преимущества и даже получила статус инновационного устройства FDA за своих AI-собеседников. А Woebot — еще один известный AI-терапевт, который сейчас закрывается из-за проблем с конкурентоспособностью и соблюдением требований в отрасли — также поделился данными и отчетами о том, как технология может реально помочь пользователям.

Не все так плохо

Недавние исследования с новыми данными предполагают, что чат-боты могут снизить симптомы депрессии и стресса. Согласно данным, представленным приложением Earkick — как сообщает TIME — люди, которые используют AI-модели в течение 5 месяцев, могут снизить свою тревогу на 32%, и 34% пользователей сообщают о улучшении настроения.

В недавнем видео, опубликованном BBC World Service, журналистка Джордан Данбар объясняет, что многие модели ИИ могут на самом деле быть полезными для ведения дневника, управления тревогой, самоанализа и даже лёгкой депрессии. Они могут служить ценной первой линией поддержки, когда нет доступа к лучшим альтернативам.

Репортер Келли Нг также поделилась убедительной информацией: в исследовании 2022 года, из миллиона человек в Китае, только 20 имели доступ к услугам по психическому здоровью. В азиатских культурах, психическое здоровье может быть сложной и часто табуизированной темой. Инструменты ИИ, такие как DeepSeek, могут служить дискретными союзниками, помогая пользователям управлять эмоциями и находить поддержку в трудные времена.

Эксперты предупреждают о использовании чат-ботов в качестве терапевтов

Конечно, использование ИИ в качестве замены специалисту по психическому здоровью также может быть чрезвычайно опасным. Платформы ИИ, такие как Character.AI, были обвинены в поддержке самоповреждения и насилия — и даже в подвергании детей сексуальному контенту.

Трагические случаи, такие как 14-летний ребенок, который покончил с собой после того, как стал зависим от общения со своим чат-ботом Character.AI, являются гримасной предупреждающей знаком о глубоких рисках, которые эта технология может представлять для людей.

В ответ на это, многие компании, работающие в области искусственного интеллекта, решили внедрить системы проверки возраста, чтобы ограничить использование взрослыми, и ввели новые меры безопасности для улучшения предоставляемых услуг.

Тем не менее, даже последние обновления самых продвинутых чат-ботов несут в себе риск.

Подхалимническая — чересчур лестная — личность ChatGPT вызвала опасения среди профессионалов в области психического здоровья, поскольку она может искажать восприятие пользователей реальности. Всем нам нравится, когда с нами соглашаются, но иногда честность и другая точка зрения гораздо ценнее.

Тревожные советы, которые время от времени даёт AI-чатбот от OpenAI, способствовали возникновению нового явления, теперь известного среди экспертов по психическому здоровью как «Психоз, вызванный ChatGPT«, который приводит пользователей к обсессивной фиксации на этом инструменте и социальной изоляции в результате.

Так, можно ли заменить терапевтов чатботами?

Несмотря на то, что Марк Цукерберг хочет, чтобы все использовали AI-чатботов в качестве терапевтов и друзей, правда в том, что человеческое взаимодействие, особенно в вопросах психического здоровья, может быть более необходимым, чем он думает, — по крайней мере, на данный момент.

Мы находимся в ключевой момент истории ИИ и его отношений с нашим психическим здоровьем. Как и люди, терапевты-ИИ могут оказывать как позитивное, так и негативное влияние. В этом случае, также важен контекст, частота использования, психическое состояние пользователя, и даже то, как сформулирован запрос.

Сложно установить общее правило, но то, что мы можем сказать на данный момент, — есть определенные функции, для которых ИИ может быть более полезен, чем для других.

Даже если они не являются специализированными инструментами, такими как Wysa, бесплатные версии некоторых чат-ботов, например, DeepSeek или ChatGPT, все равно могут быть невероятно полезными для миллионов людей по всему миру. От преодоления трудного момента до размышлений о личных целях, это мощные платформы, которые могут отвечать в любое время суток и обладают широкой базой знаний о психическом здоровье.

В то же время, очевидно, что терапевтические чат-боты в некоторых случаях могут быть чрезвычайно опасны. Родители должны контролировать детей и подростков, и даже взрослые могут впасть в навязчивое поведение или ухудшить свое состояние. Базовые принципы, такие как поощрение человеческого общения и защита уязвимых лиц от манипулирования этой технологией, должны быть частью нашего обсуждения вокруг терапевтических чат-ботов.

И хотя это все еще может быть привилегией — недоступной для всех, кто нуждается в эмоциональной поддержке — профессиональный психотерапевт продолжает проходить дополнительное обучение, понимать больше контекста и предлагать человеческое общение, которое ChatGPT, возможно, никогда не сможет воспроизвести.

Понравилась статья? Поставьте оценку!
Ужасно Удовлетворительно Хорошо Очень хорошо! Превосходно!

Мы рады, что вам понравилась наша статья!

Дорогой читатель, не могли бы вы оставить отзыв о нас на сайте Trustpilot? Это не займет у вас много времени, но очень важно для нас. Спасибо, наш замечательный читатель!

Оценить нас на Trustpilot
0 Проголосовало 0 пользователей
Заголовок
Комментарий
Спасибо за ваш отзыв