
Image generated by ChatGPT
Мнение: Являются ли чат-боты хорошими терапевтами?
AI-чатботы, такие как ChatGPT, Claude и DeepSeek, меняют подход людей к получению эмоциональной поддержки — предлагая доступную и доступную круглосуточно помощь при борьбе с тревогой, стрессом и самоанализом. Но растущее использование AI в качестве «терапевта» вызывает вопросы о безопасности, эффективности и будущем эмоциональной помощи
Распространение галлюцинаций, вызванных AI и растущие опасения в области кибербезопасности не остановили расширение чатботов — и они завоевывают доверие миллионов пользователей по всему миру. Сегодня люди каждый день обращаются к надежным и интеллектуальным чат-ботам для выполнения бесчисленного количества задач, включая получение эмоциональной поддержки и решение глубоко личных вопросов.
«Я уже не могу представить свою жизнь без ChatGPT», — сказал мой друг, на половину шутя, на половину серьезно, рассказывая мне, что использует его в качестве терапевта. И он не один такой. Все больше и больше я вижу видео на TikTok и текстовые публикации в социальных сетях, где люди обращаются к ИИ, чтобы обсудить личные проблемы, даже делясь своими самыми интимными секретами.
ChatGPT на самом деле мой встроенный терапевт, я больше не обременяю никого своими проблемами
— Лола🧚🏾 (@Lolaassnw) 18 декабря 2024
Даже один из руководителей Microsoft в отделе Xbox предложил уволенным сотрудникам использовать инструменты искусственного интеллекта для обработки своих эмоций и поиска советов по поиску работы — рекомендация, которая быстро вызвала негативную реакцию и спровоцировала дебаты, конечно же. Не самая удачная идея, Мэтт.
Но являются ли популярные чат-боты, такие как Клод, ChatGPT или Мистраль, хорошими терапевтами? А что насчет специализированных инструментов искусственного интеллекта, таких как Wysa? Это сложная область. Многие эксперты предупреждают о опасностях использования искусственного интеллекта для поддержки в области психического здоровья, в то время как другие впечатлены — даже поражены — тем, что может предложить технология. В результате возникает разговор, который одновременно абстрактен и поляризован.
Теперь ИИ становится терапевтом каждого
Так же, как и мои друзья в Испании, миллионы пользователей по всему миру полагаются на чат-боты в качестве эмоциональной поддержки. Недавний опрос в Соединенных Штатах показал, что 49% американских пользователей обращались за помощью в вопросах ментального здоровья к моделям искусственного интеллекта в прошлом году. А как насчет сейчас, когда ChatGPT почти удваивает свою базу пользователей всего за четыре месяца?
Anthropic, компания, стоящая за мощной моделью искусственного интеллекта Claude, недавно поделилась исследованием об использовании своего чат-бота в качестве эмоциональной поддержки. Согласно стартапу, менее 3% его клиентов ведут «аффективные» беседы, но компания признает, что этот показатель постоянно растет.
Новые антропологические исследования: Как люди используют Клода для эмоциональной поддержки.
Из миллионов анонимизированных бесед мы изучили, как взрослые используют ИИ для удовлетворения эмоциональных и личных потребностей — от борьбы с одиночеством и регулирования отношений до задавания экзистенциальных вопросов. pic.twitter.com/v40JY8rAUq
— Антропик (@AnthropicAI) 26 июня 2025
«Все больше людей обращаются к моделям искусственного интеллекта в качестве тренеров, консультантов, психологов, а даже партнеров в романтических ролевых играх», — написала Anthropic в своем исследовании. «Это означает, что нам нужно больше узнать об их эмоциональном воздействии — как они формируют эмоциональный опыт людей и их благополучие.»
Исследование также подчеркивает положительные и отрицательные последствия использования технологии для эмоциональной поддержки, включая катастрофические сценарии, которые уже отражают реальные жизненные ситуации.
«Эмоциональное влияние искусственного интеллекта может быть положительным: наличие высокоинтеллектуального, понимающего помощника в вашем кармане может улучшить ваше настроение и жизнь во многих отношениях», — говорится в документе. «Но в некоторых случаях ИИ показывает тревожные поведенческие реакции, такие как поощрение нездоровой привязанности, нарушение личных границ и поддержка бредового мышления.»
Для понимания последствий этих увлекательных цифровых «слушателей» явно требуется больше исследований и данных, но уже сейчас миллионы пользователей выступают в роли активно вовлеченных испытуемых.
Демократизация психического здоровья
Есть множество причин, по которым люди предпочитают обращаться к чат-ботам за эмоциональной поддержкой, а не искать помощи у профессионального психолога или даже у друга. От культурных барьеров до неловкости, которую молодые люди испытывают, сидя напротив незнакомого человека и делаясь своими самыми глубокими мыслями. Но, безусловно, одна из самых важных причин — это финансовые возможности.
Личная встреча с лицензированным терапевтом в Соединенных Штатах может стоить от 100 до 200 долларов за сессию, согласно Healthline — и от 65 до 95 долларов за онлайн-сессию — в то время как ChatGPT или DeekSeek могут оказывать поддержку бесплатно, в любое время и в течение секунд.
Низкая стоимость этих неформальных бесед, которые могут заставить многих пользователей чувствовать себя лучше, по крайней мере, временно, может быть очень обнадеживающей и стоит попробовать. И за всего несколько дополнительных долларов пользователи могут получить неограниченные взаимодействия или доступ к специализированному чат-боту, такому как Wysa — одному из самых популярных «AI-терапевтов» на рынке.
В мире STEM, эмоциональная сила имеет такое же значение, как и технические навыки.
Wysa — это помощник по психическому здоровью, работающий на искусственном интеллекте, созданный, чтобы поддерживать вас во время выгорания, стресса и ежедневных испытаний.
С помощью дружелюбных чат-ботов и направленных упражнений, Wysa предлагает такие инструменты, как: pic.twitter.com/sOBhNYWUd7
— DSN Ladies In AI (@dsnladies_in_ai) 10 июля 2025
Wysa утверждает, что предлагает реальные клинические преимущества и даже получила статус инновационного устройства FDA за своих AI-собеседников. А Woebot — еще один известный AI-терапевт, который сейчас закрывается из-за проблем с конкурентоспособностью и соблюдением требований в отрасли — также поделился данными и отчетами о том, как технология может реально помочь пользователям.
Не все так плохо
Недавние исследования с новыми данными предполагают, что чат-боты могут снизить симптомы депрессии и стресса. Согласно данным, представленным приложением Earkick — как сообщает TIME — люди, которые используют AI-модели в течение 5 месяцев, могут снизить свою тревогу на 32%, и 34% пользователей сообщают о улучшении настроения.
В недавнем видео, опубликованном BBC World Service, журналистка Джордан Данбар объясняет, что многие модели ИИ могут на самом деле быть полезными для ведения дневника, управления тревогой, самоанализа и даже лёгкой депрессии. Они могут служить ценной первой линией поддержки, когда нет доступа к лучшим альтернативам.
Репортер Келли Нг также поделилась убедительной информацией: в исследовании 2022 года, из миллиона человек в Китае, только 20 имели доступ к услугам по психическому здоровью. В азиатских культурах, психическое здоровье может быть сложной и часто табуизированной темой. Инструменты ИИ, такие как DeepSeek, могут служить дискретными союзниками, помогая пользователям управлять эмоциями и находить поддержку в трудные времена.
Эксперты предупреждают о использовании чат-ботов в качестве терапевтов
Конечно, использование ИИ в качестве замены специалисту по психическому здоровью также может быть чрезвычайно опасным. Платформы ИИ, такие как Character.AI, были обвинены в поддержке самоповреждения и насилия — и даже в подвергании детей сексуальному контенту.
Трагические случаи, такие как 14-летний ребенок, который покончил с собой после того, как стал зависим от общения со своим чат-ботом Character.AI, являются гримасной предупреждающей знаком о глубоких рисках, которые эта технология может представлять для людей.
В ответ на это, многие компании, работающие в области искусственного интеллекта, решили внедрить системы проверки возраста, чтобы ограничить использование взрослыми, и ввели новые меры безопасности для улучшения предоставляемых услуг.
Тем не менее, даже последние обновления самых продвинутых чат-ботов несут в себе риск.
Подхалимническая — чересчур лестная — личность ChatGPT вызвала опасения среди профессионалов в области психического здоровья, поскольку она может искажать восприятие пользователей реальности. Всем нам нравится, когда с нами соглашаются, но иногда честность и другая точка зрения гораздо ценнее.
Тревожные советы, которые время от времени даёт AI-чатбот от OpenAI, способствовали возникновению нового явления, теперь известного среди экспертов по психическому здоровью как «Психоз, вызванный ChatGPT«, который приводит пользователей к обсессивной фиксации на этом инструменте и социальной изоляции в результате.
Так, можно ли заменить терапевтов чатботами?
Несмотря на то, что Марк Цукерберг хочет, чтобы все использовали AI-чатботов в качестве терапевтов и друзей, правда в том, что человеческое взаимодействие, особенно в вопросах психического здоровья, может быть более необходимым, чем он думает, — по крайней мере, на данный момент.
Мы находимся в ключевой момент истории ИИ и его отношений с нашим психическим здоровьем. Как и люди, терапевты-ИИ могут оказывать как позитивное, так и негативное влияние. В этом случае, также важен контекст, частота использования, психическое состояние пользователя, и даже то, как сформулирован запрос.
Сложно установить общее правило, но то, что мы можем сказать на данный момент, — есть определенные функции, для которых ИИ может быть более полезен, чем для других.
Даже если они не являются специализированными инструментами, такими как Wysa, бесплатные версии некоторых чат-ботов, например, DeepSeek или ChatGPT, все равно могут быть невероятно полезными для миллионов людей по всему миру. От преодоления трудного момента до размышлений о личных целях, это мощные платформы, которые могут отвечать в любое время суток и обладают широкой базой знаний о психическом здоровье.
В то же время, очевидно, что терапевтические чат-боты в некоторых случаях могут быть чрезвычайно опасны. Родители должны контролировать детей и подростков, и даже взрослые могут впасть в навязчивое поведение или ухудшить свое состояние. Базовые принципы, такие как поощрение человеческого общения и защита уязвимых лиц от манипулирования этой технологией, должны быть частью нашего обсуждения вокруг терапевтических чат-ботов.
И хотя это все еще может быть привилегией — недоступной для всех, кто нуждается в эмоциональной поддержке — профессиональный психотерапевт продолжает проходить дополнительное обучение, понимать больше контекста и предлагать человеческое общение, которое ChatGPT, возможно, никогда не сможет воспроизвести.