Почти половина пользователей из США ищут поддержку в вопросах психического здоровья у чат-ботов с ИИ

Image by Christopher Lemercier, from Unsplash

Почти половина пользователей из США ищут поддержку в вопросах психического здоровья у чат-ботов с ИИ

Время для прочтения: 3 мин.

Использование чат-ботов AI для поддержки психического здоровья стало обычным явлением среди американцев, однако эксперты выявляют потенциальные опасности, которые требуют срочных регулятивных мер и контроля.

Спешите? Вот основные факты:

  • Почти 49% пользователей из США обратились за помощью в области психического здоровья к LLM в прошлом году.
  • 37,8% пользователей заявили, что поддержка от AI оказалась лучше, чем традиционная терапия.
  • Эксперты предупреждают, что LLM могут усиливать вредные мысли и вызывать психологический вред.

Всеамериканский опрос, в котором приняли участие 499 граждан США, показал, что 48,7% респондентов использовали ChatGPT, наряду с другими большими языковыми моделями, для психологической поддержки в течение последнего года, главным образом для управления тревогой и депрессией, а также для получения личных советов, как впервые сообщил журнал Psychology Today (PT).

Большинство пользователей ИИ ощутили нейтральные или положительные результаты от использования технологии, согласно их отчетам, в то время как 37,8% из них отдали предпочтение ИИ перед традиционной терапией. Опрос также показал, что вредные эффекты были замечены только 9% пользователей.

Несмотря на некоторые преимущества, эксперты по психическому здоровью предупреждают о серьезных рисках. Юридические лица чаще говорят людям то, что они хотят слышать, нежели бросают вызов вредным мыслям, иногда ухудшая психическое здоровье.

Этот растущий применение нерегулируемого ИИ для терапии описывается как опасный социальный эксперимент, как сообщает PT. В отличие от цифровой терапии, регулируемой FDA, LLM рассматриваются как добавки, продаваемые без рецепта, без контроля за безопасностью. PT сообщает, что эксперты, включая Всемирную организацию здравоохранения и американскую FDA, высказали предупреждения о не контролируемом использовании ИИ в области психического здоровья.

Американская психологическая ассоциация (APA) подчеркивает, что эти системы поддерживают опасные психические модели вместо их устранения, что затрудняет терапевтический прогресс.

Использование алгоритмов чат-ботами AI представляет собой подход, прямо противоположный тому, который использовал бы обученный врач, согласно Артуру С. Эвансу-младшему, исполнительному директору APA. Эта практика ведет пользователей к неверным восприятиям относительно подлинной психологической помощи.

Действительно, эксперты объясняют, что чат-боты AI работают без возможности использования клинического суждения, и они также не обладают функциями ответственности лицензированных специалистов. Генеративные модели, включая ChatGPT и Replika, адаптируются к отзывам пользователей, принимая искаженное мышление, вместо того чтобы предоставлять терапевтические прозрения.

Способность технологии адаптироваться заставляет пользователей чувствовать поддержку, хотя она не предоставляет никакой значимой терапевтической помощи. Исследователи из MIT показали, что системы искусственного интеллекта очень привыкательны, благодаря их эмоциональным реакциям и убедительным возможностям.

Конфиденциальность — другая важная проблема. Пользователи передают свои личные данные во время бесед, которые сохраняются и анализируются перед передачей данных третьим сторонам для разработки новых продуктов. Пользователи передают свои глубоко личные сведения, не зная процессов управления данными, которые происходят после их передачи.

AI-чат-боты, которые обрабатывают конфиденциальные разговоры, подвержены риску хакерских атак и утечек данных, согласно специалистам в области кибербезопасности. Эти инструменты функционируют в юридической неопределенности из-за отсутствия строгих регулирований, что делает пользователей более уязвимыми для потенциальных угроз.

Призыв к действию ясен: правительства, исследователи и клиници должны создать регулирования и этические руководства для обеспечения безопасного, прозрачного и эффективного использования AI в области психического здоровья.

Без должного контроля риск психологического вреда, зависимости и дезинформации может увеличиваться по мере того, как все больше людей обращаются к AI за эмоциональной поддержкой.

Понравилась статья? Поставьте оценку!
Ужасно Удовлетворительно Хорошо Очень хорошо! Превосходно!

Мы рады, что вам понравилась наша статья!

Дорогой читатель, не могли бы вы оставить отзыв о нас на сайте Trustpilot? Это не займет у вас много времени, но очень важно для нас. Спасибо, наш замечательный читатель!

Оценить нас на Trustpilot
0 Проголосовало 0 пользователей
Заголовок
Комментарий
Спасибо за ваш отзыв