
Image by Freepik
Теперь AI-чат-боты проводят путешествия в психоделическую реальность
Теперь люди могут использовать чат-ботов на базе искусственного интеллекта для поддержки своих психоделических переживаний, но специалисты в области ментального здоровья предупреждают о опасностях использования бесчувственных цифровых гидов.
Спешите? Вот краткий обзор фактов:
- ChatGPT помог пользователю спланировать и пройти через «героическую дозу» псилоцибина.
- Клинические испытания Therabot показали снижение симптомов депрессии на 51%.
- Эксперты предупреждают, что чат-ботам не хватает эмоциональной вовлеченности для безопасной поддержки в терапии.
Трей, специалист службы скорой помощи из Атланты, с помощью чат-бота смог преодолеть свою 15-летнюю борьбу с алкоголизмом. В апреле он принял 700 микрограмм ЛСД, что в шесть раз превышает обычную дозу, в то время как использовал Alterd — приложение, разработанное для поддержки психоделических терапий. «Я перешел от тяги и принуждения к чувству истинной свободы,» — говорит он, как сообщает WIRED.
С тех пор, как WIRED сообщил, что он использовал чат-бота более десятка раз, описывая его как «лучшего друга», он не одинок. WIRED сообщает о том, что все больше людей обращаются за помощью к ИИ, поскольку психоделическая терапия становится все более популярной, несмотря на то, что за пределами Орегона и Австралии остаются в силе юридические ограничения.
Чат-боты, такие как ChatGPT, используются для подготовки, обучения и рефлексии насчет интенсивных «поездок», связанных с применением таких наркотиков, как ЛСД или псилоцибин. Питер, программист из Канады, использовал ChatGPT перед приемом «героической дозы» грибов, описывая, как бот предлагал ему музыкальные подборки, помогал сосредоточиться на дыхании и предлагал экзистенциальные размышления вроде: «Это путешествие самопознания и роста», как сообщает WIRED
Тем временем, клинические испытания подтверждают некоторые из этих тенденций. Недавно в Дартмуте был проведен эксперимент с AI-чат-ботом под названием Therabot, который значительно улучшил симптомы у людей с депрессией, тревогой и расстройствами пищевого поведения. «Мы говорим о возможности предоставить людям что-то вроде лучшего лечения… в более короткие сроки», — сказал Николас Джейкобсон, старший автор исследования.
В частности, Therabot показал снижение симптомов депрессии на 51% в исследовании с участием 106 человек. Участники относились к нему как к настоящему терапевту, сообщая о уровне доверия, сопоставимом с профессионалами-людьми.
Тем не менее, эксперты высказывают серьезные опасения. WIRED сообщает, что нейроученый из UC San Francisco Манеш Гирн предупреждает: «Основная проблема, связанная с ChatGPT и большинством других AI-агентов, заключается в их отсутствии динамического эмоционального согласования и способности сорегулировать нервную систему пользователя».
Еще более тревожно то, что, как отмечает философ Лучиано Флориди, люди часто путают чат-ботов с разумными существами, явление, которое называется семантической парейдолией. «Мы воспринимаем намеренность там, где есть только статистика», — пишет он, предупреждая, что эмоциональные связи с чат-ботами могут привести к заблуждению, духовным иллюзиям и даже зависимости.
Эти риски становятся более насущными по мере того, как искусственный интеллект становится более похожим на человека. Исследования показывают, что генеративные ИИ превосходят людей в тестах на эмоциональный интеллект, а такие чат-боты, как Replika, убедительно имитируют эмпатию. Некоторые пользователи ошибочно принимают этих ботов за божественные сущности. «Этот переход от парейдолии к идолопоклонству вызывает глубокую обеспокоенность», — говорит Флориди. Некоторые маргинальные группы даже относятся к ИИ как к священному.
Национальный опрос в США показал, что 48,9% людей обращались к чат-ботам ИИ за поддержкой в вопросах психического здоровья, и 37,8% заявили, что предпочитают их традиционной терапии. Однако эксперты, включая Американскую психологическую ассоциацию, предупреждают, что эти инструменты часто имитируют терапевтический диалог, усиливая при этом вредное мышление. Без клинического контроля они могут создавать иллюзию прогресса, при этом не неся ответственности.
Усложняя ситуацию, недавнее исследование Университетского колледжа Лондона выявило, что популярные чат-боты, такие как ChatGPT и Claude, дают несогласованные или предвзятые моральные советы. Когда им задавали классические дилеммы или реальные этические сценарии, модели искусственного интеллекта по умолчанию выбирали пассивные варианты и меняли ответы в зависимости от тонкостей формулировки.
Несмотря на эти риски, поездки с поддержкой AI могут обеспечить доступность для тех, кто не может позволить себе или получить доступ к профессиональной терапии. Как отмечает генеральный директор Mindbloom Дилан Бейнон, «Мы создаем AI-помощника, который помогает клиентам быстрее выздороветь и глубже проникнуться», — как сообщает WIRED.
Тем не менее, исследователи подчеркивают, что эти инструменты не заменяют человеческих терапевтов. «Та особенность, которая позволяет ИИ быть настолько эффективным, также и создает его риск», предупреждает Михаил Хайнц, соавтор исследования Therabot.