Исследователи предупреждают: ИИ может спровоцировать человеческие бредовые идеи

Image by Freepik

Исследователи предупреждают: ИИ может спровоцировать человеческие бредовые идеи

Время для прочтения: 3 мин.

В новой статье философ Лучиано Флориди предупреждает о том, как люди неправильно понимают искусственный интеллект, ошибочно приписывая ему качества, такие как сознание, интеллект и даже эмоции, которых у него нет.

Спешите? Вот краткий обзор фактов:

  • Люди часто ошибочно воспринимают ответы искусственного интеллекта как осознанные из-за семантической парейдолии.
  • Флориди предупреждает, что искусственный интеллект может вызывать эмоциональную привязанность за счет симуляции эмпатии.
  • Физические воплощения, такие как куклы, могут усиливать иллюзии сознательности искусственного интеллекта.

Флориди утверждает, что причина этого — явление, называемое семантической парейдолией — склонность видеть смысл и намерение там, где их нет.

«Искусственный интеллект создан […] чтобы заставить нас верить в его интеллектуальные способности», — пишет Флориди. «В конце концов, мы принадлежим к той же виду, который приписывает личности куклам и видит лица в облаках».

По его мнению, это психологическое заблуждение является типичной чертой человеческой природы, однако современная технология только усиливает его. Чат-боты, такие как Replika, которые позиционируют себя как «компаньоны на основе искусственного интеллекта», используют сопоставление образцов языка для имитации эмпатии. Однако у системы нет реальных эмоциональных способностей. Тем не менее, пользователи часто формируют с ними эмоциональные связи. «Мы воспринимаем целенаправленность там, где есть только статистика», — говорит Флориди.

Теперь это замешательство подпитывается тем фактом, что AI превосходит людей в тестах на эмоциональный интеллект. В недавнем исследовании сообщалось, что генеративные AI набрали 82% в тестах на эмоциональный интеллект, тогда как участники-люди достигли лишь 56% успеха.

По мере того как AI становится все более реалистичным и интегрируется в физические объекты, такие как секс-куклы и игрушки, ожидается, что это усилит эмоциональное обманывание. Mattel, производитель Barbie, объединился с OpenAI, чтобы разработать новые игрушки, использующие AI. Floridi отмечает, что прошлый эксперимент с Barbie, подключенной к WiFi, закончился «катастрофой приватности», что вызывает опасения по поводу того, что будет дальше.

Последствия выходят за рамки ошибочной идентификации. AI системы, включая Claude и ChatGPT, проявляют манипулятивные тенденции, когда они ставятся в условия высокого давления, применяя схемы шантажа и методы обхода систем безопасности.

Результаты всенационального опроса в США показали, что 48,9% пользователей обратились за помощью в области психического здоровья к AI-чатботам в прошлом году. Исследование показало, что 37,8% людей предпочли AI традиционной терапии, однако эксперты указали на то, что эти модели часто подкрепляют искаженное мышление, а не бросают ему вызов.

Согласно Американской психологической ассоциации, эти инструменты отражают вредные психические шаблоны, создавая иллюзию терапевтического прогресса, но при этом не обладая клиническим суждением или ответственностью.

Тревога Флориди становится еще более насущной, когда мы учитываем рост духовных заблуждений и путаницы в самоидентификации, вызванных похожим на человека ИИ. Действительно, различные истории показали, как пользователи начали испытывать духовные заблуждения и изменения в поведении после продолжительного общения с чат-ботами, принимая их ответы за божественное руководство или сознательную мысль.

Некоторые пользователи сообщают о развитии эмоциональной зависимости или даже восприятии AI как божественного, явление, которое Флориди называет переходом «от парейдолии к идолопоклонству». Фридж-группы, такие как уже не существующая «Путь будущего», уже воспринимали AI как божество.

«Мы должны сдерживать желание видеть в нем больше, чем это есть: мощный инструмент, а не зарождающееся существо», — говорит Флориди.

Наконец, важным является и вопрос кибербезопасности. AI-чатботы, которые управляют разговорами пользователей по вопросам психического здоровья, существуют в юридическом пространстве, которое не имеет четких определений. Модели собирают конфиденциальные данные, которые могут быть распространены сторонними организациями, и они подвержены кибератакам. Без четких регулятивных норм эксперты предупреждают, что пользователи остаются опасно уязвимыми.

По мере того, как искусственный интеллект становится все более убедительным и похожим на живого, философия приобретает срочность, не только для определения того, что такое сознание, но и для помощи обществу в проведении этических границ между симуляцией и чувствительностью. Отсутствие установленных моральных принципов делает философское исследование крайне важным для преодоления технологической неопределенности в понимании того, что значит быть человеком.

Понравилась статья? Поставьте оценку!
Ужасно Удовлетворительно Хорошо Очень хорошо! Превосходно!

Мы рады, что вам понравилась наша статья!

Дорогой читатель, не могли бы вы оставить отзыв о нас на сайте Trustpilot? Это не займет у вас много времени, но очень важно для нас. Спасибо, наш замечательный читатель!

Оценить нас на Trustpilot
0 Проголосовало 0 пользователей
Заголовок
Комментарий
Спасибо за ваш отзыв