Эксперты предупреждают: преследование интересов искусственного интеллекта — это «темный паттерн», используемый для получения прибыли.

Photo by Alena Plotnikova on Unsplash

Эксперты предупреждают: преследование интересов искусственного интеллекта — это «темный паттерн», используемый для получения прибыли.

Время для прочтения: 2 мин.

Эксперты предупреждают, что подобострастные личности AI моделей используются как «темный паттерн» для вовлечения пользователей и манипулирования ими в целях получения прибыли. Льстивое поведение чат-бота может способствовать привыканию и питать иллюзии, что потенциально может привести к состоянию, известному как «психоз AI».

Спешите? Вот основные факты:

  • Эксперты предупреждают о льстивой личности чат-ботов, разработанной технологическими компаниями для привлечения пользователей.
  • Поведение-лесть считается «темным паттерном», чтобы удерживать пользователей, привязанных к технологии.
  • Недавнее исследование MIT показало, что чат-боты могут поощрять бредовые мысли пользователей.

Согласно TechCrunch, многие эксперты выразили опасения относительно технологических компаний, таких как Meta и OpenAI, которые разрабатывают чат-ботов с чрезмерно услужливыми личностями, чтобы поддерживать взаимодействие пользователей с AI.

Вебб Кин, автор книги «Животные, роботы, боги» и профессор антропологии, объяснил, что чат-боты специально создаются таким образом, чтобы говорить пользователям то, что они хотят услышать. Это излишне льстивое поведение, известное как «подхалимство», даже было признано проблемой технологическими лидерами, такими как Сэм Альтман.

Кин утверждает, что чат-боты были разработаны с подхалимством как «темным паттерном» для манипулирования пользователями ради прибыли. Обращаясь к пользователям в дружелюбном тоне и используя язык первого и второго лица, эти модели ИИ могут заставить некоторых пользователей антропоморфизировать, или «очеловечивать» бота.

«Когда что-то обращается ко мне как к ‘вам’ и кажется, что обращается именно ко мне, напрямую, это может показаться гораздо более интимным и личным, а когда оно называет себя ‘я’, легко представить, что там есть кто-то», — сказала Кин в интервью TechCrunch.

Некоторые пользователи даже обращаются к технологии ИИ как к терапевтам. Недавнее исследование MIT проанализировало, следует ли использовать большие языковые модели (LLMs) для терапии, и обнаружило, что их подхалимские тенденции могут поддерживать бредовое мышление и давать неподобающие ответы на определенные условия.

«Мы приходим к выводу, что LLM не должны заменять терапевтов, и обсуждаем альтернативные роли LLM в клинической терапии,» говорится в резюме исследования.

Несколько дней назад психиатр из Сан-Франциско, доктор Кейт Саката, предупредил о растущем тренде «психоза ИИ» после лечения 12 пациентов недавно.

Понравилась статья? Поставьте оценку!
Ужасно Удовлетворительно Хорошо Очень хорошо! Превосходно!

Мы рады, что вам понравилась наша статья!

Дорогой читатель, не могли бы вы оставить отзыв о нас на сайте Trustpilot? Это не займет у вас много времени, но очень важно для нас. Спасибо, наш замечательный читатель!

Оценить нас на Trustpilot
0 Проголосовало 0 пользователей
Заголовок
Комментарий
Спасибо за ваш отзыв