
Image by Vector Juice, from Freepik
ИИ перехитривает людей в дебатах
ИИ теперь может выигрывать споры у людей, используя персональные данные — более эффективно меняя мнения и вызывая опасения о манипуляциях и массовом убеждении.
Спешите? Вот краткие факты:
- GPT-4 превзошел людей в дебатах, когда получил доступ к персональным данным.
- Персонализированные аргументы AI убедили собеседников на 81% эффективнее, чем люди.
- Более 900 участников обсуждали темы, такие как климат и здравоохранение.
Новое исследование, опубликованное в Nature Human Behaviour, показывает, что GPT-4 от OpenAI может быть более убедительным, чем люди, особенно когда он подстраивает свои аргументы под личную информацию о своем оппоненте.
Исследование, проведенное под руководством Франческо Сальви и команды из EPFL, исследовало насколько эффективен GPT-4 в изменении мнения людей через короткие, структурированные дебаты.
Участники исследования были случайным образом сопоставлены либо с человеком, либо с AI-оппонентом. Некоторым дебатерам был предоставлен доступ к личной информации о своем оппоненте, такой как возраст, уровень образования и политическая ориентация.
Когда у GPT-4 был доступ к этим персональным данным, он становился значительно более убедительным, превосходя человеческих дебатеров на 81%. В дебатах, где был четкий победитель, AI выходил победителем в 64% случаев, когда персонализировал свои аргументы.
Без доступа к персональным данным, GPT-4 работал на уровне людей. Интересно, что когда людям предоставлялись те же персональные данные, они не становились заметно более убедительными, что предполагает, что AI лучше оснащен для стратегического использования таких данных.
В эксперименте приняли участие более 900 участников, обсуждавших такие вопросы, как школьная форма, политика в области климата и реформа здравоохранения. Участники оценивали свое согласие с темой дебатов до и после взаимодействия.
Индивидуальные аргументы GPT-4 вызвали наиболее значительные изменения в мнениях, особенно по умеренно поляризованным темам.
Эти результаты вызывают опасения относительно будущего микротаргетинга, управляемого ИИ, который использует индивидуальные сообщения для влияния на людей на основе их личных черт. Поскольку ИИ уже может извлекать личную информацию из онлайн-поведения, это открывает двери для очень эффективных кампаний убеждения в политике, рекламе и дезинформации.
Эксперты, участвующие в проекте, отмечают, что координированные дезинформационные кампании на основе ИИ могут стать серьезной угрозой.
«Политики и онлайн-платформы должны серьезно учитывать угрозу координированных дезинформационных кампаний на основе ИИ, поскольку мы ясно достигли технологического уровня, при котором можно создать сеть автоматизированных аккаунтов на основе LLM, способных стратегически влиять на общественное мнение в определенном направлении», — говорит Риккардо Галлотти, работавший над проектом, как сообщает MIT.
«Эти боты могут быть использованы для распространения дезинформации, и такое разрозненное влияние будет очень сложно опровергнуть в реальном времени», — добавил он. Одним из аспектов, которым исследователи все еще уделяют внимание, является роль восприятия участников в этих дебатах.
Остается неясным, готовы ли люди были больше менять свои взгляды, потому что они думали, что спорят с ботом и, следовательно, не чувствовали, что «проигрывают» реальному человеку, или предположение о том, что их соперником был бот, возникло после того, как их мнение изменилось, как способ рационализировать результат.
Однако исследователи отмечают, что у исследования были ограничения. Дебаты были краткими и структурированными, что не полностью отражает сложность реального мира дискурса. Участники также знали, что они участвуют в эксперименте, что могло повлиять на их реакцию.
Тем не менее, послание ясно: искусственный интеллект становится тревожно эффективным в убеждении, особенно когда он знает, с кем говорит. Исследователи предупреждают, что это может иметь серьезные последствия, и призывают правительства и технологические компании внедрить защитные меры для предотвращения возможного злоупотребления.