Исследование предупреждает: ИИ может усилить поляризацию в социальных сетях
Искусственный интеллект может усилить поляризацию в социальных сетях, предупреждают исследователи и студенты Конкордии, вызывая опасения по поводу свободы слова и распространения ложной информации.
Спешите? Вот краткие факты:
- Алгоритмы ИИ могут распространять разногласия, используя только количество подписчиков и последние сообщения.
- Боты на основе обучения с подкреплением быстро адаптируются для использования уязвимостей социальных медиа.
- Эксперты предупреждают, что платформам грозит либо цензура, либо неконтролируемое манипулирование.
Хотя поляризация в социальных сетях не является новостью, исследователи и студенческие активисты из Университета Конкордия предупреждают, что искусственный интеллект может сильно усугубить эту проблему.
«Вместо того чтобы показывать нам кадры того, что происходит, или материалы журналистов, которые об этом сообщают, мы видим слишком драматизированное искусство ИИ о вещах, которые нам должны быть важны с политической точки зрения […] Это действительно отдаляет людей и убирает ответственность», — сказала Данна Баллантайн, координатор по внешним связям и мобилизации Студенческого Союза Конкордии, как сообщает The Link.
Её опасения подтверждаются новым исследованием из Конкордии, в котором профессор Растко Р. Сельмич и аспирант Мохамед Н. Зарир показали, как боты с обучением с подкреплением могут усиливать разделение в интернете. «Нашей целью было понять, какой порог может иметь искусственный интеллект на поляризацию и социальные сети, и смоделировать это […] чтобы измерить, как может возникнуть эта поляризация и несогласие», — сказал Зарир, как сообщает The Link.
Исследование показывает, что алгоритмам не нужны личные данные, чтобы разжигать разногласия, где базовые сигналы, такие как количество подписчиков и последние публикации, вполне достаточны. «Это беспокоит, потому что, [хоть] это и не простой робот, это все равно алгоритм, который вы можете создать на своем компьютере […] И когда у вас достаточно вычислительной мощности, вы можете оказывать влияние на все больше и больше сетей», — объяснил Зарир The Link.
Это отражает более широкий корпус исследований, показывающих, как обучение с подкреплением может быть использовано как оружие для разделения сообществ. В исследовании Конкордии использовался Double-Deep Q-learning и было продемонстрировано, что враждебные агенты ИИ могут «гибко адаптироваться к изменениям в сети, позволяя ему эффективно эксплуатировать структурные уязвимости и усиливать разногласия среди пользователей», как отмечено в исследовании.
Действительно, двойное глубокое обучение с подкреплением (Double-Deep Q-learning) — это метод ИИ, в котором бот учится выбирать оптимальные действия методом проб и ошибок. Он использует глубокие нейронные сети для решения сложных задач и две оценки стоимости для избежания переоценки наград. В социальных сетях он может стратегически распространять контент, чтобы увеличить поляризацию с минимальными данными.
Зарир предупреждает, что для политиков стоит сложная задача по поддержанию баланса. «Между мониторингом, цензурой и попытками контролировать сеть проходит тонкая грань», — сказал он The Link. Слишком мало контроля позволяет ботам манипулировать разговорами, в то время как слишком большое количество может подавлять свободу слова.
Тем временем, студенты, такие как Баллантайн, боятся, что ИИ стирает живой опыт. «ИИ полностью отменяет это,» — сказала она The Link.