
Image by Dr. Frank Gaeth, from Wikimedia Commons
Шведский премьер-министр подвергся критике за использование ChatGPT в принятии государственных решений
Шведский премьер-министр Ульф Кристерссон столкнулся с критикой после того, как признался в использовании ChatGPT для генерации идей для государственных решений.
Спешите? Вот краткие факты:
- Шведский премьер-министр признает использование ChatGPT для принятия политических решений.
- Его представитель утверждает, что с инструментами AI не делится никакой конфиденциальной информацией.
- Критики заявляют, что использование AI в правительстве опасно и недемократично.
Шведский премьер-министр Ульф Кристерссон сталкивается с растущим общественным недовольством после того, как он раскрыл свою практику использования ChatGPT и LeChat для помощи в официальном процессе принятия решений.
«Я сама часто пользуюсь этим. Если не ради чего-то еще, то хотя бы для того, чтобы получить второе мнение», — сказала Кристерссон, как сообщает The Guardian. «Что сделали другие? И должны ли мы думать совершенно наоборот? Вот такие вопросы.»
Ее заявление вызвало обратную реакцию, Aftonbladet обвинил ее в поддержке «психоза ИИ олигархов», как сообщает The Guardian. Критики утверждают, что использование ИИ для политического суждения является как безрассудным, так и недемократичным.
«Мы должны требовать гарантий надежности. Мы не голосовали за ChatGPT», — сказала Вирджиния Дигнум, профессор ответственного использования искусственного интеллекта в Умео Университете.
Пресс-секретарь Кристерссона, Том Самуэльсон, преуменьшил значение контрверсии, заявив: «Естественно, там не попадает информация, чувствительная к безопасности. Это используется скорее как ориентир», как сообщает The Guardian.
Но технические эксперты говорят, что риски выходят за рамки чувствительности данных. Профессор Карлстадского университета Симона Фишер-Хюбнер советует не использовать ChatGPT и подобные инструменты для официальных рабочих задач, как отмечает The Guardian.
Исследователь в области искусственного интеллекта Дэвид Бау предупреждает, что модели ИИ могут быть манипулированы. «Они показали способ, как люди могут незаметно внедрять свои скрытые повестки дня в обучающие данные, которые очень трудно обнаружить.» Исследования показывают 95%-ный успех в введении в заблуждение систем ИИ с использованием инъекций памяти или атак «Rules File Backdoor«, что вызывает опасения по поводу невидимого вмешательства в политическое принятие решений.
Дополнительные риски связаны с потенциалом ИИ подорвать демократию. Недавнее исследование предупреждает, что системы искусственного интеллекта в правоохранительных органах концентрируют власть, уменьшают контроль и могут способствовать распространению авторитаризма.