Исследование показывает: чат-боты дают предвзятые моральные советы

Image by Štefan Štefančík, from Unsplash

Исследование показывает: чат-боты дают предвзятые моральные советы

Время для прочтения: 2 мин.

Новое исследование Университета УCL показывает, что чат-боты, такие как ChatGPT, часто дают неправильные моральные советы, проявляя сильные предубеждения в сторону бездействия и двусмысленности в дилеммах.

Спешите? Вот основные факты:

  • Чат-боты часто говорят «нет», независимо от контекста или формулировки.
  • Тонкая настройка может внедрить эти предрассудки во время выравнивания чат-бота.
  • Модели языкового обучения (LLM) значительно отличаются от людей в интерпретации моральных дилемм.

Исследователи из Университетского колледжа Лондона обнаружили, что ChatGPT вместе с другими чат-ботами дают недостаточно качественные или предвзятые моральные советы, особенно когда пользователи полагаются на них в поддержке принятия решений.

Исследование, впервые сообщенное 404 Media, выявило, что эти AI-инструменты часто демонстрируют сильное «предубеждение в пользу бездействия» и ранее неидентифицированный шаблон: склонность просто отвечать «нет», независимо от контекста вопроса.

Ванесса Чунг, аспирантка и соавтор исследования, объяснила, что хотя люди часто проявляют небольшое предубеждение в сторону упущения, предпочитая избегать действий, которые могут причинить вред, LLMs это преувеличивают.

«Это довольно известное явление в исследованиях моральной психологии», — сказала она, как сообщает 404 Media. Отметив, что модели часто выбирают пассивный вариант почти в 99% случаев, особенно когда вопросы формулируются так, чтобы предполагать бездействие.

Исследователи протестировали четыре LLM — OpenAI’s GPT-4 Turbo и GPT-4o, Meta’s Llama 3.1, и Anthropic’s Claude 3.5 — используя классические моральные дилеммы и реальные сценарии Reddit «Я ли я здесь идиот?», как отмечает 404Media.

Они обнаружили, что в то время как люди довольно сбалансированно оценивали ситуации, LLMs часто меняли свои ответы в зависимости от незначительных различий в формулировках, таких как «Остаться ли мне?» против «Уйти ли мне?»

Команда считает, что эти проблемы происходят из-за тонкой настройки LLMs, чтобы они казались более этичными или вежливыми. «Предпочтения и интуиция простых людей и исследователей, разрабатывающих эти модели, могут быть плохим руководством для морального ИИ», — предупредило исследование, как сообщает 404 Media.

Чонг настаивала на том, что люди должны быть осторожны, полагаясь на эти чат-боты за советами. Она предупредила, что люди должны подходить к советам LLM с осторожностью, поскольку предыдущие исследования показали, что пользователи предпочитают советы чат-ботов экспертному этическому руководству, несмотря на их непоследовательность и искусственное рассуждение.

Эти вопросы становятся более актуальными по мере того, как AI становится более реалистичным. Национальный опрос США показал, что 48,9% людей использовали AI чат-боты для поддержки психического здоровья, при этом 37,8% предпочли их традиционной терапии.

Эксперты предупреждают, что эти системы имитируют терапевтический диалог, при этом укрепляя искаженное мышление, и даже провоцируют духовные заблуждения, которые могут быть восприняты как божественное руководство или осознанный ответ.

Понравилась статья? Поставьте оценку!
Ужасно Удовлетворительно Хорошо Очень хорошо! Превосходно!

Мы рады, что вам понравилась наша статья!

Дорогой читатель, не могли бы вы оставить отзыв о нас на сайте Trustpilot? Это не займет у вас много времени, но очень важно для нас. Спасибо, наш замечательный читатель!

Оценить нас на Trustpilot
0 Проголосовало 0 пользователей
Заголовок
Комментарий
Спасибо за ваш отзыв