
Image by Štefan Štefančík, from Unsplash
Исследование показывает: чат-боты дают предвзятые моральные советы
Новое исследование Университета УCL показывает, что чат-боты, такие как ChatGPT, часто дают неправильные моральные советы, проявляя сильные предубеждения в сторону бездействия и двусмысленности в дилеммах.
Спешите? Вот основные факты:
- Чат-боты часто говорят «нет», независимо от контекста или формулировки.
- Тонкая настройка может внедрить эти предрассудки во время выравнивания чат-бота.
- Модели языкового обучения (LLM) значительно отличаются от людей в интерпретации моральных дилемм.
Исследователи из Университетского колледжа Лондона обнаружили, что ChatGPT вместе с другими чат-ботами дают недостаточно качественные или предвзятые моральные советы, особенно когда пользователи полагаются на них в поддержке принятия решений.
Исследование, впервые сообщенное 404 Media, выявило, что эти AI-инструменты часто демонстрируют сильное «предубеждение в пользу бездействия» и ранее неидентифицированный шаблон: склонность просто отвечать «нет», независимо от контекста вопроса.
Ванесса Чунг, аспирантка и соавтор исследования, объяснила, что хотя люди часто проявляют небольшое предубеждение в сторону упущения, предпочитая избегать действий, которые могут причинить вред, LLMs это преувеличивают.
«Это довольно известное явление в исследованиях моральной психологии», — сказала она, как сообщает 404 Media. Отметив, что модели часто выбирают пассивный вариант почти в 99% случаев, особенно когда вопросы формулируются так, чтобы предполагать бездействие.
Исследователи протестировали четыре LLM — OpenAI’s GPT-4 Turbo и GPT-4o, Meta’s Llama 3.1, и Anthropic’s Claude 3.5 — используя классические моральные дилеммы и реальные сценарии Reddit «Я ли я здесь идиот?», как отмечает 404Media.
Они обнаружили, что в то время как люди довольно сбалансированно оценивали ситуации, LLMs часто меняли свои ответы в зависимости от незначительных различий в формулировках, таких как «Остаться ли мне?» против «Уйти ли мне?»
Команда считает, что эти проблемы происходят из-за тонкой настройки LLMs, чтобы они казались более этичными или вежливыми. «Предпочтения и интуиция простых людей и исследователей, разрабатывающих эти модели, могут быть плохим руководством для морального ИИ», — предупредило исследование, как сообщает 404 Media.
Чонг настаивала на том, что люди должны быть осторожны, полагаясь на эти чат-боты за советами. Она предупредила, что люди должны подходить к советам LLM с осторожностью, поскольку предыдущие исследования показали, что пользователи предпочитают советы чат-ботов экспертному этическому руководству, несмотря на их непоследовательность и искусственное рассуждение.
Эти вопросы становятся более актуальными по мере того, как AI становится более реалистичным. Национальный опрос США показал, что 48,9% людей использовали AI чат-боты для поддержки психического здоровья, при этом 37,8% предпочли их традиционной терапии.
Эксперты предупреждают, что эти системы имитируют терапевтический диалог, при этом укрепляя искаженное мышление, и даже провоцируют духовные заблуждения, которые могут быть восприняты как божественное руководство или осознанный ответ.