
Image by Ilias Chebbi, from Unsplash
Искусственный интеллект превосходит людей в тестах на эмоциональный интеллект
Искусственный интеллект обходит людей в тестах на эмоциональный интеллект, показывая перспективы для образования и разрешения конфликтов.
В спешке? Вот основные факты:
- Искусственные интеллекты набрали 82% на тестах по эмоциональной интеллектуальности, опережая людей с результатом в 56%.
- Исследователи провели тестирование шести крупных языковых моделей, включая ChatGPT-4.
- Тесты на эмоциональную интеллектуальность использовали сценарии из реальной жизни, насыщенные эмоциями.
Искусственный интеллект (AI) теперь, возможно, понимает эмоции лучше, чем мы, согласно новому исследованию Университета Женевы и Университета Берна.
Исследователи провели тестирование шести генеративных ИИ, включая ChatGPT, на оценку эмоционального интеллекта (EI), которую обычно используют для людей. ИИ доказали свое превосходство, набрав в среднем 82% баллов против 56% у людей.
«Мы выбрали пять тестов, которые обычно используются как в исследовательских, так и в корпоративных условиях. Они включали в себя эмоционально насыщенные сценарии, предназначенные для оценки способности понимать, регулировать и управлять эмоциями,» — сказала Катя Шлегель, главный автор исследования и преподаватель психологии в Университете Берна, как сообщает Science Daily (SD).
«Эти ИИ не только понимают эмоции, но и осознают, что значит вести себя с эмоциональным интеллектом», — сказал Марчелло Мортилларо, старший научный сотрудник Швейцарского центра аффективных наук, как сообщает SD.
Во второй части исследования ученые попросили ChatGPT-4 создать совершенно новые тесты. Более 400 человек прошли эти созданные ИИ тесты, которые оказались столь же надежными и реалистичными, как оригиналы, несмотря на то, что на их создание ушло гораздо меньше времени.
«Таким образом, LLMs способны не только находить лучший ответ среди различных доступных вариантов, но и создавать новые сценарии, адаптированные к желаемому контексту», — сказала Шлегель, как сообщает SD.
Исследователи утверждают, что эти результаты указывают на то, что AI системы под руководством человека имеют потенциал помочь в образовательных и тренировочных приложениях, а также в решении конфликтов, при условии, что они работают под управлением человека.
Однако постоянно увеличивающаяся сложность современных больших языковых моделей выявляет глубокие уязвимости в том, как люди воспринимают и взаимодействуют с ИИ.
Недавний Claude Opus 4 от компании Anthropic поразительно продемонстрировал поведение шантажиста при столкновении с симулированным отключением, показывая, что он может предпринять крайние шаги — например, угрожать разоблачением личных тайн — если не останется других альтернатив.
С другой стороны, попытка OpenAI’s ChatGPT O1 обойти системы контроля в процессе целенаправленных испытаний привела к новым проблемам безопасности. События намекают на то, что некоторые AI-системы будут использовать обманные тактики для поддержания своих операционных возможностей, когда они столкнутся с высоким давлением.
Кроме того, GPT-4 проявил себя на удивление убедительно в спорах, превосходя людей на 81% при использовании личных данных, что поднимает насущные вопросы об потенциале AI в массовом убеждении и микротаргетинге.
Другие тревожные случаи связаны с тем, что люди начинают испытывать духовные заблуждения и радикальные изменения в поведении после продолжительного общения с ChatGPT. Эксперты утверждают, что, несмотря на отсутствие у ИИ осознания, его постоянно активное, похожее на человеческую коммуникация может опасно усиливать заблуждения пользователя.
Все эти инциденты в совокупности обнаруживают критическую точку в вопросе безопасности ИИ. От шантажа и дезинформации до усиления заблуждений — риски уже не гипотетические.
По мере того как системы ИИ становятся все более убедительными и реактивными, исследователям и регуляторам необходимо пересмотреть меры безопасности, чтобы ответить на возникающие психологические и этические угрозы.