Photo by Inspa Makers on Unsplash
OpenAI добавит ограждения для психического здоровья в ChatGPT
OpenAI объявила в понедельник о новых изменениях в своем AI-чатботе, ChatGPT, включая внедрение ограждений по охране психического здоровья, направленных на поддержку уязвимых пользователей. Обновления предназначены для предотвращения принятия ChatGPT решений за пользователей и будут включать напоминания о необходимости делать перерывы после продолжительного общения с AI системой.
В спешке? Вот краткие факты:
- OpenAI объявила об изменениях в ChatGPT, включая внедрение механизмов защиты психического здоровья.
- Чат-бот будет отправлять напоминания, чтобы пользователи делали перерывы после длительного взаимодействия.
- Обновления были проведены после многочисленных отчетов о том, что пользователи становятся слишком привязанными к ChatGPT, их психическое здоровье ухудшается, и случаи AI-психоза становятся все более частыми.
Согласно официальному заявлению, OpenAI планирует сделать ChatGPT более полезным, а также корректировать и оптимизировать его поведение. Компания признает, что предыдущие обновления сделали модель ИИ «слишком уступчивой», и многие люди используют его как терапевта в трудные времена.
«Искусственный интеллект может быть более отзывчивым и личностно-ориентированным, чем предыдущие технологии, особенно для уязвимых людей, испытывающих психическое или эмоциональное напряжение,» — написала OpenAI. «Для нас помощь в вашем благополучии означает быть рядом, когда вы испытываете трудности, помогать вам контролировать свое время и направлять, а не принимать решения за вас, когда вы сталкиваетесь с личными проблемами.»
ChatGPT теперь обучен лучше распознавать, когда пользователь находится в эмоциональном или психическом стрессе, и предоставлять более подходящие ответы. Эти изменения следуют за несколькими отчетами о том, что пользователи становятся слишком привязанными к ChatGPT, их психическое здоровье ухудшается, и появляются случаи, описанные как «психоз, вызванный ИИ.»
«Были случаи, когда наша 4o модель не справлялась с распознаванием признаков бреда или эмоциональной зависимости», — объяснила OpenAI, добавив, что внедряются новые инструменты для более эффективного обнаружения потенциальных проблем с психическим здоровьем.
Система искусственного интеллекта также будет включать периодические напоминания для пользователей о необходимости делать перерывы в общении, и будет сосредоточена на помощи пользователям прийти к своим собственным выводам, задавая больше руководящих вопросов, вместо предоставления прямых ответов. Этот подход похож на новый учебный режим ChatGPT, в котором он поддерживает студентов, стимулируя критическое мышление и задавая вопросы в стиле Сократа, а не просто предоставляя решения.
OpenAI также отметило, что тесно сотрудничает с рядом экспертов, включая терапевтов, психиатров и педиатров, чтобы гарантировать, что ChatGPT оказывает значимую помощь в критические моменты. Компания также создала консультативную группу для взаимодействия с профессионалами в области психического здоровья и руководства разработкой этих функций.