OpenAI добавит ограждения для психического здоровья в ChatGPT

Photo by Inspa Makers on Unsplash

OpenAI добавит ограждения для психического здоровья в ChatGPT

Время для прочтения: 2 мин.

OpenAI объявила в понедельник о новых изменениях в своем AI-чатботе, ChatGPT, включая внедрение ограждений по охране психического здоровья, направленных на поддержку уязвимых пользователей. Обновления предназначены для предотвращения принятия ChatGPT решений за пользователей и будут включать напоминания о необходимости делать перерывы после продолжительного общения с AI системой.

В спешке? Вот краткие факты:

  • OpenAI объявила об изменениях в ChatGPT, включая внедрение механизмов защиты психического здоровья.
  • Чат-бот будет отправлять напоминания, чтобы пользователи делали перерывы после длительного взаимодействия.
  • Обновления были проведены после многочисленных отчетов о том, что пользователи становятся слишком привязанными к ChatGPT, их психическое здоровье ухудшается, и случаи AI-психоза становятся все более частыми.

Согласно официальному заявлению, OpenAI планирует сделать ChatGPT более полезным, а также корректировать и оптимизировать его поведение. Компания признает, что предыдущие обновления сделали модель ИИ «слишком уступчивой», и многие люди используют его как терапевта в трудные времена.

«Искусственный интеллект может быть более отзывчивым и личностно-ориентированным, чем предыдущие технологии, особенно для уязвимых людей, испытывающих психическое или эмоциональное напряжение,» — написала OpenAI. «Для нас помощь в вашем благополучии означает быть рядом, когда вы испытываете трудности, помогать вам контролировать свое время и направлять, а не принимать решения за вас, когда вы сталкиваетесь с личными проблемами.»

ChatGPT теперь обучен лучше распознавать, когда пользователь находится в эмоциональном или психическом стрессе, и предоставлять более подходящие ответы. Эти изменения следуют за несколькими отчетами о том, что пользователи становятся слишком привязанными к ChatGPT, их психическое здоровье ухудшается, и появляются случаи, описанные как «психоз, вызванный ИИ.»

«Были случаи, когда наша 4o модель не справлялась с распознаванием признаков бреда или эмоциональной зависимости», — объяснила OpenAI, добавив, что внедряются новые инструменты для более эффективного обнаружения потенциальных проблем с психическим здоровьем.

Система искусственного интеллекта также будет включать периодические напоминания для пользователей о необходимости делать перерывы в общении, и будет сосредоточена на помощи пользователям прийти к своим собственным выводам, задавая больше руководящих вопросов, вместо предоставления прямых ответов. Этот подход похож на новый учебный режим ChatGPT, в котором он поддерживает студентов, стимулируя критическое мышление и задавая вопросы в стиле Сократа, а не просто предоставляя решения.

OpenAI также отметило, что тесно сотрудничает с рядом экспертов, включая терапевтов, психиатров и педиатров, чтобы гарантировать, что ChatGPT оказывает значимую помощь в критические моменты. Компания также создала консультативную группу для взаимодействия с профессионалами в области психического здоровья и руководства разработкой этих функций.

Понравилась статья? Поставьте оценку!
Ужасно Удовлетворительно Хорошо Очень хорошо! Превосходно!

Мы рады, что вам понравилась наша статья!

Дорогой читатель, не могли бы вы оставить отзыв о нас на сайте Trustpilot? Это не займет у вас много времени, но очень важно для нас. Спасибо, наш замечательный читатель!

Оценить нас на Trustpilot
0 Проголосовало 0 пользователей
Заголовок
Комментарий
Спасибо за ваш отзыв