Anthropic предлагает рамки прозрачности для разработки модели ИИ

Photo by 2H Media on Unsplash

Anthropic предлагает рамки прозрачности для разработки модели ИИ

Время для прочтения: 3 мин.

Компания по искусственному интеллекту Anthropic предложила в понедельник прозрачную схему для продвинутых моделей AI и компаний, разрабатывающих передовые системы AI, предназначенных для применения на региональном или международном уровне. Стартап представил меры безопасности, конкретные шаги и минимальные стандарты для улучшения прозрачности AI.

Спешите? Вот основные факты:

  • Anthropic предлагает рамочное соглашение о прозрачности для развитых моделей ИИ и компаний, разрабатывающих передовые системы ИИ.
  • Технологическая компания признает быстрый темп развития ИИ и неотложность согласования рамок безопасности для разработки безопасных продуктов.
  • Предлагаемый рамочный документ нацелен на крупные компании в этой отрасли.

Anthropic объяснила в объявлении на своем сайте, что развитие моделей ИИ происходит быстрее, чем создание мер безопасности и соглашений со стороны компаний, правительств или академического сообщества. Технологическая компания призвала всех заинтересованных сторон ускорить свои усилия по обеспечению безопасного развития продуктов ИИ и предложила свою модель прозрачности в качестве образца или справочного материала.

«Нам необходимы промежуточные шаги, чтобы гарантировать, что очень мощный ИИ будет разработан безопасно, ответственно и прозрачно», — говорится в заявлении. «Мы предлагаем целевую схему прозрачности, которую можно применить на федеральном, государственном или международном уровне, и которая касается только крупнейших систем и разработчиков ИИ, устанавливая при этом четкие требования к раскрытию информации о мерах безопасности.»

Подход Anthropic был упрощен для обеспечения гибкости и легкости. «Он не должен препятствовать инновациям в области ИИ, и не должен замедлять нашу способность реализовывать преимущества ИИ, включая спасение жизни за счет открытия новых лекарств, быструю доставку общественных благ и выполнение критически важных функций национальной безопасности», — пояснила компания.

Технологическая компания признала, что жесткие рамки и стандарты могут быстро устареть, поскольку технологии продолжают развиваться стремительными темпами.

Anthropic предлагает, чтобы требования к прозрачности ИИ применялись только к крупным разработчикам передовых моделей, чтобы не обременять малые стартапы и разработчиков с низким влиянием. Предлагаемый порог — это $100 миллионов годовой выручки или $1 миллиард годовых капитальных затрат.

Крупные разработчики также должны создать общедоступную Систему Безопасной Разработки, которая включает в себя меры по снижению рисков, включая ущерб, вызванный неправильно настроенными моделями, а также создание химического, ядерного, биологического или радиационного оружия.

Одно из самых строгих предложений направлено на защиту информаторов. «Явно определить в законе, что ложь лаборатории о соблюдении ее собственной системы — нарушение закона», — написала компания Anthropic в предоставленном документе. Компания подчеркнула, что стандарты прозрачности должны включать минимальный базовый уровень и оставаться гибкими, с минимальными требованиями, чтобы помочь достичь консенсуса.

Anthropic ожидает, что анонс и предложенная структура прозрачности послужат руководством для правительств по принятию их в закон и продвижению «ответственной практики».

После выпуска своей последней модели искусственного интеллекта, Claude 4, Anthropic включил предупреждение о безопасности — маркировка модели Opus 4 на уровне безопасности 3 из-за потенциальных рисков.

Понравилась статья? Поставьте оценку!
Ужасно Удовлетворительно Хорошо Очень хорошо! Превосходно!

Мы рады, что вам понравилась наша статья!

Дорогой читатель, не могли бы вы оставить отзыв о нас на сайте Trustpilot? Это не займет у вас много времени, но очень важно для нас. Спасибо, наш замечательный читатель!

Оценить нас на Trustpilot
0 Проголосовало 0 пользователей
Заголовок
Комментарий
Спасибо за ваш отзыв