
Photo by 2H Media on Unsplash
Anthropic предлагает рамки прозрачности для разработки модели ИИ
Компания по искусственному интеллекту Anthropic предложила в понедельник прозрачную схему для продвинутых моделей AI и компаний, разрабатывающих передовые системы AI, предназначенных для применения на региональном или международном уровне. Стартап представил меры безопасности, конкретные шаги и минимальные стандарты для улучшения прозрачности AI.
Спешите? Вот основные факты:
- Anthropic предлагает рамочное соглашение о прозрачности для развитых моделей ИИ и компаний, разрабатывающих передовые системы ИИ.
- Технологическая компания признает быстрый темп развития ИИ и неотложность согласования рамок безопасности для разработки безопасных продуктов.
- Предлагаемый рамочный документ нацелен на крупные компании в этой отрасли.
Anthropic объяснила в объявлении на своем сайте, что развитие моделей ИИ происходит быстрее, чем создание мер безопасности и соглашений со стороны компаний, правительств или академического сообщества. Технологическая компания призвала всех заинтересованных сторон ускорить свои усилия по обеспечению безопасного развития продуктов ИИ и предложила свою модель прозрачности в качестве образца или справочного материала.
«Нам необходимы промежуточные шаги, чтобы гарантировать, что очень мощный ИИ будет разработан безопасно, ответственно и прозрачно», — говорится в заявлении. «Мы предлагаем целевую схему прозрачности, которую можно применить на федеральном, государственном или международном уровне, и которая касается только крупнейших систем и разработчиков ИИ, устанавливая при этом четкие требования к раскрытию информации о мерах безопасности.»
Подход Anthropic был упрощен для обеспечения гибкости и легкости. «Он не должен препятствовать инновациям в области ИИ, и не должен замедлять нашу способность реализовывать преимущества ИИ, включая спасение жизни за счет открытия новых лекарств, быструю доставку общественных благ и выполнение критически важных функций национальной безопасности», — пояснила компания.
Технологическая компания признала, что жесткие рамки и стандарты могут быстро устареть, поскольку технологии продолжают развиваться стремительными темпами.
Anthropic предлагает, чтобы требования к прозрачности ИИ применялись только к крупным разработчикам передовых моделей, чтобы не обременять малые стартапы и разработчиков с низким влиянием. Предлагаемый порог — это $100 миллионов годовой выручки или $1 миллиард годовых капитальных затрат.
Крупные разработчики также должны создать общедоступную Систему Безопасной Разработки, которая включает в себя меры по снижению рисков, включая ущерб, вызванный неправильно настроенными моделями, а также создание химического, ядерного, биологического или радиационного оружия.
Одно из самых строгих предложений направлено на защиту информаторов. «Явно определить в законе, что ложь лаборатории о соблюдении ее собственной системы — нарушение закона», — написала компания Anthropic в предоставленном документе. Компания подчеркнула, что стандарты прозрачности должны включать минимальный базовый уровень и оставаться гибкими, с минимальными требованиями, чтобы помочь достичь консенсуса.
Anthropic ожидает, что анонс и предложенная структура прозрачности послужат руководством для правительств по принятию их в закон и продвижению «ответственной практики».
После выпуска своей последней модели искусственного интеллекта, Claude 4, Anthropic включил предупреждение о безопасности — маркировка модели Opus 4 на уровне безопасности 3 из-за потенциальных рисков.