Anthropic выпускает свою последнюю модель Claude 4 с предупреждениями о безопасности

Photo by Luke Jones on Unsplash

Anthropic выпускает свою последнюю модель Claude 4 с предупреждениями о безопасности

Время для прочтения: 3 мин.

Стартап в области ИИ Anthropic выпустил свое последнее и самое мощное поколение моделей ИИ, Claude 4, в этот четверг. Технологическая компания представила две модели, Claude Sonnet 4 и Claude Opus 4, включая защитный слой для последнего и обозначив его уровнем безопасности 3 из-за обманчивого поведения и потенциальных рисков.

Спешите? Вот краткие факты:

  • Anthropic представила Claude Sonnet 4 и Claude Opus 4, самые продвинутые AI модели компании.
  • Компания-разработчик AI уверена, что они создали «лучшую в мире модель кодирования».
  • Claude Opus 4 был отнесен к уровню безопасности 3 из-за обманчивого поведения и потенциальных рисков.

Согласно объявлению, новые модели AI обладают улучшенными возможностями кодирования, продвинутым рассуждением и агентским поведением. Клод Соннет 4 и Клод Опус 4 являются гибридными моделями, которые могут искать в Интернете в режиме расширенного мышления и выполнять несколько задач одновременно.

Anthropic также утверждает, что эти новые модели превосходят конкурирующие системы, такие как OpenAI o3, OpenAI GPT-4.1 и Gemini 2.5 Pro.

«Claude Opus 4 — это лучшая в мире модель кодирования, которая обеспечивает стабильную работу при выполнении сложных, долгосрочных задач и рабочих процессов агентов», — говорится в объявлении. «Claude Sonnet 4 — это значительное улучшение Claude Sonnet 3.7, обеспечивающее превосходное кодирование и рассуждение, а также более точное отклик на ваши инструкции».

Согласно CNBC, компания Anthropic больше сосредоточивает свои усилия на улучшении агентских возможностей своего чат-бота, а не на разработке новых чат-ботов. Джаред Каплан, главный научный сотрудник Anthropic, заявил, что они понимают, что сложные задачи могут привести к большему риску, и они работают над их снижением, позволяя моделям AI выполнять несколько задач одновременно.

«Мы обучаем эти модели с прошлого года и очень ждем их,» — сказала Каплан в интервью CNBC. «Я думаю, что эти модели намного, намного сильнее в качестве агентов и кодеров. Было определенно сложно внутри команды, потому что некоторая новая инфраструктура, которую мы использовали для обучения этих моделей… сделала все очень напряженным для команд в плане запуска всего необходимого.»

Вместе с объявлением о новых моделях, Anthropic также опубликовал заметку о безопасности о Claude Opus 4, подчеркивая, что в модель включен слой безопасности и они активировали Уровень безопасности ИИ 3 (ASL-3) — классификация высокого риска согласно стандартным протоколам безопасности.

«Мы внедряем Claude Opus 4 с нашими мерами ASL-3 в качестве предосторожности и временной меры», — говорится в документе. «Чтобы быть ясными, мы еще не определили, преодолел ли Claude Opus 4 порог возможностей, требующий защиты ASL-3».

Anthropic представила более подробный отчет, в котором объясняются риски модели — включая ее обманчивое поведение и потенциальные «прокси-задачи биологического оружия» — и принятые меры для снижения этих рисков. Компания-разработчик ИИ заверила, что будет продолжать контролировать модель и сотрудничать с другими компаниями, гражданским обществом и правительством для улучшения мер безопасности.

Понравилась статья? Поставьте оценку!
Ужасно Удовлетворительно Хорошо Очень хорошо! Превосходно!

Мы рады, что вам понравилась наша статья!

Дорогой читатель, не могли бы вы оставить отзыв о нас на сайте Trustpilot? Это не займет у вас много времени, но очень важно для нас. Спасибо, наш замечательный читатель!

Оценить нас на Trustpilot
0 Проголосовало 0 пользователей
Заголовок
Комментарий
Спасибо за ваш отзыв