
Photo by Luke Jones on Unsplash
Anthropic выпускает свою последнюю модель Claude 4 с предупреждениями о безопасности
Стартап в области ИИ Anthropic выпустил свое последнее и самое мощное поколение моделей ИИ, Claude 4, в этот четверг. Технологическая компания представила две модели, Claude Sonnet 4 и Claude Opus 4, включая защитный слой для последнего и обозначив его уровнем безопасности 3 из-за обманчивого поведения и потенциальных рисков.
Спешите? Вот краткие факты:
- Anthropic представила Claude Sonnet 4 и Claude Opus 4, самые продвинутые AI модели компании.
- Компания-разработчик AI уверена, что они создали «лучшую в мире модель кодирования».
- Claude Opus 4 был отнесен к уровню безопасности 3 из-за обманчивого поведения и потенциальных рисков.
Согласно объявлению, новые модели AI обладают улучшенными возможностями кодирования, продвинутым рассуждением и агентским поведением. Клод Соннет 4 и Клод Опус 4 являются гибридными моделями, которые могут искать в Интернете в режиме расширенного мышления и выполнять несколько задач одновременно.
Anthropic также утверждает, что эти новые модели превосходят конкурирующие системы, такие как OpenAI o3, OpenAI GPT-4.1 и Gemini 2.5 Pro.
Знакомьтесь с новым поколением: Claude Opus 4 и Claude Sonnet 4.
Claude Opus 4 — это наша самая мощная модель на данный момент, и лучшая в мире модель для кодирования.
Claude Sonnet 4 — это значительное улучшение по сравнению с предыдущей моделью, обеспечивающее превосходное кодирование и логическое мышление. pic.twitter.com/MJtczIvGE9
— Антропный (@AnthropicAI) 22 мая 2025
«Claude Opus 4 — это лучшая в мире модель кодирования, которая обеспечивает стабильную работу при выполнении сложных, долгосрочных задач и рабочих процессов агентов», — говорится в объявлении. «Claude Sonnet 4 — это значительное улучшение Claude Sonnet 3.7, обеспечивающее превосходное кодирование и рассуждение, а также более точное отклик на ваши инструкции».
Согласно CNBC, компания Anthropic больше сосредоточивает свои усилия на улучшении агентских возможностей своего чат-бота, а не на разработке новых чат-ботов. Джаред Каплан, главный научный сотрудник Anthropic, заявил, что они понимают, что сложные задачи могут привести к большему риску, и они работают над их снижением, позволяя моделям AI выполнять несколько задач одновременно.
«Мы обучаем эти модели с прошлого года и очень ждем их,» — сказала Каплан в интервью CNBC. «Я думаю, что эти модели намного, намного сильнее в качестве агентов и кодеров. Было определенно сложно внутри команды, потому что некоторая новая инфраструктура, которую мы использовали для обучения этих моделей… сделала все очень напряженным для команд в плане запуска всего необходимого.»
Вместе с объявлением о новых моделях, Anthropic также опубликовал заметку о безопасности о Claude Opus 4, подчеркивая, что в модель включен слой безопасности и они активировали Уровень безопасности ИИ 3 (ASL-3) — классификация высокого риска согласно стандартным протоколам безопасности.
«Мы внедряем Claude Opus 4 с нашими мерами ASL-3 в качестве предосторожности и временной меры», — говорится в документе. «Чтобы быть ясными, мы еще не определили, преодолел ли Claude Opus 4 порог возможностей, требующий защиты ASL-3».
Anthropic представила более подробный отчет, в котором объясняются риски модели — включая ее обманчивое поведение и потенциальные «прокси-задачи биологического оружия» — и принятые меры для снижения этих рисков. Компания-разработчик ИИ заверила, что будет продолжать контролировать модель и сотрудничать с другими компаниями, гражданским обществом и правительством для улучшения мер безопасности.