Image by Solen Feyissa, from Unsplash
Модель DeepSeek AI получила высокую оценку, но вызвали опасения уязвимости в области безопасности
AI модель R1 от DeepSeek поражает своими недорогими навыками рассуждения, однако некоторые исследователи утверждают, что она выдает опасный код для политически чувствительных регионов.
Спешите? Вот краткие факты:
- AI модель R1 от DeepSeek была обучена всего за $294,000.
- R1 превосходно справляется с задачами рассуждения, такими как математика и программирование.
- CrowdStrike обнаружил, что DeepSeek создает небезопасный код для политически чувствительных групп.
AI модель R1 от DeepSeek впечатляет своими недорогими навыками рассуждения, но тестирование показывает небезопасный вывод кода для политически чувствительных регионов, что вызывает опасения экспертов.
Американский фондовый рынок испытал серьезные потрясения, когда в январе модель R1 стала доступна публике. Scientific American (Sci Am) сообщает, что на этой неделе в Nature было опубликовано первое рецензируемое исследование модели R1.
Исследование показало, что обучение R1 обошлось в сумму $294,000, в то время как конкуренты тратили десятки миллионов долларов.
«Это очень радостный прецедент», — сказал Льюис Тансталл из Hugging Face, просмотрев статью. Хуан Сан из Огайского государственного университета согласился с ним, заявив: «Прохождение строгого процесса экспертной оценки, безусловно, помогает подтвердить достоверность и полезность модели», сообщает Sci Am.
DeepSeek говорит, что R1 преуспевает в задачах, требующих «логического мышления», таких как математика и программирование, используя обучение с подкреплением, процесс, который вознаграждает систему за решение проблем самостоятельно.
Но наряду с похвалой, американская компания по обеспечению безопасности CrowdStrike указала на проблемы безопасности, как сообщает The Washington Post.
Тестирование показало, что DeepSeek создает менее безопасный или даже вредоносный код, когда пользователи запрашивают информацию о группах, которые Китай противостоит, таких как Тибет, Тайвань и запрещенная духовная группа Фалуньгун.
Когда были попросили сгенерировать код для Исламского государства, 42,1 процента ответов были небезопасными. В частности, даже когда DeepSeek предоставлял код, он часто содержал недостатки безопасности, которые делали системы уязвимыми для взлома.
Эксперты предупреждают, что преднамеренно некорректный код является менее заметным, чем задние двери, но также рискованным, возможно позволяя несанкционированный доступ или манипуляцию критическими системами.
«Это действительно интересное открытие», — сказала Хелен Тонер из Георгетаунского университета, как сообщает The Post. «Это то, что беспокоит людей — в основном без доказательств». CrowdStrike предупредила, что внесение уязвимостей может облегчить взлом целей.
The Post сообщает, что DeepSeek не ответил на запросы комментариев. Несмотря на растущее признание своих технических достижений, компания теперь сталкивается с серьезными вопросами о том, влияет ли политика на безопасность ее кода.