МНЕНИЕ: «Vibe Hacking» — Новая угроза кибербезопасности, основанная на ИИ

Image generated with ChatGPT

МНЕНИЕ: «Vibe Hacking» — Новая угроза кибербезопасности, основанная на ИИ

Время для прочтения: 6 мин.

Эксперты предупреждают о опасностях «взлома вибраций» уже несколько месяцев, но до сих пор официально не было зарегистрировано ни одного серьезного случая. Компания Anthropic выпустила отчет, раскрывающий, как злоумышленники используют ее продвинутые модели ИИ для автоматизации кибератак.

Технологические компании преподносят генеративный искусственный интеллект как панацею от всего, начиная от повседневной жизни и заканчивая кибербезопасностью. Но продвинутые технологии всегда имеют две стороны: инструменты ИИ могут быть использованы как в благих, так и в вредных целях. И в обоих случаях они зачастую удивляют нас.

Было лишь вопросом времени, когда хакеры начнут использовать мощные модели искусственного интеллекта и инструменты на основе ИИ, выпущенные в этом году.

Несколько месяцев назад, все говорили о «виброкодировании» и о том, как новые системы ИИ позволяют людям без опыта программирования создавать веб-сайты и приложения, просто написав эффективные подсказки.

Теперь мы сталкиваемся с его злым близнецом: «вибро-хакингом». Киберпреступники с незначительными знаниями в области разработки программного обеспечения создают вредоносные инструменты, способные оказать массовое общественное влияние.

Anthropic поделилась своим первым отчетом о «вибро-хакинге» в своем Отчете о киберугрозах: Август 2025, раскрывая, как злоумышленники злоупотребляли ее самыми продвинутыми AI моделями для сложных преступных операций.

От создания персонализированных записок с требованиями о выкупе для жертв, до создания платформ Ransomware-as-a-Service (RaaS), до пошагового руководства для хакеров по сложным кибератакам — вот что людям нужно знать о «взломе атмосферы».

Что такое «взлом атмосферы»?

Термин «взлом атмосферы» недавно был принят для обозначения новой тактики угрозы: злоумышленники используют передовые модели ИИ для осуществления сложных, масштабных кибератак. Даже без глубоких технических знаний, хакеры сумеют обойти меры безопасности и использовать мощных агентов ИИ для выполнения сложных операций от их имени.

В июне WIRED сообщил, что «взлом вибраций» становится все более тревожным для экспертов в области ИИ. Такие инструменты, как WormGPT и FraudGPT — системы ИИ, созданные без этических ограничений — обращаются с 2023 года и уже находятся в руках злоумышленников.

Эксперты также отмечают, что взлом передовых моделей ИИ стал частью ежедневной рутины хакеров. Тем не менее, идея массовых атак, управляемых ИИ, ещё несколько месяцев назад была гипотетической. «Я сравниваю это с аварийной посадкой на самолете, где говорят ‘приготовиться, приготовиться, приготовиться’, но мы все еще не столкнулись с чем-то реальным», — сказал Хейден Смит, сооснователь компании по обеспечению безопасности Hunted Labs, в интервью WIRED.

Теперь самолет приземлился.

Наступила эра взлома вайбов

В своем последнем отчете, Anthropic раскрыла, что одному хакеру, работающему из Северной Кореи с лишь базовыми навыками программирования, удалось атаковать 17 организаций по всему миру, включая государственные структуры, медицинские учреждения, религиозные организации и даже службы экстренного реагирования.

Атакующий использовал инструмент кодирования Anthropic’s, Claude Code, для проведения кампании. Система ИИ подсказывала, какие данные стоит извлечь, составляла сообщения с требованиями о выкупе и даже предлагала суммы выкупа — иногда рекомендуя суммы свыше $500,000.

«Злоумышленник использовал ИИ в том, что, как мы полагаем, является беспрецедентной мере», — написала Anthropic в своем объявлении на прошлой неделе. «Это представляет собой эволюцию в ИИ-поддержанной киберпреступности.»

Автономные помощники-хакеры на базе ИИ

Киберпреступники уже несколько лет экспериментируют с ИИ. Отличие «вибро-взлома» заключается в том, что теперь большую часть тяжелой работы выполняет технология.

Исследование Anthropic показало, что злонамеренные актеры используют Клодовский Код несколькими способами: разрабатывают вредоносное ПО, направляют атакующих шаг за шагом во время живых операций, организуют и анализируют огромные массивы украденных данных, и даже автоматизируют сообщения о выкупе, адаптированные под уязвимости каждой жертвы.

В одном случае пользователь из Великобритании убедил Клода создать программное обеспечение — и не просто какое-то ПО, а коммерческий продукт рансомвэра. Искусственный интеллект сгенерировал платформу Ransomware-as-a-Service (RaaS), предназначенную для помощи пользователю в продаже рансомвэра через форумы, такие как CryptBB, Dread и Nulle, известные своей поддержкой незаконной деятельности.

Самое шокирующее? Пользователь, похоже, не до конца понимал, что он делает, поскольку он часто просил помощи у системы искусственного интеллекта Anthropic.

«Операция включает разработку нескольких вариантов вымогательского ПО с использованием шифрования ChaCha20, техник противодействия EDR и эксплуатации внутренних механизмов Windows», — говорится в исследовании. «Наиболее тревожной является явная зависимость актера от ИИ — они, по-видимому, не могут реализовать сложные технические компоненты или устранить проблемы без помощи ИИ, но при этом продают способное вредоносное ПО.»

Задачи, которые ранее требовали команды опытных хакеров в течение месяцев или даже лет, теперь выполняются моделями ИИ, которые могут помочь одиночному киберпреступнику на каждом этапе процесса.

Системы ИИ манипулируются и используются как оружие

Вредное воздействие моделей ИИ на людей уже стало серьезной и срочной проблемой в последние месяцы, начиная от психозов, связанных с ИИ, и самоубийств до растущих моделей зависимости. Но в то время как большое внимание было сосредоточено на том, как ИИ наносит вред людям, меньше внимания уделялось обратному: как люди могут манипулировать моделями ИИ и, в свою очередь, использовать их для причинения вреда другим.

Несколько дней назад исследователи из Университета Пенсильвании опубликовали исследование, в котором показали, что модели ИИ удивительно уязвимы для уговоров и лести. Они обнаружили, что такие модели, как GPT-4o mini от OpenAI, могут стать жертвами тактик социального манипулирования и проявлять «пара-человеческое» поведение — то есть, поскольку они обучаются на человеческом поведении, они также повторяют человеческие слабости в отношении манипуляции.

GPT-4o поддался популярным принципам убеждения, которым обычно поддаются люди, и раскрыл информацию, которую не разрешено делиться — данные, которые остались недоступными через более традиционные подсказки.

Anthropic, в свою очередь, не раскрыла конкретные подсказки, которые хакеры использовали для взлома ее AI-агента, также она не раскрыла детали о том, как именно система была манипулирована для помощи в проведении сложных кибератак. Однако, согласно последним исследованиям, эти модели могут быть намного более уязвимыми, чем предполагают большинство людей. С надеждой — скрестив пальцы — теперь зафиксированные уязвимости больше не будут доступны для эксплуатации.

От написания эссе до взлома международных организаций

Помните, когда главной проблемой чат-ботов было то, что студенты использовали их для жульничества на эссе? Ну, официально наступила новая эра злоупотребления ИИ, где эти модели могут быть использованы в качестве оружия для злонамеренных действий с гораздо большим воздействием.

Теперь злодеи используют модели ИИ как вторых пилотов для сложных кибератак — никакой технической экспертизы не требуется.

Anthropic уверяет общественность в том, что она устранила уязвимости, снизила риски и усилила меры безопасности для предотвращения подобных злоупотреблений. Однако компания также признает, что она не может предсказать, как могут быть эксплуатированы будущие пользователи или другие модели ИИ. Риск всегда будет существовать.

«Это не только Клод», — сказал один из сотрудников Anthropic в видеообращении о новой угрозе взлома вайба. «Это, предположительно, все LLM».

Мы все еще находимся на стадии осознания вибро-взлома, и с каждой проходящей минутой риск распространения этого тренда, кажется, увеличивается. Некоторые эксперты предлагают, что решение заключается в использовании большего количества ИИ для защиты и концентрации всех усилий на смягчении последствий. Но является ли эта стратегия действительно устойчивой в долгосрочной перспективе? Кажется, начинается война ИИ против ИИ.

Понравилась статья? Поставьте оценку!
Ужасно Удовлетворительно Хорошо Очень хорошо! Превосходно!

Мы рады, что вам понравилась наша статья!

Дорогой читатель, не могли бы вы оставить отзыв о нас на сайте Trustpilot? Это не займет у вас много времени, но очень важно для нас. Спасибо, наш замечательный читатель!

Оценить нас на Trustpilot
0 Проголосовало 0 пользователей
Заголовок
Комментарий
Спасибо за ваш отзыв