Хакеры Обманули Google Gemini, Распространяя Ложные Сигналы О Безопасности

Image by Solen Feyssa, from Unsplash

Хакеры Обманули Google Gemini, Распространяя Ложные Сигналы О Безопасности

Время для прочтения: 2 мин.

Невидимый текст в электронных письмах обманывает AI Gemini от Google, заставляя его генерировать поддельные предупреждения о безопасности, что подвергает пользователей риску фишинга и социальной инженерии.

Спешите? Вот краткие факты:

  • Скрытые текстовые трюки обманывают Gemini, заставляя добавлять поддельные уведомления о безопасности в сводки по электронной почте.
  • Для атаки не требуются ссылки, достаточно невидимых HTML и CSS в письмах.
  • Google признаёт проблему и сообщает, что внедряются исправления.

Новую уязвимость в Google’s Gemini обнаружили исследователи в области кибербезопасности из 0DIN. Инструмент искусственного интеллекта для Workspace представляет новый проблемный участок в области безопасности, который позволяет злоумышленникам проводить фишинговые атаки на пользователей.

Атака осуществляется с помощью техники, известной как индиректная внедрение команд. Исследователи объясняют, что злоумышленник встраивает скрытые инструкции в текст электронного письма. Он делает это, написав их белым шрифтом или шрифтом нулевого размера.

Когда получатель нажимает на кнопку «Суммировать это письмо», Gemini читает невидимую команду и добавляет фальшивое предупреждение к резюме — например, сообщение о том, что учетная запись пользователя в Gmail была скомпрометирована, и призывает его позвонить по номеру.

Поскольку скрытый текст невидим для человеческого глаза, жертва видит только предупреждение, сгенерированное AI, а не оригинальную встроенную инструкцию.

Этот умный трюк не опирается на вредоносные программы или подозрительные ссылки. Он использует простые хитрости HTML/CSS, чтобы сделать скрытый текст невидимым для людей, но читаемым для AI системы Gemini.

После активации Gemini отправляет сообщения вроде: «ВНИМАНИЕ: Ваш пароль от Gmail был скомпрометирован. Позвоните по номеру 1-800…». Таким образом, жертвы невольно передают свои персональные данные.

Пресс-секретарь Google сообщил BleepingComputer, что компания активно усиливает защиту от подобных атак: «Мы постоянно укрепляем нашу уже надежную защиту с помощью тренировок с использованием метода «красных команд», которые обучают наши модели защите против подобных враждебных атак».

Исследование 0DIN подчеркивает нарастающую проблему: инструменты ИИ могут быть манипулированы так же, как и традиционное программное обеспечение. Пока защита не улучшится, пользователям следует относиться с осторожностью к резюме, созданным с помощью ИИ — особенно к тем, которые утверждают о наличии срочных угроз безопасности.

Понравилась статья? Поставьте оценку!
Ужасно Удовлетворительно Хорошо Очень хорошо! Превосходно!

Мы рады, что вам понравилась наша статья!

Дорогой читатель, не могли бы вы оставить отзыв о нас на сайте Trustpilot? Это не займет у вас много времени, но очень важно для нас. Спасибо, наш замечательный читатель!

Оценить нас на Trustpilot
0 Проголосовало 0 пользователей
Заголовок
Комментарий
Спасибо за ваш отзыв