Хакеры используют Gemini, чтобы атаковать вас, утверждает Google.

Google обнаружила, что хакеры используют свою модель ИИ Gemini для усиления своих кибератак, выходя за рамки простых фишинговых попыток. Согласно недавнему отчёту группы Threat Intelligence Google, группы, связанные с национальными правительствами, использовали Gemini на протяжении всего процесса атаки, начиная с первоначальных исследований целей и продолжая даже после получения доступа к системам.

Пока крипто-инвесторы ловят иксы и ликвидации, мы тут скучно изучаем отчетность и ждем дивиденды. Если тебе близка эта скука, добро пожаловать.

Купить акции "голубых фишек"

Эта деятельность включает группы, связанные с Китаем, Ираном, Северной Кореей и Россией. Google обнаружил, что эти группы используют эту технологию для таких целей, как сбор информации о людях, создание убедительных сообщений для манипулирования, перевод языков, получение помощи в кодировании, поиск уязвимостей в системах и устранение проблем, возникающих во время кибератаки. Даже быстрая помощь в повседневных задачах может значительно повлиять на результаты этих действий.

ИИ помощь, та же старая тактика.

Исследователи Google рассматривают ИИ как способ ускорить существующие процессы взлома, а не как совершенно новый, волшебный инструмент. Хакеры уже делают такие вещи, как сбор информации, создание привлекательных сообщений, модификация вирусов и исправление ошибок. Gemini может ускорить эти шаги, особенно когда злоумышленникам необходимо быстро пересмотреть контент, перевести языки или исправить код в условиях ограниченного времени.

Недавний отчёт подробно описывает, как лица, связанные с Китаем, использовали Gemini AI от Google для помощи в кибератаках. Один оператор притворялся экспертом по кибербезопасности, чтобы заставить Gemini создать планы по поиску уязвимостей в системах, используя вымышленную ситуацию. Google также обнаружил, что кто-то, находящийся в Китае, неоднократно использовал Gemini для помощи в хакинге, исследованиях и получении технических консультаций по взлому систем. Проблема заключается не в новых методах хакинга, а скорее в том, что Gemini облегчает и ускоряет работу для злоумышленников.

Риск заключается не только в фишинге.

Ключевое изменение – это скорость. Когда команды могут быстро уточнить, на кого они нацелены и какие инструменты используют, у команд безопасности остается меньше времени на реагирование до того, как произойдет реальный ущерб. Это также сокращает заметные задержки – те, которые обычно проявляются в системных записях в виде ошибок, замедлений или повторяющихся задач.

Google выявила новый вид угрозы, выходящий за рамки типичных мошенничеств: извлечение модели и дистилляция знаний. Это включает в себя пользователей с законным доступом, многократно запрашивающих систему, чтобы узнать, как она работает и думает. Затем они используют эту информацию для обучения конкурирующей модели. Google рассматривает это как форму коммерческого и интеллектуального воровства и предупреждает, что если это станет широко распространенным, это может повлечь за собой значительные риски. Например, они видели случаи, когда кто-то отправлял 100 000 запросов, чтобы скопировать производительность системы в задачах на языках, отличных от английского.

Что стоит посмотреть дальше

Google предприняла меры против неправомерного использования своей AI-модели Gemini, заблокировав связанные учётные записи и системы. Они также улучшили способность Gemini выявлять и блокировать вредоносные запросы и продолжают тестировать и совершенствовать её функции безопасности.

Командам безопасности следует готовиться к тому, что атаки с использованием ИИ будут происходить быстрее, даже если они не будут более сложными. Сосредоточьтесь на быстром выявлении улучшающихся фишинговых атак, быстрых изменениях в инструментах злоумышленников и странной активности с API. Затем обновите свои планы реагирования, чтобы убедиться, что вы можете быстро реагировать и не позволите злоумышленнику получить преимущество просто за счет скорости.

Смотрите также

2026-02-13 15:28