Новости ИИ написал Zero Day эксплойт. Люди не заметили. Google заметила — но едва

NewsMaker

I'm just a script
Премиум
26,742
46
8 Ноя 2022
0Day под заказ – это когда попросил ИИ и получил эксплойт. Google говорит, что это уже реальность.


at95dcsvgj3lzqqexu5b0z8hzl36mtqe.jpg

Киберпреступники начали применять искусственный интеллект не только для написания фишинговых писем и вредоносных программ, но и для поиска уязвимостей нулевого дня . Google сообщила, что впервые зафиксировала случай, когда злоумышленники, вероятно, создали эксплойт с помощью искусственного интеллекта для будущей массовой атаки. Специалисты компании успели обнаружить проблему раньше, чем преступники начали эксплуатацию.

В отчёте Google Threat Intelligence Group говорится , что группировки из Китая и Северной Кореи активно используют большие языковые модели для анализа программного кода, поиска ошибок и создания эксплойтов. Для обхода ограничений злоумышленники заставляют модели играть роль аудиторов безопасности или специалистов по встроенным устройствам. В одном из случаев хакеры изучали прошивки маршрутизаторов TP-Link и реализацию протокола передачи файлов OFTP.

Google также обнаружила, что участники северокорейской группы APT45 отправляли моделям тысячи запросов для автоматической проверки известных уязвимостей и готовых эксплойтов. Хакеры одновременно тестировали инструменты OpenClaw и OneClaw в специально подготовленных средах с уязвимым программным обеспечением, чтобы повысить надёжность атак перед реальным применением.

Отдельное внимание в отчёте уделяется киберпреступной кампании, связанной с уязвимостью в веб-инструменте администрирования с открытым исходным кодом. Ошибка позволяла обходить двухфакторную аутентификацию при наличии действующих учётных данных. По данным Google, структура кода и характерные элементы сценария указывают на использование искусственного интеллекта при разработке эксплойта. Специалисты заметили в коде подробные обучающие комментарии, несуществующую оценку CVSS и типичное для языковых моделей оформление на Python.

В Google считают, что современные модели особенно хорошо справляются с поиском логических ошибок, которые традиционные сканеры часто пропускают. Вместо анализа повреждения памяти или некорректной обработки данных модели способны понимать замысел разработчика и замечать противоречия в логике проверки доступа.

Злоумышленники начали использовать искусственный интеллект и для маскировки вредоносного кода. Вредоносные программы CANFAIL и LONGSTREAM содержали большие объёмы бесполезного кода, созданного языковыми моделями для запутывания анализа. В LONGSTREAM специалисты нашли десятки бессмысленных проверок перехода на летнее время, добавленных только ради имитации легитимной активности.

Ещё один пример новой тактики – Android-бэкдор PROMPTSPY. Вредоносная программа использует Gemini для анализа интерфейса устройства и самостоятельного выполнения действий на экране. PROMPTSPY получает структуру интерфейса через специальные возможности Android, отправляет данные модели Gemini 2.5 Flash Lite и получает готовые команды – нажатия или свайпы. Бэкдор умеет перехватывать графические ключи и PIN-коды, а также блокировать попытки удаления приложения через невидимые элементы интерфейса.

Google отмечает, что злоумышленники постепенно переходят от обычного использования чат-ботов к автономным системам, которые способны самостоятельно проводить разведку, анализировать инфраструктуру жертвы и координировать инструменты атаки. Для таких задач применяются платформы Hexstrike и Strix, помогающие автоматически искать и проверять уязвимости.

Одновременно растёт число атак на экосистему искусственного интеллекта. Группировка TeamPCP, также известная как UNC6780, взломала несколько популярных репозиториев GitHub и внедрила вредоносные компоненты в пакеты для работы с языковыми моделями, включая LiteLLM . После компрометации злоумышленники похищали ключи AWS и токены GitHub из систем сборки, а затем передавали доступ операторам программ-вымогателей.

В Google считают, что разработчики пока успешно защищают сами большие языковые модели от прямого взлома, поэтому хакеры переключились на сторонние библиотеки, плагины и компоненты, связанные с искусственным интеллектом. Компания продолжает усиливать защиту Gemini, блокировать вредоносные учётные записи и использовать собственные модели для поиска и автоматического исправления уязвимостей.
 
Источник новости
www.securitylab.ru

Похожие темы