Громкие прогнозы экспертов столкнулись с суровой реальностью закрытых форумов.
Страхи вокруг искусственного интеллекта в киберпреступности часто рисуют почти фантастическую картину, где автономные системы сами взламывают инфраструктуру и управляют атаками. Новая работа Джека Хьюза, Бена Коллиера и Дэниела Р. Томаса показывает куда более приземлённую реальность: генеративный ИИ пока не перевернул подпольную экономику, а чаще стал ещё одним удобным инструментом для тех, кто и раньше умел пользоваться готовыми схемами.
Авторы препринта, опубликованного на arXiv 31 марта 2026 года, изучили, как генеративный ИИ, чат-боты, помощники для программирования и агентные инструменты обсуждают и применяют на киберкриминальных форумах. В основу легли данные CrimeBB от Cambridge Cybercrime Centre: более 97 тыс. релевантных обсуждений после запуска ChatGPT, а также качественный разбор 3203 тредов.
Работа противопоставляет два сценария. Первый авторы называют Stand-Alone Complex: условная «преступная группировка в коробке», где ИИ помогает одному человеку автоматизировать целую цепочку преступных услуг. Второй сценарий — Vibercrime, когда «вайб-кодинг» снижает порог входа, но не меняет устройство подпольного рынка. По выводам авторов, реальная картина ближе ко второму варианту, причём даже разговоры о резком росте «вайб-преступников» выглядят преувеличенными.
В подпольных сообществах действительно активно обсуждают ChatGPT, Claude, Gemini, Grok, DeepSeek, Cursor и взломанные LLM , включая WormGPT. Но практической пользы от «тёмных» моделей оказалось меньше, чем предполагали в медиа и отчётах поставщиков защиты. Пользователи чаще ищут бесплатный доступ, обход ограничений или готовые подсказки, чем показывают рабочие схемы, которые дают новый уровень атак.
ИИ-помощники заметнее всего помогают тем, кто уже умеет писать код. Для таких участников инструменты заменяют поиск по ошибкам, шпаргалки и копирование фрагментов со Stack Overflow. Новичкам же проще взять готовые скрипты, чем разбираться с кодом, который сгенерировала модель. На форумах также часто спорят о том, что слепая генерация кода приводит к техническому долгу, ошибкам и уязвимым проектам.
Более явное применение авторы нашли не в сложных атаках, а в низкомаржинальных схемах: SEO-спаме, генерации сайтов, контента, изображений, фальшивых профилей, романтическом мошенничестве и мелких «пассивных доходах». Там ИИ помогает масштабировать старые подходы, но одновременно усиливает насыщение рынка и снижает прибыльность.
Отдельный вывод касается защитных ограничений в популярных моделях. По данным авторов, ограничения не останавливают мотивированных злоумышленников полностью, но повышают цену и сложность массового злоупотребления. После 2024 года участники форумов всё чаще жалуются, что рабочие способы обхода быстро закрываются.
Исследование не исключает, что закрытые группы или более профессиональные операторы используют генеративный ИИ иначе. Но в открытой подпольной среде до конца 2025 года авторы не нашли признаков структурного перелома. Таким образом, нейросети скорее встроились в старые криминальные практики, чем создали новый класс киберугроз.
Страхи вокруг искусственного интеллекта в киберпреступности часто рисуют почти фантастическую картину, где автономные системы сами взламывают инфраструктуру и управляют атаками. Новая работа Джека Хьюза, Бена Коллиера и Дэниела Р. Томаса показывает куда более приземлённую реальность: генеративный ИИ пока не перевернул подпольную экономику, а чаще стал ещё одним удобным инструментом для тех, кто и раньше умел пользоваться готовыми схемами.
Авторы препринта, опубликованного на arXiv 31 марта 2026 года, изучили, как генеративный ИИ, чат-боты, помощники для программирования и агентные инструменты обсуждают и применяют на киберкриминальных форумах. В основу легли данные CrimeBB от Cambridge Cybercrime Centre: более 97 тыс. релевантных обсуждений после запуска ChatGPT, а также качественный разбор 3203 тредов.
Работа противопоставляет два сценария. Первый авторы называют Stand-Alone Complex: условная «преступная группировка в коробке», где ИИ помогает одному человеку автоматизировать целую цепочку преступных услуг. Второй сценарий — Vibercrime, когда «вайб-кодинг» снижает порог входа, но не меняет устройство подпольного рынка. По выводам авторов, реальная картина ближе ко второму варианту, причём даже разговоры о резком росте «вайб-преступников» выглядят преувеличенными.
В подпольных сообществах действительно активно обсуждают ChatGPT, Claude, Gemini, Grok, DeepSeek, Cursor и взломанные LLM , включая WormGPT. Но практической пользы от «тёмных» моделей оказалось меньше, чем предполагали в медиа и отчётах поставщиков защиты. Пользователи чаще ищут бесплатный доступ, обход ограничений или готовые подсказки, чем показывают рабочие схемы, которые дают новый уровень атак.
ИИ-помощники заметнее всего помогают тем, кто уже умеет писать код. Для таких участников инструменты заменяют поиск по ошибкам, шпаргалки и копирование фрагментов со Stack Overflow. Новичкам же проще взять готовые скрипты, чем разбираться с кодом, который сгенерировала модель. На форумах также часто спорят о том, что слепая генерация кода приводит к техническому долгу, ошибкам и уязвимым проектам.
Более явное применение авторы нашли не в сложных атаках, а в низкомаржинальных схемах: SEO-спаме, генерации сайтов, контента, изображений, фальшивых профилей, романтическом мошенничестве и мелких «пассивных доходах». Там ИИ помогает масштабировать старые подходы, но одновременно усиливает насыщение рынка и снижает прибыльность.
Отдельный вывод касается защитных ограничений в популярных моделях. По данным авторов, ограничения не останавливают мотивированных злоумышленников полностью, но повышают цену и сложность массового злоупотребления. После 2024 года участники форумов всё чаще жалуются, что рабочие способы обхода быстро закрываются.
Исследование не исключает, что закрытые группы или более профессиональные операторы используют генеративный ИИ иначе. Но в открытой подпольной среде до конца 2025 года авторы не нашли признаков структурного перелома. Таким образом, нейросети скорее встроились в старые криминальные практики, чем создали новый класс киберугроз.
- Источник новости
- www.securitylab.ru