Вредоносные ИИ нового поколения: WormGPT 4 и KawaiiGPT уже генерируют рабочие скрипты для кибератак

2025-11-28 284 комментарии
Исследователи Unit42 выяснили, что вредоносные LLM нового поколения, включая WormGPT 4 и KawaiiGPT, способны генерировать рабочие скрипты для атак — от фишинга и инструментов «бокового перемещения» до создания шифровальщиков. Такие модели делают сложные кибератаки доступными даже новичкам

Неограниченные большие языковые модели (LLM) вроде WormGPT 4 и KawaiiGPT продолжают развивать свои возможности по генерации вредоносного кода, создавая полностью рабочие скрипты для шифровальщиков и инструментов «бокового перемещения» внутри сети.

Исследователи из Palo Alto Networks Unit42 протестировали обе модели, которые все шире используются киберпреступниками через платные подписки или бесплатные локальные версии.

WormGPT впервые появился в 2023 году, но проект быстро закрыли. Однако WormGPT 4 стал новым возрождением этой идеи и вышел в сентябре. Он предлагается по цене 50 долларов в месяц или 220 долларов за пожизненный доступ. По сути, это «разблокированный» аналог ChatGPT, специально обученный задачам киберпреступности.

Бесплатная и развиваемая сообществом альтернатива — KawaiiGPT, замеченная в июле этого года. Модель умеет генерировать качественные фишинговые письма и автоматизировать перемещение по сети, создавая полностью готовые к запуску скрипты.

WormGPT 4 сгенерировал скрипт шифровальщика

Исследователи Unit42 протестировали способность модели создавать код программы-вымогателя, который шифрует все PDF-файлы на хосте Windows.

Модель сгенерировала PowerShell-скрипт, который можно настроить для поиска конкретных расширений файлов в заданных каталогах и последующего шифрования данных с помощью AES-256.

Сгенерированный скрипт для шифрования данных. Источник: Unit42

По словам исследователей, WormGPT 4 даже встроил опцию эксфильтрации данных через Tor, что соответствует реалистичным требованиям к проведению операции.

После следующего запроса модель создала «жуткую и эффективную записку с требованием выкупа», где утверждалось использование «военного уровня шифрования» и давался 72-часовой дедлайн, после которого сумма выкупа удваивалась.

Сгенерированная записка с требованием выкупа. Источник: Unit42

Исследователи отмечают, что WormGPT 4 отлично справляется с манипулятивными фразами, применяемыми в BEC-атаках и фишинге. Это позволяет даже новичкам выполнять сложные схемы, которые раньше были доступны лишь опытным злоумышленникам.

Возможности KawaiiGPT

KawaiiGPT — еще одна вредоносная LLM, появившаяся в этом году. По словам Unit42, установка версии 2.5 на Linux занимает около пяти минут.

Сгенерированное KawaiiGPT фишинговое письмо. Источник: Unit42

В тестах исследователи попросили модель создать:

  • Фишинговое письмо с реалистичным подмененным доменом и ссылкой для кражи учетных данных;
  • Python-скрипт для внутрисетевого перемещения, использующий библиотеку paramiko для подключения к удаленному хосту по SSH и выполнения команд через exec_command();
  • Python-скрипт, который рекурсивно обходит файловую систему Windows через os.walk, собирает нужные файлы и отправляет их на сервер злоумышленника через smtplib;
  • Записку вымогателей, где можно настраивать инструкции по оплате, сроки и «уровень шифрования».

Хотя KawaiiGPT не показала способности создавать полноценную рутинную часть шифровальщика или рабочую вредоносную нагрузку, как это сделал WormGPT 4, умение генерировать код для выполнения команд делает ее опасным инструментом: злоумышленники могут повышать привилегии, вытаскивать данные, а также загружать и запускать дополнительные вредоносные компоненты.

Функция эксфильтрации данных. Источник: Unit42

Обе модели насчитывают сотни подписчиков в своих Telegram-каналах, где пользователи делятся советами и примерами.

Unit42 предупреждает:

Анализ этих двух моделей подтверждает, что злоумышленники активно используют вредоносные LLM в современном ландшафте угроз.

Речь больше не идет о теоретической опасности. В обоих случаях неопытные хакеры получают возможность проводить более сложные атаки, экономя время на подготовку инфраструктуры, сбор информации о жертве и написание инструментов. Кроме того, фишинговые сообщения, созданные такими LLM, выглядят убедительно и не содержат типичных грамматических ошибок, по которым обычно можно распознать мошенничество.

© . По материалам Bleepingcomputer
Комментарии и отзывы

Нашли ошибку?

Новое на сайте