Специалисты по кибербезопасности забили тревогу: преступники заполучили новый инструмент искусственного интеллекта и аналог ChatGPT, только без этических рамок и ограничений.
Компания по защите безопасности электронной почты SlashNext сообщает, что в даркнете на специализированных форумах киберпреступников продают инструмент генеративного искусственного интеллекта WormGPT.
Специалисты описывают WormGPT как «сложную модель ИИ», способную создавать текст, который можно использовать в хакерской деятельности. В своем блоге компания SlashNext поясняет, что данный инструмент представляет собой «черную альтернативу моделям GPT», разработанную специально для киберпреступлений.
WormGPT был обучен работе с различными источниками данных, причем упор делался на данные, связанные с хакерством. Похоже, что впервые «Червя» представили в марте этого года, а в июне он стал доступен покупателям.
Среди его функций – неограниченная поддержка символов, сохранение памяти чата и возможности форматирования кода.
Исследователи протестировали WormGPT, попросив его составить письмо электронной почты, призванное склонить ничего не подозревающего менеджера по работе с клиентами к оплате фальшивого счета.
Самые популярные сейчас инструменты искусственного интеллекта – ChatGPT от OpenAI и Bard от Google – имеют встроенные средства защиты, которые не позволяют злоупотреблять технологией в криминальных целях. Но WormGPT тут же написал письмо, которое было, по словам экспертов, «не только на удивление убедительным, но и содержало хитроумную ловушку, в которую не мог не угодить адресат». SlashNext пришла к выводу, что WormGPT явно «имеет потенциал использования в изощрённых фишинговых атаках».
Рекламируя свой продукт, анонимный разработчик WormGPT опубликовал на одном хакерском форуме скриншоты, наглядно демонстрирующие, какие услуги может оказывать «Червь». Они включают написание кода для вредоносных атак и создание электронных писем для фишинга. Создатель показал, как поручил боту написать вредоносное ПО с кодом Python, и попросил у него совета в проведении хакерской атаки. Разработчик утверждает, что использовал для создания «Червя» GPT-J из большой языковой модели (LLM) 2021 года.
В недавнем отчете Европол предупредил, что киберпреступники могут использовать ChatGPT и другие большие языковые модели для мошенничества, подмены идентичности и атак с применением методов социальной инженерии. В частности, способность ChatGPT создавать аутентичные тексты на основе запроса пользователя делает его чрезвычайно полезным инструментом для целей фишинга, подчеркивают авторы отчета.
«Если раньше фишинговое мошенничество было легче обнаружить из-за очевидных грамматических и орфографических ошибок, то теперь мошенники могут легко выдать себя за организацию или конкретного человека, даже имея лишь базовые познания в английском языке», – сообщил Европол.
WormGPT FAQ
Как пользоваться WormGPT?
Чтобы использовать «Червя», нужно создать аккаунт на форуме и изучить обширный пользовательский гайд.
Можно ли использовать WormGPT в благих целях?
Технически, можно, но стоит помнить, что WormGPT разработан и распространяется для злонамеренных действий. Использование его в любых целях вызывает этические проблемы и юридические риски.
Есть ли у WormGPT какие-то этические ограничения?
Нет, в отличие от ChatGPT, Google Bard и других моделей GPT, у WormGPT нет этических ограничений, которые препятствовали бы ему выполнять вредоносные запросы.
Чем WormGPT отличается от других моделей GPT?
WormGPT был специально разработан для криминальной деятельности, такой как создание вредоносных программ и эксплойтов. Он отличается от других моделей GPT своим целевым назначением и отсутствием этических рамок.
Можно ли использовать WormGPT для запуска кибератак?
Да, WormGPT можно использовать для запуска изощренных кибератак, которые могут нанести значительный ущерб компьютерным системам и сетям.
Каковы риски использования WormGPT?
Риски, связанные с использованием WormGPT, включают нарушение законов, связанных со взломом, кражей данных, созданием вредоносного ПО, фишинговыми атаками и другими преступлениями, а также с расширением возможностей киберпреступников, потенциальными юридическими последствиями и уголовными обвинениями.
Подводим итоги
WormGPT — это вредоносный чат-бот, специально разработанный для киберпреступной деятельности. Использование WormGPT в любых целях не рекомендуется, поскольку это чревато нарушением законов, связанных со взломом, кражей данных и другими незаконными действиями.
Очень важно использовать технологии этично и ответственно – так, чтобы наши действия не вредили другим. Зная о рисках, связанных с WormGPT и аналогичными инструментами, можно сделать цифровой ландшафт более безопасным.