На службе силы зла: как хакеры используют ChatGPT
Фото Hannes P. Albert / dpa Мошенники уже научились использовать нашумевший чат-бот ChatGPT для выполнения рутинных задач по написанию фишинговых писем и вредоносного кода, несмотря на то что программа от OpenAI имеет этические ограничения на такую деятельность. При этом получают свое распространение и специальные чат-боты для хакеров, например WormGPT. Forbes поговорил со специалистами по информационной безопасности о том, чего нам ждать от использования нейросетей хакерами и создадут ли они переворот в киберсреде
Содержание:
На начальном уровне
Хакеры по всему миру активно интересуются ChatGPT от OpenAI. Более 200 000 доступов к ChatGPT в даркнете обнаружила канадская компания Flare, работающая в сфере безопасности. На тематических хакерских форумах и в группах за полгода ChatGPT упоминается более 27 000 раз, пишет BleepingComputer со ссылкой на данные Flare.
Сам по себе ChatGPT не опасен — человек всегда напишет более точечное письмо, подчеркивает сооснователь проекта StopPhish Юрий Другач. Но когда злоумышленникам потребуется масштабировать атаку на большое количество организаций или пользователей, то нагрузку, связанную с человеческим ресурсом, они могут переложить на ChatGPT, поясняет он.
ChatGPT может писать код на уровне начинающего программиста, поэтому с его помощью можно создавать различные вредоносные программы и сайты без каких-либо знаний в программировании, отмечает ведущий инженер CorpSoft24 Михаил Сергеев. Нельзя сказать, что нейросеть оставит без работы криминальных кодеров и копирайтеров, но свою основную задачу — автоматизацию рутинных процессов и сокращение требуемого на работу времени — она выполняет хорошо, продолжает эксперт центра мониторинга внешних цифровых угроз Solar AURA компании «РТК-Солар» Александр Вураско.
С помощью чат-ботов можно генерировать дипфейки на основе личных фотографий пользователей, чтобы потом шантажировать жертву и требовать выкуп, отмечает руководитель управления киберразведки Bi.Zone Олег Скулкин. Еще одна схема мошенничества, по его словам, — имитация голоса с помощью искусственного интеллекта, например для звонков из «службы безопасности».
«Известны также случаи, когда преступники создают сайты, предлагающие якобы бесплатный доступ к нейросетям и чат-ботам. Чтобы получить его, человек вводит свои личные данные, после чего они становятся доступны мошенникам», — добавляет Олег Скулкин. Злоумышленники активно собирают чувствительные данные, которыми люди делятся с чат-ботами. Именно поэтому важно не размещать в них важную информацию, добавляет он.
Для ленивых хакеров
Злоумышленники уже активно используют, в том числе и в России, языковые модели как приманки в рамках мошеннических схем, говорит ведущий исследователь данных в «Лаборатории Касперского» Владислав Тушканов. «Недавно наши контент-аналитики обнаружили схему, в которой злоумышленники выманивали деньги через умный чат-бот для поиска интимных фотографий в Telegram, — рассказывает он. — Авторы чат-бота заявляли, что он якобы работает на основе ChatGPT и с его помощью можно искать в некой базе слитые фотографии человека, имея на руках ссылку на его профиль в социальных сетях или номер телефона. На определенном этапе человека просили заплатить 399 рублей за разовый доступ к базе или 990 рублей за безлимитный. Если жертва переводила деньги, то они уходили злоумышленникам, никаких фотографий человек, разумеется, не получал».
В России еще не было громких случаев использования ChatGPT в мошеннических целях, однако за рубежом уже подделывают уведомления от интернет-сервисов с помощью ChatGPT, говорит Юрий Другач: «Например, просят, чтобы ChatGPT написал уведомление от соцсети, что для безопасности нужно сменить пароль».
Пока в России ChatGPT используют «ленивые» злоумышленники, отмечает Другач. «Дается задача написать письмо с таким-то информационным поводом, то есть ChatGPT используют как копирайтера», — поясняет он. Помимо этого, ChatGPT допускает меньше ошибок в тексте, а одно из правил информационной безопасности гласит, что если в письме много ошибок, то его можно считать подозрительным, добавляет эксперт.
Единичные примеры использования нейросетей в России есть, отмечают эксперты F.A.C.C.T.: на одном из русскоязычных хакерских форумов внедрили ChatGPT в качестве «секретаря», чтобы бот автоматически отвечал на новые сообщения в теме.
Без этических ограничений
Несмотря на то, что участники теневых форумов обмениваются способами применения ChatGPT в своих целях, здесь есть нюанс: чат-бот может генерировать ответы только на основе того, что уже есть в интернете, отмечает Владислав Тушканов. «Иными словами, даже если злоумышленники смогут «заставить» помочь чат-бот с написанием вредоносного кода, вряд ли на данном этапе развития языковых моделей это позволит им значительно усложнить свои атаки», — добавляет он.
Единственную угрозу, по его словам, может представлять небольшое повышение правдоподобности мошеннических писем, созданных языковой моделью. «Но пока это релевантно скорее для английского языка», — поясняет он. На сегодня вряд ли использование ChatGPT позволит хакерам значительно оптимизировать процессы, так как само написание кода или мошеннических писем зачастую является не самой большой частью их трудозатрат, заключает Тушканов.
По прямому назначению злоумышленники используют другие нейросети, созданные на основе ChatGPT и при этом не имеющие ограничения на информацию, рассказывает аналитик отдела анализа и оценки цифровых угроз компании Infosecurity a Softline Company Максим Грязев. Например, в даркнете есть множество предложений о продаже таких аналогов, предназначенных для запросов на создание вредоносного ПО, или советов, как создать вредоносную атаку или распространить фишинговые рассылки.
Например, в июле стало известно о появлении клона ChatGPT под названием WormGPT, который не имеет этических ограничений и позиционируется именно как инструмент для мошенничества, пишет Tom’s Hardware. WormGPT, работающий на базе языковой модели GPT-J, выпущенной в 2021 году, позволит своим пользователям разрабатывать вредоносные программы высшего уровня с меньшими затратами (и знаниями), чем было необходимо прежде. Услугу даже можно получить за подписку — €60 в месяц или €550 в год. Похоже, даже хакеры любят модель «софт как услуга», сообщает Tom’s Hardware.
По функционалу WormGPT можно сравнить с ChatGPT, однако обучение модели проходит на специфичном «нелегальном» контенте в целях облегчения вариантов обмана системы — таким образом снижается уровень входа, поясняет эксперт по компьютерной криминалистике Angara Security Лада Антипова. Разработчики WormGPT отмечают «отсутствие границ» и этических норм. Впрочем, ChatGPT тоже способен обходить такие ограничения, добавляет она.
Основные фишки WormGPT — фишинговые рассылки и компрометация деловой почты (Business Email Compromise, BEC), считает Лада Антипова. «В таких случаях на жертву оказывается психологическое давление за счет срочности и упора на эмоции. Для составления фишингового письма, которое принесет реальный результат, берутся в расчет болевые точки адресата, например финансовые сложности или новостная повестка. Такие письма аккуратно оформлены и логично структурированы, чтобы у читателя не возникло мысли о подвохе. Некоторые их них настолько грамотно составлены, что даже IT-специалистам не сразу удается их распознать», — поясняет эксперт.
Основной язык WormGPT — английский. По словам Антиповой, чтобы повысить убедительность фишингового письма, злоумышленники пишут черновик на родном языке, совершенствуя его с помощью сервисов перевода и ChatGPT. «Таким образом, минимизируются грамматические и лексические ошибки, на которые пользователь обращает внимание в первую очередь», — говорит она.
Разработчики WormGPT не спешат локализовать инструмент, однако вероятность его применения по отношению к русскоязычным пользователям от этого не уменьшается. «Даже если не считать WormGPT готовым инструментом, злоумышленники могут использовать его как подспорье в своих задачах, — размышляет Лада Антипова. — Сегодня по большей части BEC-атаки происходят за рубежом либо при коммуникации с иностранными партнерами, их задача заключается в том, чтобы убедить адресата в необходимости оплатить подставной счет, указанный в письме. В России оплата крупных сумм в рамках переписки по почте скорее исключение, но все же следует иметь в виду, что такие атаки существуют, и тщательнее проверять входящие данные».
Нет предела совершенству
Сценариев использования ChatGPT бесконечное множество, считает специалист группы исследования безопасности банковских систем Positive Technologies Юрий Ряднина. Но даже если у мошенников не хватит фантазии, некоторые схемы может предложить сама нейросеть, добавляет он. Нейросети снижают планку входа в сферу киберпреступности, что сказывается на количестве атак, но зачастую не на их качестве, отмечает Олег Скулкин. ChatGPT будет совершенствоваться, поэтому рано или поздно будет взрыв новых мошеннических операций с использованием этой технологии, начнут использовать чат для создания фейковых сайтов, подделывать официальные документы, генерировать фотографии, использовать различные боты для социальной инженерии, считает Максим Грязев.
Как и любой метод автоматизации, искусственный интеллект (ИИ) имеет гораздо больше возможностей для применения хакерами, чем мы видим сейчас, считает ведущий эксперт отдела анализа защищенности центра инноваций Future Crew МТС RED Вадим Шелест: «Пока что речь идет только о создании фишинговых писем и примитивных вирусов, но через некоторое время это может быть массовое написание эксплойтов или ПО для многоступенчатых атак за несколько часов». Судить о том, насколько ИИ будет способствовать распространенности атак, можно будет только в конце 2023 года, подчеркивает он.
Впрочем, эксперты не склонны считать, что использование ChatGPT приведет к перевороту в киберпреступной среде. По мнению Вураско, тенденции к автоматизации и снижению порога вхождения наблюдаются уже достаточно давно, и основным результатом пока является лишь экспоненциальное увеличение числа инцидентов.
Технологии защиты тоже не стоят на месте, согласен директор по продуктам компании «Гарда Технологии» Павел Кузнецов. По его словам, движки текстового анализа, применяющиеся в составе решений по защите данных, уже умеют выявлять тексты, созданные с применением GPT, с достаточно высокой степенью точности. «Но быть готовыми к дальнейшему росту применения новых технологий в кибератаках тем не менее нужно. Как оно всегда было и будет, к сожалению, далее», — заключает эксперт.