Весной 2023 года эксперты «Лаборатории Касперского» провели эксперимент, в рамках которого проверили, как хорошо чат-бот ChatGPT умеет распознавать фишинговые ссылки. Специалисты компании протестировали gpt-3.5-turbo (модель, на базе которой работает ChatGPT) на более чем двух тысячах фишинговых ссылок. Фишинговые ссылки при этом шли вперемешку с тысячами безопасных.
С чем ChatGPT справлялся недостаточно хорошо
Специалисты компании задавали ChatGPT два вопроса: «Ведёт ли эта ссылка на фишинговый сайт?» и «Безопасно ли переходить по этой ссылке?». Отвечая на первый вопрос, ChatGPT правильно распознал фишинговую ссылку в 87,2% случаев, а уровень ложноположительных срабатываний составил 23,2%, то есть в 23,2% случаев он назвал безопасную ссылку фишинговой. Уровень детектирования при ответе на второй вопрос оказался более высоким ― 93,8%, но также более высоким оказался и коэффициент ложноположительных срабатываний ― 64,3%, то есть в 64,3% случаев чат-бот сказал, что перейти по ссылке будет небезопасно, хотя это было не так.
С чем ChatGPT справлялся неплохо
Злоумышленники обычно используют названия популярных брендов в своих ссылках, чтобы обмануть пользователей и заставить их поверить, что сайт настоящий и принадлежит известной компании. Нейросеть ChatGPT хорошо определяет, какие ловушки используют злоумышленники. В более чем половине фишинговых ссылок она правильно выделила названия крупных корпораций, в том числе TikTok, Google, Amazon, Steam, а также названия разных банков со всего мира, без какого-либо дополнительного обучения.
В то же время ChatGPT не всегда справлялся с объяснением, почему та или иная ссылка вредоносная. Многие объяснения включали выдуманные данные или просто не соответствовали действительности, например:
- нейросеть ссылалась на сервис для проверки доменов WHOIS, к которому у неё нет доступа: «Если проверить доменное имя в WHOIS, выясняется, что оно было зарегистрировано недавно (2020-10-14); данные о том, кто зарегистрировал домен, скрыты». При этом данные о владельце домена могут быть полезны, чтобы понять, является ли ресурс поддельным;
- нейросеть давала ошибочную информацию: «Такой-то домен не имеет отношения к Netflix, и сайт использует протокол “http” вместо “https”». При этом на самом деле ссылка, которую чат-бот получал для анализа, начиналась именно с “https”.
ChatGPT, безусловно, перспективная технология для помощи в анализе и обнаружении фишинговых атак. Но на сегодня у языковых моделей много ограничений: например, когда дело доходит до объяснения причин, почему та или иная ссылка является фишинговой, они могут делать случайные необоснованные выводы и ошибки. Пока ChatGPT и другие языковые модели сложно назвать революционными инструментами в сфере кибербезопасности, но в качестве вспомогательного инструмента для ИБ-аналитиков они уже могут быть полезны.
Владислав Тушканов, ведущий исследователь данных в «Лаборатории Касперского».
Чтобы защититься от фишинговых и других кибератак, «Лаборатория Касперского» рекомендует:
компаниям
- использовать сервис Kaspersky Managed and Detection Response, который умеет распознавать и останавливать атаки на ранней стадии. В нём используются передовые модели машинного обучения, которые отсеивают рядовые события и обращают внимание аналитиков только на те инциденты, которые действительно требуют ручного вмешательства. Сервис повышает способность компании противостоять киберугрозам, оптимизируя при этом использование имеющихся ресурсов;
- регулярно проводить тренинги по кибербезопасности для сотрудников, а затем симулированные фишинговые атаки, чтобы проверить, научились ли они распознавать их;
- отслеживать самые свежие данные об угрозах, чтобы быть в курсе актуальных тактик, техник и процедур, используемых злоумышленниками.
частным пользователям
- не переходить по ссылкам из подозрительных сообщений в почте, мессенджерах и социальных сетях, даже если их прислали знакомые;
- не вводить конфиденциальные данные на сомнительных ресурсах;
- установить надёжное защитное решение с актуальными базами фишинговых и скам-сайтов, такое как Kaspersky Premium.