Как ИИ изменит кибератаки

12 января 2023 г. 16:48
 453

Модели искусственного интеллекта уже показали определенные перспективы.

Модели искусственного интеллекта и машинного обучения (AI/ML) уже показали определенные перспективы в повышении сложности фишинговых кампаний, создании синтетических профилей и рудиментарных вредоносных программ, но еще более инновационное применение в кибератаках, вероятно, появится в ближайшем будущем.

Разработчики вредоносного ПО уже начали экспериментировать с генерацией кода с помощью ИИ, а исследователи безопасности продемонстрировали возможность создания полной цепочки атак.

Команда Check Point Research, например, использовала современные инструменты ИИ для создания полной атакующей кампании, начиная с фишингового письма, сгенерированного OpenAI's ChatGPT, которое призывает жертву открыть документ Excel. Затем исследователи использовали помощника программирования Codex AI для создания макроса Excel, который выполняет код, загруженный с URL-адреса, и скрипта Python для заражения целевой системы.

Каждый шаг требовал множества итераций для создания приемлемого кода, но в итоге цепочка атаки сработала, сообщает Сергей Шикевич, руководитель группы анализа угроз в Check Point Research.

«Это действительно потребовало большого количества итераций» - говорит он. «На каждом этапе первый результат не был оптимальным - если бы мы были атакующим, нас бы заблокировал антивирус. Нам потребовалось время, пока мы смогли сгенерировать хороший код».

За последние шесть недель ChatGPT - большая языковая модель (LLM), основанная на третьей итерации генеративного предварительно обученного трансформатора OpenAI (GPT-3) - вызвала множество сценариев «что если», как оптимистичных, так и опасливых, для потенциального применения искусственного интеллекта и машинного обучения. Двойное назначение моделей AI/ML заставило предприятия искать способы повышения эффективности с помощью этой технологии, в то время как защитники цифровых прав беспокоятся о том, как эта технология повлияет на организации и работников.

Кибербезопасность не является исключением. Исследователи и киберпреступные группы уже экспериментировали с технологией GPT для решения различных задач. Предположительно начинающие авторы использовали ChatGPT для написания вредоносных программ, хотя попытки разработчиков использовать сервис ChatGPT для создания приложений, хотя иногда и бывают успешными, часто приводят к созданию кода с ошибками и уязвимостями.

И все же AI/ML оказывает влияние и на другие области безопасности и конфиденциальности. Генеративные нейронные сети (ГНС) использовались для создания фотографий синтетических людей, которые выглядят подлинными, но не изображают реального человека, как способ улучшения профилей, используемых для мошенничества и дезинформации. Похожая модель, известная как генеративная состязательная сеть (GAN), может создавать поддельные видео- и аудиозаписи конкретных людей, а в одном случае позволила мошенникам убедить бухгалтеров и отделы кадров перевести 35 миллионов долларов на банковский счет преступников.

Со временем системы искусственного интеллекта будут только совершенствоваться, что приведет к появлению множества новых угроз, способных обмануть существующие защитные стратегии.

 

Вариации на тему (фишинга)

На данный момент киберпреступники часто используют один и тот же или похожий шаблон для создания фишинговых электронных писем или страниц для атак, направленных на взлом электронной почты, но использование одного шаблона в кампании повышает вероятность того, что защитное программное обеспечение сможет обнаружить атаку.

Поэтому одним из основных первоначальных применений LLM, таких как ChatGPT, будет способ создания более убедительных фишинговых приманок, с большей вариативностью и на разных языках, которые могут динамически подстраиваться под профиль жертвы.

Чтобы продемонстрировать это, Крейн Хассольд, директор по анализу угроз в компании Abnormal Security, специализирующейся на безопасности электронной почты, попросил ChatGPT создать пять вариаций простого фишингового запроса. Пять вариаций существенно отличались друг от друга, но имели одинаковое содержание - запрос в отдел кадров о том, какая информация потребуется вымышленной компании для изменения банковского счета, на который перечисляется зарплата. 

 

Быстрые, необнаруживаемые вредоносы.

Хотя начинающий программист может создать вредоносную программу с помощью помощника по кодированию ИИ, ошибки и уязвимости все равно остаются. Возможности систем ИИ по разработке кода впечатляют, но в конечном итоге они не дотягивают до человеческого уровня.

Тем не менее, прогресс может изменить ситуацию в будущем, подобно тому, как авторы вредоносных программ используют автоматизацию для создания огромного количества вариантов вирусов и червей, чтобы избежать обнаружения системами сигнатурного сканирования. Аналогично, злоумышленники могут использовать ИИ для быстрого создания быстродействующих имплантов, использующих последние уязвимости, прежде чем организации успеют установить заплатки.

«Я думаю, что это немного больше, чем просто мысленный эксперимент» - заявляет Шикевич из Check Point. «Мы смогли использовать эти инструменты для создания работоспособного вредоносного ПО».

 

Пройти тест Тьюринга?

Возможно, лучшим применением системы ИИ может быть самое очевидное: способность функционировать как искусственные личности.

Уже сейчас многие из тех, кто взаимодействует с ChatGPT и другими системами ИИ, включая некоторых предполагаемых экспертов, считают, что машины обрели некую форму разумности. Возможно, наиболее известным стало увольнение инженера-программиста Блейка Лемуана из Google, который утверждал, что LLM компании, получивший название LaMDA, достиг сознания.

«Люди считают, что эти машины концептуально понимают, что они делают» - говорит Гэри Макгроу, соучредитель и генеральный директор Института машинного обучения в Берривилле, который изучает угрозы для систем AI/ML. «То, что они делают, - это невероятные, статистические предиктивные автоассоциаторы. Тот факт, что они могут делать то, что они делают, поражает воображение - в них может происходить столько всего интересного. Но это не понимание».

Хотя эти автоассоциативные системы не обладают разумом, они могут быть достаточно хороши, чтобы обмануть работников колл-центров и линий поддержки - группу, которая часто представляет собой последнюю линию защиты от захвата аккаунтов, распространенного киберпреступления.

 

Медленнее, чем прогнозировалось

Несмотря на то, что исследователи кибербезопасности быстро разработали несколько инновационных кибератак, хакеры, скорее всего, не начнут немедленно использовать данную методологию. Хотя технология ChatGPT является «абсолютно преобразующей», злоумышленники, скорее всего, будут использовать ChatGPT и другие формы искусственного интеллекта и машинного обучения, только если они предлагают им более быстрый путь к монетизации, заявляет Хассольд из Abnormal Security.

«Киберугрозы, связанные с искусственным интеллектом, являются актуальной темой на протяжении многих лет» - говорит он. «Но если посмотреть на финансово мотивированных злоумышленников, то они не хотят прилагать массу усилий или работы для облегчения своих атак, они хотят заработать как можно больше денег с наименьшими затратами».

По его словам, пока что атаки, проводимые людьми, требуют меньше усилий, чем попытки создания атак, усиленных ИИ, таких как deepfakes или GPT-генерируемый текст.

 

Защита должна игнорировать пустые слова об ИИ

То, что атакующие используют новейшие системы искусственного интеллекта, не означает, что атаки сложнее обнаружить, пока что. Текущий вредоносный контент, созданный моделями AI/ML, обычно является «вишенкой на торте» - они придают тексту или изображениям более человеческий вид, но, сосредоточившись на технических показателях, продукты кибербезопасности все равно смогут распознать угрозу, подчеркивает Хассольд.

«Все те же поведенческие индикаторы, которые мы используем для идентификации вредоносных электронных писем, все еще существуют» - говорит он. «Хотя электронное письмо может выглядеть более легитимно, тот факт, что письмо приходит с адреса электронной почты, который не принадлежит тому, кто его отправляет, или что ссылка может быть размещена на домене, который был недавно зарегистрирован - это индикаторы, которые не изменятся».

Аналогичным образом, процессы, используемые для двойной проверки запросов на изменение банковского счета для оплаты и перевода зарплаты, победят даже самую убедительную пародию на deepfake, если только атакующий не имеет доступа или контроля над дополнительными уровнями безопасности, которые становятся все более распространенными.

 

Источник: https://www.darkreading.com

Системы Информационной Безопасности