"Амулет" -  служба безопасности, охрана, юридические услуги, системы безопасности

"Амулет" - безопасность бизнеса, охрана, юридическая поддержка
Технология deepfake в арсенале киберкриминала. Как от нее защищаться?

 

 Что такое «deepfake»? Это «искусственный интеллект, который использует синтез человеческого изображения – объединяет несколько картинок, на которых человек запечатлен с разных ракурсов и с разным выражением лица, и делает из них видео. Анализируя фотографии, специальный алгоритм "учится" тому, как выглядит и двигается человек. Работают две нейросети. Первая генерирует образцы изображения, а вторая отвечает за то, чтобы отличать настоящие образцы от поддельных. Технологию можно сравнить с работой двух фальшивомонетчиков, один из которых подделывает купюры, а второй пытается отличить эти подделки от оригиналов. В случае если второй обнаруживает подделку, изображение отсылается первому, который улучшает свою работу, предлагая более реалистичную подделку»   (подробнее смотри на веб-сайте https://informburo.kz).

 Киберпреступники используют deepfake как продвинутый и весьма эффективный инструмент социальной инженерии, который создает видимость правдоподобия внешности, голоса, артикуляции, манеры двигаться  реального человека.  Эта технология пока используется  сравнительно редко, в основном крупными, хорошо организованными и технически оснащенными группировками, говорит Марк Уорд, старший аналитик организации Information Security Forum. «Но у нее неплохие перспективы для распространения, как только криминал поймет и оценит все ее выгоды» (Chief Security Officer, 25 October 2021). 

Уже сегодня в сером сегменте Всемирной сети хакеры активно обмениваются опытом и знаниями в этом деле. Овладев технологией deepfake, преступники развернули в «темном вебе» своего рода курсы, обучая коллег по преступному ремеслу синтезировать визуальные и аудио данные человека для взлома средств информационной защиты. Это оружие направлено в первую очередь против успешных компаний. Цель – подменить реального руководителя, как бы от его имени ввести в заблуждение финансовую администрацию корпорации, вынудив ее перевести деньги на счета, контролируемые преступниками.

Переход части персонала компаний на «удаленку» облегчил реализацию задач социальной инженерии. «Платформы бизнес коммуникаций, через которые осуществляются фишинговые атаки, представляют собой идеальный механизм для deepfake, при условии, что менеджмент организации уверен в их надежности и безопасности», - отмечает Рик МакЕлроу, специалист по кибербезопасности (там же).

Эксперты обращают внимание, что технология deepfake на вооружении хакеров способна преодолевать биометрические средства защиты, такие как распознавание по голосу или лицу. Это серьезный риск для бизнеса, который полагается на биометрию как на важный компонент стратегии управления жизненным циклом учетных записей и доступом к различным системам в компании. Распространение дистанционной работы генерирует в интернете массу аудио и видео данных, перехват и обработка которых машинами искусственного интеллекта позволяет злоумышленникам создавать правдоподобные дубликаты реальных людей.

Несмотря на большую опасность, исходящую от хакерских атак с применением методов deepfake, эксперты полагают, что у бизнеса есть серьезные возможности и средства защитить себя. Это набор разных инструментов – от обучения и тренинга персонала компаний до использования продвинутых технологий сбора и анализа данных о рисках и угрозах, об уязвимостях систем информационной защиты.

По мнению Уорда, обучение работников организации методам распознавания фишинга с использованием deepfake является наиболее важным элементом стратегии минимизации рисков. Он рекомендует особое внимание уделить тренингам тех сотрудников, кто имеют прямое отношение к финансам компании. «Разрешение работникам финансовой службы замедлять и приостанавливать процесс перевода денег, если у них нет 100% уверенности в подлинности распоряжения, защитит организации от хакеров, но потребует определенной перестройки в работе бухгалтерии».

С технической точки зрения Уорд призывает к внедрению аналитических систем, позволяющих своевременно определять признаки манипуляций. Разведка угроз (threat intelligence) призвана сигнализировать, что организация предположительно находится под прицелом атакующих хакеров, и требуется углубленное изучение ситуации. Реализация схем, связанных с deepfake, требует определенного времени, и у компании, заподозрившей нечто неладное, есть возможность предотвратить инцидент, утверждает Уорд.

Альберт Ру, вице-президент Onfido (провайдер технологии идентификации на основе искусственного интеллекта) полагает весьма эффективным средством защиты рандомизацию (регулярное и произвольное изменение) инструкции по применению биометрии для верификации личности. «Существуют тысячи возможностей, которые никто из хакеров не может предугадать. Например, взгляд в ту или иную сторону, или заготовленная фраза, которую надо произнести. Если пользователь биометрической идентификации отвечает на запрос технологии неверно, то это причина для расследования, дополнительной проверки». 

вернуться назад

© "АМУЛЕТ" 2003 г. Тел/Факс.(495) 614-40-60, 614-41-60, Е-mail:sb@amulet-group.ru