![]() |
![]() ![]() ![]() ![]() | ![]() |
![]() |
![]() ![]() ![]() |
![]() |
начало | ![]() |
![]() |
|
![]() |
![]() ![]()
|
![]() |
![]() |
Термин «синтетические медиа» обозначает контент, созданный полностью или частично с использованием искусственного интеллекта. Нейросети научились обрабатывать видеозаписи, записи голоса, мимики или отдельных движений человека. Благодаря машинному обучению нейросети работают с данными, где одна сеть создает фейковые изображения, а другая пытается отличить настоящее изображение от поддельного, тем самым испытывая качество искусственно созданного аудио, звукового, написанного или нарисованного изображения. Обе сети постоянно взаимодействуют до тех пор, пока сфальсифицированные данные не достигнут полного сходства с реальными. Синтетические медиа, попав в арсенал криминала, практикующего социальный инжиниринг, представляют серьезную угрозу безопасности бизнеса. В 2022 году преступная группировка выманила у коммерческой компании в Арабских Эмиратах 35 миллионов долларов с помощью мимикрии голоса ее директора, будто бы давшего указание о переводе денег «партнерской организации». И это не первый, и не последний зафиксированный факт применения методов дипфейка. Еще в 2019 году на аналогичную удочку попался менеджер британской дочки немецкой компании, отправив мошенникам по звонку от якобы его начальника 220 тысяч долларов. Здесь речь идет о телефонных звонках. Но уже известны попытки создать видео/аудио фальшивки. По большей части, неудачные. Но совершенству предела нет. Без сомнения, уже в скором времени мы столкнемся с поразительными по качеству видео/аудио фейками. Автор книги о дипфейках Нина Шик («Deepfakes: The Coming Infocalypse») уверена, что через 4-5 лет синтетические медиа займут 90% онлайнового контента. Это радикально изменит наше отношение к фото и видео, которым мы еще недавно наивно доверяли. Майкл Элган, публицист и аналитик, ведущий еженедельную колонку в американском деловом журнале Fast Company, опубликовал на сайте securityintelligence.com статью о синтетических медиа. В ней он рассказал, как однажды продемонстрировал возможность совмещения лиц двух людей, получив в результате фотографию, где оба лица присутствуют в одном изображении. Это способ для мошенника создать фальшивое фото – идентификатор человека, хорошо знакомого потенциальной жертве обмана (см. веб-сайт drawanyone.ai). Как защититься от атак с использованием синтетических медиа? Майкл Элган пишет, что обучение персонала, особенно программы повышения уровня осведомленности (awareness-raising), играет ключевую роль в защите от синтетических медиа. Необходимо обновлять содержание тренингов по безопасности с учетом новых угроз. Учить менеджеров с крайней осторожностью относиться к указаниям начальства, передаваемым техническим средствами, поскольку голос, похожий на голос генерального директора, на деле может оказаться совсем не его/ее. Контакт по видеотелефонии Zoom тоже может оказаться фальшивкой. Короче говоря, пора осознать, что сегодня любые медиа – речевые, звуковые, видео, текстовые, просто картинки – уже не являются надежными для аутентификации. Элган советует организациям обращаться за консультациями и практической помощью к специалистам таких компаний как, например, Deeptrace and Truepic, которые обладают технологиями исследования и распознавания синтетического видеоматериала. Кадровым службам, продолжает эксперт, не помешает обзавестись инструментами антифрода с технологией искусственного интеллекта (AI fraud detection) для качественной проверки резюме и самих соискателей на важные рабочие места. И конечно, пишет в заключение Элган, во главу угла необходимо поставить принцип «нулевого доверия».
|
![]() |
карта сайта![]() ![]() ![]() |
![]() |
![]() |
|
![]() ![]() |