Выбрать страницу

Кажется, что с каждым технологическим прогрессом происходит соответствующий прогресс в использовании этой технологии во вредных целях. Это особенно верно в отношении индустрии финансовых услуг, где методы, используемые для взаимодействия с нашими банками, породили новую породу «грабителей банков». Когда операции заключались исключительно в посещении отделения банка, угроза финансовых потерь заключалась в основном в вооруженном нападении. вор. Однако появление Интернета ознаменовало появление онлайн-банкинга, решающего технологического преимущества для банков и клиентов. Он также представил новое поколение грабителей банков в виде программистов и хакеров. Новые методы полета были основаны не на огнестрельном оружии, а на методах социальной инженерии, таких как фишинг, а также на гораздо более продвинутых методах, таких как вредоносное ПО Man-in-the-Evil. -Средний и Человек в браузере. Став компьютерами, распределяющими деньги, они стали мишенью для атак вредоносного ПО. Приложения для смартфонов также не защищены от вредоносных программ, нацеленных на их соответствующие операционные системы. Наши усилия по противодействию этим атакам также часто основаны на таких технологиях, как использование двухфакторной аутентификации с использованием кодов авторизации на основе SMS. Неудивительно, что эти методы также подвергались атакам с помощью таких методов, как атаки с подменой SIM-карты и даже взлом глобальной телекоммуникационной сети SS7.Deepfakes. Существует новая технология, известная как Deepfake, которая, хотя и имеет очень далекое происхождение, Мы считаем, что она сможет использоваться в качестве нового мощного вектора мошенничества. Depfake — это использование машинного обучения для создания аудио/визуальных имитаций реальных людей. Он использует метод, известный как генеративно-состязательная сеть (GAN), который может генерировать новые данные из существующих наборов данных. Это включает в себя изображения и звук. Например, существующие аудио/видеофайлы говорящего человека можно использовать для создания нового синтетического звука/видео, в зависимости от того, что алгоритм извлек из фактического видео/звука. Хотя изначально дипфейки использовались для переноса знаменитостей в порнографические фильмы, вредоносные возможности дипфейков варьируются от подделки ложной информации до телевидения, а это означает, что теперь мы можем видеть, как цель говорит с нами лично. Фейковые новости, фальсификация выборов, дезинформационная война и совершенно новый способ. Упадок печатных СМИ в пользу цифрового восприятия наших новостей не только практичен, но и привнес гораздо более богатый контент. аудио и видео Существует практически неограниченное количество сайтов, которые мы можем посетить для получения новостей и контента. Если мы видим видеоклип неизвестного или нет человека, передающего сообщение, у нас нет оснований подозревать, что это видео фальшивое. Это предоставляет готовый форум для тех, кто хочет распространять поддельные новости через Deepfakes.Mage: Shutterstock (Изображение: © Shutterstock) Потенциальное влияние на финансовые услуги Почему Deepfake может повлиять и на финансовые услуги? Информация все больше распространяется в цифровом виде, как и банковские услуги. Стратегии унифицированных и многоканальных коммуникаций предполагают, что банки общаются со своими клиентами, используя, например, аудио/видеосистему на основе браузера. Это может быть агент-человек, но в будущем также и агенты на основе искусственного интеллекта (ИИ). Поэтому нетрудно представить, таким образом, видео/аудио разговор состоятельного клиента и его приватбанкира. Если клиент выглядит и выглядит как он сам, и, конечно же, может дать ответы на все контрольные вопросы (как он всегда это делал), почему банкир не принимает ни одну из инструкций, данных клиентом? Гораздо больше, когда банки используют технологию распознавания лиц для аутентификации клиентов на веб-сайтах и ​​в мобильных приложениях? Это может включать самообслуживание, взаимодействие с агентом-человеком или чат-ботом с искусственным интеллектом. Если лицо совпало, и если помнить, что дипфейки не статичны, они демонстрируют живость, мошеннические транзакции будут выполнены. Это всего лишь два примера взаимодействия с клиентами. Таким же образом могли быть скомпрометированы межбанковские коммуникации и инструкции, несомненно, о чем автор даже не подумал. Быть легко идентифицируемым коллегой или внешним работником может стать ключом к использованию технологии Deepfake. Никто не хочет оспаривать личность известного человека, который выглядит и говорит совершенно нормально. Обнаружение дипфейка Итак, как мы обнаруживаем, что то, что выглядит реальным для наших глаз и действительно звучит для наших ушей, на самом деле неверно? Ответ кроется в звуке Deepfake и в использовании передовых голосовых биометрических методов. Независимо от фактического «человеческого» внешнего вида Deepfake, он создается синтетическим путем. Даже видео Deepfake неизменно содержат звуковой компонент, и именно этот звук является ключом к его обнаружению. Усовершенствованные алгоритмы голосовой биометрии включают методы обнаружения как записей, называемых атаками воспроизведения или презентации, так и синтетически сгенерированного звука. Независимо от того, как «человеческий» голос может звучать для человеческого уха, это не то, что кажется важным для синтетических механизмов обнаружения. Их интерпретация того, говорит ли звук человек, сильно отличается от нашей. Голосовая биометрия всегда была самым мощным и точным способом аутентификации или определения истинной личности человека. Способность самых передовых голосовых биометрических движков одновременно определять различие между человеком и искусственно сгенерированным «человеком» может оказаться бесценной, если мы действительно станем свидетелями роста дипфейков.