Боритесь с неудачами с помощью голосовой биометрической технологии.

Боритесь с неудачами с помощью голосовой биометрической технологии.

С каждым технологическим достижением, похоже, наблюдается соответствующий прогресс в использовании этой технологии во вредных целях. Это особенно верно в сфере финансовых услуг, где методы взаимодействия с нашими банками породили новую форму «грабителя банков». Когда транзакции сводились исключительно к походу в отделение банка, угроза финансовых потерь заключалась в первую очередь в вооруженном нападении. вор. Однако появление Интернета ознаменовало появление онлайн-банкинга, что стало технологическим и решающим преимуществом для банков и клиентов. Он также представил новое поколение грабителей банков в лице программистов и хакеров. Новые методы полета были основаны не на огнестрельном оружии, а на методах социальной инженерии, таких как фишинг, а также на гораздо более продвинутых методах, таких как вредоносное ПО «Человек-в-зломе». -Средний и Человек в браузере. Став компьютерами, распределяющими деньги, они стали объектом атак вредоносных программ. Приложения для смартфонов также не застрахованы от вредоносных программ, нацеленных на соответствующие операционные системы. Наши усилия по противодействию этим атакам часто также опираются на такие технологии, как использование двухфакторной аутентификации с использованием кодов авторизации на основе SMS. Поэтому неудивительно, что эти методы также подвергались атакам с использованием таких методов, как атаки с заменой SIM-карты и даже взлом глобальной телекоммуникационной сети SS7.Deepfakes. Существует новая технология, известная как Deepfake, которая, хотя и имеет очень отдаленное происхождение, мы считаем, что ее можно будет использовать в качестве нового и мощного вектора мошенничества. Depefake — это использование машинного обучения для создания аудиовизуальных имитаций реальных людей. Он использует метод, известный как Генеративно-состязательная сеть (GAN), который может генерировать новые данные из существующих наборов данных. Сюда входят изображения и звук. Например, существующие аудио/видео файлы говорящего человека могут использоваться для создания нового синтетического звука/видео, в зависимости от того, что алгоритм узнал из реального видео/звука. Хотя изначально дипфейки использовались для переноса знаменитостей в порнографические фильмы, вредные возможности Deepfakes варьируются от фальсификации ложной информации до телевидения, то есть теперь мы можем видеть, что цель обращается к нам лично. Фейковые новости, манипулирование выборами, война дезинформации и совершенно новый подход. Упадок печатных СМИ в пользу цифрового приема наших новостей не только практичен, но и привел к гораздо более богатому содержанию. аудио и видео Существует практически неограниченное количество сайтов, которые мы можем посетить в поисках новостей и контента. Если мы видим видеоролик, на котором человек, неизвестный или нет, передает сообщение, у нас нет оснований подозревать, что это видео — фейк. Это представляет собой готовый форум для тех, кто хочет распространять фейковые новости через Deepfakes. Маг: Shutterstock (Изображение: © Shutterstock) Потенциальное влияние на финансовые услуги Почему Deepfake также может влиять на финансовые услуги? Информация все чаще распространяется в цифровом формате, как и банковские услуги. Стратегии унифицированных коммуникаций и омниканальной стратегии предполагают, что банки общаются со своими клиентами, используя, например, аудио/видео систему на основе браузера. Это может быть агент-человек, но в будущем и агенты на основе искусственного интеллекта (ИИ). Поэтому нетрудно представить себе видео/аудиоразговор между богатым клиентом и его приват-банкиром. Если клиент выглядит и похож на самого себя и, конечно же, может дать ответы на все контрольные вопросы (как он всегда это делал), почему банкир не принимает ни одну из инструкций, данных клиентом? В гораздо большем масштабе, когда банки используют технологию распознавания лиц для аутентификации клиентов на веб-сайтах и ​​в мобильных приложениях? Это может включать самообслуживание, взаимодействие с агентом-человеком или чат-ботом с искусственным интеллектом. Если лицо совпадает и, учитывая, что дипфейки не статичны и показывают живость, будут выполнены мошеннические транзакции. Это всего лишь два примера взаимодействия с клиентами. Межбанковские коммуникации и инструкции могли быть скомпрометированы точно так же, о чем автор даже не подумал. Легкость идентификации коллеги или внешнего работника может стать ключом к использованию технологии Deepfake. Никто не хочет оспаривать личность известного человека, который выглядит и говорит совершенно нормально. Обнаружение дипфейка Так как же нам обнаружить, что то, что выглядит реальным для наших глаз и на самом деле звучит для наших ушей, на самом деле неверно? Ответ кроется в звуке Deepfake и использовании передовых голосовых биометрических методов. Независимо от реального, «человеческого» внешнего вида Deepfake, он создается синтетически. Даже видео Deepfake всегда содержат аудиокомпонент, и именно здесь звук является ключом к их обнаружению. Усовершенствованные голосовые биометрические алгоритмы включают методы обнаружения как записей (так называемые атаки воспроизведения или презентации), так и синтетически сгенерированного звука. Независимо от того, как «человеческий» голос может звучать для человеческого уха, для синтетических систем обнаружения важно не то, что кажется важным. Их интерпретация того, произнесен ли звук человеком, сильно отличается от нашей. Голосовая биометрия всегда была самым мощным и точным способом аутентификации или идентификации истинной личности человека. Способность самых продвинутых биометрических голосовых движков одновременно определять разницу между человеком и синтетически созданным «человеком» может оказаться неоценимой, если мы действительно станем свидетелями роста Deepfakes.