Lucha contra las fallas con la tecnología biométrica de voz.

Lucha contra las fallas con la tecnología biométrica de voz.

Con cada avance tecnológico, parece haber un progreso correspondiente en la explotación de esta tecnología con fines dañinos. Esto es particularmente cierto en la industria de servicios financieros, donde los métodos utilizados para interactuar con nuestros bancos han producido una nueva forma de "ladrón de bancos". Cuando las transacciones consistían únicamente en ir a una sucursal bancaria, la amenaza de pérdida financiera consistía principalmente en un ataque armado. вор. Sin embargo, el advenimiento de Internet ha marcado la introducción de la banca en línea, una ventaja tecnológica y decisiva para los bancos y los clientes. También introdujo una nueva generación de ladrones de bancos en forma de programadores y hackers. Las nuevas técnicas de vuelo no se basaron en armas de fuego, sino en técnicas de ingeniería social, como el phishing, así como en técnicas mucho más avanzadas, como el malware Man-in-the-Mal. -Middle y Man-in-the-Browser. Convertirse en computadoras distribuyendo dinero, han sido blanco de ataques de malware. Las aplicaciones para teléfonos inteligentes tampoco han sido inmunes al malware que se dirige a sus respectivos sistemas operativos. Nuestros esfuerzos para contrarrestar estos ataques a menudo también se basan en tecnologías, como el uso de una autenticación de 2 factores utilizando códigos de autorización basados ​​en SMS. No es sorprendente, entonces, que estas técnicas también hayan sido atacadas por técnicas como los ataques de intercambio de SIM e incluso el pirateo de la red de telecomunicaciones global SS7.Deepfakes. Existe una nueva tecnología conocida como Deepfake que, aunque tiene orígenes muy lejanos de Creemos que tendrán la capacidad de ser utilizados como un nuevo y poderoso vector de fraude. Depefake es el uso de Machine Learning para crear imitaciones de audio / visuales de personas reales. Utiliza una técnica conocida como Generative Adversarial Network (GAN), que puede generar nuevos datos a partir de conjuntos de datos existentes. Esto incluye imágenes y sonido. Por ejemplo, los archivos de audio / video existentes de una persona que habla pueden usarse para generar un nuevo sonido / video sintético, dependiendo de lo que el algoritmo haya aprendido del video / sonido real. Aunque inicialmente se usó para transponer a las celebridades a películas pornográficas, las posibilidades dañinas de Deepfakes van desde falsificar información falsa a la televisión, es decir, ahora podemos ver que el objetivo nos habla personalmente. Noticias falsas, manipulación electoral, guerra de desinformación y una forma completamente nueva. El declive de los medios impresos en favor de la recepción digital de nuestras noticias no solo es práctico, sino que también ha introducido un contenido mucho más rico. audio y video Existen sitios prácticamente ilimitados que podemos visitar para obtener noticias y contenido. Si vemos un video clip de una persona, desconocido o no, transmitiendo un mensaje, no tenemos ninguna razón para sospechar que este video es falso. Esto proporciona un foro llave en mano para aquellos que buscan difundir noticias falsas a través de Deepfakes.Mage: Shutterstock (Imagen: © Shutterstock) Impacto potencial en los servicios financieros ¿Por qué Deepfake también puede afectar a los servicios financieros? La información se difunde cada vez más en forma digital, al igual que los servicios bancarios. Las estrategias de comunicaciones unificadas y omnicanal involucran a los bancos que se comunican con sus clientes utilizando, por ejemplo, un sistema de audio / video basado en el navegador. Esto podría ser con un agente humano, pero en el futuro también con agentes basados ​​en inteligencia artificial (IA). Por lo tanto, no es difícil imaginar, por lo tanto, una conversación de video / audio entre un cliente rico y su banquero privado. Si el cliente se ve y se parece a sí mismo y, por supuesto, puede proporcionar respuestas a todas las preguntas de seguridad (como siempre lo haría), ¿por qué el banquero no acepta ninguna de las instrucciones dadas por el cliente? ¿Una escala mucho mayor con los bancos que utilizan la tecnología de reconocimiento facial para autenticar a los clientes en sitios web y aplicaciones móviles? Esto podría involucrar el autoservicio, la interacción con un agente humano o con un chatbot de AI. Si la cara coincide, y recordando que Deepfakes no es estático, muestran una vivacidad, se ejecutarán transacciones fraudulentas. Estos son solo dos ejemplos que involucran las interacciones con los clientes. Las comunicaciones e instrucciones interbancarias podrían verse comprometidas de la misma manera, sin duda, como el autor ni siquiera consideró. Ser fácilmente identificable por un colega o trabajador externo podría convertirse en la clave para explotar la tecnología Deepfake. Nadie quiere disputar la identidad de una persona conocida que se ve y suena perfectamente normal. Detectar un Deepfake Entonces, ¿cómo detectamos que lo que parece real a nuestros ojos y realmente suena a nuestros oídos es realmente incorrecto? La respuesta está en el audio de un Deepfake y en el uso de técnicas biométricas vocales avanzadas. Independientemente de la apariencia real y "humana" de un Deepfake, se genera sintéticamente. Incluso los videos de Deepfake incluyen invariablemente un componente de audio, y eso es lo que el audio es la clave para su detección. Los algoritmos biométricos de voz avanzados incluyen técnicas para detectar ambas grabaciones, llamadas ataques de reproducción o presentación, así como audio generado sintéticamente. Independientemente de cómo una voz "humana" pueda sonar al oído humano, no es lo que parece que es importante para los motores de detección sintéticos. Su interpretación de si o no el audio es hablado por un ser humano es muy diferente de la nuestra. La biometría de voz siempre ha sido la forma más potente y precisa de autenticar o identificar la verdadera identidad de un ser humano. La capacidad de los motores biométricos de voz más avanzados para identificar simultáneamente la distinción entre un humano y un "humano" generado sintéticamente puede ser invaluable si realmente presenciamos el surgimiento de Deepfakes.