Recientemente muchos medios se hicieron eco de una noticia sobre un nuevo caso de deepfake en una empresa financiera de Hong Kong. Un empleado de esta empresa fue engañado con una videollamada en la que su supuesto director general y un compañero estaban siendo suplantados mediante la tecnología del deepfake, dando como resultado el robo de 25 millones de dólares.
La tecnología de los deepfakes se está haciendo viral gracias a las redes sociales o incluso empresas que se dedican a utilizarla para realizar videos a partir de fotografías de nuestros seres queridos y antepasados fallecidos. Pero, igual que esta tecnología tiene cosas buenas, se ve que cada vez se utiliza con más frecuencia para fines poco legítimos, sobre todo en empresas de servicios financieros, donde las consecuencias pueden ser desastrosas.
Descarga nuestro caso de uso: Autenticaciones por Biometría de Voz
Pero, antes de nada, ¿qué es exactamente la tecnología deepfake?
La tecnología deepfake es, a fin de cuentas, una forma de medio sintético. Estas creaciones se definen como composiciones visuales, auditivas o audiovisuales que emulan la realidad, generando imágenes y/o voces ficticias de personas. Basada en el uso de IA y aprendizaje automático (machine learning), esta tecnología logra recrear acciones con una apariencia hiperrealista, aparentando ser ejecutadas por las personas en cuestión.
Las redes neuronales de IA se entrenan con un conjunto de datos de imágenes y videos y aprenden a generar la semejanza de una persona con otra. Cuantos más datos tenga, con mayor precisión podrá generar un parecido, combinar gestos y expresiones, y más realistas podrán ser los videos falsos generados.
¿Cómo utilizan los deepfakes para cometer fraude en los servicios financieros?
Las empresas y los gobiernos necesitan proteger a sus ciudadanos y clientes. Los consumidores ya están preocupados por los deepfakes. En un informe reciente de la industria se han encontrado datos como:
- El 88% cree que las amenazas a la seguridad en línea están aumentando.
- El 85% cree que los deepfakes harán que sea más difícil confiar en los servicios online.
- El 72% cree que la necesidad de autenticar la identidad es más importante que nunca.
El uso de deepfakes está creciendo, al igual que el fraude de identidades sintéticas, y la banca minorista, las aseguradoras y los proveedores de pasarelas de pago son objetivos clave para este tipo de delitos.
Echemos un vistazo rápido a las formas en que los estafadores podrían utilizar la tecnología deepfake para cometer delitos financieros:
1- Fraude fantasma
El fraude fantasma (Ghost Fraud) se refiere al proceso de utilizar los datos de una persona fallecida para hacerse pasar por ella y obtener ganancias financieras. Los estafadores fantasmas pueden utilizar la identidad robada de un individuo para acceder a servicios, ahorros y créditos en línea, además de solicitar tarjetas, préstamos o beneficios. Utilizando la tecnología deepfake, los delincuentes podrían hacer que el fraude fantasma sea mucho más convincente.
2- Fraude de cuenta nueva
El fraude de cuentas nuevas está aumentando y representa pérdidas de 3.400 millones de dólares.
Este tipo de fraude, también conocido como fraude de solicitudes, se produce cuando los estafadores utilizan identidades falsas o robadas específicamente para abrir cuentas bancarias. Los estafadores pueden maximizar los límites de crédito bajo el nombre de la cuenta o solicitar préstamos que nunca se devuelven.
Ya que actualmente es muy fácil crear una cuenta bancaria a través de canales digitales solamente utilizando un vídeo del titular de esta, los estafadores podrían utilizar deepfakes para llevar a cabo sus delitos de manera mucho más rápida y sencilla.
3- Fraude de identidad sintética
El fraude de identidad sintética es una forma de fraude en línea sofisticada y difícil de detectar. Los estafadores crean identidades utilizando información de varias personas. En lugar de robar una identidad (como el nombre, la dirección y el número de seguro social de una persona recientemente fallecida), los estafadores utilizan una combinación de información falsa, real y robada para crear una “persona” que no existe.
Los estafadores utilizan identidades sintéticas para solicitar tarjetas de crédito/débito o completar otras transacciones que ayudan a crear una puntuación crediticia para clientes inexistentes. Se podría utilizar un deepfake de una persona fallecida para reforzar una identidad sintética.
4- Anualidad/pensión/seguro de vida/fraude de beneficios
Otro uso potencial de los deepfakes es el fraude de anualidades/pensiones, seguros o beneficios. Una persona fallecida podría seguir reclamando una pensión durante años, ya sea por un defraudador profesional o por un familiar.
A pesar de que se piden pruebas o fe de vida para ciertos trámites relacionados con seguros de vida, pensiones o cuentas, los deepfakes podrían suponer un desafío a la hora de confirmar la identidad de estos clientes.
Regulación de los deepfakes
En respuesta al creciente uso de los deepfakes con numerosos tipos de objetivos, legítimos o no, se está tratando de crear o modificar leyes existentes para luchar contra el uso indebido de estos.
En el plano internacional ha habido avances regulatorios en esta materia, especialmente a nivel de la Unión Europea, donde se espera la pronta aprobación del Reglamento de Inteligencia Artificial, que aborda la tecnología deepfake y establecerá una serie de pautas para su uso.
Fuera de Europa, algunos países como Corea del Sur o China han dado un paso adelante en este tema y están comenzando a adoptar normas o leyes que intenten regular su uso.
Pero a pesar de esto, aún queda mucho por hacer.
¿Cómo se puede detectar y luchar contra estos deepfakes?
A pesar de que la tecnología del deepfake es cada vez más sofisticada, existen soluciones que permiten detectar y proteger a las entidades contra el fraude con este tipo de tecnología.
Las soluciones de biometría de voz se han convertido en la clave para la lucha contra el fraude relacionados con identidad o autenticación.
La biometría de voz capta y mide las cualidades físicas de la voz al hablar, así como los parámetros biológicos únicos que se combinan para producir esa voz. Las soluciones más avanzadas permiten, gracias a la biometría de voz, detectar el intento de acceso a través de voces pregrabadas o generadas artificialmente evitando el fraude provocado por tecnologías de deepfake en tan solo unos segundos y mediante únicamente la voz del individuo.
Además, permiten luchar contra otro tipo de fraudes de identidad, como el phishing, identidades sintéticas, accesos no autorizados por apropiación de cuentas, SIM Swapping o el fraude por suscripción.
Si quieres conocer más sobre cómo la biometría de voz ayuda a detectar fraudes y garantiza una experiencia de cliente segura y sin fricciones te lo contamos en este caso de uso.