El riesgo de los Deepfakes está en aumento, y casi la mitad de las organizaciones (47 %) ha encontrado un Deepfake, mientras que tres cuartas partes de ellas (70 %) creen que los ataques de Deepfakes, creados utilizando herramientas de IA generativa, tendrán un alto impacto en sus organizaciones.
Sin embargo, las percepciones sobre la Inteligencia Artificial son optimistas, ya que dos tercios de las organizaciones (68 %) creen que, si bien tiene un impacto en la creación de amenazas cibernéticas, más (84 %) consideran que es fundamental para protegerse contra ellas. Esto según una nueva encuesta global de iProov, un proveedor líder de soluciones de identidad biométrica basadas en la ciencia.
El estudio también encontró que tres cuartas partes (75 %) de las soluciones que se están implementando para abordar la amenaza de los Deepfakes son biométricas.
‘The Good, The Bad, and The Ugly’ es una encuesta global encargada por iProov que reunió las opiniones de 500 tomadores de decisiones en tecnología del Reino Unido, EE.UU., Brasil, Australia, Nueva Zelanda y Singapur sobre la amenaza de la IA generativa y los Deepfakes.
Mientras las organizaciones reconocen las mayores eficiencias que la IA puede aportar, estos beneficios también son aprovechados por los desarrolladores de tecnología maliciosa y actores malintencionados.
Casi tres cuartas partes (73 %) de las organizaciones están implementando soluciones para abordar la amenaza de los Deepfakes, pero la confianza es baja, ya que el estudio identifica una preocupación predominante de que las organizaciones no están haciendo lo suficiente para combatirlos.
Más de dos tercios (62 %) están preocupados de que su organización no esté tomando la amenaza de los Deepfakes con la seriedad necesaria.
El nuevo informe de iProov revela cómo los actores malintencionados están utilizando herramientas avanzadas de IA para generar Deepfakes cada vez más sofisticados. Los intercambios faciales se crean utilizando herramientas de IA generativa y presentan un gran desafío para los sistemas de verificación de identidad, debido a su capacidad para manipular rasgos clave de imágenes o vídeos. Un intercambio de caras se puede generar fácilmente mediante software de intercambio de caras de video estándar y se aprovecha alimentando la salida manipulada o sintética a una cámara virtual. A diferencia del ojo humano, los sistemas biométricos avanzados pueden ser resistentes a este tipo de ataques.
La encuesta muestra que las organizaciones reconocen que la amenaza de los Deepfakes es real y presente. Pueden ser utilizados contra las personas de diversas maneras dañinas, incluyendo la difamación y el daño reputacional, pero quizás el riesgo más cuantificable es el fraude financiero. Aquí, pueden ser utilizados para cometer fraudes de identidad a gran escala, haciéndose pasar por individuos para obtener acceso no autorizado a sistemas o datos, iniciar transacciones financieras o engañar a otros para que envíen dinero, como en el reciente fraude de Deepfake en Hong Kong.
La dura realidad es que los Deepfakes representan una amenaza para cualquier situación en la que una persona necesite verificar su identidad de forma remota, pero los encuestados están preocupados de que las organizaciones no estén tomando la amenaza lo suficientemente en serio.
“Hemos estado observando los Deepfakes durante años, pero lo que ha cambiado en los últimos seis a doce meses es la calidad y la facilidad con la que pueden ser creados y causar destrucción a gran escala tanto en organizaciones como en individuos”, dijo Andrew Bud, fundador y CEO de iProov.
“Quizás el uso de Deepfakes más subestimado es la creación de identidades sintéticas que, al no ser reales y no tener un propietario que reporte su robo, pasan en gran medida desapercibidas mientras causan estragos y defraudan a organizaciones y gobiernos por millones de dólares”.
“Y a pesar de lo que algunos puedan creer, ahora es imposible para el ojo humano detectar Deepfakes de calidad. Aunque nuestra investigación muestra que la mitad de las organizaciones encuestadas ha encontrado un Deepfake, es probable que esta cifra sea mucho mayor porque la mayoría de las organizaciones no están adecuadamente equipadas para identificar Deepfakes. Con la rapidez con la que el panorama de amenazas está innovando, las organizaciones no pueden permitirse ignorar las metodologías de ataque resultantes y cómo la biometría facial se ha destacado como la solución más resiliente para la verificación de identidad remota”, añadió Andrew Bud.
Matices regionales
El estudio también revela algunas percepciones matizadas sobre los Deepfakes a nivel global. Las organizaciones en APAC (51 %), Europa (53 %) y LATAM (53 %) son significativamente más propensas que las de América del Norte (34 %) a decir que han encontrado un Deepfake.
Las organizaciones de APAC (81 %), Europa (72 %) y América del Norte (71 %) son significativamente más propensas que las de LATAM (5 4%) a creer que los ataques de Deepfakes tendrán un impacto en su organización.
En medio de un panorama de amenazas en constante cambio, las tácticas empleadas para vulnerar organizaciones a menudo reflejan aquellas utilizadas en el fraude de identidad. No es sorprendente que los Deepfakes ahora están empatados en tercer lugar entre las preocupaciones más prevalentes para los encuestados, con el siguiente orden: brechas de contraseñas (64 %), ransomware (63%), ataques de phishing/ingeniería social (61 %) y Deepfakes (61 %).
La IA no es del todo mala
Existen muchos tipos diferentes de Deepfakes, pero todos tienen un denominador común: son creados utilizando herramientas de IA generativa. Las organizaciones reconocen que la IA generativa es innovadora, segura, confiable y les ayuda a resolver problemas. La ven como más ética que no ética y creen que tendrá un impacto positivo en el futuro.
Y están tomando medidas: solo el 17 % no ha aumentado su presupuesto en programas que aborden el riesgo de la IA. Además, la mayoría ha introducido políticas sobre el uso de nuevas herramientas de IA.
La biometría contra los Deepfakes
La biometría ha surgido como la solución preferida por las organizaciones para abordar la amenaza de los Deepfakes.
Las organizaciones indicaron que es más probable que utilicen biometría facial y de huellas dactilares; sin embargo, el tipo de biometría puede variar según las tareas.
Por ejemplo, el estudio encontró que las organizaciones consideran la biometría facial como el modo de autenticación adicional más apropiado para protegerse contra los Deepfakes en el acceso a cuentas/inicio de sesión, cambios en los datos personales de la cuenta y transacciones típicas.
El software no es suficiente
El estudio deja claro que las organizaciones ven la biometría como un área de especialización, y casi todas (94 %) coinciden en que un socio de seguridad biométrica debe ser más que solo un producto de software.
Las organizaciones encuestadas indicaron que buscan un proveedor de soluciones que evolucione y se mantenga al ritmo del panorama de amenazas con monitoreo continuo (80 %), biometría multimodal (79 %) y detección de vida (77 %), todos ellos elementos altamente valorados en sus requisitos para proteger adecuadamente las soluciones biométricas contra los Deepfakes.
Metodología de la encuesta
La encuesta ‘The Good, The Bad, and The Ugly’ fue desarrollada en colaboración con Hanover Research. Se reclutaron 500 encuestados globales de diversas industrias, incluidas Banca, eCommerce, Finanzas y Contabilidad, Atención Médica/Medicina, Hospitalidad, Seguros, Retail, Telecomunicaciones y Viajes.
Esto se realizó a través de un proveedor de panel de terceros, y la encuesta se administró en línea en la primavera de 2024. Los encuestados eran profesionales en los departamentos de TI, Operaciones, Seguridad de Redes, Tecnología, Experiencia Digital, Gestión de Riesgos o Gestión de Productos, con responsabilidad primaria en la toma de decisiones sobre la selección y compra de soluciones tecnológicas para su organización.