ESTUDIO

Daniel Molina: Deepfakes desde 20.000 pesos



Dirección copiada

Un reciente estudio de la firma británica iProov encontró que solo el 0,1 % de las personas sabe distinguir entre un deepfake y una imagen real. ¿Qué implicaciones tiene esta tendencia y quiénes son más vulnerables? Conozca estos detalles de la mano de Daniel Molina, vicepresidente de iProov para Latinoamérica.

Publicado el 12 de feb de 2025



Daniel Molina de iProov comenta que es posible crear Deepfakes con poco dinero. desde 20.000 pesos
Daniel Molina de iProov comenta que es posible crear Deepfakes con poco dinero.

Crear una falsificación digital puede costar desde 20.000 pesos en adelante, afirma Daniel Molina, vicepresidente de iProov para Latinoamérica. Una situación que ha popularizado tanto la creación de falsificaciones digitales que, según este directivo: “Los deepfakes están erosionando la confianza en internet”.

Y no es para menos, las afirmaciones de Molina se basan en un estudio reciente que la firma británica iProov realizó entre más de 2.000 personas alrededor del mundo, donde encontró que apenas 20 personas fueron capaces de distinguir entre las falsificaciones y las imágenes reales.

Por cierto, si usted cree que puede hacerlo mejor, iProov dejó esta prueba en línea en este enlace. El estudio encontró mayores vulnerabilidades entre la población adulta mayor, pero los jóvenes tampoco se salvan; de hecho, ellos presentan algo que puede ser peor: un exceso de confianza.

El exceso de confianza, que se presenta en un alto grado en países de América Latina como México y Colombia, no solo conlleva a cometer errores de juicio, sino que, peor aún, puede llevar a que estas personas se conviertan en propagadores de información falsa por internet. En otras palabras, cómplices.

Pero tal vez el hallazgo más dramático del estudio es el simple desconocimiento: “Vimos que en la gente no nativa digital, el 65% nunca había escuchado lo que era un deepfake. Ni siquiera saben de qué se tienen que proteger”, señala Daniel Molina.

Redes y responsabilidad

Recordemos que los Deepfakes son mucho más que simples manipulaciones audiovisuales. Gracias a algoritmos de aprendizaje profundo, estas falsificaciones pueden suplantar la identidad de cualquier persona, poner palabras en su boca o mostrarla realizando acciones que nunca ocurrieron.

Su peligrosidad radica en su capacidad de erosionar la confianza en las instituciones, en las personas y en la información que consumimos a diario. Un Deepfake convincente puede dañar la reputación de una figura pública, incitar a la violencia, interferir en procesos electorales o incluso desencadenar conflictos internacionales.

Ante la proliferación de Deepfakes, surge la pregunta sobre quién debe asumir la responsabilidad. Las redes sociales argumentan que su papel se limita a ser plataformas de distribución, sin juzgar la veracidad de la información que circula en ellas.

“Las redes sociales dicen: yo te voy a entregar todo lo que viene en Internet. Bueno y malo. Porque si yo me pongo como árbitro a decidir qué es bueno y qué es malo y se pasa algo, me vas a culpar a mí'”, explica Molina.

Sin embargo, esta postura es cuestionable, ya que las redes sociales tienen la capacidad de amplificar el alcance de los Deepfakes y convertirlos en fenómenos virales en cuestión de horas. Pero este no es el único reto, también está el tema regulatorio, en el cual no existe un marco universal/internacional para penalizar estos crímenes que atentan contra la Ciberseguridad de ciudadanos y empresas.

¿Cómo protegernos?

Los Deepfakes representan un desafío sin precedentes para la confianza en la era digital. A medida que la tecnología avanza, estas falsificaciones se vuelven más difíciles de detectar, lo que exige una respuesta coordinada entre gobiernos, empresas y ciudadanos. Pero Daniel Molina destaca un punto: ‘la desconfianza como punto de partida’.

De hecho, el directivo asegura que “la identidad es responsabilidad de cada persona” y que tiene que existir una educación y responsabilidad sobre cómo se administra esta identidad. En este escenario, la educación y la conciencia pública son fundamentales para empoderar a las personas y convertirlas en agentes activos en la lucha contra la desinformación.

“Lo más importante es no replicarlo”, enfatiza Molina. “Tomar la responsabilidad de cuando vi algo y verlo con ojos críticos. Usar el sentido común, que es el menos común de los sentidos”.

Pero no todo es cultura, también es tecnología como la que promociona la firma que Molina representa, que usa técnicas conocidas como ‘detección de vida’. También conocida como ‘liveness detection’, es una tecnología cuyo objetivo es determinar si una persona que se presenta ante un sistema es un ser humano real y vivo en ese momento, en lugar de una representación falsa como una foto, un video o una máscara.

“Con un video que tú tomas con un teléfono o con ununa cámara cualquiera, podemos identificar que es un ser humano vivo“, explica Molina, a lo que agrega: “Tenemos 37 pruebas en que vemos cómo refleja la luz en los pómulos, en los ojos, en el mentón de la persona, por ejemplo”.

Pero al final, incluso usando tecnología, para detectar los Deepfakes se debe partir de un principio: el pensamiento crítico, donde si una cosa parece demasiado buena para ser cierto o parece muy extraña, es por algo…

Artículos relacionados

Artículo 1 de 5