Protección Data

BLOG

PARA ESTAR AL DÍA EN PROTECCIÓN DE DATOS Y SEGURIDAD DE LA INFORMACIÓN

Blog
Compartir Facebook Twitter Linkedin
JAVIER CASAL TAVASCI

Deepfakes

Seguro que han visto el siguiente anuncio de una conocida cerveza española. 

Para quien no lo sepa, Lola Flores falleció el 16 de mayo de 1995 y nunca grabó ese anuncio. ¿Cómo se hizo, entonces?. Con inteligencia artificial.

La técnica, que se conoce como «Deepfake» (acrónimo formado por las palabras «fake», falsificación, y «deep learning», aprendizaje profundo​), permite editar vídeos falsos de personas que aparentemente son reales, utilizando algoritmos de aprendizaje no supervisados y vídeos o imágenes reales de la persona. Viendo los siguientes videos lo comprenderán:

Pero los algoritmos van más allá, permitiendo la creación de rostros de personas que no existen. La compañía norteamericana Nvidia mostró, hace unos años, los resultados de generación de rostros con lo que llaman «Generative Adversarial Networks» (GAN). La técnica se puede emplear, incluso, para crear objetos falsos, como se advierte al final del vídeo. Los resultados no son perfectos, pero todo se andará.

En la industria cinematográfica ya se ha hecho uso de esta tecnología. En el documental «Roadrunner» sobre la vida del polifacético chef Anthony Bourdain, tras suicidarse, crearon réplicas digitales con los registros de voz que tenían del protagonista para producir el audio que el director necesitaba para acabar el documental. Lo mismo hicieron en «Top Gun: Maverik» con la voz de Val Kilmer, que fue simulada con inteligencia artificial a partir de registros antiguos de voz del actor, pues éste no puede hablar tras sufrir un cáncer de garganta.

También se emplean en el campo educativo. En el Salvador Dalí Museum de San Petersburgo en el Estado de Florida (USA) existe una exposición permanente de obras de Dalí, cuya presentación la hace el propio Dalí, creado a partir de unos 6.000 fotogramas existentes de entrevistas suyas. La novedad no solo es que, a partir de esta tecnología se pueda mostrar al pintor como si estuviera vivo, sino que, además, se le dota de capacidades para interactuar con el público. 

La tecnología avanza, tanto y tan rápido, que dentro de no mucho tiempo, los «deepfakes» serán tan perfectos que nos costará distinguirlos de la realidad.

La empresa Ziva Dynamic ha creado ZRT Face Trainer, una aplicación capaz de generar animaciones faciales de altísima calidad. Son capaces de generar un personaje realista en apenas 1 hora gracias a su base de datos de escaneados en 4D y a más de 72.000 formas de caras. Vean el siguiente vídeo:

Riesgos y peligros 

A través de herramientas de inteligencia artificial como ElevenLabs se puede clonar la voz de cualquier persona para fines espurios. Un ejemplo son los audios, creados con la referida herramienta, de la actriz Emma Watson recitando falsamente pasajes del «Mein Kampf» de Adolf Hitler. Rápidamente, ElevenLabs anunció por Twitter que está incorporando medidas de seguridad para detener los usos indebidos de su herramienta.

Imaginen los usos maliciosos que se pueden dar con esta nueva tecnología, como llamadas falsas de un familiar o amigo reclamándoles ayuda económica ante una situación de angustia o desesperación. Según Hany Farid, profesor de ciencia forense digital en la Universidad de California en Berkeley, para clonar la voz de una persona «hace dos años, incluso hace un año, necesitabas mucho audio. Ahora si tienes una página de Facebook o si grabaste un TikTok y tu voz está allí durante 30 segundos, la gente puede clonar tu voz». Dependiendo de la herramienta que empleen, pueden bastar tres segundos de un audio original, que son los que necesita VALL-E de Microsoft para clonar una voz.

Este tipo de estafas se concentra en el ámbito empresarial. En septiembre de 2019, la revista Forbes informó que un alto directivo de una compañía de energía del Reino Unido había sido engañado con un deepfake de voz para sustraerle a su empresa la cantidad de 243.000 dólares. La víctima cayó en la trampa y transfirió una parte del pago a una cuenta en México.

Más ejemplos. Al poco de la invasión de Ucrania por Rusia apareció un vídeo falso del Presidente de Ucrania –Volodímir Zelenski– en el que anunciaba la rendición de su país. En el vídeo, el falso Zelenski pedía a los ucranianos que depusieran las armas y se rindieran a las fuerzas rusas. En este caso, el engaño no estaba bien logrado, pero ¿y si lo estuviera?

El máximo mandatario de Corea del Norte, Kim Jong-Un, también tiene su «deepfakes» y no es el único político, pues circula un falso Obama, insultando a Donald Trump.

En abril de 2021, la empresa de ciberseguridad Recorded Future publicó un informe advirtiendo que los ciberdelincuentes están acudiendo a la Dark Web para conseguir tutoriales sobre deepfakes. El informe también señala que, además de para estafas y ataques a la reputación, los deepkafes se están empezando a usar para tratar de evadir controles de seguridad.

En diciembre de 2022, la Policía Nacional detenía en Valladolid a un pedófilo, con un alto nivel de conocimientos de informática, que creaba contenido sexual empleando herramientas de Inteligencia Artificial sobre fotografías de bebes y menores de corta edad que hallaba en perfiles sociales abiertos. Llevaba más de una década recopilando imágenes (fuente aquí).  

Conscientes de los problemas que pueden ocasionar los deepfakes, han surgido iniciativas como FakeCatcher de Intel Corporation.

Se trata del primer detector en tiempo real de deepfakes. En su anuncio, la compañía promete una tasa de precisión del 96 %. El sistema analiza el flujo de sangre en los píxeles de los vídeos para conocer si el contenido es real o no en milisegundos. El problema es que la Inteligencia Artificial que crea los deepfakes no para de evolucionar y mejorar. La duda es si lo desarrolladores serán capaces de crear deepfakes perfectos. 

Conclusión

Este tipo de vídeos pueden causar una profunda crisis de credibilidad en la población, de forma que nadie se fie de nada. Incluso pueden hacer que muchas personas acaben descartando hechos ciertos como falsos, tras aferrarse a la idea de que nada es verdad.   

Aparte de los tribunales de justicia, espero que las futuras Agencias Nacionales de Supervisión de la Inteligencia Artificial pueden controlar el uso de esta tecnología porque el riesgo que corre nuestra sociedad es alto y el precio que puede que tengamos que pagar, de no controlarse su uso, será elevado.

error: Contenido protegido por derechos de propiedad intelectual. Se prohíbe su reproducción, transformación, distribución y comunicación pública a título lucrativo por cualquier medio y soporte. Advertir que la infracción de los derechos relativos a la propiedad intelectual es constitutiva de delito (arts. 270 y ss. CP).