Protección Data

BLOG

PARA ESTAR AL DÍA EN PROTECCIÓN DE DATOS Y SEGURIDAD DE LA INFORMACIÓN

Blog
Compartir Facebook Twitter Linkedin
JAVIER CASAL TAVASCI

Deepfakes

Seguro que han visto el siguiente anuncio de una conocida cerveza española. 

Para quien no lo sepa, Lola Flores falleció el 16 de mayo de 1995 y nunca grabó ese anuncio. ¿Cómo se hizo, entonces?. Con Inteligencia Artificial.

La técnica, que se conoce como «Deepfake» (acrónimo formado por las palabras «fake», falsificación, y «deep learning», aprendizaje profundo​) permite editar vídeos falsos de personas que aparentemente son reales, utilizando algoritmos de aprendizaje no supervisados y vídeos o imágenes reales de la persona. Viendo los siguientes videos lo comprenderán:

Pero los algoritmos van más allá, permitiendo la creación de rostros de personas que no existen. La compañía norteamericana Nvidia mostró, hace unos años, los resultados de generación de rostros con lo que llaman «Generative Adversarial Networks» (GAN). La técnica se puede emplear, incluso, para crear objetos falsos, como se advierte al final del vídeo. Los resultados no son perfectos, pero todo se andará.

Algunos hablan de las bondades de los «deepfakes». Por ejemplo, en la industria cinematográfica se puede sustituir, con éxito, la imagen o la voz de un protagonista que ha fallecido. De hecho, ya pasó. En el documental «Roadrunner» sobre la vida del polifacético chef Anthony Bourdain, tras suicidarse, tuvieron que crear réplicas digitales con los registros de voz que tenían del protagonista para producir el audio que el director necesitaba.

También se emplean en el campo educativo. En el Salvador Dalí Museum de San Petersburgo en el Estado de Florida (USA) existe una exposición permanente de obras de Dalí, cuya presentación la hace el propio Dalí, creado a partir de unos 6.000 fotogramas existentes de entrevistas suyas. La novedad no solo es que, a partir de esa tecnología se pueda mostrar al pintor como si estuviera vivo, sino que, además, se le dota de capacidades para interactuar con el público. 

Dentro de no mucho tiempo, los «deepfakes» serán tan perfectos que nos costará distinguirlos de la realidad y eso es realmente preocupante. Veamos algunos ejemplos de mal uso:

Al poco de la invasión de Ucrania por Rusia apareció publicado, en diferentes plataformas, un vídeo falso de Volodímir Zelenski, Presidente de Ucrania, en el que anunciaba la rendición de su país. En el vídeo, el falso Zelenski pedía a los ucranianos que depusieran las armas y se rindieran a las fuerzas rusas. En este caso, el engaño no estaba bien logrado, pero ¿y si lo estuviera?.

El máximo mandatario de Corea del Norte, Kim Jong-Un, también tiene su «deepfakes» y no es el único político, pues circula un falso Obama, insultando a Donald Trump.

En septiembre de 2019, la revista Forbes informó que un alto directivo de una compañía de energía del Reino Unido había sido engañado mediante un «deepfake» de voz para sustraerle a su empresa la cantidad de 243.000 dólares.  La víctima cayó en la trampa y transfirió una parte del pago a una cuenta en México.

En abril de 2021, la empresa de ciberseguridad Recorded Future publicó un informe advirtiendo que los ciberdelincuentes están acudiendo a la «dark web» para conseguir tutoriales sobre «deepfakes». El informe también señala que, además de para estafas y ataques a la reputación, los «deepkafes» se están empezando a usar para tratar de evadir controles de seguridad.

Conscientes de los problemas que pueden ocasionar los deepfakes, han surgido iniciativas como FakeCatcher de Intel Corporation.

Se trata del primer detector en tiempo real de deepfakes. En su anuncio, la compañía promete una tasa de precisión del 96 %. El sistema analiza el «flujo de sangre» en los píxeles de los vídeos para conocer si el contenido es real o no en milisegundos. El problema es que la Inteligencia Artificial que crea los deepfakes no para de evolucionar y mejorar. La duda es si lo desarrolladores serán capaces de crear deepfakes perfectos. 

Conclusión

Siendo sincero, no me gustan los «deepfakes», pues atentan contra el derecho a la propia imagen, pudiendo incurrir en delitos como suplantación de identidad.

Este tipo de vídeos y «fake news» pueden causar una profunda crisis de credibilidad en la población, de forma que nadie se fie de nada ni de nadie. Incluso pueden hacer que muchas personas acaben descartando hechos ciertos como falsos, tras aferrarse a la idea de que nada es verdad.   

Aparte de los tribunales de justicia, espero que las futuras Agencias Nacionales de Supervisión de la Inteligencia Artificial pueden controlar el uso de esta tecnología, porque el riesgo que corre nuestra sociedad es alto. El precio que puede que tengamos que pagar, de no controlar su uso, será elevado.

EnglishPortuguêsEspañol
error: Contenido protegido por derechos de propiedad intelectual. Se prohíbe su reproducción, transformación, distribución y comunicación pública a título lucrativo por cualquier medio y soporte. Advertir que la infracción de los derechos relativos a la propiedad intelectual es constitutiva de delito (arts. 270 y ss. CP).