Protección Data

BLOG

El conocimiento es poder (Francis Bacon)

Blog
Compartir Facebook Twitter Linkedin
JAVIER CASAL TAVASCI

Deepfakes y protección de datos

Seguro que han visto el siguiente anuncio de una conocida cerveza española. 

Para quien no lo sepa, Lola Flores falleció el 16 de mayo de 1995 y nunca grabó ese anuncio. ¿Cómo se hizo, entonces?. Con inteligencia artificial.

La técnica, que se conoce como «deepfake» (acrónimo formado por las palabras «fake», falsificación, y «deep learning», aprendizaje profundo​) permite editar vídeos falsos de personas que aparentemente son reales, utilizando algoritmos de aprendizaje no supervisados y vídeos o imágenes reales de la persona. Viendo el siguiente vídeo lo comprenderán:

Pero los algoritmos van más allá, permitiendo la creación de rostros de personas que no existen. La compañía norteamericana Nvidia mostró, hace unos años, los resultados de generación de rostros con lo que llaman «Generative Adversarial Networks» (GAN). La técnica se puede emplear, incluso, para crear objetos falsos, como se advierte al final del vídeo. 

La empresa Ziva Dynamic ha creado ZRT Face Trainer, una aplicación capaz de generar animaciones faciales de altísima calidad. Son capaces de generar un personaje realista en apenas 1 hora gracias a su base de datos de escaneados en 4D y a más de 72.000 formas de caras. Vean el siguiente vídeo:

Los algoritmos permiten crear personas con apariencia casi real. Existen aplicaciones como APOB o Rendernet de uso sencillo con las que podemos crear nuestro propio modelo a partir de una breve descripción con los rasgos que queremos darle.  Veamos un par de ejemplos creados con APOB

No sólo la imagen, también se puede replicar la voz. En la industria cinematográfica ya se ha hecho uso de esta tecnología. En el documental «Roadrunner» sobre la vida del polifacético chef Anthony Bourdain, tras suicidarse, crearon réplicas digitales con los registros de voz que tenían del protagonista para producir el audio que el director necesitaba para acabar el documental.

Lo mismo hicieron en «Top Gun: Maverik» con la voz de Val Kilmer, que fue simulada con inteligencia artificial a partir de registros antiguos de voz del actor, pues éste no puede hablar tras sufrir un cáncer de garganta.

En el Salvador Dalí Museum de San Petersburgo en el Estado de Florida (USA) existe una exposición permanente de obras de Dalí, cuya presentación la hace el propio Dalí, creado a partir de unos 6.000 fotogramas existentes de entrevistas suyas. La novedad no sólo es que, a partir de esta tecnología se pueda mostrar al pintor como si estuviera vivo, sino que, además, se le dota de capacidades para interactuar con el público. 

Los deepfake de voz amenazan a sectores tan consolidados como el del doblaje en España. Las principales asociaciones de locutores se unieron en la Plataforma de Asociaciones y Sindicatos de Actores de Voz de España (PASAVE) para proteger a los profesionales de voz del impacto de la inteligencia artificial. La cuestión es que se está usando la voz de los locutores y actores para alimentar y entrenar a sistemas de inteligencia artificial. Dicha plataforma recomienda a sus asociados que incluyan en sus contratos una cláusula de salvaguarda de su voz. 

Riesgos y peligros 

A través de herramientas de inteligencia artificial como ElevenLabs se puede clonar la voz de cualquier persona para fines espurios. Un ejemplo son los audios, creados con la referida herramienta, de la actriz Emma Watson recitando falsamente pasajes del «Mein Kampf» de Adolf Hitler. Rápidamente, ElevenLabs anunció por Twitter que está incorporando medidas de seguridad para detener los usos indebidos de su herramienta.

Imaginen los usos maliciosos que se pueden dar con esta nueva tecnología, como llamadas falsas de un familiar o amigo reclamándoles ayuda económica ante una situación de angustia o desesperación. Según Hany Farid, profesor de ciencia forense digital en la Universidad de California en Berkeley, para clonar la voz de una persona «hace dos años, incluso hace un año, necesitabas mucho audio. Ahora si tienes una página de Facebook o si grabaste un TikTok y tu voz está allí durante 30 segundos, la gente puede clonar tu voz». Dependiendo de la herramienta que empleen, pueden bastar tres segundos de un audio original, que son los que necesita VALL-E de Microsoft para clonar una voz.

Este tipo de estafas se concentra en el ámbito empresarial. En septiembre de 2019, la revista Forbes informó que un alto directivo de una compañía de energía del Reino Unido había sido engañado con un deepfake de voz para sustraer a su empresa la cantidad de 243.000 dólares. Los estafadores, tras clonar la voz del director ejecutivo de la empresa matriz, consiguieron engañar a la víctima para que transfiriera dicha cantidad a una cuenta que, supuestamente, pertenecía a un proveedor húngaro. 

En 2022, el jefe de comunicaciones de Binance, una plataforma de intercambio de criptomonedas, Patrick Hillman, reveló que había sido suplantado por un holograma creado con inteligencia artificial durante múltiples videollamadas. Según el ejecutivo, esta falsificación se utilizó para negociar distintos acuerdos sobre criptomonedas en la plataforma.

Otra conocida plataforma de intercambio de criptomonedas, FTX, también fue objetivo de ataques, tras su declararse su quiebra en noviembre de 2022. Un vídeo falso de su CEO, Sam Bankman-Fried, empezó a circular por las redes indicando que los perjudicados podrían acceder a una compensación si pinchaban en un enlace para acceder a una página web. En realidad, todo era parte de una estafa para robar datos y dinero de las víctimas. Un estudio realizado con 529 personas, publicado en Plos One, demuestra que las habilidades de los seres humanos no son infalibles a la hora de calificar si un mensaje de voz es verdadero o falso. El porcentaje de acierto fue del 73 %, esto es, uno de cada cuatro deepfakes tuvo éxito en el engaño.

El mencionado estudio concluye que «los humanos pueden detectar deepfakes del habla, pero no de manera consistente. Suelen confiar en la naturalidad para identificar deepfakes independientemente del idioma. A medida que los algoritmos de síntesis de voz mejoren y se vuelvan más naturales, será más difícil para los humanos detectar falsificaciones de voz». Para rematar formula una propuesta: «nuestros resultados sugieren la necesidad de detectores automatizados para mitigar las debilidades de un oyente humano. Sin embargo, estos detectores son frágiles y no funcionan cuando hay cambios en las condiciones ambientales del audio de prueba. Dada la magnitud de las limitaciones humanas y la creciente disponibilidad de recursos computacionales para implementar detectores, la investigación debería centrarse en mejorar estos detectores».

El mejor consejo para prevenir los «deepfake» es preguntar al interlocutor por algo que solo él pueda saber o acordar una pregunta clave y una respuesta única.

Al poco de la invasión de Ucrania por Rusia apareció un vídeo falso del Presidente de Ucrania –Volodímir Zelenski– en el que anunciaba la rendición de su país. En el vídeo, el falso Zelenski pedía a los ucranianos que depusieran las armas y se rindieran a las fuerzas rusas. En este caso, el engaño no estaba bien logrado, pero ¿y si lo estuviera?

El máximo mandatario de Corea del Norte, Kim Jong-Un, también tiene su deepfake, y no es el único político: un falso Obama, insultando a Donald Trump, Boris Johnson alabando a su rival Jeremy Corbyn y viceversa, etc. 

Los deepfake también se crean para generar imágenes y vídeos pornográficos que, en muchos casos, se cuelgan en páginas de contenido para adultos o se difunden para desprestigiar a la víctima.  

En abril de 2021, la empresa de ciberseguridad Recorded Future publicó un informe advirtiendo que los ciberdelincuentes están acudiendo a la Dark Web para conseguir tutoriales sobre deepfakes. El informe también señala que, además de para estafas y ataques a la reputación, los deepkafes se están empezando a usar para tratar de evadir controles de seguridad.

Software anti-deepfakes

El Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL, por sus siglas en inglés) del MIT Technology ha creado «PhotoGuard», una herramienta que protege a las fotografías de las manipulaciones para evitar el uso indebido. La técnica consiste en introducir en la imagen original información que resulta invisible al ojo humano, pero que interfiere completamente con la manera que tienen los algoritmos de analizar los píxeles de una fotografía para generar una nueva imagen. El resultado son deepfakes distorsionadas y poco realistas. 

 

PhotoGuard es una técnica complementaria a la marca de agua. Mientras la primera tiene como objetivo impedir que la población utilice herramientas de inteligencia artificial para manipular imágenes, la marca de agua utiliza señales invisibles similares para permitir que se detecte el contenido generado por inteligencia artificial una vez que ha sido creado.

Otra herramienta es FakeCatcher de Intel Corporation que analiza el flujo de sangre en los píxeles de los vídeos para conocer si el contenido es real o no en milisegundos. La compañía promete una tasa de precisión del 96 %.

Conclusión

Tres agencias de seguridad americanas (NSA, FBI y CISA) han publicado un informe en el que se detallan las amenazas asociadas a los «deepfakes», listando alguno de los peligros más relevantes: daño reputacional, suplantación de identidad y falsificación de las comunicaciones para ganar acceso a redes privadas.

El gran problema de los «deepfakes» es que pueden causar una profunda crisis de credibilidad en la población, de forma que nadie se fie de nada. Incluso pueden hacer que muchas personas acaben descartando hechos ciertos como falsos, tras aferrarse a la idea de que nada es verdad.   

El mal uso de esta tecnología puede causar verdaderos estragos, como los falsos desnudos de las menores de Almendralejo creados con Clothoff, una herramienta online, gratuita y de fácil acceso, que emplearon varios menores para crear las polémicas imágenes. Por desgracia, éste no es un caso aislado.   

Aparte de los tribunales de justicia, espero que las futuras agencias nacionales de supervisión de la inteligencia artificial puedan controlar el uso de esta tecnología porque el riesgo que corre nuestra sociedad es alto y el precio que puede que tengamos que pagar, de no controlarse su uso, será elevado.

Por el momento, las siete empresas líderes en inteligencia artificial (Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI) han suscrito un acuerdo con el Gobierno de los Estados Unidos para ayudar a avanzar hacia un desarrollo seguro, protegido y transparente de la tecnología de inteligencia artificial.  

Actualización

China aprueba el Reglamento sobre la Administración de síntesis de los Servicios de Información de Internet, que entrará en vigor el 10 de enero de 2023. La norma obliga que las creaciones generadas con inteligencia artificial incluyan una marca que verifique que se han realizado con esta tecnología. La norma afecta a funciones como diálogo inteligente, voz humana sintetizada, generación de rostros humanos y escenas realistas inmersivas.

La inteligencia artificial en China está sujeta al control y supervisión de la Administración del Ciberespacio, que se une al Ministerio de Industria y Tecnologías de la Información y al Ministerio de Seguridad Pública. 

Actualización 

Scarlett Johansson demanda a Convert Software por usar su imagen y voz en un anuncio sin su consentimiento

El anuncio al que se refiere la demanda es de un editor de imágenes de inteligencia artificial llamado «Lisa AI: 90s Yearbook & Avatar», que incluía una versión generada por inteligencia artificial de la voz de actriz.

El anuncio, que fue retirado tras anunciarse la demanda, tenía una duración de 22 segundos y en él se mostraba la imagen de Scarlett Johansson, pronunciando con la voz de la actriz el siguiente mensaje: «¿Qué pasa chicos?. Soy Scarlett y quiero que vengáis conmigo». Tras esto, se escucha la voz, generada por inteligencia artificial, decir: «no se limita sólo a los avatares. También puedes crear imágenes con textos e incluso vídeos de tu IA. No deberías perdértelo».

Tom Hanks también fue víctima de un deepfake. El actor denuncia que usaron su imagen para promocionar una clínica dental. En realidad, no existía ninguna clínica, tan sólo querían robar datos personales de aquellos que se interesaban por los servicios de la clínica (inexistente).

Actualización

El 13 de octubre de 2023 se publicó en el Boletín Oficial de las Cortes Generales la Proposición de Ley Orgánica de regulación de las simulaciones de imágenes y voces de personas generadas por medio de la inteligencia artificial del Grupo Parlamentario Plurinacional SUMAR.

Actualización

El gobierno británico tipificará un nuevo delito penal para castigar la creación de imágenes de carácter sexual generadas por inteligencia artificial que tienen como principales víctimas a las mujeres. 

error: Contenido protegido por derechos de propiedad intelectual. Se prohíbe su reproducción, transformación, distribución y comunicación pública a título lucrativo por cualquier medio y soporte. Advertir que la infracción de los derechos relativos a la propiedad intelectual es constitutiva de delito (arts. 270 y ss. CP).