Protección Data

BLOG

PARA ESTAR AL DÍA EN PROTECCIÓN DE DATOS Y SEGURIDAD DE LA INFORMACIÓN

Blog
Compartir Facebook Twitter Linkedin
JAVIER CASAL TAVASCI

Deepfakes

Seguro que han visto el siguiente anuncio de una conocida cerveza española. 

Para quien no lo sepa, Lola Flores falleció el 16 de mayo de 1995 y nunca grabó ese anuncio. ¿Cómo se hizo, entonces?. Con inteligencia artificial.

La técnica, que se conoce como «deepfake» (acrónimo formado por las palabras «fake», falsificación, y «deep learning», aprendizaje profundo​) permite editar vídeos falsos de personas que aparentemente son reales, utilizando algoritmos de aprendizaje no supervisados y vídeos o imágenes reales de la persona. Viendo el siguiente vídeo lo comprenderán:

Pero los algoritmos van más allá, permitiendo la creación de rostros de personas que no existen. La compañía norteamericana Nvidia mostró, hace unos años, los resultados de generación de rostros con lo que llaman «Generative Adversarial Networks» (GAN). La técnica se puede emplear, incluso, para crear objetos falsos, como se advierte al final del vídeo. Los resultados no son perfectos, pero todo se andará.

En la industria cinematográfica ya se ha hecho uso de esta tecnología. En el documental «Roadrunner» sobre la vida del polifacético chef Anthony Bourdain, tras suicidarse, crearon réplicas digitales con los registros de voz que tenían del protagonista para producir el audio que el director necesitaba para acabar el documental.

Lo mismo hicieron en «Top Gun: Maverik» con la voz de Val Kilmer, que fue simulada con inteligencia artificial a partir de registros antiguos de voz del actor, pues éste no puede hablar tras sufrir un cáncer de garganta.

También se emplean en el campo educativo. En el Salvador Dalí Museum de San Petersburgo en el Estado de Florida (USA) existe una exposición permanente de obras de Dalí, cuya presentación la hace el propio Dalí, creado a partir de unos 6.000 fotogramas existentes de entrevistas suyas. La novedad no sólo es que, a partir de esta tecnología se pueda mostrar al pintor como si estuviera vivo, sino que, además, se le dota de capacidades para interactuar con el público. 

La tecnología avanza, tanto y tan rápido, que dentro de no mucho tiempo, los «deepfakes» serán tan perfectos que nos costará distinguirlos de la realidad.

La empresa Ziva Dynamic ha creado ZRT Face Trainer, una aplicación capaz de generar animaciones faciales de altísima calidad. Son capaces de generar un personaje realista en apenas 1 hora gracias a su base de datos de escaneados en 4D y a más de 72.000 formas de caras. Vean el siguiente vídeo:

Riesgos y peligros 

A través de herramientas de inteligencia artificial como ElevenLabs se puede clonar la voz de cualquier persona para fines espurios. Un ejemplo son los audios, creados con la referida herramienta, de la actriz Emma Watson recitando falsamente pasajes del «Mein Kampf» de Adolf Hitler. Rápidamente, ElevenLabs anunció por Twitter que está incorporando medidas de seguridad para detener los usos indebidos de su herramienta.

Imaginen los usos maliciosos que se pueden dar con esta nueva tecnología, como llamadas falsas de un familiar o amigo reclamándoles ayuda económica ante una situación de angustia o desesperación. Según Hany Farid, profesor de ciencia forense digital en la Universidad de California en Berkeley, para clonar la voz de una persona «hace dos años, incluso hace un año, necesitabas mucho audio. Ahora si tienes una página de Facebook o si grabaste un TikTok y tu voz está allí durante 30 segundos, la gente puede clonar tu voz». Dependiendo de la herramienta que empleen, pueden bastar tres segundos de un audio original, que son los que necesita VALL-E de Microsoft para clonar una voz.

Este tipo de estafas se concentra en el ámbito empresarial. En septiembre de 2019, la revista Forbes informó que un alto directivo de una compañía de energía del Reino Unido había sido engañado con un deepfake de voz para sustraerle a su empresa la cantidad de 243.000 dólares. La víctima cayó en la trampa y transfirió una parte del pago a una cuenta en México.

En 2020, el gerente de un banco en Hong Kong recibió una llamada telefónica de alguien que parecía el director de una empresa con el que había hablado antes. El supuesto director solicitó al gerente del banco que autorizara transferencias por un total de 35 millones de dólares. Basado en su relación existente, el gerente del banco transfirió 400.000 dólares, hasta que se empezó a sospechar que algo no andaba bien. Demasiado tarde.

En 2022, el jefe de comunicaciones de Binance, una plataforma de intercambio de criptomonedas, Patrick Hillman, reveló que había sido suplantado por un holograma creado con inteligencia artificial durante múltiples videollamadas. Según el ejecutivo, esta falsificación se utilizó para negociar distintos acuerdos sobre criptomonedas en la plataforma.

Otra conocida plataforma de intercambio de criptomonedas, FTX, también fue objetivo de ataques, tras su declararse su quiebra en noviembre de 2022. Un vídeo falso de su CEO, Sam Bankman-Fried, empezó a circular por las redes indicando que los perjudicados podrían acceder a una compensación si pinchaban en un enlace para acceder a una página web. En realidad, todo era parte de una estafa para robar datos y dinero de las víctimas. Un estudio realizado con 529 personas, publicado en Plos One, demuestra que las habilidades de los seres humanas no son infalibles a la hora de calificar si un mensaje de voz es verdadero o falso. El porcentaje de acierto fue del 73 %, esto es, uno de cada cuatro deepfakes tuvo éxito en el engaño.

El mencionado estudio concluye que «los humanos pueden detectar deepfakes del habla, pero no de manera consistente. Suelen confiar en la naturalidad para identificar deepfakes independientemente del idioma. A medida que los algoritmos de síntesis de voz mejoren y se vuelvan más naturales, será más difícil para los humanos detectar falsificaciones de voz». Para rematar formula una propuesta: «nuestros resultados sugieren la necesidad de detectores automatizados para mitigar las debilidades de un oyente humano. Sin embargo, estos detectores son frágiles y no funcionan cuando hay cambios en las condiciones ambientales del audio de prueba. Dada la magnitud de las limitaciones humanas y la creciente disponibilidad de recursos computacionales para implementar detectores, la investigación debería centrarse en mejorar estos detectores».

Al poco de la invasión de Ucrania por Rusia apareció un vídeo falso del Presidente de Ucrania –Volodímir Zelenski– en el que anunciaba la rendición de su país. En el vídeo, el falso Zelenski pedía a los ucranianos que depusieran las armas y se rindieran a las fuerzas rusas. En este caso, el engaño no estaba bien logrado, pero ¿y si lo estuviera?

El máximo mandatario de Corea del Norte, Kim Jong-Un, también tiene su deepfake, y no es el único político, pues circula un falso Obama, insultando a Donald Trump. 

En abril de 2021, la empresa de ciberseguridad Recorded Future publicó un informe advirtiendo que los ciberdelincuentes están acudiendo a la Dark Web para conseguir tutoriales sobre deepfakes. El informe también señala que, además de para estafas y ataques a la reputación, los deepkafes se están empezando a usar para tratar de evadir controles de seguridad.

Software anti-deepfakes

El Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL, por sus siglas en inglés) del MIT Technology ha creado «PhotoGuard», una herramienta que protege a las fotografías de las manipulaciones para evitar el uso indebido. La técnica consiste en introducir en la imagen original información que resulta invisible al ojo humano, pero que interfiere completamente con la manera que tienen los algoritmos de analizar los píxeles de una fotografía para generar un nueva imagen. El resultado son deepfakes distorsionadas y poco realistas. 

 

PhotoGuard es una técnica complementaria a la marca de agua. Mientras la primera tiene como objetivo impedir que la población utilice herramientas de inteligencia artificial para manipular imágenes, la marca de agua utiliza señales invisibles similares para permitir que se detecte el contenido generado por inteligencia artificial una vez que ha sido creado.

Otra herramienta es FakeCatcher de Intel Corporation que analiza el flujo de sangre en los píxeles de los vídeos para conocer si el contenido es real o no en milisegundos. La compañía promete una tasa de precisión del 96 %.

Compromiso institucional

Las siete empresas líderes en inteligencia artificial (Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI) han suscrito un acuerdo con el Gobierno de los Estados Unidos para ayudar a avanzar hacia un desarrollo seguro, protegido y transparente de la tecnología de inteligencia artificial.  

En dicho acuerdo las empresas asumen los siguientes compromisos:

1º.- Garantizar que los productos sean seguros antes de presentarlos al público

  • Se comprometen a realizar pruebas de seguridad internas y externas de sus sistemas de inteligencia artificial antes de su lanzamiento. 
  • Se comprometen a compartir información con la industria, los gobiernos, la sociedad civil y el mundo académico sobre la gestión de los riesgos de la inteligencia artificial. Esto incluye mejores prácticas de seguridad, información sobre intentos de eludir las salvaguardas y colaboración técnica.

2º.- Sistemas de construcción que priorizan la seguridad

  • Se comprometen a invertir en seguridad cibernética.
  • Se comprometen a facilitar el descubrimiento y la notificación de vulnerabilidades en sus sistemas de inteligencia artificial por parte de terceros. 

3º.- Ganarse la confianza del público

  • Se comprometen a desarrollar mecanismos técnicos sólidos para garantizar que los usuarios sepan cuándo se genera contenido mediante inteligencia artificial. Esta acción reduce los peligros de fraude y engaño.
  • Se comprometen a informar públicamente sobre las capacidades, limitaciones y áreas de uso apropiado e inapropiado de sus sistemas de inteligencia artificial. 
  • Se comprometen a priorizar la investigación sobre los riesgos sociales que pueden plantear los sistemas de inteligencia artificial, lo que incluye evitar prejuicios y discriminaciones perjudiciales y proteger la privacidad. 
  • Se comprometen a desarrollar e implementar sistemas avanzados de inteligencia artificial para ayudar a abordar los mayores desafíos de la sociedad.

Conclusión

Este tipo de vídeos pueden causar una profunda crisis de credibilidad en la población, de forma que nadie se fie de nada. Incluso pueden hacer que muchas personas acaben descartando hechos ciertos como falsos, tras aferrarse a la idea de que nada es verdad.   

El mal uso de esta tecnología puede causar verdaderos estragos, como los falsos desnudos de las menores de Almendralejo creados con Clothoff, una herramienta online, gratuita y de fácil acceso, que emplearon varios menores para crear las polémicas imágenes, algunos de ellos inimputables (menores de 14 años). Por desgracia, este no es un caso aislado.   

Aparte de los tribunales de justicia, espero que las futuras agencias nacionales de supervisión de la inteligencia artificial puedan controlar el uso de esta tecnología porque el riesgo que corre nuestra sociedad es alto y el precio que puede que tengamos que pagar, de no controlarse su uso, será elevado.

Actualización

China aprueba el Reglamento sobre la Administración de síntesis de los Servicios de Información de Internet, que entrará en vigor el 10 de enero de 2023. La norma obliga que las creaciones generadas con inteligencia artificial incluyan una marca que verifique que se han realizado con esta tecnología. La norma afecta a funciones como diálogo inteligente, voz humana sintetizada, generación de rostros humanos y escenas realistas inmersivas.

La inteligencia artificial en China está sujeta al control y supervisión de la Administración del Ciberespacio, que se une al Ministerio de Industria y Tecnologías de la Información y al Ministerio de Seguridad Pública. 

error: Contenido protegido por derechos de propiedad intelectual. Se prohíbe su reproducción, transformación, distribución y comunicación pública a título lucrativo por cualquier medio y soporte. Advertir que la infracción de los derechos relativos a la propiedad intelectual es constitutiva de delito (arts. 270 y ss. CP).