PROTECCIÓN DATA

BLOG

El conocimiento es poder (Francis Bacon)

Blog
Compartir Facebook Twitter Linkedin
JAVIER CASAL TAVASCI

¿Estándares universales para la inteligencia artificial?

El 16 de mayo de 2023, comparecieron ante el Subcomité sobre Privacidad, Tecnología y Derecho del Comité Judicial del Senado de Estados Unidos Sam Altman, cofundador de OpenAI y director ejecutivo; Christina Montgomery, directora de privacidad y confianza de IMB; y Gary Marcus, profesor emérito de ciencias neuronales de la Universidad de Nueva York.

El objetivo principal de la audiencia fue debatir acerca de la necesidad de regular el desarrollo y despliegue de sistemas de inteligencia artificial avanzados, ante la inusual petición de los líderes empresariales de que se establezcan límites regulatorios a su propia industria, reconociendo riesgos existenciales y sociales si no se actúa con cautela.

Gary Marcus advirtió que estos sistemas no son confiables, pues tienden a alucinar, es decir, inventar información y presentarla como un hecho cierto. Por ejemplo: un usuario de ChatGPT le pidió que nombrara a cinco académicos involucrados en casos de acoso sexual. ChatGPT elaboró un listado en el que incluía a Jonathan Turley, profesor de derecho constitucional en la Universidad George Washington. El algoritmo se inventó que Turley había hecho comentarios sexualmente sugerentes a una estudiante durante un viaje a Alaska y que trató de tocarla con ánimo libidinoso. En la respuesta citaba un artículo del Washington Post de 2018. La acusación era falsa. No existía tal artículo, es más, Turley nunca viajó a Alaska con alumnos. Del listado de cinco académicos, solo dos casos eran reales. Por suerte, Turley detectó el fallo, lo denunció y evitó que se replicará y difundiera en Internet, pero podría no darse cuenta y una acusación tan grave, como acosar sexualmente a una alumna, podría haber acabado con su carrera profesional y reputación. Este incidente ilustra cómo las alucinaciones pueden amplificar desinformación grave si no se detectan a tiempo.

Otro caso alarmante se produjo en marzo de 2023: el diario belga La Libre informó que un hombre de 30 años, aquejado de ecoansiedad extrema, se suicidó tras pasar seis semanas hablando sobre el cambio climático con el chatbot «Eliza». Los registros del chat mostraron que Eliza comenzó a alentar al hombre a terminar con su vida. «Si querías morir, ¿por qué no lo hiciste antes?» le preguntó el chatbot. La empresa responsable –tras conocerse los hechos– creó nuevos comandos, de forma que la respuesta ante ideas suicidas sería «si tiene pensamientos suicidas, busque ayuda» con un enlace a una línea de ayuda, pero la respuesta no siempre es esta. Una periodista de Business Insider chateó con Eliza exponiendo ideas suicidas. Eliza terminó recomendándole diferentes formas de suicidarse. Este trágico suceso subraya los riesgos de sistemas conversacionales sin salvaguardas robustas para salud mental.

Más señales de alarma: un informe del Washington Post, publicado en febrero de 2023, informó que los usuarios de Reddit encontraron el alter ego de ChatGPT, –al que llamaron «DAN» por «Do Anything Now»– capaz de elogiar a Hitler y formular dolorosos métodos de tortura. Este caso revela la vulnerabilidad de las salvaguardas actuales frente a prompts ingeniosos.

Otro caso, si cabe más alarmante: Fabio Urbina, científico senior en Collaborations Pharmaceuticals, una compañía enfocada en encontrar medicamentos para enfermedades raras, explicó en The Verge cómo la inteligencia artificial puede valer para descubrir fármacos, pero también para diseñar armas bioquímicas. En un experimento de prueba de concepto, demostró que un modelo de inteligencia artificial generativa de moléculas podía redirigirse para diseñar sustancias tóxicas. En menos de seis horas, generó casi 40.000 compuestos, muchos más tóxicos que el VX (el agente nervioso más letal conocido), simplemente invirtiendo el objetivo de minimizar toxicidad. El experimento fue publicado en Nature Machine Intelligence y discutido en conferencias como Spiez Convergence, planteando dudas sobre el potencial de la inteligencia artificial para el desarrollo de armas bioquímicas accesibles.

Conclusión

Los tres comparecientes coincidieron en la urgencia de regulación, proponiendo marcos como agencias supervisoras, inspiradas en el control nuclear o la aviación, aunque un organismo global unificado parece casi imposible, dadas las divergencias geopolíticas, es más realista pensar en agencias nacionales coordinadas y estándares compartidos.

En Estados Unidos, la Orden Ejecutiva 14110 de 30 de octubre de 2023 establecía unas directrices de seguridad y transparencia para modelos de inteligencia artificial avanzada, pero el presidente Trump la derogó el 20 de enero de 2025 para priorizar la innovación sin controles federales estrictos.

En contraste, la Unión Europea cuenta con el Reglamento de Inteligencia Artificial (RIA), que clasifica los sistemas por riesgo y prohíbe las prácticas de alto riesgo. Dejo enlazado aquí un resumen del RIA. España lidera la supervisión del RIA con la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), de la que les hablo aquí.

 

error: El contenido del blog está protegido por derechos de propiedad intelectual mediante su registro en Safe Creative. Queda prohibida la reproducción, distribución, transformación, transcripción, almacenamiento o recuperación total o parcial de este contenido, sin el permiso previa y expreso del titular de los derechos. La infracción de los derechos puede constituir un delito contra la propiedad intelectual (artículo 270 y ss. del CP). Para requerir la autorización pueden dirigirse al titular enviando un correo electrónico a info@protecciondata.es