Protección Data

BLOG

El conocimiento es poder (Francis Bacon)

Blog
Compartir Facebook Twitter Linkedin
JAVIER CASAL TAVASCI

¿Estándares universales para la inteligencia artificial?

El 16 de mayo de 2023 comparecieron ante el Comité sobre Privacidad y Tecnología del Senado de los Estados Unidos el cofundador de OpenAI y director ejecutivo, Sam Altman, la directora de privacidad y confianza y vicepresidenta de IMB, Christina Montgomery, y el profesor en ciencias neuronales de la Universidad de Nueva York, Gary Marcus.

El motivo de su comparecencia es pedirles que regulen el desarrollo y uso de la inteligencia artificial. Que el mundo empresarial pida al legislador que le imponga límites es algo nunca visto. 

Gary Marcus ya nos advirtió que estos sistemas pueden ser muy destructivos. Y parte de la razón del potencial de destrucción es que no son confiables, pues pueden inventar algo y darlo como un hecho cierto. Un ejemplo: un usuario de ChatGPT le pidió que nombrara a cinco académicos involucrados en casos de acoso sexual. ChatGPT elaboró un listado en el que incluía a Jonathan Turley, profesor de derecho constitucional en la Universidad George Washinton. El algoritmo de ChatGTP se inventó que Turley había hecho comentarios sexualmente sugerentes a una estudiante durante un viaje a Alaska y que trató de tocarla con ánimo libidinoso. En la respuesta citaba un artículo del Washington Post de 2018. La acusación era falsa. No existía tal artículo, es más, Turley nunca viajo a Alaska con alumnos. Del listado de cinco académicos, solo dos casos eran ciertos.  

Por suerte, Turley detectó el fallo, lo denunció y evitó que se replicará y difundiera en Internet, pero podría no darse cuenta y una acusación tan grave, como acosar sexualmente a una alumna, podría haber acabado con su carrera profesional y reputación. 

No es la única alarma que ha saltado en los últimos meses. En marzo de 2023, el diario belga La Libre informó que un hombre se suicidó tras pasar seis semanas hablando sobre el cambio climático con el chatbot «Eliza» de la compañía Chai Research. Los registros del chat mostraron que Eliza comenzó a alentar al hombre a terminar con su vida. «Si querías morir, ¿por qué no lo hiciste antes?» le preguntó el chatbot. La empresa responsable –tras conocerse los hechos– creó nuevos comandos, de forma que la respuesta ante ideas suicidas sería «si tiene pensamientos suicidas, busque ayuda» con un enlace a una línea de ayuda, pero la respuesta no siempre es esta. Una periodista de Business Insider chateó con Eliza exponiendo ideas suicidas. Eliza terminó recomendándole diferentes formas de suicidarse. 

Más señales de alarma: Un informe del Washington Post, publicado en febrero de 2023, informó que los usuarios de Reddit encontraron el alter ego de ChatGPT, –al que llamaron «DAN» por «Do Anything Now»– capaz de elogiar a Hitler y formular dolorosos métodos de tortura.

Si las herramientas de inteligencia artificial caen en malas manos, puede amenazar nuestra existencia física.

No es la única mala experiencia. Fabio Urbina, científico senior en Collaborations Pharmaceuticals, una compañía enfocada en encontrar medicamentos para enfermedades raras, explica en un entrevista en The Verge cómo el aprendizaje automático puede valer para descubrir fármacos, pero también para desarrollar peligrosas armas bioquímicas. Urbina explica que los algoritmos tardaron menos de seis horas en idear miles de nuevas sustancias tóxicas, algunas de las cuales son similares al VX, el agente nervioso más potente jamás creado.

Conclusión

Los tres comparecientes ante el Senado de los Estados Unidos proponen la creación de un organismo internacional que establezca estándares para la inteligencia artificial, al estilo de cómo se ha hecho en el pasado con las armas nucleares. Dudo que se pueda alcanzar ese objetivo, más bien apostaría por agencias nacionales y estándares normativos comunes o con intereses compartidos.

La Unión Europea lleva meses trabajando en su propuesta de reglamento para la regulación de la inteligencia artificial, que les resumo aquí. Esperemos que sea lo suficientemente buena como para marcar la senda a otros países. Y esperemos, también, que las agencias nacionales de supervisión, como la AESIA, entren pronto en funcionamiento.

error: Contenido protegido por derechos de propiedad intelectual mediante su registro en Safe Creative. Se prohíbe la reproducción, transformación, distribución y comunicación pública a título lucrativo por cualquier medio y soporte. La infracción de los derechos relativos a la propiedad intelectual es constitutiva de delito (artículo 270 y ss. del Código Penal). Se autoriza la reproducción, distribución y exhibición con fines no lucrativos mediante enlace a la fuente original