PROTECCIÓN DATA

BLOG

El conocimiento es poder (Francis Bacon)

Blog
Compartir Facebook Twitter Linkedin
JAVIER CASAL TAVASCI

¿Parar el desarrollo de la superinteligencia artificial?

El 22 de octubre de 2025, el Future of Life Institute (FLI) publicó una declaración con el título «Statement on Superintelligence» (Declaración sobre Superinteligencia).

El núcleo de la declaración es un párrafo de apenas 30 palabras que dice: «Reconocemos el potencial sin precedentes de la IA para mejorar la vida humana, la salud y la prosperidad. Sin embargo, el desarrollo no regulado de la superinteligencia —sistemas de IA que superan significativamente a los humanos en todas las tareas cognitivas— podría resultar en la obsolescencia económica humana y el desempoderamiento, pérdidas de libertad, dignidad y control; riesgos para la seguridad nacional; e incluso daños sociales o existenciales de largo alcance, incluida la extinción potencial de la humanidad. Llamamos a una prohibición en el desarrollo de la superinteligencia, no levantada antes de que haya (1) un amplio consenso científico de que se hará de manera segura y controlable, y (2) un fuerte respaldo público».

Los firmantes piden una congelación indefinida y global, condicionada a dos pilares: consenso científico (no solo teórico, sino probado empíricamente) y apoyo masivo de la sociedad (medido en encuestas y consultas democráticas).

Lo que hace única a esta declaración es su diversidad, así, entre sus más de 800 firmantes se encuentran científicos, líderes políticos, grandes empresarios, celebridades, activistas, etc. Entre ellos, destacan nombres como Geoffrey Hinton («padrino de la IA», quien dejó Google en 2023 por preocupaciones éticas), Yoshua Bengio (otro «padrino», ganador del Turing Award), Steve Wozniak (cofundador de Apple), Richard Branson (fundador de Virgin Group), Steve Bannon (estratega conservador), Paolo Benanti (asesor del Papa en IA), Susan Rice (exasesora de seguridad nacional de Obama), Mike Mullen (exjefe del Estado Mayor Conjunto de EE.UU.), el príncipe Harry y Meghan Markle (Duques de Sussex), entre otros.

Las ausencias notables son los CEOs de los grandes labs de IA: Salt Altman de OpenAI, Sundar Pichai de Google, Dario Amodei de Anthropic y Elon Musk de xAI. Esto resalta una brecha entre la industria que acelera sin límites y la sociedad que pide moderación ante los riesgos asociados a la superinteligencia artificial:

  • Pérdida de control: Los sistemas superinteligentes podrían desalinearse de los valores humanos, actuando de formas impredecibles o perjudiciales. 
  • Obsolescencia económica y social: La automatización masiva podría generar desempleo generalizado, exacerbando las desigualdades, erosionando las libertades civiles, etc.
  • Riesgos geopolíticos y existenciales: Una carrera descontrolada por la superinteligencia podría escalar a conflictos cibernéticos o biológicos.

El desarrollo de la IA avanza a pasos agigantados, pero no hay un camino claro. Algunos investigadores juegan a predecir el futuro de la IA. Sobre ello publiqué un artículo que dejo enlazado aquí.

Conclusión

En 2023, el Future of Life Institute publicó una carta abierta que abogaba por una pausa de seis meses en el desarrollo de la inteligencia artificial avanzada, respaldada por más de 33.000 firmas. Sin embargo, fue ignorada, y no parece que esta vez la reacción vaya a ser diferente.

Muchos advierten que nos dirigimos a gran velocidad hacia un precipicio, sin saber si el abismo será salvable. Esta incertidumbre justifica la implementación de cierto control y moderación, si bien las grandes potencias y sus gobernantes, hablamos de Estados Unidos y China, no están por la labor. 

Sam Altman, CEO de OpenAI, afirmó en la Cumbre de Nueva Delhi que «el mundo necesita urgentemente regular la IA». Es curioso que Altman afirme esto, cuando está alineado con la administración Trump que aboga por la desregularización de la IA. 

No se pierda nuestro podcast sobre el artículo

 

error: El contenido del blog está protegido por derechos de propiedad intelectual mediante su registro en Safe Creative. Queda prohibida la reproducción, distribución, transformación, transcripción, almacenamiento o recuperación total o parcial de este contenido, sin el permiso previa y expreso del titular de los derechos. La infracción de los derechos puede constituir un delito contra la propiedad intelectual (artículo 270 y ss. del CP). Para requerir la autorización pueden dirigirse al titular enviando un correo electrónico a info@protecciondata.es