Un grupo de importantes personalidades relacionadas con el desarrollo de la inteligencia artificial han publicado una carta abierta con un llamamiento a todos los laboratorios de inteligencia artificial para que pausen durante, al menos, seis meses el entrenamiento de los sistemas más potentes que GPT–4. Entre las personalidades que han firmado dicha carta se encuentran Elon Musk (CEO de SpaceX, Tesla y Twitter), Steve Wozniak (cofundador de Apple), Yoshua Bengio (ganador del Premio Turing), Yuval Noah Harari (historiador), entre otros.
La carta (traducida del inglés) dice así:
«Los sistemas de IA con una inteligencia competitiva con la humana pueden plantear riesgos profundos para la sociedad y la humanidad, como demuestran numerosas investigaciones y reconocen los principales laboratorios de IA. Como se establece en los Principios de IA de Asilomar, ampliamente respaldados, la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, por ello, debe planificarse y administrarse con el cuidado y los recursos adecuados. Desafortunadamente, este nivel de planificación y gestión no se está produciendo, a pesar de que en los últimos meses los laboratorios de IA se han visto inmersos en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlarlas de forma fiable.
Los sistemas de IA contemporáneos se están volviendo competitivos para los humanos en tareas generales, y debemos preguntarnos: ¿Debemos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedades? ¿Deberíamos automatizar todos los trabajos, incluidos los satisfactorios? ¿Debemos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, obsoletas y reemplazarnos? ¿ Debemos arriesgarnos a perder el control de nuestra civilización?. Tales decisiones no deben delegarse en líderes tecnológicos no elegidos. Los sistemas de IA potentes sólo deben desarrollarse cuando estemos seguros de que sus efectos serán positivos y sus riesgos serán controlables. Esta confianza debe estar bien justificada y aumentar con la magnitud de los efectos potenciales de un sistema. La declaración reciente de OpenAI respecto a la inteligencia general artificial establece que: «En algún momento, puede ser importante obtener una revisión independiente antes de empezar a entrenar futuros sistemas, y que los esfuerzos más avanzados acuerden limitar la tasa de crecimiento de la computación utilizada para crear nuevos modelos». Estamos de acuerdo. Ese punto es ahora.
Hacemos un llamamiento a todos los laboratorios de IA para que pausen, inmediatamente, durante, al menos, seis meses el entrenamiento de los sistemas de IA más potentes que GPT–4. Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si tal pausa no puede realizarse rápidamente, los gobiernos deberían intervenir e instituir una moratoria.
Los laboratorios de IA y los expertos independientes deberían aprovechar esta pausa para desarrollar y aplicar entre todos un conjunto de protocolos de seguridad, compartidos para el diseño y desarrollo avanzados de la IA que sean rigurosamente auditados y supervisados por expertos externos independientes. Estos protocolos deberían garantizar que los sistemas que se adhieren a ellos sean seguros más allá de toda duda razonable. Esto no significa una pausa en el desarrollo de la IA en general, sino simplemente un paso atrás de la peligrosa carrera hacia modelos de caja negra impredecibles y cada vez más grandes con capacidades emergentes.
La investigación y el desarrollo de la IA deben volver a centrarse en conseguir que los sistemas potentes y de última generación actuales sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales.
Paralelamente, los desarrolladores de la IA deben trabajar con los responsables políticos para acelerar drásticamente el desarrollo de sistemas sólidos de gobernanza de la IA. Estos deben incluir ,como mínimo: autoridades reguladoras nuevas y capaces dedicadas a la IA; supervisión y seguimiento de sistemas de IA de alta capacidad y grandes conjuntos de capacidad computacional; sistemas de procedencia y marcas de agua para ayudar a distinguir lo real de lo sintético y rastrear las fugas de modelos; un ecosistema sólido de auditoría y certificación; responsabilidad por los daños causados por la IA; financiación pública sólida para la investigación técnica de seguridad de la IA; e instituciones bien dotadas para hacer frente a las dramáticas perturbaciones económicas y políticas (especialmente en la democracia) que provocará la IA.
La humanidad puede disfrutar de un futuro próspero con la IA. Habiendo tenido éxito en la creación de poderosos sistemas de IA, ahora podemos disfrutar de un «verano de IA» en el que cosechamos los frutos, diseñemos estos sistemas para el claro beneficio de todos y demos a la sociedad la oportunidad de adaptarse. La sociedad ha hecho una pausa en otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacerlo aquí. Disfrutemos de un largo verano de la IA, no nos apresuremos a caer sin estar preparados».
Voces de alarma
Yoshua Bengio, ganador del prestigioso Premio Turing, allá por el año 2019, nos advertía que un problema de la inteligencia artificial es que «puede amplificar la discriminación y los prejuicios, como la discriminación de género o racial, porque dichos prejuicios están presentes en los datos con los que se entrena esta tecnología». Bengio afirma que «la autorregulación no va a funcionar. ¿Acaso el pago voluntario de impuestos funciona?. No, no lo hace. Aquellas empresas que se guíen por pautas éticas estarán en desventaja con respecto a las que no lo hacen. Esto es como conducir: ya sea por la derecha o por la izquierda, todos deben conducir por el mismo lado o estaremos en problemas» (fuente aquí).
Geoffrey Hinton, conocido como «el padrino de la IA» por sus contribuciones a esta disciplina, dimitió de su puesto en Google para poder hablar libremente de los riesgos asociados a las herramientas de inteligencia artificial. En una entrevista publicada por el New York Times, Hinton nos advierte que se está creando un mundo en el que la gente «ya no podrá saber qué es verdad». No solo le preocupan los deepfake y la privacidad de las personas, también le preocupa la creación de armas autónomas.
Sam Altman, CEO de OpenAI, inició en 2023 una ronda de visitas por distintos Estados de la Unión, advirtiendo de la necesidad de regular la inteligencia artificial, si bien la revista TIME ha descubierto que empleó dichas visitas para presionar a las gobernantes a fin de rebajar el nivel intervencionismo sobre los sistemas de inteligencia artificial generativa. A la espera de ver el reglamento que regulará la inteligencia artificial en la Unión Europea, todo parece indicar que Altman ha logrado su objetivo. El argumento de la utilidad y el beneficio público de la inteligencia artificial parecen ser suficientes para enmascarar el interés financiero de las grandes tecnológicas en diluir la regulación. Ya se sabe que esta gente nunca da puntada sin hilo.
Voces contrarias a la carta
Como dice el refrán «nunca llueve a gusto de todos», así que, rápidamente, han surgido voces críticas.
Timnit Gebru, científica en computación, especializada en algoritmos de minería de datos y sesgo algorítmico y fundadora del Distributed AI Research Institute, tuiteó en tono irónico que los firmantes de la carta «quieren evitar que la gente use cosas «con más poder» que GPT-4, pero GPT-4 está bien, ¿no? Guay guay».
Arvind Narayanan, profesor de Ciencias de la Computación en Princeton, también tuiteó que: «Esta carta abierta, irónicamente, pero como era de esperar, alimenta aún más la exageración sobre la inteligencia artificial y hace que sea más difícil abordar los daños reales de la inteligencia artificial, que ya están ocurriendo. Sospecho que beneficiará a las empresas que se supone debe regular, y no a la sociedad». Narayanan critica los interrogantes que se plantean en la carta, que califica de «ridículas», las cuales «nos distraen de los problemas actuales. Después de todo, la inteligencia artificial ya se está integrando en los trabajos de las personas y reduciendo la necesidad de ciertas ocupaciones, sin ser una mente no humana que nos vuelva obsoletos».
Eliezer Yudkowsky –escritor, reconocido blogger y defensor de la inteligencia artificial amigable– va un paso más allá en sus críticas. En un artículo publicado en la revista Time propone que el parón sea «indefinido y mundial», alertando de los graves peligros que corre la humanidad con la inteligencia artificial. Su visión catastrofista aventura que la inteligencia artificial pondrá en riesgo, a largo plazo, la supervivencia de la especie humana. ¿Exagerado?. Seguramente.
Conclusión
La inteligencia artificial comporta riesgos para nuestros derechos y libertades como el uso masivo de datos personales sin consentimiento de su titular, lo que supone una violación de nuestra privacidad, discriminación algorítmica que perpetúa estereotipos, sesgos de género, ideológicos, geográficos o de lengua, manipulación subliminal de nuestro comportamiento, falta de veracidad de ciertos contenidos creados por la inteligencia artificial, etc.
No cabe duda que la inteligencia artificial sumará en el desarrollo y futuro de nuestra sociedad, pero la incertidumbre es grande. No sabemos, o no nos cuentan, de qué manera esta tecnología cambiará nuestras vidas. Me preocupa más la falta de transparencia en su desarrollo que la tecnología en sí, de ahí, la importancia de las agencias nacionales de supervisión como la AESIA.
Igualmente, creo necesario que se establezca un marco jurídico que regule el desarrollo, la aplicación y la supervisión de la inteligencia artificial, poniendo en valor los derechos y libertades de las personas. Llevamos meses hablando del futuro Reglamento de la Inteligencia Artificial de la Unión Europea, pero no termina de cuajar.
A falta de una normativa reguladora, diez grandes empresas (entre las que se encuentran OpenAI y TikTok) han firmado un código de Prácticas Responsables sobre cómo construir, crear y compartir contenidos generados por inteligencia artificial de forma responsable, si bien hay aspectos criticables. La autorregulación no es la solución.
Firmas de la carta
La carta es abierta, por tanto, puede firmarla cualquiera que comparta su contenido, aunque piensen que detrás de esta iniciativa están los intereses de grandes compañías que han creado un grupo de presión para intentar acomodar la regulación a sus intereses y tiempos, gente como Salt Altman (OpenAI), Demis Hassabis (Google DeepMind) y Dario Amodei (Anthropic) son los que manejan los hilos.
Si quieren firmarla pueden hacerlo, haciendo clic aquí.
—
Actualización
Otro gran grupo de expertos en inteligencia artificial y figuras públicas expresan su preocupación por el riesgo de IA. El manifiesto dice así: «Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear».
Actualización
El Secretario General de la ONU, António Guterres, propone la creación de un organismo internacional, algo parecido a la Agencia Internacional de Energía Atómica (OIEA), para regular la inteligencia artificial.