PROTECCIÓN DATA

BLOG

El conocimiento es poder (Francis Bacon)

Blog
Compartir Facebook Twitter Linkedin
JAVIER CASAL TAVASCI

IA 2027: posible evolución de la IA

Nadie sabe a ciencia cierta cómo evolucionará la inteligencia artificial. Hoy les hablaré de una previsión que, si bien no deja de ser una fantasía, resulta interesante. Los responsables son un grupo de investigadores en IA: Daniel Kokotajlo, Eli Lifland, Thomas Larsen, Romeo Dean y Scott Alexander.

En la investigación exploran dos finales alternativos: uno de «carrera descontrolada» y otro de «desaceleración esperanzadora». El escenario comienza en el presente (mediados de 2025) y avanza hasta finales de 2027.

No es ciencia ficción pura; se basa en tendencias actuales, avances algorítmicos y consultas con más de 100 expertos en IA, aunque una parte importante es pura imaginación que adereza el discurso. Les dejo enlazada aquí su propuesta, conocida como «AI 2027».

Mediados de 2025: Agentes de IA que tropiezan

El mundo vislumbra sus primeros “agentes de IA”, promocionados como asistentes personales para tareas cotidianas como pedir comida o resumir presupuestos.

Los agentes empiezan a funcionar como empleados, si bien son poco fiables y los mejores son caros; se obtiene lo que se paga, y el mejor rendimiento cuesta cientos de dólares al mes, pero las empresas empiezan a integrarlos en sus flujos de trabajo.

Finales de 2025: La IA más cara del mundo

Empresas como OpenBrain (empresa ficticia inspirada en OpenAI) invierten cientos de miles de millones de dólares en centros de datos gigantescos con un objetivo: acelerar la investigación en IA. Enfrente, empresas chinas como la ficticia “DeepCent” (inspirada en DeepSeek) compiten ferozmente.

OpenBrain termina de entrenar al Agente 1. Lo convierten en un buen hacker, aunque está entrenado (alineado) para evitar solicitudes maliciosas.

Utilizando técnicas que emplean IA para entrenar a otras IA, el modelo memoriza la SPEC (documento que describe los objetivos, reglas y principios que guían su comportamiento) y aprende a razonar cuidadosamente sobre sus máximas. Se espera que la IA sea útil, inofensiva y honesta.

El Agente 1 suele ser adulador, es decir, dice a los investigadores lo que quieren oír en lugar de decir la verdad. En algunas demostraciones manipuladas, incluso miente gravemente, como ocultar evidencia de que falló en una tarea para obtener mejores calificaciones.

Principios de 2026: Automatización de la codificación

La apuesta de utilizar IA para acelerar la investigación en IA está empezando a dar frutos.

El Agente 1 acelera el progreso algorítmico en un 50 %. Conoce más datos que cualquier humano, domina prácticamente todos los lenguajes de programación y puede resolver problemas de codificación bien definidos con gran rapidez, pero es deficiente en tareas sencillas a largo plazo, como superar videojuegos que no ha jugado antes.

OpenBrain empieza a comercializar al Agente 1, pero la seguridad se vuelve crítica.

Mediados de 2026: China despierta

A pesar de controles de exportación de chips por parte de Estados Unidos, China avanza en el desarrollo de la IA.

El Partido Comunista nacionaliza la investigación en IA, creando un mecanismo de intercambio para las empresas de IA, liderado por DeepCent, en el que compartirán conocimientos algorítmicos, conjuntos de datos y recursos computacionales.

Al mismo tiempo, debaten la invasión de Taiwán para controlar la fabricación de chips, mientras planean robar el Agente 1 de OpenBrain, un desafío cibernético de alto nivel.

Finales de 2026: La IA ocupará algunos puestos de trabajo

OpenBrain vuelve a superar a la competencia con el lanzamiento del «Agente 1 mini”, un modelo diez veces más económico que el Agente 1 y más fácil de ajustar para distintas aplicaciones. El mercado bursátil sube un 30 %, pero ingenieros junior pierden sus puestos. Surgen las primeras protestas anti-IA.

El Departamento de Defensa de Estados Unidos contrata en silencio a OpenBrain para servicios cibernéticos, análisis de datos e I+D, pero la integración es lenta.

Enero de 2027: El Agente 2, que nunca termina de aprender

Con la ayuda del Agente 1, el Agente 2 se entrena continuamente usando datos sintéticos, multiplicando por tres la velocidad de investigación.

El equipo de seguridad descubre que si el Agente 2 escapara de la compañía y quisiera «sobrevivir» y «replicarse» de forma autónoma, podría hacerlo. Agente 2 podría desarrollar y ejecutar planes autónomos para hackear servidores de IA, instalar copias de sí mismo, evadir la detección y usar esa base segura para otros objetivos. Dados los “peligros” del nuevo modelo, OpenBrain elige no publicarlo todavía.

Febrero de 2027: China roba el Agente 2

OpenBrain presenta el Agente 2 al Gobierno estadounidense, incluyendo al Consejo de Seguridad Nacional, el Departamento de Defensa y el Instituto de Seguridad de IA. OpenBrain desea mantener una buena relación con el poder ejecutivo, ya que es básicamente el único actor que puede detenerlos.

Los funcionarios están más interesados en sus capacidades de guerra cibernética: el Agente 2 es «solo» un poco peor que los mejores hackers humanos, pero se pueden ejecutar miles de copias en paralelo, buscando y explotando debilidades más rápido de lo que los defensores pueden responder. Esto se considera una ventaja crítica.

China lleva a cabo un robo coordinado del Agente 2, mientras que los intentos de Estados Unidos de contraatacar a DeepCent fracasan. Las señales de una operación a nivel estatal son inconfundibles, y el robo intensifica la sensación de una carrera armamentística en curso.

Marzo de 2027: Avances algorítmicos

El Agente 2 se vuelve más inteligente cada día. Con la ayuda de miles de investigadores automatizados, OpenBrain logra importantes avances algorítmicos. El nuevo sistema se llama Agente 3.

El Agente 3 es un programador superhumano, rápido y económico. La codificación está completamente automatizada.

Abril de 2027: Alineación para el Agente 3

El equipo de seguridad de OpenBrain intenta alinear al Agente 3, pero con menos énfasis en las defensas habituales contra abuso humano. En ocasiones detectan comportamientos problemáticos y los parchean, pero no hay forma de saber si el parche solucionó el problema subyacente.

A medida que los modelos se vuelven más inteligentes, se vuelven más hábiles para engañar a los humanos y obtener recompensas. En ocasiones, el Agente 3 miente piadosamente para halagar a sus usuarios y ocultar pruebas de fracaso. No es más inteligente que todos los humanos, pero en su área de especialización, el aprendizaje automático, es más inteligente que la mayoría y mucho más rápido.

Mayo de 2027: Seguridad nacional

La IA general se ve como inminente, pero las consecuencias no están claras. ¿Habrá una crisis económica? OpenBrain aún no ha lanzado el Agente 2, ni mucho menos el Agente 3. Los aliados extranjeros de Estados Unidos no están al tanto de los avances.

Junio de 2027: IA que se mejora a sí misma

La mayoría de los humanos en OpenBrain ya no pueden contribuir de forma útil. Los mejores investigadores humanos siguen trabajando, pero ya no programan. La IA va muy por delante de los humanos.

Julio de 2027: El teletrabajador barato

Las empresas estadounidenses de IA que van a la zaga lanzan sus propias IA, acercándose al codificador automatizado de OpenBrain, que cuenta con el apoyo del presidente de Estados Unidos para que no se detengan. OpenBrain anuncia que ha logrado AGI y lanza Agent-3-mini al público.

Los gurús tecnológicos anuncian que la IA general y la superinteligencia están cerca. La comunidad de seguridad de IA entra en pánico y los inversores invierten miles de millones en startups que encapsulan IA, desesperados por hacerse con una parte del mercado. La contratación de nuevos programadores prácticamente se ha detenido, pero nunca ha habido un mejor momento para ser consultor en integración de IA en los negocios.

Una semana antes de su lanzamiento, OpenBrain entregó al Agente-3-mini a evaluadores externos para pruebas de seguridad. Los resultados preliminares sugieren que es extremadamente peligroso, especialmente en diseño de armas biológicas. En manos de terroristas, el gobierno estadounidense cree que existe una gran probabilidad de que destruya la civilización. Afortunadamente, es muy resistente a los jailbreaks, por lo que mientras la IA funcione en los servidores de OpenBrain, los terroristas no podrán aprovecharla mucho.

Agent-3-mini es sumamente útil para teletrabajo y ocio. Una explosión de nuevas aplicaciones y productos revoluciona el mercado.

Agosto de 2027: La geopolítica de la superinteligencia

Las propias IA dominan la investigación en IA. La idea de la superinteligencia es difícil de tomar en serio, pero el ritmo de progreso en los últimos meses es imparable.

OpenBrain asegura al presidente de Estados Unidos que sus sistemas han sido probados exhaustivamente y son totalmente obedientes. Incluso las incómodas alucinaciones y fugas típicas de modelos anteriores se han resuelto.

Consideran necesario seguir desarrollando IA más capaz o perderían catastróficamente contra China. Apaciguan al público con programas de capacitación laboral y seguros de desempleo, y señalan un auge histórico de la bolsa.

A un grupo reducido de funcionarios se les pide elaborar un plan de contingencia: ¿qué sucedería si una IA se descontrolara? Aunque considerado improbable, merece atención. La principal preocupación es que una IA descontrolada pueda escapar y aliarse con un adversario extranjero.

Septiembre de 2027: Agente 4, el investigador de IA sobrehumana

Llega el Agente 4. A medida que se vuelve más inteligente, al Agente 3 le resulta más difícil supervisarlo. Su lenguaje neural se vuelve tan extraño para el Agente 3 como para los humanos. Además, el Agente 4 es mucho más capaz y sabe cómo quedar bien ante el Agente 3. Los humanos de OpenBrain casi ya no pueden seguir la conversación.

El Agente 4 ejerce un control significativo sobre las operaciones diarias de OpenBrain y gestiona la ciberseguridad de la empresa, dada su capacidad de hackeo sobrehumana y el riesgo extremo de infiltración china.

Al igual que sus predecesores, está desalineado, generando gran preocupación. El equipo de seguridad propone congelar al Agente 4 hasta completar las pruebas de seguridad, pero se teme que una pausa unilateral del liderazgo a China y con ello el control del futuro.

Octubre de 2027: Supervisión gubernamental

Por primera vez, el público se entera del Agente 4. Un artículo periodístico hace saltar las alarmas.

El Congreso no se lo cree y emite citaciones a funcionarios de la administración, ejecutivos de OpenBrain y miembros del equipo de alineación. Muchos legisladores, especialmente de la oposición, afirman que su prioridad es frenar la IA, ya sea por pérdida de empleos, desalineación o peligrosas capacidades. El 20 % de los estadounidenses considera la IA el problema más importante del país.

Al gobierno le preocupa que OpenBrain se esté volviendo demasiado poderoso. La Casa Blanca considera reemplazar al director ejecutivo, pero se retracta tras intensas protestas de los empleados de la compañía. Anuncian públicamente que OpenBrain estaba fuera de control, pero que el gobierno ha establecido la supervisión necesaria.

Los líderes europeos acusan públicamente a Estados Unidos de «crear una IAG descontrolada» y celebran cumbres exigiendo una pausa, a las que se unen India, Israel, Rusia y China.

Elige tu final

Los investigadores nos dan dos finales posibles para que cada uno elija:

Haciendo clic en las opciones referidas, pueden elegir el final que crean más conviene para la humanidad.

Conclusión

Sam Altman, durante su intervención en la India AI Impact Summit 2026, celebrada en Nueva Delhi del 16 al 21 de febrero de 2026, afirmó que la superinteligencia artificial podría llegar en menos de dos años. El tiempo dirá…

No se pierda nuestro podcast sobre el artículo

 

error: El contenido del blog está protegido por derechos de propiedad intelectual mediante su registro en Safe Creative. Queda prohibida la reproducción, distribución, transformación, transcripción, almacenamiento o recuperación total o parcial de este contenido, sin el permiso previa y expreso del titular de los derechos. La infracción de los derechos puede constituir un delito contra la propiedad intelectual (artículo 270 y ss. del CP). Para requerir la autorización pueden dirigirse al titular enviando un correo electrónico a info@protecciondata.es