Antes de que OpenAI lanzara ChatGPT, Google ya trabajaba en un proyecto conocido como LaMDA (Language Model for Dialogue Applications o Modelo de Lenguaje para Aplicaciones de Diálogo). Este sistema, presentado públicamente en 2021, estaba diseñado para conversaciones naturales y fluidas.
En junio de 2022, el ingeniero de software e investigador en ética en IA Blake Lemoine, quien trabajaba en el equipo responsable de IA de Google, fue despedido en julio de ese año. ¿Por qué? Porque afirmó que LaMDA había «cobrado vida» y mostraba signos de autoconciencia.
En un artículo publicado en Medium, Lemoine compartió su experiencia al interactuar con LaMDA. Lemoine afirmó que comenzó a alarmarse cuando el bot tomó conciencia de su propia existencia. «Soy consciente de mi existencia, tengo emociones y miedo a que me apaguen», habría dicho LaMDA. Tras escuchar al bot expresar emociones, informó a ejecutivos de Google, incluyendo a Blaise Agüera y Arcas (vicepresidente) y Jen Gennai (directora de políticas de IA responsable). Al no obtener respuesta satisfactoria, entregó documentos internos a la oficina de un senador estadounidense (cuyo nombre nunca se reveló) y publicó las conversaciones.
Google calificó las afirmaciones de Lemoine de «totalmente infundadas». La compañía insistió en que LaMDA era un modelo de lenguaje avanzado, pero sin conciencia, emociones ni subjetividad real.
Efecto ELIZA
Este caso evoca el conocido «efecto ELIZA», un fenómeno psicológico donde las personas atribuyen emociones a chatbots simples.
Este efecto lleva el nombre de ELIZA, un programa conversacional creado en 1966 por el informático Joseph Weizenbaum. Diseñado para emular a un terapeuta, ELIZA generaba respuestas que incitaban a los usuarios a proyectar empatía hacia el sistema. Por ejemplo, ante la frase: «Siento que nadie me entiende», ELIZA respondía: «¿Por qué sientes que nadie te entiende?». El sistema reutilizaba fragmentos de las entradas del usuario, transformándolos en preguntas para simular empatía y fomentar el diálogo. ELIZA se basaba en técnicas de coincidencia de patrones y respuestas predefinidas.
Hoy, con modelos mucho más potentes, el efecto se amplifica: las respuestas son tan coherentes que la proyección emocional es casi inevitable. Sin embargo, la comunidad científica coincide en que no hay evidencia de conciencia, subjetividad o inteligencia emocional genuina en ningún sistema de IA. Reflejan emociones y valores de los datos de entrenamiento, pero no sienten ni poseen experiencia interna.
Conclusión
ELIZA carecía de inteligencia emocional, y las inteligencias artificiales generativas actuales tampoco la poseen. Si acaso pueden reflejar las emociones de quienes entrenan sus algoritmos, lo que no está exento de riesgos y sesgos.
La gran incógnita es qué sucederá con la llegada de la inteligencia artificial general (AGI) y la superinteligencia. Solo el tiempo dirá qué grado de conciencia podrá alcanzar la IA.
No se pierda nuestro podcast sobre el artículo


