El 10 de septiembre de 2025 se emitió la entrevista de Tucker Carlson con Salt Atlman.
Es una entrevista intensa, con Carlson presionando en varios puntos controvertidos, como la muerte de Suchir Balaji, un exempleado de OpenAI que falleció de forma violenta tras acusar a la empresa de violar la ley de derechos de autor de Estados Unidos. La muerte de Balaji generó gran revuelo debido a la acusación de sus padres, quienes aseguran que fue asesinado y no se suicidó, como sostienen las autoridades policiales.
En un primer momento, Carlson indaga sobre si OpenAI comparte datos o información con agencias federales, afectando a la privacidad de las personas. Altman admite que en escenarios de seguridad nacional podrían cooperar con agencias federales, pero ¿dónde termina la colaboración y empieza el riesgo de abuso, especialmente en un contexto donde la IA se integra en sistemas gubernamentales? OpenAI alcanzó un acuerdo con la Administración de Servicios Generales de los Estados Unidos para poner ChatGPT al servicio de todas las agencias federales por el precio de un dólar anual.
Otro momento álgido ocurrió cuando Carlson le preguntó a Altman si justificaría que ChatGPT asesore a una persona respecto al suicidio. Altman respondió que depende del contexto: no ve inconveniente si el país permite el suicidio asistido, la persona es adulta y, por ejemplo, está en estado terminal. Para él, la IA podría presentar el suicidio como una opción dentro de un «espacio de posibilidades» para quienes enfrentan sufrimiento extremo. ¿Cómo podría ChatGPT verificar el estado terminal de un usuario? ¿Analizaría su condición médica o su perfil psicológico? ¿Sería aceptable que existiera una página web con una recopilación de consejos sobre cómo suicidarse rápidamente o sin dolor?
Me preocupa quién está entrenando a la IA generativa, ya sea ChatGPT, que depende directamente de Sam Altman, u otros modelos, especialmente cuando muchas personas los usan como un oráculo.
A continuación, les dejo la polémica entrevista:
No se pierda nuestro podcast sobre el artículo


