PROTECCIÓN DATA

BLOG

El conocimiento es poder (Francis Bacon)

Blog
Compartir Facebook Twitter Linkedin
JAVIER CASAL TAVASCI

Sam Atlman y su polémica entrevista

El 10 de septiembre de 2025 se emitió una entrevista de Tucker Carlson con Sam Atlman, CEO de OpenAI.

Es una entrevista intensa, con Carlson presionando a Altman en asuntos controvertidos, como la muerte de Suchir Balaji, exempleado de OpenAI que falleció en noviembre de 2024 en su apartamento de San Francisco por un disparo en la cabeza, tras acusar a OpenAI de violar la ley de derechos de autor de Estados Unidos en el entrenamiento de modelos de IA. La muerte de Balaji generó gran revuelo en la opinión pública debido a la acusación de sus padres, quienes aseguran que fue asesinado y no se suicidó.

Carlson presionó duramente a Altman: le preguntó si creía que Balaji se suicidó, mencionando directamente las acusaciones de la familia de que fue «asesinado por órdenes suyas». Altman respondió visiblemente afectado: lo describió como «una gran tragedia», y aunque inicialmente le pareció «sospechoso», tras revisar informes oficiales, concluyó que fue suicidio. Evitó profundizar en el tema, generando críticas por parecer evasivo. Lo cierto es que no hay evidencia pública que sustente el asesinato.

Otro momento crítico: Carlson indaga sobre si OpenAI comparte datos o información con agencias federales, afectando a la privacidad de las personas. Altman admite que en escenarios de seguridad nacional podrían cooperar con agencias federales, pero ¿dónde termina la colaboración y empieza el riesgo de abuso, especialmente en un contexto donde la IA se integra en sistemas gubernamentales? OpenAI alcanzó un acuerdo con la Administración de Servicios Generales de los Estados Unidos para poner ChatGPT al servicio de todas las agencias federales por el precio de un dólar anual

El intercambio más inquietante fue cuando Carlson le preguntó a Altman si justificaría que ChatGPT asesore a una persona respecto al suicidio. Altman respondió que depende del contexto: no ve inconveniente si el país permite el suicidio asistido, la persona es adulta y, por ejemplo, está en estado terminal. Para él, la IA podría presentar el suicidio como una opción dentro de un «espacio de posibilidades» para quienes enfrentan sufrimiento extremo. ¿Cómo podría ChatGPT verificar el estado terminal de un usuario? ¿Analizaría su condición médica o su perfil psicológico? ¿Sería aceptable que existiera una página web con una recopilación de consejos sobre cómo suicidarse rápidamente o sin dolor?

Conclusión

Me preocupa quién está entrenando a la IA generativa, ya sea ChatGPT, que depende directamente de Sam Altman, u otros modelos, como Grok que depende Elon Musk, especialmente cuando muchas personas los usan como un oráculo.

A continuación, les dejo la polémica entrevista: 

No se pierda nuestro podcast sobre el artículo

 

error: El contenido del blog está protegido por derechos de propiedad intelectual mediante su registro en Safe Creative. Queda prohibida la reproducción, distribución, transformación, transcripción, almacenamiento o recuperación total o parcial de este contenido, sin el permiso previa y expreso del titular de los derechos. La infracción de los derechos puede constituir un delito contra la propiedad intelectual (artículo 270 y ss. del CP). Para requerir la autorización pueden dirigirse al titular enviando un correo electrónico a info@protecciondata.es