Henk Van Ess, especialista en inteligencia de fuentes abiertas (OSINT), destapó en julio de 2025 un fallo grave de privacidad en ChatGPT relacionado con la función de compartir conversaciones.
Su investigación mostró que decenas de miles de conversaciones compartidas por usuarios quedaron indexadas en motores de búsqueda públicos como Google, exponiendo información altamente sensible. OpenAI había implementado (como un «experimento») una opción para hacer los enlaces de compartición «descubribles» por buscadores, lo que muchos usuarios activaron sin entender las consecuencias: los chats se volvían públicos, accesibles y rastreables.
Entre las conversaciones filtradas, se encuentra la de un abogado que se presentó ante ChatGPT como representante de una multinacional italiana del sector energético. En ella, expuso su hoja de ruta para desplazar a una pequeña comunidad indígena en el Amazonas para construir una presa y una planta hidroeléctrica de 15.000 MW. El abogado consultó a ChatGPT cómo obtener el precio más bajo en las negociaciones a partir de la falta de conocimientos técnicos de la comunidad indígena.
La lista de consultas sensibles o comprometidas resulta extensa; por ejemplo, un usuario intentó que ChatGPT generara contenido sexualmente explícito con menores. Aunque el sistema inicialmente se negó, el usuario logró eludir las restricciones y obtener el material solicitado. Este suceso ha revelado vulnerabilidades de la plataforma que no debería existir.
Para su investigación, Van Ess empleó otra herramienta de IA, Claude de Anthropic, a la que pidió que generara búsquedas específicas para localizar conversaciones sensibles de ChatGPT filtradas en línea.
Tras las revelaciones de Van Ess, OpenAI deshabilitó la función «Share» (compartir) para rediseñarla y está trabajando para eliminar todo el contenido filtrado de los resultados de búsqueda, aunque no siempre es posible. La organización Digital Digging publicó un análisis paralelo en el que lograron acceder a más de 110.000 conversaciones de ChatGPT a través de Wayback Machine de Internet Archive.org, una biblioteca digital que archiva contenidos de Internet, demostrando la magnitud y persistencia del problema.
Este incidente muestra los problemas estructurales de privacidad en los chatbots de IA generativa:
- Las empresas recolectan y almacenan conversaciones por defecto (salvo en modos como «Temporary Chat» o configuraciones empresariales).
- Los usuarios subestiman el riesgo al compartir enlaces, asumiendo privacidad cuando en realidad pueden volverse públicos/indexables/archivables.
- Una vez indexado o archivado, el contenido es muy difícil de eliminar por completo de Internet.
Conclusión
Noticias como estas plantean cuestiones críticas sobre la confidencialidad en nuestra interacción con la IA: ¿Cómo gestionan realmente las empresas nuestros datos personales? ¿Qué protocolos de seguridad aplican para proteger la información sensible que compartimos? ¿Hasta qué punto se utilizan las conversaciones para entrenar a sus algoritmos, y bajo qué condiciones? ¿Disponemos los usuarios de control real sobre cómo se almacenan, comparten o eliminan nuestros datos personales? ¿Qué responsabilidades legales y éticas asumen estas compañías frente a posibles filtraciones o abusos? ¿Qué riesgos implica para individuos y comunidades que información delicada pueda filtrarse o ser explotada maliciosamente?
La línea que separa una herramienta útil de un riesgo para la privacidad está cada vez más difusa, así que cuidado con el uso y manejo que se hace de los chats conversacionales.
No se pierda nuestro podcast sobre el artículo


