PROTECCIÓN DATA

BLOG

El conocimiento es poder (Francis Bacon)

Blog
Compartir Facebook Twitter Linkedin
JAVIER CASAL TAVASCI

Vigilancia ciudadana masiva en Estados Unidos

Anthropic fue fundada por exdirectivos de OpenAI, entre ellos Dario Amodei, quienes abandonaron OpenAI al considerar que no prestaba suficiente atención a los riesgos de la inteligencia artificial.

La Política de Escalado Responsable (RSP) de Anthropic establecía en su versión original que la compañía pausaría el entrenamiento o retrasaría el lanzamiento de un modelo si sus capacidades superaban la velocidad a la que podían desarrollarse salvaguardas adecuadas. En otras palabras, detendrían el desarrollo del modelo hasta contar con garantías suficientes para mantenerlo bajo control.

Anthropic confiaba en que su RSP se convirtiera en un estándar voluntario para la industria o sirviera de base para futuras leyes de inteligencia artificial orientadas a fomentar la seguridad y la transparencia en el desarrollo de modelos. A los pocos meses de anunciar su RSP, tanto OpenAI como Google DeepMind adoptaron marcos similares. Sin embargo, desde entonces las circunstancias han cambiado. Basta recordar que el presidente Trump desreguló por completo el desarrollo de la IA al día siguiente de jurar el cargo.

Anthropic se ha visto sometida a una fuerte presión. Pete Hegseth, secretario de Guerra, advirtió a la compañía que perdería un contrato de 200 millones de dólares con el Departamento de Guerra si no rebajaba sus estándares de uso.

El 24 de febrero de 2026, Anthropic presentó una nueva versión de su RSP. Esta actualización elimina el compromiso estricto de pausar el escalado o despliegue de modelos cuando las capacidades superen las salvaguardas, optando en cambio por mayor transparencia mediante informes de riesgo periódicos y un mapa de ruta de seguridad fronteriza con objetivos evaluables, en respuesta a la competencia intensificada y un entorno político que prioriza el crecimiento económico sobre regulaciones estrictas. Supervivencia pura y dura en un mercado sin reglas.

Dos días después, su director ejecutivo, Dario Amodei, publicó una declaración sobre las conversaciones mantenidas con el Departamento de Guerra. De su lectura se desprenden varios puntos:

  • Uso gubernamental de Claude: La herramienta se utiliza ampliamente en el Departamento de Guerra y en otras agencias de seguridad nacional para aplicaciones de misión crítica, como análisis de inteligencia, modelado y simulación, planificación operativa, operaciones cibernéticas, entre otras.
  • Liderazgo estadounidense: Anthropic ha defendido el liderazgo de Estados Unidos en IA, incluso cuando esto ha ido en contra de sus intereses económicos a corto plazo.
  • Compromiso ético: La empresa renunció a un contrato multimillonario con el Partido Comunista Chino que habría permitido el uso de Claude por parte de entidades vinculadas al régimen.
  • Límites operativos: Anthropic reconoce que es el Departamento de Guerra–y no las empresas privadas– quien toma las decisiones militares.

Dicho esto, la compañía sostiene que la IA puede «socavar, en lugar de defender, los valores democráticos». También alerta de que ciertos usos quedan fuera del alcance de lo que la tecnología actual puede hacer de forma segura y fiable. Dos de esos casos, nunca incluidos en contratos con el Departamento de Guerra, son especialmente sensibles:

  • Vigilancia doméstica masiva: Anthropic apoya el uso de IA para misiones legales de inteligencia y contrainteligencia extranjeras, pero no para la vigilancia masiva dentro del país. Bajo la legislación vigente, el gobierno estadounidense puede adquirir sin orden judicial datos detallados sobre los movimientos, la navegación web y las asociaciones de los ciudadanos, procedentes de fuentes públicas y data brokers. La IA permitiría combinar esta información dispersa en retratos completos de la vida privada de cualquier persona, de forma automática y a gran escala.
  • Armas totalmente autónomas: Los sistemas de IA avanzados aún no son suficientemente fiables como para operar armas totalmente autónomas. Estas deberían desplegarse con garantías que hoy no existen. Además, sin la supervisión humana adecuada, no se puede confiar en que tales sistemas ejerzan el juicio crítico propio de las tropas profesionales.

Al día siguiente de la publicación de la declaración de Anthropic, como represalia por no colaborar con la administración Trump, Pete Hegseth ha designado a Anthropic como un «riesgo para la cadena de suministro en materia de seguridad nacional», una etiqueta reservada tradicionalmente para adversarios del país y nunca antes aplicada a una empresa estadounidense (tienen esa etiqueta empresas como Huawei, ZTE y Kaspersky). Adicionalmente, el presidente Trump ordenó a todas las agencias federales que cesen el uso de la tecnología de Anthropic. 

El Departamento de Guerra declaró que solo contratará a empresas de IA que acepten «cualquier uso legal» y eliminen las salvaguardias en los casos mencionados.

Mensaje del presidente Trump

Donald Trump publicó en su red social (Truth Social) el siguiente mensaje:

¡LOS ESTADOS UNIDOS DE AMÉRICA JAMÁS PERMITIRÁN QUE UNA EMPRESA RADICAL DE IZQUIERDA Y CONSCIENTE DECIDA CÓMO NUESTRA GRAN MILITAR LUCHA Y GANA GUERRAS! Esa decisión le corresponde a SU COMANDANTE EN JEFE y a los extraordinarios líderes que designo para dirigir nuestras Fuerzas Armadas.

Los izquierdistas desquiciados de Anthropic han cometido un ERROR DESASTROSO al intentar presionar al Departamento de Guerra y obligarlo a obedecer sus Términos de Servicio en lugar de nuestra Constitución. Su egoísmo está poniendo en riesgo VIDAS ESTADOUNIDENSES, a nuestras tropas y nuestra seguridad nacional.

Por lo tanto, ordeno a TODAS las agencias federales del gobierno de los Estados Unidos que CESEN INMEDIATAMENTE el uso de la tecnología de Anthropic. ¡No la necesitamos, no la queremos y no volveremos a hacer negocios con ellos! Habrá un período de descontinuación gradual de seis meses para agencias como el Departamento de Guerra que utilizan los productos de Anthropic, en varios niveles. Es mejor que Anthropic se organice y colabore durante este período de descontinuación, o usaré todo el poder de la Presidencia para obligarlos a cumplir, con graves consecuencias civiles y penales.

NOSOTROS decidiremos el destino de nuestro país, NO una empresa de inteligencia artificial descontrolada, de izquierda radical, dirigida por personas que no tienen ni idea de lo que es el mundo real. Gracias por su atención a este asunto. ¡HAGAMOS A ESTADOS UNIDOS GRANDE DE NUEVO!

Conclusión

La declaración de Anthropic deja claro que el gobierno estadounidense quiere la IA para la vigilancia masiva de personas, tanto dentro como fuera del país, y para el uso de armas totalmente autónomas. Ya no son sospechas, son hechos consumados.  

No se pierda nuestro podcast sobre el artículo

 

 

error: El contenido del blog está protegido por derechos de propiedad intelectual mediante su registro en Safe Creative. Queda prohibida la reproducción, distribución, transformación, transcripción, almacenamiento o recuperación total o parcial de este contenido, sin el permiso previa y expreso del titular de los derechos. La infracción de los derechos puede constituir un delito contra la propiedad intelectual (artículo 270 y ss. del CP). Para requerir la autorización pueden dirigirse al titular enviando un correo electrónico a info@protecciondata.es