EE. UU. dice que IA de Anthropic representa "riesgo inaceptable" para el ejército
- 18 mar
- 2 Min. de lectura
EE.UU. califica a Anthropic como riesgo para su seguridad por limitar el uso militar de su IA Claude. El Pentágono teme manipulación en operaciones y corta lazos, mientras la empresa impugna la decisión en tribunales.

EE.UU. declara a Anthropic como riesgo para seguridad nacional por uso de IA
Washington, 18 de marzo de 2026 – El Gobierno de Estados Unidos ha calificado a la empresa de inteligencia artificial Anthropic como un “riesgo inaceptable” para sus cadenas de suministro militares, en una decisión que eleva las tensiones entre el sector tecnológico y el ámbito de defensa.
La medida, revelada en un documento judicial presentado ante un tribunal federal en California, se produce en medio de una disputa legal iniciada por la compañía, creadora del modelo de IA Claude. Según las autoridades, permitir que Anthropic acceda a infraestructura militar podría comprometer operaciones estratégicas.
El Departamento de Defensa estadounidense argumentó que los sistemas de inteligencia artificial son “especialmente vulnerables a la manipulación”, y advirtió que la empresa podría alterar o desactivar su tecnología durante operaciones bélicas si considera que se violan sus principios corporativos.
La polémica surge también por la postura de Anthropic de restringir el uso de su tecnología en vigilancia masiva o en sistemas de armas completamente autónomos, una decisión que, según el Gobierno, limita su aplicabilidad en contextos militares.
Como consecuencia de esta clasificación, la empresa podría quedar excluida de contratos federales, una medida habitualmente reservada para compañías vinculadas a países considerados adversarios, como Huawei.
La decisión ha generado reacciones en la industria tecnológica. Microsoft, que utiliza el modelo Claude y mantiene contratos con el ejército, respaldó a Anthropic al advertir que este tipo de medidas podría afectar el desarrollo del ecosistema de inteligencia artificial en el país.
El caso refleja el creciente debate en torno al uso de la inteligencia artificial en el ámbito militar, donde se enfrentan consideraciones éticas, estratégicas y de seguridad nacional, en un contexto de acelerada competencia tecnológica global.
Diario Libre. (2026, 18 de marzo). EE. UU.: IA de Anthropic es “riesgo inaceptable” para el ejército. Diario Libre. https://www.diariolibre.com/planeta/tecnologia/2026/03/18/ee-uu-ia-de-anthropic-es-riesgo-inaceptable-para-ejercito/3473424




Comentarios