El Departamento de Guerra de Estados Unidos está revisando su relación con Anthropic, empresa creadora del modelo de inteligencia artificial Claude, debido a tensiones por las restricciones que la compañía impone sobre cómo puede utilizarse su tecnología en aplicaciones militares.
Según funcionarios y reportes de medios estadounidenses, el Pentágono exige que los proveedores de IA permitan que sus herramientas sean usadas para “todos los fines legales”, lo cual incluiría recopilación de inteligencia, desarrollo de armas y operaciones en el campo de batalla. Anthropic, sin embargo, mantiene límites explícitos en su política de uso para evitar aplicaciones como vigilancia masiva de estadounidenses y armamento totalmente autónomo.
Un portavoz del Departamento de Guerra destacó que la revisión de la relación se basa en la necesidad de que los socios tecnológicos “ayuden a los combatientes a ganar cualquier batalla”, subrayando que todo acuerdo debe centrarse en las necesidades de las tropas y la seguridad nacional.
Tensiones por uso del modelo Claude
Parte del conflicto se ha intensificado tras informes de que el modelo Claude fue empleado en una operación militar para capturar al depuesto presidente venezolano Nicolás Maduro en enero, aunque Anthropic ha señalado que no ha discutido usos específicos de su tecnología con el Pentágono y enfatiza que Claude solo se utiliza cumpliendo sus políticas de uso.
Posibles consecuencias para Anthropic
El secretario de Guerra, Pete Hegseth, estaría considerando medidas más severas, incluso la posibilidad de terminar por completo los vínculos con Anthropic y designarla como un “riesgo para la cadena de suministro” de defensa —una penalización normalmente reservada para adversarios extranjeros—, lo que obligaría a otras empresas a certificar que no emplean modelos de la firma para poder hacer negocios con el Pentágono.
Anthropic firmó el verano pasado un contrato con el Pentágono por alrededor de 200 millones de dólares para desarrollar capacidades de IA aplicables a la seguridad nacional, pero las diferencias sobre las limitaciones de uso han generado fricciones que ahora ponen en riesgo ese acuerdo.
Reacción de Anthropic
La compañía ha reiterado su compromiso con la seguridad nacional y sostiene que sus límites de uso buscan proteger a la población y evitar aplicaciones que puedan causar daños, manteniendo firmes sus políticas incluso frente a la presión del gobierno estadounidense.




