El Gobierno de Estados Unidos ha tomado una drástica decisión al designar a Anthropic como un “riesgo para la cadena de suministro y la Seguridad Nacional”. Esta medida se decidió tras la negativa de la empresa, dirigida por Dario Amodei, a permitir que su modelo de Inteligencia Artificial fuera utilizado con fines militares, especialmente para la vigilancia doméstica masiva o el desarrollo de armas autónomas.
El anuncio, realizado por el secretario de Defensa, Pete Hegseth, fue claro: todas las agencias federales deberán dejar de utilizar el software de Anthropic, incluyendo su modelo de IA, conocido como Claude. Hegseth enfatizó que esta decisión es definitiva, reafirmando que los combatientes estadounidenses no deberían depender de lo que él calificó como “caprichos ideológicos de las grandes tecnológicas”.
Con esta medida, se prevé que se termine toda relación comercial entre Anthropic y las fuerzas armadas. La transición será gradual, contemplando un periodo de hasta seis meses para permitir un cambio fluido hacia “servicios más patrióticos”. El presidente Donald Trump respalda esta postura, amenazando a la empresa con usar “todo el poder de la Presidencia” si deciden no colaborar, lo que podría acarrear “graves consecuencias a nivel civil o penal”.
El conflicto surgió después de que Anthropic se rehusara a ceder a las exigencias del Departamento de Defensa sobre las restricciones de uso de su tecnología. Amodei defendió la postura de la empresa, resaltando que prefieren no trabajar con el Pentágono antes que permitir el uso de su IA de manera que comprometa los valores democráticos. La empresa ha manifestado su disposición a colaborar en investigación y desarrollo con el Departamento de Guerra para mejorar la fiabilidad de sus sistemas, pero esta oferta fue rechazada.
En julio de 2025, el Departamento de Defensa anunció un contrato de 200 millones de dólares para colaborar en el desarrollo de IA en el Ejército, incluyendo a Anthropic y otras empresas como Google y OpenAI. Sin embargo, un informe del diario The Wall Street Journal reveló que el Ejército estadounidense utilizó el modelo Claude en una operación para capturar al presidente Nicolás Maduro en Venezuela, a pesar de que la compañía prohíbe el uso de su tecnología para fines violentos o de vigilancia ciudadana.
Este giro en la relación entre el gobierno estadounidense y Anthropic ha generado preocupación sobre la futura dirección de la inteligencia artificial y su uso en el ámbito militar, así como sobre las implicaciones éticas que ello conlleva. A medida que la situación evoluciona, el enfoque del gobierno en asegurar el uso de tecnología alineada con sus estándares de seguridad y valores democráticos se vuelve más evidente.
Gracias por leer Columna Digital, puedes seguirnos en Facebook, Twitter, Instagram o visitar nuestra página oficial. No olvides comentar sobre este articulo directamente en la parte inferior de esta página, tu comentario es muy importante para nuestra área de redacción y nuestros lectores.

