EE. UU. califica a Anthropic como “riesgo inaceptable” para la seguridad nacional

El Gobierno de Estados Unidos ha intensificado su disputa legal contra la firma de inteligencia artificial Anthropic, calificándola como un “riesgo inaceptable” para las cadenas de suministro militares. Según documentos judiciales presentados por el Departamento de Guerra (DoW), la negativa de la empresa a permitir que su modelo, Claude, sea utilizado en sistemas de armas letales o vigilancia masiva supone una amenaza operativa.

La administración argumenta que los sistemas de IA son vulnerables a la manipulación. Al gobierno le preocupa que Anthropic pueda desactivar o alterar el comportamiento de su tecnología durante operaciones bélicas si considera que se han traspasado sus “líneas rojas” éticas. Esta desconfianza ha llevado a designar a la compañía como un riesgo para la seguridad nacional, una etiqueta que suele reservarse para entidades de países adversarios como Huawei.

Un conflicto de ética y soberanía tecnológica

La designación implicaría que ningún proveedor gubernamental podría hacer negocios con Anthropic. Ante esto, gigantes como Microsoft han salido en defensa de la firma, advirtiendo que esta medida pone en peligro el ecosistema de IA que el propio país busca liderar. Mientras Anthropic impugna la decisión en los tribunales, el caso subraya el choque entre las políticas éticas corporativas y las necesidades estratégicas del Pentágono.

Comparte esta nota: