DOD califica a Anthropic como un “riesgo inaceptable” para la seguridad nacional

El Departamento de Defensa presentó un escrito de 40 páginas para justificar que Anthropic supone un riesgo para la cadena de suministro, citando la posibilidad de que la compañía limite o altere sus modelos en operaciones bélicas. Anthropic, que tiene un contrato por 200 millones de dólares con el Pentágono, alega que la medida es represalia por negarse a aceptar ciertos usos.

Por Redaccion TD
DOD califica a Anthropic como un “riesgo inaceptable” para la seguridad nacional

Resumen del conflicto

El Departamento de Defensa (DOD) de Estados Unidos afirmó públicamente que Anthropic representa un “riesgo inaceptable para la seguridad nacional”, y formalizó esa postura en un escrito de 40 páginas presentado en una corte federal de California. La presentación constituye la respuesta oficial del DOD a las demandas que Anthropic interpuso para bloquear temporalmente la etiqueta de riesgo que el gobierno le impuso.

El choque entre el laboratorio de IA y el Pentágono gira alrededor de hasta qué punto una empresa privada puede establecer límites al uso de su tecnología cuando trabaja con sistemas militares, y sobre si esas condiciones constituyen o no un riesgo para la cadena de suministro nacional.

Qué alega el Departamento de Defensa

En su presentación, el DOD plantea que Anthropic podría, si considera que sus “líneas rojas” corporativas están siendo vulneradas, intentar desactivar su tecnología o alterar el comportamiento de sus modelos en momentos críticos, incluyendo durante operaciones de combate. Esa posibilidad, según el gobierno, justifica catalogar a la empresa como un riesgo para la cadena de suministro.

El Pentágono sostiene que una compañía privada no debe imponer restricciones que limiten cómo se utiliza una herramienta tecnológica una vez integrada en sistemas militares, y muestra preocupación por escenarios en los que la empresa pudiera cambiar el funcionamiento del modelo en respuesta a decisiones militares.

El contrato y las “líneas rojas” de Anthropic

Anthropic firmó el verano pasado un contrato con el Pentágono por 200 millones de dólares para desplegar su tecnología dentro de sistemas clasificados. En las negociaciones posteriores al acuerdo, la compañía expresó objeciones concretas: no quería que sus sistemas se usaran para vigilancia masiva de ciudadanos estadounidenses, y afirmó que su tecnología no estaba lista para apoyar decisiones de designación de objetivos ni para disparar armas letales.

Esas reservas —que Anthropic describe como obligaciones éticas y de seguridad— son el centro del conflicto. El gobierno interpreta la negativa de la empresa a aceptar un uso amplio y sin restricciones como un riesgo operativo; Anthropic, por su parte, sostiene que está defendiendo principios y límites técnicos sobre el empleo de su tecnología.

Críticas legales y apoyo de la industria

Varios actores han cuestionado la postura del DOD. Chris Mattei, abogado especializado en la Primera Enmienda y ex fiscal del Departamento de Justicia, dijo a TechCrunch que no existe una investigación pública que respalde la hipótesis del DOD sobre una posible desactivación o alteración deliberada de modelos durante operaciones bélicas. Para Mattei, la acusación del gobierno se basa en conjeturas y no explica por qué la negativa de Anthropic a aceptar una cláusula de “todo uso lícito” lo convierte en un adversario en lugar de en un proveedor con el que el DOD prefirió no continuar.

Mattei señaló: “El gobierno está dependiendo completamente de imaginaciones conjeturales y especulativas para justificar un paso legal muy, muy serio contra Anthropic”. Añadió que los argumentos oficiales podrían ser evidencia de que la acción fue una represalia por la negativa de la empresa a aceptar los términos del gobierno, un acto que, según él, equivale a una forma de expresión protegida.

Además del apoyo jurídico, numerosas compañías y empleados de la industria tech, incluidos personal y directivos de OpenAI, Google y Microsoft, junto con grupos de derechos civiles, presentaron amicus briefs en favor de Anthropic. Entre las críticas comunes figura la observación de que el DOD habría podido simplemente terminar el contrato si consideraba que la empresa no cumplía con sus requisitos, en lugar de imponer una etiqueta que afecta la reputación y el acceso al mercado.

Alegatos de Anthropic y el proceso judicial

En sus demandas, Anthropic acusa al Departamento de Defensa de violar sus derechos de la Primera Enmienda y de castigar a la empresa por motivos ideológicos relacionados con su postura sobre usos autorizados de la tecnología. La compañía solicitó al tribunal una orden preliminar para impedir que el DOD haga efectiva la etiqueta de riesgo mientras se resuelve el litigio.

El caso continuará con una audiencia programada sobre la petición de medida cautelar para el próximo martes, según el informe. Al cierre de la nota, Anthropic no había respondido de inmediato a solicitudes de comentario.

¿Qué significa esto para la industria de IA y para América Latina?

Aunque el conflicto es entre una empresa estadounidense y el Pentágono, sus repercusiones son globales y relevantes para gobiernos y proveedores en América Latina. Algunos puntos clave a considerar:

  • Riesgo reputacional y de mercado: una etiqueta de “riesgo para la cadena de suministro” por parte de una potencia como EE. UU. puede afectar la confianza de otros compradores gubernamentales y corporativos, incluso en la región.

  • Dilema entre ética y acceso a contratos: las empresas de IA que adopten políticas firmes sobre usos prohibidos pueden enfrentar tensiones al intentar vender a entidades militares o de seguridad. Los gobiernos latinoamericanos que necesiten capacidades de IA para defensa o seguridad deberán ponderar cómo exigir garantías sin penalizar prácticas responsables.

  • Precedente regulatorio y contractual: la disputa subraya la importancia de redactar contratos con cláusulas claras sobre control, transparencia y mecanismos de auditoría técnica. Las autoridades de compra pública pueden preferir incluir procedimientos de revisión independientes en lugar de imponer condiciones que las empresas consideren inaceptables.

  • Riesgo de politización: calificar a un proveedor por motivos relacionados con sus principios de uso puede provocar rechazo en la industria y en la opinión pública, así como acciones legales que prolonguen la incertidumbre.

Para los tomadores de decisiones en la región, este caso ofrece lecciones sobre cómo equilibrar seguridad nacional, gobernanza ética de la IA y la necesidad de mantener un ecosistema de proveedores diverso y confiable.

Qué seguir de cerca

La audiencia para la medida cautelar será una pieza clave para entender si el tribunal considera que la etiqueta del DOD puede imponerse de forma inmediata o si debe suspenderse mientras avanza el proceso. Dependiendo del fallo, el caso podría sentar precedentes sobre la capacidad de una administración para sancionar proveedores tecnológicos por su postura sobre usos autorizados.

También será importante observar si el DOD aporta evidencia concreta que respalde sus preocupaciones operativas —algo que, según críticos como Mattei, hasta ahora no se ha presentado públicamente—. La resolución del conflicto influirá en cómo gobiernos y proveedores negocian límites éticos, garantías técnicas y controles de seguridad en contratos de IA.

Conclusión

El choque entre Anthropic y el Departamento de Defensa plantea preguntas difíciles sobre soberanía en el uso de tecnología, responsabilidad empresarial y prioridades de seguridad. Más allá del resultado judicial, el caso obligará a gobiernos y empresas a clarificar expectativas, procesos de supervisión y las consecuencias de imponer condiciones de uso a tecnologías avanzadas. Para América Latina, la disputa es una advertencia: la gobernanza de la IA y las decisiones de compra pública requieren marcos claros que eviten escaladas legales y mantengan la confianza en la cadena de suministro tecnológica.

Fuente original: TechCrunch AI