El Pentágono comunica a Anthropic que es un "riesgo" para la cadena de suministro
El Departamento de Defensa de Estados Unidos ha comunicado oficialmente a Anthropic que considera que la empresa de inteligencia artificial (IA) y sus productos representan un "riesgo" para la cadena de suministro.

"DOW informó oficialmente a los líderes de Anthropic que la compañía y sus productos se consideran un riesgo para la cadena de suministro, con efecto inmediato", ha señalado un funcionario a Bloomberg.
"Desde el primer momento, esto se ha basado en un principio fundamental: que el ejército pueda usar la tecnología para todos los fines legales", ha dicho otro funcionario a CNBC. "El ejército no permitirá que un proveedor se inserte en la cadena de mando restringiendo el uso legal de una capacidad crítica y poniendo en riesgo a nuestros combatientes".
Esta decisión podría afectar no solo a la empresa, sino también al ejército, que ha dependido en gran medida de las herramientas de Anthropic. De hecho, con esta comunicación formal se exigirá a los proveedores de defensa y contratistas que certifiquen que no utilizan los modelos de la compañía en su trabajo con el Pentágono.
Por ahora, la compañía no se ha pronunciado al respecto pero ya había avanzado que iba a impugnar en los tribunales cualquier designación de riesgo en la cadena de suministro.
En este sentido, cabe recordar que el consejero delegado de Anthropic, Dario Amodei, ha estado negociando durante semanas con Emil Michael, subsecretario de Defensa para investigación e ingeniería, para elaborar un contrato que regule el acceso del Pentágono a la tecnología de Anthropic.
Sin embargo, las conversaciones fracasaron la semana pasada después de que la startup exigiera garantías de que su IA no se iba a utilizar para la vigilancia masiva de estadounidenses ni para el despliegue de armas autónomas.
Todo ello, después de que las tensiones llegaran a un punto crítico recientemente por el uso de Claude por parte de los militares en la operación para capturar al presidente de Venezuela, Nicolás Maduro, a través de la asociación de Anthropic con la firma de software de IA Palantir.
Así, en base a las declaraciones de un alto funcionario a Axios, un ejecutivo de Anthropic se puso en contacto con otro de Palantir para preguntarle si Claude había sido utilizado en la redada. "Se planteó de tal manera que daba a entender que podrían desaprobar que se utilizara su software, porque obviamente hubo fuego cinético durante esa redada, hubo disparos".
No obstante, desde Anthropic lo han negado rotundamente, indicando que la compañía no había "discutido el uso de Claude para operaciones específicas con el Departamento de Guerra. Tampoco hemos discutido esto con ningún socio de la industria más allá de las conversaciones rutinarias sobre asuntos estrictamente técnicos".



