Un tribunal de EEUU bloquea la apelación de Anthropic contra el veto del Pentágono
Varapalo judicial a Anthropic. Y es que el Tribunal de Apelaciones de Estados Unidos para el circuito del Distrito de Columbia ha rechazado la petición de la compañía responsable de Claude de suspender temporalmente la decisión del Pentágono de calificar a la empresa de inteligencia artificial (IA) y sus productos como un "riesgo para la cadena de suministro".

El fallo, aunque no es definitivo, ya que el próximo 19 de mayo se escucharán los argumentos de las partes, supone una victoria para el Gobierno de Donald Trump, sobre todo, después de que el pasado mes de marzo, un tribunal de California emitiera una resolución contraria al Departamento de Guerra en otro proceso judicial iniciado por Anthropic.
Con todo, el panel de jueces considera que existen "importantes intereses gubernamentales y públicos en juego", por lo que, en su opinión, "el balance de intereses favorece al Gobierno". "Por ello, denegamos la solicitud de suspensión de Anthropic, pendiente de revisión del fondo del asunto".
No obstante, el tribunal reconoce que "es probable que Anthropic sufra algún grado de daño irreparable en ausencia de una suspensión", pero cree que su libertad de expresión no se ha visto coartada durante la tramitación del litigio, por lo que los presuntos daños irreparables denunciados se limitarían al ámbito financiero y su cuantía exacta "no está completamente clara".
En este sentido, hay que destacar que, en la demanda presentada por la compañía contra el Gobierno de Estados Unidos, la empresa alegaba que su inclusión en la lista negra de seguridad nacional del Pentágono estaba "perjudicando irreparablemente a Anthropic".
"Los contratos de Anthropic con el gobierno federal ya están siendo cancelados. Los contratos actuales y futuros con entidades privadas también están en duda, lo que pone en riesgo cientos de millones de dólares a corto plazo. Además de estos daños económicos inmediatos, la reputación de Anthropic y las libertades fundamentales de la Primera Enmienda están bajo ataque. Sin un recurso judicial, estos daños solo se agravarán en las próximas semanas y meses", detallaba la responsable de Claude.
Ahora, y tras esta nueva resolución, una portavoz de Anthropic ha explicado en un comunicado que la empresa confía en que el tribunal acabará por reconocer que la designación de riesgo en la cadena de suministro es ilegal.
Por su parte, el fiscal general en funciones, Todd Blanche, ha valorado el fallo como una victoria para la capacidad de respuesta militar. "La autoridad militar y el control operativo pertenecen al comandante en jefe y al Departamento de Guerra, no a una empresa tecnológica".
El origen del conflicto se encuentra en la negativa de Anthropic de permitir que el ejército utilizara el chatbot de IA Claude para la vigilancia masiva de EEUU o el despliegue de armas autónomas debido a preocupaciones de seguridad y ética.




