Anthropic demanda al gobierno Trump por sanción del Pentágono
La empresa limita el uso militar de su IA Claude, rechazando vigilancia masiva y armas autónomas.

Anthropic demandó al gobierno de Trump, pidiendo a los tribunales federales que anulen la decisión del Pentágono de designar a la empresa de inteligencia artificial como un "riesgo para la cadena de suministro" por su negativa a permitir un uso militar sin restricciones de su tecnología.
Acciones de la autoridad
Anthropic presentó dos demandas separadas el lunes: una ante un tribunal federal en California y otra ante el tribunal federal de apelaciones en Washington, D.C.; cada una impugna distintos aspectos de las acciones del Pentágono contra la empresa.
El Pentágono designó formalmente la semana pasada a la empresa tecnológica de San Francisco como un riesgo para la cadena de suministro tras una disputa inusualmente pública sobre cómo podría utilizarse en la guerra su chatbot de IA, Claude.
¡Sigue nuestro canal de WhatsApp para más noticias! Únete aquí
"Estas acciones no tienen precedentes y son ilegales", dice la demanda de Anthropic. "La Constitución no permite que el gobierno ejerza su enorme poder para castigar a una empresa por su expresión protegida. Ninguna ley federal autoriza las acciones tomadas aquí. Anthropic recurre al poder judicial como último recurso para reivindicar sus derechos y detener la campaña ilegal de represalias del Ejecutivo".
El Departamento de Defensa declinó hacer comentarios el lunes, citando una política de no comentar sobre asuntos en litigio.
¿Qué declararon los actores involucrados?
Anthropic declaró que buscó restringir que su tecnología se utilizara para dos usos de alto nivel: la vigilancia masiva de estadounidenses y las armas totalmente autónomas. El secretario de Defensa, Pete Hegseth, y otros funcionarios insistieron públicamente en que la empresa debe aceptar "todos los usos legales" de Claude y amenazaron con castigos si la empresa no cumplía.
Designar a la empresa como un riesgo para la cadena de suministro impide el uso del trabajo de defensa de Anthropic, utilizando una autoridad que fue diseñada para evitar que adversarios extranjeros perjudiquen los sistemas de seguridad nacional. Es la primera vez que se sabe que el gobierno federal ha utilizado tal designación contra una empresa estadounidense.
El presidente Donald Trump también dijo que ordenaría a las agencias federales dejar de usar Claude, aunque le dio al Pentágono seis meses para eliminar gradualmente un producto que está profundamente integrado en sistemas militares clasificados, incluidos los utilizados en la guerra de Irán.
La demanda de Anthropic también nombra a otras agencias federales, incluidos los departamentos del Tesoro y de Estado, después de que funcionarios ordenaran a los empleados dejar de usar los servicios de Anthropic.
Incluso mientras combate las acciones del Pentágono, Anthropic ha buscado convencer a empresas y a otras agencias gubernamentales de que la sanción del gobierno de Trump es limitada y que solo afecta a los contratistas militares cuando están usando Claude en trabajos para el Departamento de Defensa.
Dejar clara esa distinción es crucial para la empresa porque la mayor parte de sus ingresos proyectados de 14.000 millones de dólares este año proviene de empresas y agencias gubernamentales que están usando Claude para programación informática y otras tareas. Más de 500 clientes están pagando a Anthropic al menos 1 millón de dólares al año por Claude, según un reciente anuncio de inversión que había valorado a la empresa en 380.000 millones de dólares.
Anthropic declaró en un comunicado el lunes que "buscar una revisión judicial no cambia nuestro compromiso de larga data de aprovechar la IA para proteger nuestra seguridad nacional, pero este es un paso necesario para proteger nuestro negocio, nuestros clientes y nuestros socios".
no te pierdas estas noticias












