El conflicto entre [Anthropic](/es/empresas/anthropic) y el gobierno estadounidense ha llegado a un punto de no retorno. El 27 de febrero de 2026, el presidente Donald Trump ordenó a todas las agencias federales cesar de inmediato el uso de las tecnologías de Anthropic, la empresa creadora de Claude. El motivo: Anthropic se negó a eliminar las restricciones de seguridad sobre el uso militar de su inteligencia artificial.
Cronología del conflicto Anthropic vs Pentágono
El contrato inicial de 200 millones de dólares
En el verano de 2025, Anthropic firma un contrato estimado en 200 millones de dólares con el Departamento de Defensa de EE.UU. Claude fue desplegado en varias agencias federales, incluido el Pentágono, para tareas de análisis, síntesis y apoyo a la toma de decisiones. El contrato incluía cláusulas de restricción impuestas por Anthropic, en conformidad con su Responsible Scaling Policy — un marco ético que regula los usos sensibles de su IA.
El ultimátum del Pentágono (26 de febrero de 2026)
El 26 de febrero de 2026, el Pentágono envía un ultimátum a Anthropic: eliminar todas las restricciones sobre el uso militar de Claude antes de las 17:01 del día siguiente, o perder el contrato. En concreto, el Departamento de Defensa exige que Anthropic autorice el uso de Claude para la vigilancia masiva doméstica de ciudadanos estadounidenses y para sistemas de armas totalmente autónomos — es decir, armas capaces de disparar sin supervisión humana.
Un detalle relevante: el Pentágono asegura no haber considerado nunca estos usos específicos, pero se niega rotundamente a prohibirlos en el contrato.
La respuesta de Anthropic: "cannot in good conscience"
Ese mismo día, Anthropic rechaza públicamente el ultimátum. El CEO Dario Amodei emite una declaración contundente:
“Threats do not change our position: we cannot in good conscience accede to their request.”
Anthropic deja claro que sus líneas rojas son innegociables: ni vigilancia masiva doméstica, ni armas autónomas sin control humano. La empresa se muestra dispuesta a colaborar con el gobierno en usos responsables de la IA, pero no a renunciar a sus principios de seguridad.
La orden ejecutiva de Trump (27 de febrero de 2026)
El 27 de febrero de 2026, Donald Trump ordena a todas las agencias federales cesar de inmediato el uso de tecnologías de Anthropic. En Truth Social, el presidente escribe:
“We don't need it, we don't want it, and will not do business with them again!”
Acto seguido, el secretario de Defensa Pete Hegseth designa oficialmente a Anthropic como un "supply chain risk" (riesgo para la cadena de suministro) — una clasificación normalmente reservada para empresas vinculadas a adversarios extranjeros, como ciertos proveedores chinos. Es la primera vez que una empresa estadounidense de IA recibe esta calificación.
Las agencias gubernamentales disponen de 6 meses para desvincularse completamente de los productos de Anthropic.
Anthropic lleva el caso a los tribunales (28 de febrero de 2026)
El 28 de febrero, Anthropic anuncia que impugnará la decisión ante los tribunales. La empresa considera la designación de "supply chain risk" abusiva y desproporcionada, y argumenta que la decisión del Pentágono constituye una represalia por el ejercicio legítimo de sus derechos contractuales.
Por qué Anthropic se negó: las líneas rojas de la IA
Vigilancia masiva doméstica
Anthropic se niega a que Claude sea utilizado para vigilar masivamente a los ciudadanos estadounidenses en territorio nacional. Este tipo de uso plantea cuestiones fundamentales sobre libertades civiles y la Cuarta Enmienda de la Constitución de EE.UU., que protege contra registros e incautaciones injustificados.
Armas autónomas sin supervisión humana
La segunda línea roja se refiere a las armas letales autónomas — sistemas capaces de seleccionar y atacar objetivos sin intervención humana. Es un tema de debate mundial: numerosos expertos en IA y organizaciones internacionales abogan por mantener el control humano en la cadena de decisión letal (principio del human-in-the-loop).
La Responsible Scaling Policy de Anthropic
Desde su fundación, Anthropic se ha posicionado como una empresa de IA centrada en la seguridad. Su Responsible Scaling Policy define niveles de riesgo (ASL) para sus modelos e impone restricciones de uso proporcionales. Esta política es el pilar de la identidad de Anthropic y un argumento comercial clave frente a la competencia: Claude se presenta como la IA más segura y alineada del mercado.
Consecuencias para la industria de la IA
OpenAI firma con el Pentágono
Coincidencia u oportunismo, OpenAI (la empresa detrás de ChatGPT) anunció un nuevo contrato con el Pentágono pocas horas después de la prohibición de Anthropic. El momento evidencia la feroz competencia entre empresas de IA por contratos gubernamentales — y las decisiones éticas divergentes que toman.
"Supply chain risk": una designación sin precedentes
La designación de Anthropic como "supply chain risk" no tiene precedentes para una empresa tecnológica estadounidense. Esta categoría, creada para contrarrestar amenazas de adversarios extranjeros (China, Rusia), se aplica aquí a una empresa con sede en San Francisco. Expertos legales y analistas de defensa expresaron inmediatamente reservas sobre la legalidad y proporcionalidad de la medida.
6 meses de transición para las agencias federales
Las agencias gubernamentales tienen hasta finales de agosto de 2026 para migrar a otras soluciones. Esto supone un desafío logístico considerable: Claude estaba integrado en numerosos flujos de trabajo de la administración. Las alternativas probables incluyen los modelos de OpenAI (GPT-4), Google (Gemini) y xAI (Grok), propiedad de Elon Musk.
Qué cambia para los usuarios de Claude
Impacto en el servicio de Claude para el público general
Para los usuarios particulares y las empresas privadas, no cambia nada. La prohibición solo afecta a las agencias federales de EE.UU. y a los contratistas del gobierno. Claude sigue plenamente disponible para particulares, empresas y desarrolladores a través de claude.ai, la API y Claude Code.
Claude vs ChatGPT: un posicionamiento ético diferente
Este caso cristaliza la diferencia de posicionamiento entre Claude y ChatGPT. Anthropic elige mantener sus principios de seguridad incluso al precio de un contrato de 200 millones de dólares y un enfrentamiento directo con el poder ejecutivo. OpenAI, por su parte, aprovecha la oportunidad comercial. Para los usuarios que valoran la ética y la seguridad de su IA, este posicionamiento es un criterio de elección significativo.
El futuro de Anthropic tras la prohibición
A pesar de perder el contrato gubernamental, Anthropic mantiene una posición sólida. La empresa ha recaudado más de 7.000 millones de dólares, cuenta con millones de usuarios en todo el mundo y sus modelos Claude son reconocidos como de los más potentes del mercado. La demanda contra el Pentágono podría sentar un precedente legal importante sobre los derechos de las empresas de IA frente a las exigencias gubernamentales.
A largo plazo, este caso podría incluso fortalecer la marca Anthropic entre los usuarios preocupados por la ética y la seguridad, especialmente en Europa, donde las regulaciones sobre IA militar son más estrictas.
Preguntas frecuentes
Este artículo se actualizará a medida que evolucione la situación. Última actualización: 28 de febrero de 2026.
Mantente al día con las noticias de IA
Recibe los últimos análisis y comparativas directamente en tu bandeja de entrada.
Sin spam. Cancela en 1 clic.


