Esta semana ha pasado algo que no recuerdo haber visto nunca en la industria tecnológica. Una empresa americana de inteligencia artificial, valorada en 380.000 millones de dólares, le ha dicho que no al Departamento de Defensa de Estados Unidos. Al Pentágono. Al gobierno más poderoso del mundo.
Y el gobierno ha respondido declarándola una amenaza para la seguridad nacional.
Suena a película. Pero no lo es. Es lo que ha ocurrido entre Anthropic, la empresa detrás de Claude, y la administración Trump en los últimos días de febrero de 2026. Y las consecuencias están siendo inesperadas…
Vamos a desgranar todo esto porque creo que es una de esas historias que, dentro de unos años, recordaremos como un punto de inflexión.
Anthropic y el Pentágono: cómo empezó todo
Para entender la historia hay que saber que Anthropic no es una empresa cualquiera. Fue fundada por Dario y Daniela Amodei, quienes antes estaban en OpenAI y se fueron precisamente porque querían construir una IA más segura. Eso es literalmente su razón de ser.
Claude, su modelo de inteligencia artificial, era hasta hace unos días el único modelo de IA avanzado operando dentro de las redes clasificadas del Pentágono. Sí, has leído bien. Un contrato de hasta 200 millones de dólares. Claude estaba integrado en operaciones militares reales a través de partners como Palantir, ayudando a procesar y analizar cantidades ingentes de datos en tiempo real.
Todo iba más o menos bien hasta que el Pentágono quiso más.
El ultimátum
A mediados de febrero, las negociaciones entre Anthropic y el Departamento de Defensa se tensaron. El Pentágono quería que Claude estuviera disponible para “cualquier uso legal” sin restricciones. Anthropic insistía en dos líneas rojas muy concretas:
No a la vigilancia masiva de ciudadanos americanos. No a armas autónomas letales sin supervisión humana.
El 24 de febrero, el Secretario de Defensa Pete Hegseth le dio un ultimátum a Dario Amodei: tienes hasta las 5:01 de la tarde del viernes 27 para ceder. O pierdes el contrato.
La respuesta de Anthropic
El 26 de febrero, Amodei publicó un comunicado en la web de Anthropic que merece la pena leer entero. La versión resumida es esta: “No podemos en buena conciencia acceder a lo que nos piden.”
Sus argumentos eran dos. Primero, que la vigilancia masiva doméstica es incompatible con los valores democráticos, da igual quién la haga. Y segundo, y esto me parece especialmente relevante, que los modelos de IA actuales simplemente no son lo suficientemente fiables para controlar armas autónomas. No es una cuestión filosófica abstracta. Es que la tecnología no está lista y ponerla a decidir quién vive y quién muere es poner en riesgo tanto a soldados como a civiles.
Anthropic dejó claro que no tenía problemas con el uso militar general de Claude. De hecho, aceptaban su uso en defensa antimisiles y en operaciones como la captura de Nicolás Maduro, en las que Claude había participado. El problema era específico: la vigilancia masiva y las armas totalmente autónomas.
La represalia: cuando el gobierno te declara enemigo
El 27 de febrero pasaron muchas cosas muy rápido.
Trump ordenó a todas las agencias federales cesar inmediatamente el uso de cualquier producto de Anthropic. Hegseth designó a la compañía como “riesgo para la cadena de suministro de seguridad nacional”, una etiqueta que hasta ese momento solo se había usado con adversarios extranjeros como empresas chinas. Nunca con una empresa americana. Y, además, exigió que cualquier contratista militar certificase que no utilizaba Claude en sus flujos de trabajo, con un periodo de transición de seis meses.
El contrato de 200 millones, eliminado.
Expertos legales y de política exterior reaccionaron inmediatamente. El Council on Foreign Relations publicó un análisis. Varios juristas dijeron que la decisión era “probablemente ilegal”. Anthropic anunció que impugnaría la designación ante los tribunales.
El incidente del misil nuclear (sí, de verdad)
En medio de todo esto, el Washington Post reveló un detalle que parece sacado de una serie de televisión. En una reunión, el jefe de tecnología del Pentágono le planteó a Amodei un escenario hipotético: si se lanza un misil balístico intercontinental contra Estados Unidos, ¿puede el ejército usar Claude para ayudar a derribarlo?
Según el Pentágono, Amodei respondió algo así como “llámanos y lo solucionamos”. Según Anthropic, eso es “rotundamente falso” y la empresa siempre aceptó el uso de Claude en defensa antimisiles. Versiones contradictorias, pero el hecho de que estemos hablando de escenarios de ataque nuclear para negociar un contrato de IA dice mucho sobre en qué punto estamos.
OpenAI entra en escena: el timing perfecto
Horas después del veto de Trump a Anthropic, OpenAI anunció que había cerrado un acuerdo con el Pentágono para proporcionar sus modelos en redes clasificadas. ¡El que no corre., vuela!
En este sentido, Sam Altman publicó un post en el que afirmaba que este acuerdo incluía salvaguardas similares a las que Anthropic pedía. Algunas de ellas: la no vigilancia masiva, las no armas autónomas y la responsabilidad humana en el uso de la fuerza.
No obstante, hay un matiz importante que varios analistas han señalado: OpenAI afirma que sus salvaguardas prohíben la recolección “sin restricciones” de información privada de americanos, pero Anthropic iba más allá: le preocupaba que la IA pudiera potenciar la recolección legal de datos públicos, posts de redes sociales y geolocalización, que técnicamente es legal pero, en la práctica, constituye vigilancia masiva.
Esa distinción entre datos privados y públicos es clave y probablemente será uno de los grandes debates regulatorios de los próximos años.OpenAI también limita el despliegue a la nube, lo que, según ellos, impide físicamente integrar sus modelos en sistemas de armas. Es un argumento técnico interesante, aunque los expertos ya han señalado que no cierra todos los huecos.
La reacción que nadie esperó: Claude al número 1
Y ahora viene lo realmente sorprendente.
Claude, la app de Anthropic, subió al número 1 en descargas en la App Store de Estados Unidos el sábado 28 de febrero. Superó a ChatGPT. Una app que hasta finales de enero ni siquiera estaba en el top 100.
Los números filtrados son impresionantes. Los registros diarios batieron récords absolutos cada día de la última semana de febrero. Los usuarios gratuitos crecieron más de un 60% desde enero. Los suscriptores de pago se han duplicado más de 2 veces desde octubre. Y el revenue anualizado de Anthropic llegó a 14.000 millones de dólares, por delante de la cifra más reciente reportada por OpenAI.
En redes sociales empezó un movimiento espontáneo de gente que dejaba ChatGPT y se pasaba a Claude como protesta por el acuerdo de OpenAI con el Pentágono.
La carta de los empleados de Google y OpenAI
Otro giro inesperado. Más de 430 empleados de Google y OpenAI, sí, de las empresas competidoras, firmaron una carta abierta apoyando la posición de Anthropic.
La carta pide a los líderes de Google y OpenAI que “dejen a un lado sus diferencias y se mantengan firmes” al rechazar las demandas del Pentágono. 300 empleados de Google, más de 60 de OpenAI y otros de empresas más pequeñas del sector. Pedían específicamente que ninguna empresa de IA permitiera que sus modelos se usaran para vigilancia masiva doméstica ni para “matar personas de forma autónoma sin supervisión humana”.
Que empleados de tu competidor te defiendan públicamente contra el gobierno de su propio país… eso no se ve todos los días.
Qué significa todo esto (para ti y para mí)
Creo que esta historia importa mucho más de lo que parece a primera vista. Y no solo si te interesa la tecnología.
Lo primero es que estamos en un momento donde las empresas de IA están tomando decisiones que antes solo tomaban los gobiernos. Quién puede ser vigilado, qué armas pueden operar solas, dónde está la línea entre seguridad nacional y derechos civiles. Estas preguntas ya no se debaten solo en parlamentos. Se debaten en salas de reuniones de startups de San Francisco.
Lo segundo es que el mercado ha hablado. Y ha dicho que prefiere una empresa con principios a una que cede ante la presión. Los números de Claude después del veto son la prueba. Esto puede cambiar los incentivos de toda la industria: si decir que no al poder te hace ganar clientes, más empresas dirán que no.
Y lo tercero, que para mí es lo más importante: la IA no está lista para tomar decisiones de vida o muerte. Esto no lo digo yo. Lo dice la empresa que hace la IA. Cuando el creador de la herramienta te dice “mi herramienta no es fiable para esto todavía”, quizás deberíamos escuchar.
La ronda de 110.000 millones de dólares que OpenAI cerró la misma semana, con Amazon, Nvidia y SoftBank, nos recuerda que hay cantidades obscenas de dinero fluyendo hacia la inteligencia artificial. La valoración de OpenAI ya está en 730.000 millones pre-money (840.000 millones post-money). Anthropic en 380.000 millones. Estas cifras son tan grandes que cuesta procesarlas.
Con ese nivel de dinero en juego, la presión para hacer concesiones éticas será enorme. Lo que Anthropic ha hecho esta semana, renunciar a 200 millones de dólares de contrato gubernamental y a todo el negocio federal por mantener dos líneas rojas, es, como mínimo, notable.
Que sea sostenible a largo plazo… eso ya es otra pregunta.
¡Buena semana!
——————-
Fuentes del artículo:
- Anthropic — “Statement: Department of War” (26 feb 2026)
- CNN — “Anthropic rejects latest Pentagon offer” (26 feb 2026)
- CNBC — “Anthropic faces lose-lose scenario in Pentagon conflict” (27 feb 2026)
- TechCrunch — “OpenAI’s Sam Altman announces Pentagon deal” (28 feb 2026)
- OpenAI — “Our agreement with the Department of War” (28 feb 2026)
- Axios — “Claude beats ChatGPT in U.S. app downloads” (1 mar 2026)
- TechCrunch — “Employees at Google and OpenAI support Anthropic’s stand” (27 feb 2026)
- NPR — “OpenAI announces Pentagon deal after Trump bans Anthropic” (27 feb 2026)
- TechCrunch — “OpenAI raises $110B” (27 feb 2026)
- Council on Foreign Relations — “Anthropic and Pentagon Clash” (feb 2026)
- Fortune — “OpenAI sweeps in to snag Pentagon contract” (28 feb 2026)
