EE UU ha tomado medidas drásticas que podrían terminar alterando el futuro de la guerra impulsada por inteligencia artificial (IA). Justo después de las cinco de la tarde del 27 de febrero, la Administración de Donald Trump declaró que Anthropic, la start-up de IA valorada en 380.000 millones de dólares, era un riesgo para la cadena de suministro. Además de fabricar chatbots y herramientas de codificación para el consumidor, Anthropic tenía contratos importantes para proporcionar servicios de IA al ejército. Esa relación se había deteriorado cuando la empresa se negó a permitir que su tecnología Claude ayudara a habilitar la vigilancia ciudadana masiva o armas totalmente autónomas. Con esta medida, la Administración incluyó en su lista negra a una de las start-ups tecnológicas más prometedoras del país, como si de una empresa dirigida por el ejercito chino se tratase. El presidente Trump también ridiculizó a Anthropic en las redes sociales.
Unas ocho horas después, Estados Unidos bombardeó Irán. La campaña no fue exactamente la guerra robótica a la que se oponía Anthropic, pero hay indicios de que ese futuro podría estar acercándose rápidamente. Utilizando un sistema de control de misiones con inteligencia artificial llamado Maven Smart System, EE UU atacó 1.000 objetivos en las primeras 24 horas de la guerra, aproximadamente el doble que en la guerra de Irak en 2003. En 10 días, había alcanzado 5.000 objetivos, según el Comando Central de Estados Unidos (Centcom).
EE UU ya había utilizado el sistema inteligente Maven para compartir información de objetivos con Ucrania en 2022 y luego en ataques contra Irak, Siria y los hutíes en 2024. Pero los ataques contra Irán han sido la mayor prueba de la tecnología hasta la fecha. Por primera vez fueron atacados objetivos de combate con drones semiautónomos y de bajo coste. El comandante de las fuerzas estadounidenses en la región describió estos dispositivos como “indispensables”.
En mi libro Proyecto Maven, en el que se basa este artículo, detallo la búsqueda que el ejército ha realizado durante una década de herramientas bélicas basadas en IA, así como la visión de EE UU sobre el futuro de la guerra en la era de la IA. La tecnología ha mejorado enormemente en ese lapso, pero aún se encuentra en pleno desarrollo. Con el Sistema Inteligente Maven, el ejército espera poder llegar a identificar y seleccionar 1.000 objetivos no en un día, sino en una sola hora, según una fuente próxima a las operaciones miliates en Irán, quien, al igual que otros entrevistados para este artículo, solicitó permanecer en el anonimato.
El ejército también está trabajando para integrar la IA directamente en sus drones de ataque unidireccionales, de modo que puedan navegar, localizar objetivos y llevar a cabo ataques letales incluso cuando se hayan interrumpido las comunicaciones inalámbricas.
Aún no está claro, al menos para quienes no tienen autorización de seguridad, cómo se ha utilizado exactamente la IA en Irán. Timothy Hawkins, portavoz del Centcom, dice que está usando para generar los llamados “puntos de interés” que facilitan que su personal tome decisiones. “En resumen, estas herramientas ayudan a los líderes —los humanos— a tomar decisiones más inteligentes más rápido”, dice. Más de 1.300 civiles han muerto en los ataques aéreos contra Irán hasta el pasado lunes, incluidos más de 175 en el ataque que, según funcionarios iraníes, se produjo en una escuela de niñas. Algunos informes de prensa atribuyen el ataque a un misil Tomahawk estadounidense que utilizó información de inteligencia obsoleta. El Pentágono no ha confirmado si además se ayudó con inteligencia artificial.
Flota de drones
A pesar de la demostración de fuerza en Irán, a los funcionarios del Pentágono les preocupa que EE UU corra el riesgo de quedarse atrás. Los esfuerzos del departamento por construir una flota de drones con inteligencia artificial capaces de atacar por aire y mar se han visto empañados por falsos comienzos, incumplimiento de plazos e incoherencia estratégica. Y los funcionarios miran más allá de Oriente Próximo. Como afirma una persona próxima a las operaciones estadounidenses: “Irán es un asombroso preludio de lo que podría ocurrir en Taiwán en un ataque chino”.

El Pentágono comenzó a perseguir la IA en serio en 2017. El objetivo era crear algoritmos de visión artificial que analizaran vídeos de drones, detectaran objetos y transformaran enormes volúmenes de datos en “inteligencia y conocimientos útiles a gran velocidad”. En aquel momento, el Gobierno insinuó que el programa Maven no se utilizaría para la localización de objetivos en combate, pero las personas involucradas dicen que siempre estuvo orientado hacia ese fin.
Desde el principio, Maven también dependió de la cooperación con el sector privado, y las tensiones como las que estallaron entre la Administración de Trump y Anthropic han estado siempre presentes. Uno de los primeros socios fue Google. Cuando la noticia de esta cooperación se hizo pública, miles de empleados se rebelaron y la empresa tuvo que aclarar que el trabajo estaba destinado únicamente a “usos no ofensivos”. Aun así, finalmente decidió no renovar su contrato.
Al final, el ejército logró que el sector privado construyera gran parte de lo que necesitaba. Palantir, la empresa de software de análisis de datos, creó Maven Smart System, que también incorporó tecnología de Amazon, Microsoft y de la start-up de visión artificial Clarifai, entre otras. Amazon ha proporcionado al ejército computación en la nube segura y otras empresas tecnológicas, como Andúril, trabajan en estrecha colaboración con el Pentágono.
Actualmente, todos los comandos militares estadounidenses a escala mundial utilizan el sistema inteligente Maven, y el año pasado la OTAN también comenzó a usar una versión. Sin embargo, EE UU sabe que no puede depender de comunicaciones inalámbricas sin interrupciones durante el combate y necesita drones que puedan operar sin conexión con el cuartel general. El interés dentro del departamento de Defensa creció en el desarrollo de una IA que pudiera funcionar completamente en un dron autónomo (ya sea de vuelo o de navegación), capaz de identificar y atacar objetivos sin intervención humana. A partir de 2022, el equipo Maven del Pentágono comenzó a recopilar enormes cantidades de imágenes de buques chinos en el Pacífico, que se utilizaron para crear algoritmos que los drones de la zona podrían usar para la identificación de objetivos.
Si bien este armamento potencialmente autónomo inspiraba temor y rechazo entre sus críticos, ejercía un extraño poder sobre quienes lo construían. “No hay nada como ver a una máquina apuntar”, afirma una persona involucrada en los proyectos de IA del departamento. “Tiene un aspecto alienígena, una sensación de otro mundo. Es aterrador”.
En el Gobierno de EE UU se abrió un debate sobre cuánta IA relacionada con la defensa debería desarrollar el Pentágono internamente, en lugar de adquirirla a proveedores comerciales. Una facción de funcionarios abogaba por drones sencillos con IA que pudieran enviarse a los aliados en el Pacífico y movilizarse rápidamente en caso de que estallaran las hostilidades. Otros querían elaborar enjambres de drones. Algunos funcionarios presionaron para mantener el secreto absoluto con el fin de preservar el factor sorpresa, mientras que otros pensaban que sería una forma de disuasión que el Pentágono mostrase sus capacidades tecnológicas superiores.
También se abrió paso la sensación de que el Pentágono necesitaba un cambio de enfoque. En 2023, Jane Pinelis, supervisor de las pruebas y evaluaciones en Maven en sus inicios, afirmó que el ejército estadounidense debía aumentar su tolerancia al riesgo si quería mantenerse al día con la IA. La perfección era simplemente imposible: podían producirse errores debido a fallos de la IA, a datos erróneos y a la tendencia de los algoritmos a perder precisión con el tiempo, un fenómeno conocido como deriva. Lo único sensato, me comentó Pinelis más tarde, era planificar cuándo fallaría la IA.
Durante el Gobierno de Joe Biden, el Pentágono se centró en la construcción de sistemas de armas autónomas complejas. E hizo públicos algunos aspectos de sus avances para atraer socios comerciales y mostrar a China el potencial de las capacidades estadounidenses. En 2023, Kathleen Hicks, entonces subsecretaria de Defensa, anunció la existencia de Replicator, un programa para desplegar rápidamente miles de drones autónomos en caso de conflicto con el Ejército Popular de Liberación (EPL) de Pekín. Deslizó que a China le sería muy difícil afrontar una avalancha de drones estadounidenses. Posteriormente, me comentó que el programa priorizaba sistemas que pudieran estar terminados para 2027, año en el que, según funcionarios estadounidenses, China planea tener la capacidad de tomar Taiwán.
Selección de objetivos
Para perfeccionar su ejército, EE UU solicitó ayuda a Silicon Valley. El equipo de Maven se encargaría de las capacidades de reconocimiento automático de objetivos, capturando datos que el Gobierno recopila de cámaras de barcos, cámaras de puertos, sistemas infrarrojos y drones tácticos que sobrevuelan las aguas que rodean China y Taiwán. Esta información se pondría a disposición de empresas privadas, que la utilizarían para desarrollar modelos de IA que ayudaran a los drones a seleccionar objetivos. Entre estos socios se encontraban Microsoft, Clarifai y AeroVironment, un fabricante de drones. El verano pasado, altos funcionarios de defensa, incluido el jefe del Estado Mayor Conjunto, vieron vídeos que demostraban la capacidad de los modelos para identificar automáticamente destructores chinos, un paso previo al desarrollo de drones con inteligencia artificial que podrían atacar dichos buques. “Ahora estamos vigilando constantemente al ejército chino para obtener datos de entrenamiento para la IA”, afirma un funcionario de Defensa.
La tecnología de Maven se benefició de contar con mucha información. Sin embargo, el equipo responsable del proyecto no siempre entregaba el software a tiempo, y sus modelos eran difíciles de integrar con las computadoras de los drones. En ocasiones, la IA tenía problemas para detectar varios buques a la vez, y su capacidad de seguimiento de objetos podía verse afectada cuando las salpicaduras de agua del océano llegaban a la lente de la cámara del dron.
En paralelo, el Pentágono trabajó discretamente en varios programas de armas autónomas. Según documentos presupuestarios de la Armada, uno de estos programas, llamado Goalkeeper y dirigido por la Oficina de Investigación Naval, se centraba en drones que pueden volar, seleccionar objetivos y atacar sin intervención humana. Otro, llamado Whiplash, busca aprovechar el dominio de EE UU en las motos acuáticas y se propuso transformar hasta 600 en robots portadores de bombas. “EE UU tiene muchas motos acuáticas, así que es genial que podamos convertirlas en armas”, explica una persona relacionada con el programa.
En el Pentágono y el Congreso persisten los debates sobre cuestiones fundamentales relacionadas con el desarrollo de drones autónomos, y existe incertidumbre sobre qué programas recibirán financiación y apoyo institucional. Tanto Whiplash como Goalkeeper desaparecieron de los presupuestos cuando Trump regresó al poder. Sin embargo, su producción continúa, según los presupuestos de 2026, que describen su trabajo sin mencionar sus nombres.
El Gobierno también continúa lanzando nuevos proyectos. En enero anunció un concurso con un premio de 100 millones de dólares para la creación de herramientas para interpretar las instrucciones verbales de comandantes humanos y convertirlas en instrucciones para enjambres de drones autónomos. Entre las empresas que pasaron la primera criba están OpenAI, Palantir y SpaceX. Las etapas posteriores del concurso exigen el desarrollo de “conocimiento y compartición de información sobre objetivos” y, en última instancia, “lanzamiento hasta la eliminación”, término del Pentágono para referirse al recorrido de un dron asesino. Esta tecnología podría formar parte algún día de un sistema de armas totalmente autónomo. Jack Shanahan, el general retirado que dirigió el proyecto Maven, afirma que ningún sistema de misiles de largo alcance, en su forma actual, debería considerarse para su uso como sistema de armas autónomo. “Depender excesivamente de ellos en esta etapa es una receta para la catástrofe”, avisa.