Revista Española de Defensa España (01/03/2026)
Escrito junto a:
- Dr. Pedro César Martínez Morán (Advantere School of Management / Universidad Pontificia Comillas)
- Capitán de fragata Federico Aznar Fernández-Montesinos (Investigador Principal del Instituto Español de Estudios Estratégicos)

Las Fuerzas Armadas españolas afrontan en la actualidad un proceso de transformación profunda, impulsado por la incorporación progresiva de tecnologías avanzadas como la inteligencia artificial, la automatización y el análisis masivo de datos. Esta evolución no afecta únicamente a los sistemas de armas o a los procesos logísticos, sino que alcanza al propio ejercicio del mando, a la toma de decisiones y a la ética que sustenta el liderazgo militar en un entorno operativo cada vez más complejo y acelerado.
La tecnología es un factor decisivo en la configuración del poder de los Estados, no solo porque lo refuerza, sino porque genera dinámicas de transformación acumulativa: cada avance abre el camino a otros, multiplicando su impacto estratégico. En este contexto, el equilibrio internacional se ve condicionado por la brecha tecnológica entre países, en un escenario de competencia acelerada donde muchas capacidades quedan rápidamente obsoletas. Además, buena parte de estas tecnologías poseen un carácter dual. Sistemas concebidos para usos civiles, comerciales o científicos encuentran aplicación directa en el ámbito militar, cuando no proceden directamente de la investigación en defensa. La inteligencia artificial se ha consolidado así como una de las claves de la Cuarta Revolución Industrial y en 2026 ha dejado de ser una promesa para convertirse en una realidad operativa en distintos teatros y dominios.
En el entorno actual, las Fuerzas Armadas se enfrentan a un nuevo paradigma. Es más que un reemplazo tecnológico o de armamento, ya que alcanza a la propia cultura militar. De hecho, la irrupción de la IA reconfigura hasta la esencia misma del liderazgo militar. En este contexto, el líder militar debe operar en un escenario en el que la velocidad de transformación de la realidad se mide en milisegundos. Atender a tales circunstancias hace necesario definir los diferentes entornos de responsabilidad pero, también, la ética que debe rellenar el espacio que va desde lo jurídico a lo cultural.
Ante esta realidad, el desafío para las Fuerzas Armadas no es únicamente técnico. La integración de sistemas inteligentes plantea interrogantes profundos sobre el ejercicio del mando, la atribución de responsabilidades y la preservación de los valores que históricamente han sustentado el liderazgo militar. Y es que las herramientas no tienen una moral, una ética propia. Dependen de su uso. El problema es que, de esta complejidad, se deriva una creciente dificultad para atribuir responsabilidades, lo que acentúa problemas ya presentes en contextos tecnológicos anteriores. «Cuando los cohetes están arriba, ¿a quién le importa dónde caigan? Eso no es responsabilidad de mi departamento» (Werner Von Braun). Esta reflexión ilustra los riesgos de una fragmentación de responsabilidades que el liderazgo militar moderno debe evitar conscientemente.
La historia militar ofrece numerosos ejemplos de cómo la fragmentación funcional de las decisiones puede diluir la percepción de responsabilidad individual. En los conflictos industrializados del siglo XX, la separación entre quienes diseñaban la estrategia, quienes operaban los sistemas técnicos y quienes ejecutaban las órdenes en el terreno contribuyó a una progresiva despersonalización del uso de la fuerza. Este fenómeno se acentúa en contextos altamente tecnologizados, donde la mediación de sistemas complejos introduce una distancia psicológica entre la decisión y sus consecuencias. Cuando la acción se distribuye entre múltiples actores, analistas, operadores, planificadores y decisores, el riesgo no es solo operativo, sino moral: la tentación de atribuir el resultado a la técnica, al procedimiento o al sistema, y no al juicio humano que lo autoriza.
La inteligencia artificial, como cualquier gran innovación tecnológica, amplifica este desafío. Tal y como ha advertido la teoría política clásica, ningún descubrimiento técnico de gran alcance permite anticipar plenamente sus efectos políticos. Precisamente por ello, el liderazgo militar debe reforzar, y no debilitar, la conciencia de responsabilidad personal en el ejercicio del mando.
El liderazgo castrense descansa sobre un pilar dual. Por un lado, la potestas, el poder legal emanado de la jerarquía; por otro, la auctoritas, la legitimidad moral fruto de la competencia y el ejemplo. La IA también altera este equilibrio. Pensemos que toda la información disponible en la Historia se dobla hoy cada menos de dos años. En un puesto de mando saturado de datos de inteligencia geoespacial y señales electromagnéticas, el líder ya no es el principal depositario de la información sino el principal gestor de la incertidumbre. La autoridad moral en 2026 no proviene de saber más que la máquina. El discernimiento humano se convierte en el último reducto de la auctoritas. Un algoritmo puede optimizar una ruta logística o identificar un blanco con una precisión del 99 por 100, pero carece de la capacidad de evaluar el impacto político-estratégico de un error o de comprender el factor moral de una unidad agotada. El mando debe actuar como un regulador, garantizando que la eficiencia algorítmica no erosione el fin último de la misión. La guerra es, conviene recordarlo, un fenómeno social, cultural y profundamente humano, que se libra con las herramientas de que dispone una sociedad en cada momento histórico.
LAS CUATRO TRANSFORMACIONES
La integración de la inteligencia artificial en el ámbito militar no introduce un único cambio, sino una serie de transformaciones simultáneas que afectan al conocimiento, a las relaciones humanas, al tiempo de decisión y al marco ético del mando. A continuación, se presentan cuatro de las más relevantes desde la perspectiva del liderazgo militar contemporáneo:
1. La revolución epistémica: del dato al conocimiento del contexto. La capacidad de procesamiento de la IA ha creado una asimetría de conocimiento. Los líderes deben dejar de ser analistas para ser intérpretes. El riesgo epistémico reside en una confianza ciega en el tablero: si la IA concluye que el enemigo está flanqueando la fuerza, el líder debe ser capaz de discernir si el algoritmo está siendo víctima de un spoofing (engaño) de datos o de un sesgo de entrenamiento. La alfabetización crítica en datos debe ser ya una competencia básica de mando.
2. La dimensión relacional: equipos híbridos y confianza. La integración de sistemas autónomos, como los enjambres de drones probados en el conflicto de Ucrania y el programa Gremlins de EEUU, ha dado paso a la era de los equipos humano-máquina (MUM-T). El liderazgo ya no es exclusivamente interpersonal, sino que se ejerce en entornos híbridos donde interactúan personas y sistemas autónomos. El mando debe gestionar la confianza, una tarea compleja al tratarse de un factor eminentemente humano: una excesiva confianza en la IA lleva a la complacencia; una falta de confianza lleva a la ineficiencia operativa. En España, la integración de la IA en el programa Fuerza 35 busca, precisamente, que el combatiente vea en el sistema autónomo un compañero fiable, cuya supervisión no es propiamente una carga, sino una ventaja táctica.
3. La compresión temporal: el fin de la deliberación tradicional. La IA ha colapsado el tiempo de decisión. En escenarios de saturación por enjambres, el cerebro humano es incapaz de reaccionar a la velocidad que requiere. Esto impone un dilema operativo: delegar la letalidad a la máquina (human-out-of-the-loop) o aceptar una vulnerabilidad táctica por mantener el control humano (human-in-the-loop). El liderazgo moderno exige la creación de «protocolos de confianza pre-establecidos», donde el juicio humano se ejerce en el diseño de las reglas de enfrentamiento y la supervisión en tiempo real, actuando como un interruptor de emergencia más que como un operador manual. En este contexto, el liderazgo no se mide por la rapidez de la respuesta, sino por la claridad con la que se establecen los límites de delegación y los mecanismos de control humano.
4. La dimensión ética y la gobernanza: la fuerza de los valores. La ética no es un freno a la innovación, sino que multiplica su eficacia a largo plazo. El uso de la IA en la selección de objetivos, como se ha observado en recientes operaciones de precisión en distintos escenarios internacionales, plantea desafíos sobre la trazabilidad. El Reglamento de IA de la UE (EU AI Act) establece marcos estrictos que, aunque con excepciones militares, inevitablemente señala el estándar de lo que la sociedad democrática espera de sus Fuerzas Armadas. El líder militar es el custodio último de los principios de proporcionalidad y distinción, pilares del Derecho Internacional Humanitario, cuya aplicación no puede ser delegada plenamente en sistemas opacos o no explicables.
CASOS DE APLICACIÓN
Los siguientes ejemplos no deben entenderse únicamente como aplicaciones tecnológicas, sino como ilustraciones de cómo el liderazgo militar se ve reforzado, o tensionado, por el uso de sistemas basados en inteligencia artificial. En todos los casos, la tecnología actúa como apoyo a la decisión, nunca como sustituto del juicio del mando.
En el contexto español, el Ministerio de Defensa ha dado pasos significativos. La implementación del sistema SILPRE por parte de Indra para logística predictiva es un ejemplo de cómo la IA mejora la operatividad del Ejército de Tierra sin desplazar al mando. Aquí, el oficial de logística toma decisiones basadas en predicciones de fallos, pero pondera factores como el contexto operativo, el despliegue geopolítico o las prioridades estratégicas, aspectos que ningún sistema automatizado puede evaluar por sí solo. La decisión final sigue siendo, por tanto, una responsabilidad del mando.
Asimismo, el Mando Conjunto del Ciberespacio (MCCE) utiliza IA para detectar intrusiones que serían invisibles al ojo humano. Sin embargo, la decisión de poner en marcha una contraofensiva ciber sigue siendo una prerrogativa humana, consciente de las implicaciones que incorpora la escalada en un conflicto. Estos casos subrayan la necesidad de una soberanía tecnológica: liderar en IA requiere poseer IA propia, cuyos sesgos y algoritmos sean conocidos y auditables por la propia cadena de mando nacional. Este ejemplo pone de manifiesto que, incluso en dominios altamente automatizados como el ciberespacio, el ejercicio del mando conserva una dimensión estratégica y política que no puede ser automatizada. La IA acelera la detección; el liderazgo humano decide cuándo, cómo y hasta dónde actuar.
LA FORMACIÓN AL SERVICIO DEL MOMENTO
La formación en las academias y centros de enseñanza de las Fuerzas Armadas debe orientarse hacia un modelo en el que la capacitación tecnológica y la formación humanística converjan de manera equilibrada. El liderazgo del futuro no se enseña solo en el campo de maniobras, sino en simuladores de alta fidelidad que emplean IA generativa para crear escenarios adaptativos; pero también con la lectura de los clásicos del pensamiento. El mando debe desarrollar una mentalidad de crecimiento, capaz de gestionar la frustración ante sistemas que fallan y la responsabilidad de comandar unidades donde la información es omnipresente pero la claridad es escasa. En este contexto, el liderazgo no se apoya únicamente en competencias técnicas, sino en el carácter del mando. Virtudes tradicionales como la prudencia, la templanza y el sentido del deber adquieren una relevancia renovada cuando las decisiones se toman bajo la mediación de sistemas inteligentes.
LA CARGA MORAL DEL ERROR DEL ALGORITMO
Uno de los dilemas menos explorados del liderazgo militar en la era de la IA no es tecnológico, sino profundamente humano: ¿quién carga moralmente con el error cuando la decisión se ha adoptado mediada por un algoritmo? En el ámbito castrense, donde la obediencia y la responsabilidad están claramente definidas, la introducción de sistemas inteligentes introduce una zona gris inédita. Cuando un sistema de apoyo a la decisión recomienda una acción que deriva en consecuencias no deseadas (daños colaterales, escalada política o pérdida de vidas propias) el líder no puede refugiarse en la neutralidad técnica. Delegar no equivale a abdicar. El mando sigue siendo responsable, aunque el proceso haya sido algorítmicamente asistido. Esta tensión puede generar lo que algunos autores denominan lesión moral (moral injury): la fractura interna que se produce cuando la acción ejecutada entra en conflicto con los valores personales y profesionales del líder.
A diferencia de los errores humanos tradicionales, el fallo algorítmico suele ser opaco, estadístico y difícil de explicar a posteriori. Esto exige del mando una doble competencia: capacidad de rendición de cuentas y fortaleza moral para asumir decisiones tomadas bajo incertidumbre ampliada. En este contexto, la ética del mando deja de ser solo normativa y se convierte en una ética del carácter: prudencia, templanza y coraje moral frente a sistemas que prometen certeza, pero no ofrecen sentido. Desde esta perspectiva, la IA no reduce la carga del liderazgo; la intensifica. El verdadero líder no es quien delega más, sino quien sabe hasta dónde delegar sin perder su identidad moral.
EL JUICIO HUMANO COMO VENTAJA ASIMÉTRICA
La IA no reemplazará al líder militar, pero los líderes que utilicen IA reemplazarán a los que no lo hagan. La verdadera ventaja asimétrica en la guerra del siglo XXI no será el algoritmo más rápido, sino la organización que mejor combine la potencia de cálculo de la máquina con el juicio moral, la intuición y el valor del ser humano.
En última instancia, el liderazgo consiste en asumir la responsabilidad. Una máquina puede ejecutar una orden, pero no puede responder por ella ante la historia o la justicia. El líder militar del 2026 debe ser, por tanto, un humanista tecnológico: alguien que domina la técnica para proteger la esencia de la humanidad, incluso en el caos de la batalla. La IA es la espada, pero el juicio humano sigue siendo el brazo que la dirige y, lo más importante, el alma que decide cuándo debe emplearse la fuerza y, sobre todo, cuándo debe ser contenida.
Marzo 2026 Revista Española de Defensa 43
Deja una respuesta