{"id":10227,"date":"2026-03-13T11:20:54","date_gmt":"2026-03-13T11:20:54","guid":{"rendered":"https:\/\/blogs.deusto.es\/viviendodeusto\/?p=10227"},"modified":"2026-03-13T11:20:59","modified_gmt":"2026-03-13T11:20:59","slug":"fernando-diez-y-otros-autores-el-juicio-humano-en-la-era-de-la-inteligencia-artificial","status":"publish","type":"post","link":"https:\/\/blogs.deusto.es\/viviendodeusto\/2026\/03\/13\/fernando-diez-y-otros-autores-el-juicio-humano-en-la-era-de-la-inteligencia-artificial\/","title":{"rendered":"Fernando D\u00edez y otros autores: \u00abEl juicio humano en la era de la inteligencia artificial\u00bb"},"content":{"rendered":"\n<p><strong>Revista Espa\u00f1ola de Defensa<\/strong> <strong>Espa\u00f1a<\/strong> (<strong>01\/03\/2026<\/strong>) <\/p>\n\n\n\n<p id=\"p-rc_04079d6773a8dff8-181\">Escrito junto a: <\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Dr. Pedro C\u00e9sar Mart\u00ednez Mor\u00e1n<\/strong> (<em>Advantere School of Management \/ Universidad Pontificia Comillas<\/em>) <\/li>\n\n\n\n<li><strong>Capit\u00e1n de fragata Federico Aznar Fern\u00e1ndez-Montesinos<\/strong> (<em>Investigador Principal del Instituto Espa\u00f1ol de Estudios Estrat\u00e9gicos<\/em>) <\/li>\n<\/ul>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"alignleft size-full\"><img decoding=\"async\" width=\"220\" height=\"85\" src=\"https:\/\/blogs.deusto.es\/wp-content\/uploads\/sites\/78\/2022\/11\/Fernando-Diez-Ruiz.jpg\" alt=\"Fernando D\u00edez\" class=\"wp-image-1499\"\/><figcaption class=\"wp-element-caption\">Profesor e investigador de Psicolog\u00eda<\/figcaption><\/figure>\n<\/div>\n\n\n<p id=\"p-rc_04079d6773a8dff8-186\">Las Fuerzas Armadas espa\u00f1olas afrontan en la actualidad un proceso de transformaci\u00f3n profunda, impulsado por la incorporaci\u00f3n progresiva de tecnolog\u00edas avanzadas como la inteligencia artificial, la automatizaci\u00f3n y el an\u00e1lisis masivo de datos. Esta evoluci\u00f3n no afecta \u00fanicamente a los sistemas de armas o a los procesos log\u00edsticos, sino que alcanza al propio ejercicio del mando, a la toma de decisiones y a la \u00e9tica que sustenta el liderazgo militar en un entorno operativo cada vez m\u00e1s complejo y acelerado.<\/p>\n\n\n\n<p id=\"p-rc_04079d6773a8dff8-187\">La tecnolog\u00eda es un factor decisivo en la configuraci\u00f3n del poder de los Estados, no solo porque lo refuerza, sino porque genera din\u00e1micas de transformaci\u00f3n acumulativa: cada avance abre el camino a otros, multiplicando su impacto estrat\u00e9gico<sup><\/sup>. En este contexto, el equilibrio internacional se ve condicionado por la brecha tecnol\u00f3gica entre pa\u00edses, en un escenario de competencia acelerada donde muchas capacidades quedan r\u00e1pidamente obsoletas<sup><\/sup>. Adem\u00e1s, buena parte de estas tecnolog\u00edas poseen un car\u00e1cter dual. Sistemas concebidos para usos civiles, comerciales o cient\u00edficos encuentran aplicaci\u00f3n directa en el \u00e1mbito militar, cuando no proceden directamente de la investigaci\u00f3n en defensa<sup><\/sup>. La inteligencia artificial se ha consolidado as\u00ed como una de las claves de la Cuarta Revoluci\u00f3n Industrial y en 2026 ha dejado de ser una promesa para convertirse en una realidad operativa en distintos teatros y dominios<sup><\/sup>.<\/p>\n\n\n\n<p id=\"p-rc_04079d6773a8dff8-188\">En el entorno actual, las Fuerzas Armadas se enfrentan a un nuevo paradigma<sup><\/sup>. Es m\u00e1s que un reemplazo tecnol\u00f3gico o de armamento, ya que alcanza a la propia cultura militar<sup><\/sup>. De hecho, la irrupci\u00f3n de la IA reconfigura hasta la esencia misma del liderazgo militar<sup><\/sup>. En este contexto, el l\u00edder militar debe operar en un escenario en el que la velocidad de transformaci\u00f3n de la realidad se mide en milisegundos<sup><\/sup>. Atender a tales circunstancias hace necesario definir los diferentes entornos de responsabilidad pero, tambi\u00e9n, la \u00e9tica que debe rellenar el espacio que va desde lo jur\u00eddico a lo cultural<sup><\/sup>.<\/p>\n\n\n\n<p id=\"p-rc_04079d6773a8dff8-189\">Ante esta realidad, el desaf\u00edo para las Fuerzas Armadas no es \u00fanicamente t\u00e9cnico<sup><\/sup>. La integraci\u00f3n de sistemas inteligentes plantea interrogantes profundos sobre el ejercicio del mando, la atribuci\u00f3n de responsabilidades y la preservaci\u00f3n de los valores que hist\u00f3ricamente han sustentado el liderazgo militar<sup><\/sup>. Y es que las herramientas no tienen una moral, una \u00e9tica propia. Dependen de su uso<sup><\/sup>. El problema es que, de esta complejidad, se deriva una creciente dificultad para atribuir responsabilidades, lo que acent\u00faa problemas ya presentes en contextos tecnol\u00f3gicos anteriores<sup><\/sup>. \u00abCuando los cohetes est\u00e1n arriba, \u00bfa qui\u00e9n le importa d\u00f3nde caigan? Eso no es responsabilidad de mi departamento\u00bb (Werner Von Braun)<sup><\/sup>. Esta reflexi\u00f3n ilustra los riesgos de una fragmentaci\u00f3n de responsabilidades que el liderazgo militar moderno debe evitar conscientemente<sup><\/sup><sup><\/sup><sup><\/sup><sup><\/sup>.<\/p>\n\n\n\n<p id=\"p-rc_04079d6773a8dff8-190\">La historia militar ofrece numerosos ejemplos de c\u00f3mo la fragmentaci\u00f3n funcional de las decisiones puede diluir la percepci\u00f3n de responsabilidad individual<sup><\/sup>. En los conflictos industrializados del siglo XX, la separaci\u00f3n entre quienes dise\u00f1aban la estrategia, quienes operaban los sistemas t\u00e9cnicos y quienes ejecutaban las \u00f3rdenes en el terreno contribuy\u00f3 a una progresiva despersonalizaci\u00f3n del uso de la fuerza<sup><\/sup>. Este fen\u00f3meno se acent\u00faa en contextos altamente tecnologizados, donde la mediaci\u00f3n de sistemas complejos introduce una distancia psicol\u00f3gica entre la decisi\u00f3n y sus consecuencias<sup><\/sup>. Cuando la acci\u00f3n se distribuye entre m\u00faltiples actores, analistas, operadores, planificadores y decisores, el riesgo no es solo operativo, sino moral: la tentaci\u00f3n de atribuir el resultado a la t\u00e9cnica, al procedimiento o al sistema, y no al juicio humano que lo autoriza<sup><\/sup>.<\/p>\n\n\n\n<p id=\"p-rc_04079d6773a8dff8-191\">La inteligencia artificial, como cualquier gran innovaci\u00f3n tecnol\u00f3gica, amplifica este desaf\u00edo<sup><\/sup>. Tal y como ha advertido la teor\u00eda pol\u00edtica cl\u00e1sica, ning\u00fan descubrimiento t\u00e9cnico de gran alcance permite anticipar plenamente sus efectos pol\u00edticos<sup><\/sup>. Precisamente por ello, el liderazgo militar debe reforzar, y no debilitar, la conciencia de responsabilidad personal en el ejercicio del mando<sup><\/sup>.<\/p>\n\n\n\n<p id=\"p-rc_04079d6773a8dff8-192\">El liderazgo castrense descansa sobre un pilar dual<sup><\/sup>. Por un lado, la <em>potestas<\/em>, el poder legal emanado de la jerarqu\u00eda; por otro, la <em>auctoritas<\/em>, la legitimidad moral fruto de la competencia y el ejemplo<sup><\/sup>. La IA tambi\u00e9n altera este equilibrio<sup><\/sup>. Pensemos que toda la informaci\u00f3n disponible en la Historia se dobla hoy cada menos de dos a\u00f1os<sup><\/sup>. En un puesto de mando saturado de datos de inteligencia geoespacial y se\u00f1ales electromagn\u00e9ticas, el l\u00edder ya no es el principal depositario de la informaci\u00f3n sino el principal gestor de la incertidumbre<sup><\/sup>. La autoridad moral en 2026 no proviene de saber m\u00e1s que la m\u00e1quina<sup><\/sup>. El discernimiento humano se convierte en el \u00faltimo reducto de la <em>auctoritas<\/em><sup><\/sup>. Un algoritmo puede optimizar una ruta log\u00edstica o identificar un blanco con una precisi\u00f3n del 99 por 100, pero carece de la capacidad de evaluar el impacto pol\u00edtico-estrat\u00e9gico de un error o de comprender el factor moral de una unidad agotada<sup><\/sup>. El mando debe actuar como un regulador, garantizando que la eficiencia algor\u00edtmica no erosione el fin \u00faltimo de la misi\u00f3n<sup><\/sup>. La guerra es, conviene recordarlo, un fen\u00f3meno social, cultural y profundamente humano, que se libra con las herramientas de que dispone una sociedad en cada momento hist\u00f3rico<sup><\/sup>.<\/p>\n\n\n\n<p id=\"p-rc_04079d6773a8dff8-193\">LAS CUATRO TRANSFORMACIONES <sup><\/sup><\/p>\n\n\n\n<p id=\"p-rc_04079d6773a8dff8-194\">La integraci\u00f3n de la inteligencia artificial en el \u00e1mbito militar no introduce un \u00fanico cambio, sino una serie de transformaciones simult\u00e1neas que afectan al conocimiento, a las relaciones humanas, al tiempo de decisi\u00f3n y al marco \u00e9tico del mando<sup><\/sup>. A continuaci\u00f3n, se presentan cuatro de las m\u00e1s relevantes desde la perspectiva del liderazgo militar contempor\u00e1neo<sup><\/sup>:<\/p>\n\n\n\n<p id=\"p-rc_04079d6773a8dff8-195\">1. La revoluci\u00f3n epist\u00e9mica: del dato al conocimiento del contexto. La capacidad de procesamiento de la IA ha creado una asimetr\u00eda de conocimiento<sup><\/sup>. Los l\u00edderes deben dejar de ser analistas para ser int\u00e9rpretes<sup><\/sup>. El riesgo epist\u00e9mico reside en una confianza ciega en el tablero: si la IA concluye que el enemigo est\u00e1 flanqueando la fuerza, el l\u00edder debe ser capaz de discernir si el algoritmo est\u00e1 siendo v\u00edctima de un <em>spoofing<\/em> (enga\u00f1o) de datos o de un sesgo de entrenamiento<sup><\/sup><sup><\/sup><sup><\/sup><sup><\/sup>. La alfabetizaci\u00f3n cr\u00edtica en datos debe ser ya una competencia b\u00e1sica de mando<sup><\/sup>.<\/p>\n\n\n\n<p id=\"p-rc_04079d6773a8dff8-196\">2. La dimensi\u00f3n relacional: equipos h\u00edbridos y confianza. La integraci\u00f3n de sistemas aut\u00f3nomos, como los enjambres de drones probados en el conflicto de Ucrania y el programa Gremlins de EEUU, ha dado paso a la era de los equipos humano-m\u00e1quina (MUM-T)<sup><\/sup>. El liderazgo ya no es exclusivamente interpersonal, sino que se ejerce en entornos h\u00edbridos donde interact\u00faan personas y sistemas aut\u00f3nomos<sup><\/sup>. El mando debe gestionar la confianza, una tarea compleja al tratarse de un factor eminentemente humano: una excesiva confianza en la IA lleva a la complacencia; una falta de confianza lleva a la ineficiencia operativa<sup><\/sup>. En Espa\u00f1a, la integraci\u00f3n de la IA en el programa Fuerza 35 busca, precisamente, que el combatiente vea en el sistema aut\u00f3nomo un compa\u00f1ero fiable, cuya supervisi\u00f3n no es propiamente una carga, sino una ventaja t\u00e1ctica<sup><\/sup>.<\/p>\n\n\n\n<p id=\"p-rc_04079d6773a8dff8-197\">3. La compresi\u00f3n temporal: el fin de la deliberaci\u00f3n tradicional. La IA ha colapsado el tiempo de decisi\u00f3n<sup><\/sup>. En escenarios de saturaci\u00f3n por enjambres, el cerebro humano es incapaz de reaccionar a la velocidad que requiere<sup><\/sup>. Esto impone un dilema operativo: delegar la letalidad a la m\u00e1quina (<em>human-out-of-the-loop<\/em>) o aceptar una vulnerabilidad t\u00e1ctica por mantener el control humano (<em>human-in-the-loop<\/em>)<sup><\/sup>. El liderazgo moderno exige la creaci\u00f3n de \u00abprotocolos de confianza pre-establecidos\u00bb, donde el juicio humano se ejerce en el dise\u00f1o de las reglas de enfrentamiento y la supervisi\u00f3n en tiempo real, actuando como un interruptor de emergencia m\u00e1s que como un operador manual<sup><\/sup>. En este contexto, el liderazgo no se mide por la rapidez de la respuesta, sino por la claridad con la que se establecen los l\u00edmites de delegaci\u00f3n y los mecanismos de control humano<sup><\/sup>.<\/p>\n\n\n\n<p id=\"p-rc_04079d6773a8dff8-198\">4. La dimensi\u00f3n \u00e9tica y la gobernanza: la fuerza de los valores. La \u00e9tica no es un freno a la innovaci\u00f3n, sino que multiplica su eficacia a largo plazo<sup><\/sup>. El uso de la IA en la selecci\u00f3n de objetivos, como se ha observado en recientes operaciones de precisi\u00f3n en distintos escenarios internacionales, plantea desaf\u00edos sobre la trazabilidad<sup><\/sup>. El Reglamento de IA de la UE (EU AI Act) establece marcos estrictos que, aunque con excepciones militares, inevitablemente se\u00f1ala el est\u00e1ndar de lo que la sociedad democr\u00e1tica espera de sus Fuerzas Armadas<sup><\/sup>. El l\u00edder militar es el custodio \u00faltimo de los principios de proporcionalidad y distinci\u00f3n, pilares del Derecho Internacional Humanitario, cuya aplicaci\u00f3n no puede ser delegada plenamente en sistemas opacos o no explicables<sup><\/sup>.<\/p>\n\n\n\n<p id=\"p-rc_04079d6773a8dff8-199\">CASOS DE APLICACI\u00d3N <sup><\/sup><\/p>\n\n\n\n<p id=\"p-rc_04079d6773a8dff8-200\">Los siguientes ejemplos no deben entenderse \u00fanicamente como aplicaciones tecnol\u00f3gicas, sino como ilustraciones de c\u00f3mo el liderazgo militar se ve reforzado, o tensionado, por el uso de sistemas basados en inteligencia artificial<sup><\/sup>. En todos los casos, la tecnolog\u00eda act\u00faa como apoyo a la decisi\u00f3n, nunca como sustituto del juicio del mando<sup><\/sup>.<\/p>\n\n\n\n<p id=\"p-rc_04079d6773a8dff8-201\">En el contexto espa\u00f1ol, el Ministerio de Defensa ha dado pasos significativos<sup><\/sup>. La implementaci\u00f3n del sistema SILPRE por parte de Indra para log\u00edstica predictiva es un ejemplo de c\u00f3mo la IA mejora la operatividad del Ej\u00e9rcito de Tierra sin desplazar al mando<sup><\/sup>. Aqu\u00ed, el oficial de log\u00edstica toma decisiones basadas en predicciones de fallos, pero pondera factores como el contexto operativo, el despliegue geopol\u00edtico o las prioridades estrat\u00e9gicas, aspectos que ning\u00fan sistema automatizado puede evaluar por s\u00ed solo<sup><\/sup>. La decisi\u00f3n final sigue siendo, por tanto, una responsabilidad del mando<sup><\/sup>.<\/p>\n\n\n\n<p id=\"p-rc_04079d6773a8dff8-202\">Asimismo, el Mando Conjunto del Ciberespacio (MCCE) utiliza IA para detectar intrusiones que ser\u00edan invisibles al ojo humano<sup><\/sup><sup><\/sup><sup><\/sup>. Sin embargo, la decisi\u00f3n de poner en marcha una contraofensiva ciber sigue siendo una prerrogativa humana, consciente de las implicaciones que incorpora la escalada en un conflicto<sup><\/sup>. Estos casos subrayan la necesidad de una soberan\u00eda tecnol\u00f3gica: liderar en IA requiere poseer IA propia, cuyos sesgos y algoritmos sean conocidos y auditables por la propia cadena de mando nacional<sup><\/sup>. Este ejemplo pone de manifiesto que, incluso en dominios altamente automatizados como el ciberespacio, el ejercicio del mando conserva una dimensi\u00f3n estrat\u00e9gica y pol\u00edtica que no puede ser automatizada<sup><\/sup>. La IA acelera la detecci\u00f3n; el liderazgo humano decide cu\u00e1ndo, c\u00f3mo y hasta d\u00f3nde actuar<sup><\/sup>.<\/p>\n\n\n\n<p id=\"p-rc_04079d6773a8dff8-203\">LA FORMACI\u00d3N AL SERVICIO DEL MOMENTO <sup><\/sup><\/p>\n\n\n\n<p id=\"p-rc_04079d6773a8dff8-204\">La formaci\u00f3n en las academias y centros de ense\u00f1anza de las Fuerzas Armadas debe orientarse hacia un modelo en el que la capacitaci\u00f3n tecnol\u00f3gica y la formaci\u00f3n human\u00edstica converjan de manera equilibrada<sup><\/sup>. El liderazgo del futuro no se ense\u00f1a solo en el campo de maniobras, sino en simuladores de alta fidelidad que emplean IA generativa para crear escenarios adaptativos; pero tambi\u00e9n con la lectura de los cl\u00e1sicos del pensamiento<sup><\/sup>. El mando debe desarrollar una mentalidad de crecimiento, capaz de gestionar la frustraci\u00f3n ante sistemas que fallan y la responsabilidad de comandar unidades donde la informaci\u00f3n es omnipresente pero la claridad es escasa<sup><\/sup>. En este contexto, el liderazgo no se apoya \u00fanicamente en competencias t\u00e9cnicas, sino en el car\u00e1cter del mando<sup><\/sup>. Virtudes tradicionales como la prudencia, la templanza y el sentido del deber adquieren una relevancia renovada cuando las decisiones se toman bajo la mediaci\u00f3n de sistemas inteligentes<sup><\/sup>.<\/p>\n\n\n\n<p id=\"p-rc_04079d6773a8dff8-205\">LA CARGA MORAL DEL ERROR DEL ALGORITMO <sup><\/sup><\/p>\n\n\n\n<p id=\"p-rc_04079d6773a8dff8-206\">Uno de los dilemas menos explorados del liderazgo militar en la era de la IA no es tecnol\u00f3gico, sino profundamente humano: \u00bfqui\u00e9n carga moralmente con el error cuando la decisi\u00f3n se ha adoptado mediada por un algoritmo? <sup><\/sup>En el \u00e1mbito castrense, donde la obediencia y la responsabilidad est\u00e1n claramente definidas, la introducci\u00f3n de sistemas inteligentes introduce una zona gris in\u00e9dita<sup><\/sup>. Cuando un sistema de apoyo a la decisi\u00f3n recomienda una acci\u00f3n que deriva en consecuencias no deseadas (da\u00f1os colaterales, escalada pol\u00edtica o p\u00e9rdida de vidas propias) el l\u00edder no puede refugiarse en la neutralidad t\u00e9cnica<sup><\/sup>. Delegar no equivale a abdicar. El mando sigue siendo responsable, aunque el proceso haya sido algor\u00edtmicamente asistido<sup><\/sup>. Esta tensi\u00f3n puede generar lo que algunos autores denominan lesi\u00f3n moral (<em>moral injury<\/em>): la fractura interna que se produce cuando la acci\u00f3n ejecutada entra en conflicto con los valores personales y profesionales del l\u00edder<sup><\/sup>.<\/p>\n\n\n\n<p id=\"p-rc_04079d6773a8dff8-207\">A diferencia de los errores humanos tradicionales, el fallo algor\u00edtmico suele ser opaco, estad\u00edstico y dif\u00edcil de explicar a posteriori<sup><\/sup>. Esto exige del mando una doble competencia: capacidad de rendici\u00f3n de cuentas y fortaleza moral para asumir decisiones tomadas bajo incertidumbre ampliada<sup><\/sup>. En este contexto, la \u00e9tica del mando deja de ser solo normativa y se convierte en una \u00e9tica del car\u00e1cter: prudencia, templanza y coraje moral frente a sistemas que prometen certeza, pero no ofrecen sentido<sup><\/sup>. Desde esta perspectiva, la IA no reduce la carga del liderazgo; la intensifica<sup><\/sup>. El verdadero l\u00edder no es quien delega m\u00e1s, sino quien sabe hasta d\u00f3nde delegar sin perder su identidad moral<sup><\/sup>.<\/p>\n\n\n\n<p id=\"p-rc_04079d6773a8dff8-208\">EL JUICIO HUMANO COMO VENTAJA ASIM\u00c9TRICA <sup><\/sup><\/p>\n\n\n\n<p id=\"p-rc_04079d6773a8dff8-209\">La IA no reemplazar\u00e1 al l\u00edder militar, pero los l\u00edderes que utilicen IA reemplazar\u00e1n a los que no lo hagan<sup><\/sup>. La verdadera ventaja asim\u00e9trica en la guerra del siglo XXI no ser\u00e1 el algoritmo m\u00e1s r\u00e1pido, sino la organizaci\u00f3n que mejor combine la potencia de c\u00e1lculo de la m\u00e1quina con el juicio moral, la intuici\u00f3n y el valor del ser humano<sup><\/sup>.<\/p>\n\n\n\n<p id=\"p-rc_04079d6773a8dff8-210\">En \u00faltima instancia, el liderazgo consiste en asumir la responsabilidad<sup><\/sup>. Una m\u00e1quina puede ejecutar una orden, pero no puede responder por ella ante la historia o la justicia<sup><\/sup>. El l\u00edder militar del 2026 debe ser, por tanto, un humanista tecnol\u00f3gico: alguien que domina la t\u00e9cnica para proteger la esencia de la humanidad, incluso en el caos de la batalla<sup><\/sup>. La IA es la espada, pero el juicio humano sigue siendo el brazo que la dirige y, lo m\u00e1s importante, el alma que decide cu\u00e1ndo debe emplearse la fuerza y, sobre todo, cu\u00e1ndo debe ser contenida<sup><\/sup>.<\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n\n\n<p id=\"p-rc_04079d6773a8dff8-211\"><strong>Marzo 2026<\/strong> <sup><\/sup><sup><\/sup><sup><\/sup><sup><\/sup><strong>Revista Espa\u00f1ola de Defensa 43<\/strong> <sup><\/sup><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Revista Espa\u00f1ola de Defensa Espa\u00f1a (01\/03\/2026) Escrito junto a: Las Fuerzas Armadas espa\u00f1olas afrontan en la actualidad un proceso de transformaci\u00f3n profunda, impulsado por la incorporaci\u00f3n progresiva de tecnolog\u00edas avanzadas como la inteligencia artificial, la automatizaci\u00f3n y el an\u00e1lisis masivo de datos. Esta evoluci\u00f3n no afecta \u00fanicamente a los sistemas de armas o a los [&hellip;]<\/p>\n","protected":false},"author":515,"featured_media":6850,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_genesis_hide_title":false,"_genesis_hide_breadcrumbs":false,"_genesis_hide_singular_image":false,"_genesis_hide_footer_widgets":false,"_genesis_custom_body_class":"","_genesis_custom_post_class":"","_genesis_layout":"","footnotes":""},"categories":[37,11],"tags":[120],"class_list":{"0":"post-10227","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-opinion","8":"category-voces-expertas","9":"tag-fernando-diez","10":"entry"},"_links":{"self":[{"href":"https:\/\/blogs.deusto.es\/viviendodeusto\/wp-json\/wp\/v2\/posts\/10227","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/blogs.deusto.es\/viviendodeusto\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/blogs.deusto.es\/viviendodeusto\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/blogs.deusto.es\/viviendodeusto\/wp-json\/wp\/v2\/users\/515"}],"replies":[{"embeddable":true,"href":"https:\/\/blogs.deusto.es\/viviendodeusto\/wp-json\/wp\/v2\/comments?post=10227"}],"version-history":[{"count":1,"href":"https:\/\/blogs.deusto.es\/viviendodeusto\/wp-json\/wp\/v2\/posts\/10227\/revisions"}],"predecessor-version":[{"id":10228,"href":"https:\/\/blogs.deusto.es\/viviendodeusto\/wp-json\/wp\/v2\/posts\/10227\/revisions\/10228"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/blogs.deusto.es\/viviendodeusto\/wp-json\/wp\/v2\/media\/6850"}],"wp:attachment":[{"href":"https:\/\/blogs.deusto.es\/viviendodeusto\/wp-json\/wp\/v2\/media?parent=10227"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/blogs.deusto.es\/viviendodeusto\/wp-json\/wp\/v2\/categories?post=10227"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/blogs.deusto.es\/viviendodeusto\/wp-json\/wp\/v2\/tags?post=10227"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}