Artículo publicado en El Español (02/07/2025)

Un estudio reciente publicado por Maël Leroyer, Charlotte Bories y Adam M. Grant en Harvard Business Review (junio de 2025) revela una paradoja inquietante: los ejecutivos que utilizaron inteligencia artificial generativa tomaron decisiones peores que quienes no la usaron. Lejos de amplificar su capacidad de análisis, muchos líderes confiaron ciegamente en sistemas que no distinguen entre lo verdadero y lo verosímil. Si una herramienta concebida para ayudarnos a pensar acaba confundiendo más que aclarando, ¿qué nos está diciendo eso sobre la forma en que decidimos?
La pregunta no es solo técnica, sino también filosófica, psicológica, biológica y espiritual. Porque decidir no es solo calcular. Es interpretar, imaginar, arriesgar. Es ejercer una forma profunda de libertad. Y al mismo tiempo, es una actividad que realizamos bajo múltiples sesgos invisibles.
Un grupo de personas increpa a Cerdán, a punto de ser trasladado a prisión
La historia humana está tejida por errores de percepción. Desde guerras provocadas por ideas equivocadas hasta crisis económicas amplificadas por exceso de confianza, las decisiones erróneas no siempre se deben a la falta de información, sino a cómo la interpretamos. La psicología cognitiva ha identificado más de 180 sesgos cognitivos, muchos de ellos automáticos y persistentes. El sesgo de confirmación, la falacia del coste hundido, el efecto halo o la ilusión de control no son patologías modernas, sino herencias evolutivas que, en entornos de riesgo, solían ayudarnos a sobrevivir. Sin embargo, en el mundo actual se convierten en trampas del pensamiento.
A lo largo de la historia, los sesgos han condicionado decisiones trascendentales. Desde la ceguera imperial ante señales de decadencia, como la de Luis XVI antes de la Revolución Francesa, hasta errores estratégicos como la invasión de Bahía de Cochinos, la mente humana ha demostrado ser brillante en retrospectiva y limitada en tiempo real. Los sesgos cognitivos crecen con la edad, en parte porque cuanto más vivimos, más reforzamos nuestras creencias previas. La neurociencia ha mostrado cómo la dopamina y la oxitocina pueden sesgar la atención, la memoria y la valoración de opciones, y cómo estructuras como la amígdala y el córtex prefrontal intervienen en juicios cargados de emoción.
Pero no solo los humanos alucinamos.
La inteligencia artificial también alucina. En su caso, alucinación significa generar información falsa con apariencia convincente. Modelos como ChatGPT, Bard o Claude pueden inventar citas, datos o biografías, sin intención de engañar, pero con total confianza en su construcción. Estas alucinaciones artificiales no son errores esporádicos: son consecuencia estructural de cómo aprenden los modelos de lenguaje. Son predicciones de la palabra más probable, no verificaciones de verdad. Y el riesgo se amplifica cuando el usuario proyecta sobre el sistema un nivel de fiabilidad que este no puede garantizar.
Alucinar, etimológicamente, viene del latín alucinari, que significa «divagar en la mente». En neurología, se define como percibir una experiencia sin un estímulo externo real, como escuchar voces o ver figuras inexistentes. En estados alterados de conciencia —por fiebre, trauma, sustancias o meditación extrema— pueden aparecer imágenes, intuiciones o símbolos que no provienen del entorno, sino de la psique. Desde la antigüedad, chamanes, místicos y artistas han explorado estas visiones, atribuyéndoles valor profético o revelador. Hoy la neurociencia lo estudia como actividad del cerebro en modo generativo. Sorprendentemente, los grandes modelos de IA funcionan de manera análoga.
¿Puede entonces la inteligencia artificial ofrecernos visiones valiosas? ¿O simplemente reproduce el ruido de nuestros sesgos?
El reto está en discernir. Porque no todo lo que parece cierto lo es, y no todo lo que no entendemos es falso. En este punto, la filosofía de la mente, la teoría del conocimiento, la sociología del error y la epistemología crítica nos dan herramientas para distinguir entre intuición válida, sesgo aprendido y alucinación disfrazada. La mente humana no es una máquina perfecta: procesamos información limitada, filtramos la realidad según nuestros mapas internos y proyectamos significados donde no los hay.
Pero también ocurre lo contrario: descubrimos patrones donde otros solo ven caos.
Nikola Tesla aseguraba que muchas de sus ideas le llegaban en forma de visiones. Alan Turing, con su mente prodigiosa, combinaba lógica matemática con una capacidad asombrosa para imaginar sistemas aún no inventados. Ambos anticiparon tecnologías que transformaron el mundo. La intuición profunda, cuando se combina con rigor, ha sido fuente de hallazgos revolucionarios. El problema surge cuando sustituimos el rigor por el deslumbramiento.
¿Cómo educar entonces el juicio en la era de la inteligencia artificial? Quizás la clave esté en cultivar lo que algunos llaman “pensamiento espacioso” (spacious thinking), un término desarrollado en otro artículo reciente de Harvard Business Review (2025) por Liz Fosslien y Mollie West Duffy. Se trata de dar tiempo y aire al pensamiento complejo, evitando la compulsión de decidir rápido. Pensar en amplitud es una forma de resistir tanto el sesgo como la ilusión algorítmica.
En el fondo, toda decisión es una apuesta sobre el futuro. Pero si no comprendemos los mecanismos que deforman esa apuesta, tomamos decisiones con la brújula desviada. En palabras del neurocientífico Antonio Damasio, “la emoción es necesaria para la razón”. Sin emoción, no decidimos. Sin cuerpo, no entendemos. Sin conciencia, no discernimos. ¿Cómo enseñar eso a un modelo estadístico?
La espiritualidad también tiene algo que decir aquí. Tradiciones orientales y occidentales coinciden en la necesidad de limpiar la mente para ver con claridad. Desde los ejercicios de discernimiento de Ignacio de Loyola hasta las prácticas contemplativas del zen, el acto de decidir se ha visto como una alquimia interna. Como decía Krishnamurti, “observar sin juicio es la forma más alta de inteligencia”. Quizás ese sea el gran diferencial humano: poder observarnos decidiendo.
Y sin embargo, la historia muestra que no basta con tener conciencia. La presión social, el sesgo de grupo, la autoridad percibida, la falta de tiempo y el miedo a equivocarse siguen empujando decisiones hacia zonas grises. En contextos de alta incertidumbre, como los actuales, aumenta el deseo de respuestas simples. Pero la simplicidad mal entendida es el mayor riesgo de la inteligencia artificial: su capacidad para sonar convincente, aunque no sea cierta.
La solución no es desconfiar de la IA, sino usar su potencial como espejo, no como oráculo. Para eso, necesitamos líderes capaces de hacer preguntas antes de buscar respuestas. Ejecutivos que entiendan el diseño de sistemas tanto como la fragilidad humana. Profesionales que reconozcan que una predicción no es una verdad, sino una hipótesis.
La conclusión es tan inquietante como poderosa: la única forma de navegar un futuro lleno de sesgos y alucinaciones, humanas o artificiales, es ampliar nuestra conciencia. Más que controlar la IA, debemos aprender a controlar nuestra forma de pensar con la IA.
Y eso requiere otra forma de liderazgo.
Para los líderes del siglo XXI, la recomendación es clara: formarse en sesgos cognitivos, comprender las alucinaciones algorítmicas y fomentar una cultura organizacional donde la pausa, la humildad y la verificación sean virtudes estratégicas. La ventaja no estará solo en quién adopte antes la tecnología, sino en quién sepa combinarla con lucidez, juicio y profundidad humana.
Deja una respuesta