Artículo publicado en Invertia de El Español (20/11/2025)

Durante años hemos repetido que los datos lo resolverán todo, que la inteligencia artificial acabaría sustituyendo el juicio humano y que la toma de decisiones sería, por fin, un proceso limpio, objetivo y matemáticamente impecable. Sin embargo, a medida que la IA se expande a una velocidad sin precedentes y automatiza millones de tareas, estamos descubriendo algo inesperado: las decisiones más complejas, las que realmente definen un rumbo, siguen dependiendo de un tipo de conocimiento que los algoritmos no pueden replicar. No porque les falten capacidades técnicas —que las tienen—, sino porque carecen de algo más profundo: experiencia vivida, lectura del contexto, comprensión situacional, memoria implícita, sensibilidad ante señales débiles. En definitiva, intuición.
La investigación de IMD, desarrollada por Heather Cairns-Lee y Eugene Sadler-Smith, confirma que la intuición no es una reliquia analógica ni un impulso irracional, sino la expresión de un sistema sofisticado de reconocimiento de patrones acumulados a lo largo de años. Los grandes maestros de ajedrez no calculan pieza por pieza: ven la posición como una totalidad y actúan desde miles de configuraciones internalizadas.
Los premios Nobel entrevistados describen procesos similares: “la intuición viene primero; el análisis llega después para explicarla”. Incluso Jeff Bezos tomó una de las decisiones más importantes en la historia de Amazon —el nacimiento de Prime— guiado por una corazonada en un escenario donde no existían precedentes ni datos suficientes para modelar el riesgo. Esa es la clave: cuando los datos son incompletos o contradictorios, la intuición experimentada no es un lujo, sino una necesidad.
Mientras tanto, la IA transforma simultáneamente la forma en que pensamos, trabajamos y comprendemos la realidad. El análisis de Marc Zao-Sanders en Harvard Business Review revela que los modelos generativos ya atraen cientos de millones de usuarios semanales y producen miles de millones de mensajes al día, una escala de interacción que ningún otro sistema cognitivo en la historia humana había generado. Esa adopción masiva provoca dos efectos simultáneos: por un lado, una aceleración extraordinaria de tareas rutinarias; por otro, una creciente tendencia a externalizar razonamientos internos.
No delegamos solo cálculos, sino interpretaciones; no pedimos solo redacciones, sino criterios; no consultamos solo respuestas, sino decisiones. Esta dependencia progresiva genera un riesgo bien documentado en distintos estudios: la pérdida de capacidad para elaborar ideas sin apoyo del modelo, lo que algunos investigadores describen como un empobrecimiento cognitivo por sobreautomatización.
Pero incluso en este contexto, hay ámbitos donde la IA se detiene y empieza el territorio humano. El trabajo de Davenport y Noyes sobre cómo la IA está reorganizando el Venture Capital demuestra que, pese a la sofisticación de los sistemas analíticos, las decisiones verdaderamente decisivas siguen dependiendo de factores imposibles de codificar. Los inversores más experimentados sostienen que la psicología del fundador, su convicción, su forma de reaccionar ante la incertidumbre, su narrativa, su visión y la autenticidad de su motivación pesan tanto como cualquier métrica financiera.
La IA puede ordenar datos, pero no puede interpretar silencios, contradicciones, vulnerabilidades o intuiciones sobre el carácter. Puede detectar patrones históricos, pero no anticipar cómo una persona cambiará cuando la presión sea máxima. Y este límite es crucial: cuando no hay datos suficientes, cuando la situación es radicalmente nueva o cuando la decisión afecta a dinámicas humanas profundas, la intuición vuelve a ser tecnología de alto rendimiento.
Esto obliga a replantear la relación entre humanos y algoritmos. No estamos ante una disyuntiva entre confiar en la intuición o confiar en la máquina; estamos ante la necesidad de integrar ambas inteligencias de forma madura. De nuevo, IMD aporta una guía útil: utilizar la intuición como filtro diagnóstico para detectar desajustes en las recomendaciones de la IA; evaluar no solo outputs, sino explicaciones; legitimar el desacuerdo con el algoritmo; y analizar los casos en los que el criterio humano corrige al modelo para mejorar los sistemas.
Esta aproximación híbrida no idealiza ni demoniza la tecnología: reconoce que la IA es extraordinariamente potente donde hay patrones estables y abundancia de datos, pero que su eficacia se diluye en los entornos que más importan hoy —los volátiles, los inciertos, los ambiguos, los inéditos— donde el análisis histórico ya no sirve.
Todo esto tiene un impacto directo en la forma en que lideramos, innovamos, educamos y diseñamos políticas. El riesgo no es que la IA piense por nosotros; el riesgo es que dejemos de pensar porque asumimos que la IA ya lo hace suficientemente bien. Los estudios coinciden en que la adopción de IA no garantiza mejores decisiones, solo decisiones más rápidas, y esa velocidad puede ser una trampa si no existe un criterio humano capaz de interpretar, corregir o contradecir lo que sugiere el modelo. Los datos sin contexto producen precisión sin comprensión; la automatización sin juicio produce eficiencia sin sentido; la delegación sin evaluación produce decisiones impecables en apariencia, pero vulnerables en impacto.
Por eso, el verdadero desafío del momento no es tecnológico, sino cognitivo. Las organizaciones que prosperarán no serán las que más algoritmos desplieguen, sino las que mantengan viva la capacidad de pensar críticamente, de escuchar la incomodidad interna cuando algo “no encaja”, de detectar patrones que una máquina no ve, de interpretar situaciones inéditas y de equilibrar información cuantitativa con experiencia encarnada. En otras palabras, las que no renuncien a la intuición como una forma legítima de conocimiento, complementaria al análisis y necesaria en entornos donde la lógica histórica ya no es suficiente.
La IA seguirá avanzando, multiplicando posibilidades y ampliando horizontes, pero el sentido de esas posibilidades —qué hacer, qué evitar, qué priorizar, qué construir— seguirá dependiendo de algo que ningún sistema puede replicar: la capacidad humana de interpretar lo incierto. Allí donde la IA no llega, donde los datos se agotan, donde las explicaciones se vuelven insuficientes, decide tu intuición. Porque en esos momentos, no es un atajo: es la herramienta que nos mantiene capaces de discernir, de aprender y de elegir con conciencia en un mundo que cambia más rápido que cualquier algoritmo.
***Paco Bree es profesor de Deusto Business School, Advantere School of Management y asesor de Innsomnia Business Accelerator.
Deja una respuesta