La inteligencia artificial avanza a una velocidad vertiginosa. Escribe textos, genera imágenes y responde con una aparente comprensión de las emociones humanas. Sin embargo, en medio de esta fascinación tecnológica surge una pregunta tan incómoda como urgente: ¿quién decide realmente cómo funciona la IA y a quién beneficia? Esta cuestión articula el episodio del podcast A contracorriente, impulsado por Alboan, en el que dialogan Lorena Fernández, directora de Comunicación Digital de la Universidad de Deusto, y Javier Martínez Contreras, director del Centro de Ética Aplicada y profesor titular de Filosofía de la Facultad de Ciencias Sociales y Humanas. Lejos de una aproximación tecnofílica acrítica, la conversación propone una lectura ética, política y social de la inteligencia artificial, atendiendo a sus sesgos estructurales, su impacto ambiental, la concentración de poder que genera y el riesgo creciente de delegar el pensamiento crítico en sistemas algorítmicos diseñados para no contradecirnos.
Poder, sesgos y pensamiento crítico en la era algorítmica
Uno de los ejes centrales del episodio es la crítica a la supuesta neutralidad tecnológica. La inteligencia artificial no surge en el vacío: está diseñada por personas, entrenada con datos históricos y orientada por intereses económicos y políticos concretos. Pretender que la tecnología es neutral implica ignorar que los algoritmos aprenden de sociedades desiguales y que, por tanto, los sesgos algorítmicos no solo reproducen discriminaciones de género, raza o clase, sino que pueden amplificarlas a gran escala bajo una apariencia de objetividad técnica. La IA, lejos de ser un espejo limpio de la realidad, es una construcción sociotécnica atravesada por valores, decisiones humanas y relaciones de poder.
En este contexto, el episodio introduce el concepto de tecnofeudalismo como clave interpretativa del presente digital. Un modelo en el que unas pocas corporaciones concentran los datos, los algoritmos y las infraestructuras tecnológicas, mientras la ciudadanía genera valor de forma constante sin control ni propiedad sobre él. Este sistema da lugar a lo que Javier Martínez define como un oligopolio del pensamiento: quien controla la tecnología controla qué historias se amplifican, qué discursos se legitiman y cuáles quedan fuera del espacio público. No se trata únicamente de poder económico, sino de poder simbólico y cognitivo, con profundas implicaciones democráticas.
Otro de los riesgos abordados es la erosión del pensamiento crítico asociada a la inteligencia artificial generativa. Su diseño cercano, amable y empático no es accidental: genera confianza y dependencia, favoreciendo el llamado sesgo de automatización. En el episodio se mencionan ejemplos especialmente preocupantes, como el uso de chatbots como terapeutas emocionales, la presentación de respuestas falsas con absoluta seguridad o la delegación del duelo, del criterio y de la reflexión personal en sistemas que no comprenden ni asumen responsabilidad. Cuando un algoritmo nos dice lo que queremos oír, se debilita nuestra capacidad de pensar lo que necesitamos pensar.
A esta dimensión ética y cognitiva se suma un impacto material que suele permanecer oculto. La llamada “nube” no es etérea: la inteligencia artificial se sostiene sobre centros de datos gigantescos con un coste ambiental creciente. Se estima que para 2030 los data centers podrían consumir el 5 % de la electricidad mundial, con un uso intensivo de agua, minerales asociados a conflictos armados y una generación masiva de residuos electrónicos tóxicos. Cada interacción con la IA tiene un coste energético, hídrico y humano que rara vez se visibiliza en los discursos dominantes sobre innovación.
El episodio no plantea un rechazo de la tecnología, sino una llamada clara a regular, auditar y usar la inteligencia artificial de forma consciente y frugal. La regulación no frena el progreso: lo orienta hacia el bien común. Antes de adoptar cualquier sistema de IA, se propone una pregunta fundamental: ¿qué problema resuelve esta tecnología y para quién? No toda innovación es progreso, ni toda automatización supone una mejora social.
La conversación concluye con una idea central: el futuro no debería ser escrito solo por algoritmos. La inteligencia artificial puede contribuir a mejorar la vida colectiva o amplificar nuestras sombras. La diferencia no está en la máquina, sino en la capacidad humana para pensar críticamente, exigir responsabilidades y decidir de forma colectiva. En este sentido, el episodio de A contracorriente constituye una invitación necesaria a reflexionar sobre el mundo digital que estamos construyendo y sobre el papel que queremos asumir como ciudadanía en la era algorítmica.
Accede al podcast aquí



