Autor: Miguel Ramón Viguri es doctor en Teología. Es profesor de la Facultad de Ciencias Sociales y Humanas, donde imparte las asignaturas de Opciones críticas frente a la Vida Social, Filosofía del Derecho, Ética cívica y de las profesiones y Ética y fenómeno tecnocientífico.
Dicen que el emperador de Webilandia convocó un concurso para ver quién era el diseñador capaz de articular en una sola app todas las que utilizaba habitualmente para hacerse con información personalizada de las vidas de sus súbditos.
Unos ingenieros informáticos, expertos en inteligencia artificial y aprendizaje profundo, le presentaron una app brillante, cuya interface era hipnótica y adictiva, porque proporcionaba la sensación de poder total. Un solo movimiento del rostro del emperador era interpretado –de forma cada vez más eficiente- por la app, que suministraba, al instante, informaciones delicadísimas y reservadas al sumo monarca.
Pero, de repente, la duda le asaltó. ¿Eran su smartphone, y el software de la app mágica, capaces de leer su mente, sus deseos, su personalidad? Porque, en realidad, él no sabía cómo funcionaba aquel programa. Sólo obtenía resultados que le favorecían y una experiencia de navegación que le satisfacía… Pero ¿qué ocurría dentro de la máquina? ¿Cómo seleccionaba informaciones y conforme a qué criterios las clasificaba para ofrecérselas como objetos de dominio?
Este microcuento -análogo a otro mucho más bello y profundo, de Hans Christian Andersen- no debiera terminar como lo ha hecho, con un interrogante, sino con la demoledora y espléndida frase del niño del cuento original: “¡Pero si el Emperador va desnudo!”. Es decir, el Emperador -y tú y yo- no tiene control, a menos que sepa cómo funciona la app que aparentemente le da el control y realmente pueda gestionarla y modificarla. Lo que realmente proporciona la app es la sensación de control.
Lo cierto es que, en estos momentos, nuestra vida entera (familiar, profesional y personal) se relaciona con sensaciones de control obtenidas por algoritmos. Y los algoritmos, pese a ser un producto tecnocientífico, ni son imparciales, ni técnicamente perfectos, ni evitan discriminaciones. El uso de algoritmos reproduce los patrones culturales y valorativos de sus creadores (o de la política de la empresa para la que trabajan) a todos los niveles: la concesión de una hipoteca o de un aval bancario, la admisión a ciertos seguros médicos, la selección de personal en las empresas… Esos patrones culturales pueden incluir sutiles componentes xenófobos, clasistas o androcéntricos, que luego se traducen en pautas de clasificación o ‘perfiles’, que pueden condicionar las vidas de las personas.
Opacidad creciente
Paradójicamente, en Internet ha ocurrido un proceso de progresiva oscuridad y opacidad. Y digo paradójicamente, porque Internet nació a finales de los 60 como ejemplo de red democratizadora. Internet y sus redes acopladas ponen en entredicho el valor de lo permanente y, sobre todo, del carácter irreformable del sistema.
Pero en Internet funcionan muchos protocolos diferentes (por ejemplo, el de la World Wide Web). Así que no actuamos directamente con Internet, sino con ciertos protocolos como la Web (hasta tal punto que se usan como sinónimos, cuando no es así). Pero tampoco interactuamos con toda la Web, sino que nuestra relación se produce en ciertos sitios, que contienen información que nos interesa y que, en la mayoría de casos, ofrece la instalación -gratuita- de aplicaciones.
Nuestras interacciones, entonces, no se dan en Internet o en la Web, sino en determinados proveedores o servidores a través de apps que manejan información sobre nuestros patrones de conducta y de vida. Información que puede ser cedida o vendida a otras compañías, como desgraciadamente ha sucedido. La mera posibilidad -ya ratificada- de que Internet pueda utilizarse para beneficio económico empresarial o para beneficio de un poder político, mediante estrategias de control de las vidas de los usuarios, es suficiente como para plantear un debate social y político de muy amplio espectro y de naturaleza ética sobre la utilización y generalización de determinadas TIC.
Cajas negras vs tecnologías entrañables
El caso más icónico es el smartphone, por su universalización. La cuestión es que no tenemos conocimiento suficiente ni control sobre él ni sobre sus Apps. Son cajas negras, como las denomina el filósofo de la ciencia Bruno Latour. Las tecnologías entrañables, por el contrario, tal y como sostiene Miguel Ángel Quintanilla, se definen por un conjunto de normas morales. Para empezar, tienen que ser abiertas, como sucede en el caso del software libre, cuyo ejemplo más conocido es el sistema operativo Linux.
Sin embargo, la mayoría de las apps que usamos son opacas. Las técnicas de programación de estas tecnologías, son impenetrables per se: es difícil, incluso para los expertos, conocer el significado de los procesos internos de estos sistemas. Pero las maneras en que las apps, que utilizamos ingenuamente, clasifican a las personas en perfiles y toman decisiones, acaban afectando a vidas concretas. Por eso es un deber moral no perder nunca de vista el significado de un algoritmo. No hay ciencia ni tecnología desprovista de pre-concepciones o pre-juicios.
Esto implica también problemas éticos, porque está en cuestión la validez racional del uso de nuestras tecnologías y nuestras apps. El primer problema es el ya mencionado: la pérdida de transparencia y de libertad. De ahí la apuesta por dar sentido a la técnica, tal y como defiende Martín Parselis. Un sentido que no podrá ser humano si no somos capaces de comprender, al menos en parte, cómo funcionan esas tecnologías.
Dar sentido a una tecnología es importante, porque cuando una herramienta está tan extendida que ya puedes incluso pagar con ella (los pagos con los teléfonos móviles tienen tanta pujanza que amenazan con dejar obsoletas las tarjetas bancarias), es claro que tiene un alcance social general. Por eso es exigible (y debiera ser posible) establecer foros a muchos niveles para razonar y dialogar abiertamente sobre la finalidad y consecuencias de dicha tecnología, porque su uso obligará a muchas personas a cambiar sus formas de vida.
No es lógico resignarse al abismo oscuro, establecido por los diseñadores de nuevas tecnologías, que separa lo que ellos buscan de lo que buscamos los usuarios. A menos que estemos dispuestos a regalar un cheque en blanco sobre nuestras vidas a cambio de la ilusoria, trágica e irrisoria sensación de control que nos da pulsar sobre una pantalla y obtener informaciones variadas y entretenidas sobre cosas poco relevantes. Ilusoria, porque sabemos que esa sensación no se corresponde a la realidad. Trágica, porque somos adictos a dicha sensación de control. Irrisoria, porque el Emperador, y nosotros, vamos desnudos.