Artículo publicado en El Diario Vasco (09/05/2023)
Como todos nuestros lectores conocerán a estas alturas, ChatGPT ha entrado en el debate público con una fuerza enorme, y no hay día en el que no salga alguna noticia vinculada con el desarrollo y aplicación de la inteligencia artificial a nivel empresarial. La inteligencia artificial resulta fundamental para las empresas, ya que éstas deben emplear algoritmos de forma constante para tomar múltiples tipos de decisiones tanto comerciales como de gestión (p.e., seguimiento de productos de manera individualizada en las cadenas de valor, identificación de defectos, procesos de contratación y de promoción, toma de decisiones en banca, búsqueda de pareja, publicidad, oferta de ocio y de información en plataformas). Mis compañeros de Ekonomiaren Plaza, al leer una versión previa de este post hace una semana me preguntaron si existe alguna estimación acerca de qué % de decisiones son tomadas por algoritmos a día de hoy. Como no tenía la respuesta, en lugar de ponerme a hacer la búsqueda, acudí a ChatGPT a preguntarle, y aquí tenéis la respuesta que me dio.
- “¿Qué % de decisiones son tomadas por algoritmos actualmente?”
- ChatGPT: “Es difícil dar una respuesta precisa a esta pregunta, ya que depende de muchos factores, como el tipo de decisión que se esté tomando, la industria o el sector en cuestión, y la ubicación geográfica. En general, se puede decir que cada vez más decisiones están siendo tomadas por algoritmos y sistemas automatizados en una amplia variedad de campos, desde la banca y las finanzas hasta la salud y la educación.”
En este sentido, cada vez son más las voces que argumentan que los sistemas de toma de decisión basados en algoritmia pueden resultar menos éticos que los procesos de toma de decisión exclusivamente humanos. Por ejemplo, Eticas, una consultora especializada en auditorías algorítmicas, fundada por Gemma Galdón, una de las mayores especialistas en España de este ámbito, puso en marcha en 2021 el Observatorio de Algoritmos de Impacto Social (OASI), en el que se detallan una serie de sistemas ya desplegados por países, por fines y por principales riesgos.
El artículo 22 del Reglamento General de Protección de Datos de la Unión Europea impone restricciones a las empresas privadas que emplean algoritmos sin intervención humana para tomar decisiones que tienen efectos significativos en las personas. Según dicho reglamento, las empresas pueden emplear estos sistemas algorítmicos para la toma de decisiones, pero solo si adoptan “medidas adecuadas para salvaguardar los derechos y libertades del interesado y sus derechos legítimos”, lo que podría incluir “al menos el derecho a obtener la intervención humana…, a expresar su punto de vista y a impugnar la decisión”.
Un estudio reciente ha analizado bajo qué circunstancias, si las hay, se consideran legítimos los sistemas algorítmicos de toma de decisiones, una pregunta que tiene unas repercusiones fundamentales tanto para la ética como para la gestión empresarial. Los autores del estudio emplearon la metodología de encuesta de viñetas factoriales para explorar la importancia relativa de la gobernanza, el procedimiento y los resultados en la legitimidad percibida de las decisiones basadas en los sistemas algorítmicos de toma de decisiones de una empresa. Una encuesta de viñeta factorial presenta a los encuestados una serie de escenarios en los que se varían sistemáticamente varios factores en la viñeta, de manera que los encuestados ofrecen una valoración específica a cada escenario. La siguiente tabla ilustra algunos de los criterios que emplearon en las viñetas consideradas en esta investigación.
Decisiones | Individuales | Grupales |
Anuncios | Los anuncios que un usuario ve cuando hace una búsqueda | Los anuncios que una comunidad ve cuando hace una búsqueda |
Noticias | Qué noticias se le muestran a un usuario online | Qué noticias se le muestran a una comunidad online |
Contratación | Si alguien es contratado por una empresa | Qué personas son contratadas por empresas |
Seguros | Si las reclamaciones de seguro de un usuario son pagadas por su compañía de seguros | A qué personas les pagan las compañías de seguros las reclamaciones |
Banca | Si alguien recibe un préstamo bancario | De qué personas son aprobados los préstamos bancarios |
Precios | Si a alguien en línea se le muestra un precio más alto en función de su disposición a pagar | A qué individuos se les muestra un precio más alto en línea según su disposición a pagar |
Movilidad | Cuál es el precio que se le carga a un usuario por usar Uber/Lyft | Cuáles son las diferencias en precio que se le carga a cada usuario por usar Uber/Lyft |
Alojamiento | Los apartamentos que un usuario ve cuando hace una búsqueda | Los apartamentos que una comunidad ve cuando hace una búsqueda |
Los resultados del estudio evidencian que a medida que aumenta la importancia de la decisión, la percepción de los individuos sobre la legitimidad de usar un algoritmo para la toma de decisión disminuye. Es decir, cuando se trata de decisiones no fundamentales, los participantes en el estudio consideraron que las decisiones tomadas por una inteligencia artificial podían resultar legítimas. A su vez, el estudio también revela que la legitimidad de la toma de decisión está asociada con la obtención de un buen resultado.
Los resultados del estudio también apuntan a que muchos de los mecanismos de gobernanza procesal que se emplean en la práctica, como el hecho de avisar con antelación que la decisión está siendo tomada por un sistema no humano, no conducen a que las decisiones algorítmicas se perciban como más legítimas. Sin embargo, una gobernanza sólida, por ejemplo, basada en procesos de apelación contra la propia tecnología, puede conducir a una mayor percepción de legitimidad. En este sentido, según los autores del estudio, resulta paradójico observar cómo el uso de un proceso de apelación proporciona una legitimidad cuando el sistema adopta una decisión que los participantes consideraron como mala, pero sin embargo, el uso de un proceso de apelación no tuvo ningún efecto sobre la legitimidad de las decisiones algorítmicas cuando se ofrecían buenos resultados.
No es fácil predecir la evolución que estos sistemas inteligentes van a tener en el corto plazo, pero lo que sí parece ineludible es que deberemos afrontar un debate acerca de la ética de la sociedad, y de los sesgos que existen en la misma. Nos sigue quedando mucho trabajo por delante.
Leave a Reply