Una nueva investigación realizada por las psicólogas Lucía Vicente y Helena Matute de la Universidad de Deusto, Bilbao, aporta evidencia de que las personas podemos heredar sesgos de la inteligencia artificial (IA).
Los impresionantes resultados logrados por la inteligencia artificial han dado a esta tecnología una imagen de alta fiabilidad. Sin embargo, los algoritmos de IA también pueden estar sesgados (cometer errores sistemáticos). Estos algoritmos son entrenados a partir de datos que son producto de decisiones humanas pasadas, y si contienen sesgos, el modelo de IA puede aprenderlos y reproducirlos. De hecho, existen ya numerosas pruebas de que, efectivamente, la inteligencia artificial hereda y amplifica los sesgos humanos.
El hallazgo más interesante de la nueva investigación realizada por Lucía Vicente y Helena Matute es que muestra que puede tener lugar también el efecto contrario: no solo la IA heredaría sesgos de los humanos, como ya sabíamos, sino que también las personas podríamos heredar sesgos de la IA, con lo que corremos el riesgo de entrar en un bucle bastante peligroso. Los resultados de esta investigación han sido publicados en la revista Nature.
En la serie de tres experimentos realizados por estas investigadoras, los voluntarios realizaron una tarea de diagnóstico médico. La mitad de los participantes tuvieron recomendaciones de una IA sesgada (cometía un error de forma sistemática) durante la tarea, mientras que la otra mitad, el grupo de control, no tuvo ningún tipo de asistencia. En estos experimentos, tanto la inteligencia artificial utilizada, como la tarea de diagnóstico, y la supuesta enfermedad, fueron una simulación para evitar interferencias con situaciones reales.
Las recomendaciones sesgadas de la inteligencia artificial influyeron sobre las decisiones de los participantes que realizaron la tarea con ayuda, pues acabaron cometiendo el mismo error que la IA, a diferencia de los participantes del grupo control, que no cometieron el error. Además, el resultado más relevante fue que, en una segunda fase en la que la IA ya no estaba presente, los voluntarios continuaron cometiendo el mismo error sistemático que cometía la IA, cuando pasaron a realizar la tarea de diagnóstico sin asistencia. En otras palabras, los participantes que recibieron al principio la ayuda de la IA sesgada, reprodujeron el sesgo en un contexto en el que ya no estaba presente la inteligencia artificial, evidenciando así un sesgo heredado. Esto no ocurría en los participantes del grupo de control, que habían realizado desde el primer momento la tarea sin ayuda.
Estos resultados muestran que información sesgada proporcionada por una inteligencia artificial puede ejercer un impacto negativo perdurable en las decisiones de las personas. El hallazgo señala la necesidad de más investigación psicológica y multidisciplinar sobre la interacción IA-humanos. También se hace necesaria una regulación basada en evidencia que garantice una IA ética y fiable, que no tenga en cuenta solo los aspectos técnicos, sino también los aspectos psicológicos de la relación entre IA y humanos.
Vicente, L, & Matute, H. Humans inherit artificial intelligence biases. Nature (2023)
1 says
Bonjour Lucía Vicente y Helena Matute,
Bravo et un grand merci à toutes les deux pour vos travaux éloquents.
En France, je possède une jurisprudence financière d’autorité financière sur une fraude établie en corruption et liée directement à vos travaux.
Les RPS Risques Psychosociaux sont la porte binaire de risques très peu ou très mal évalués à ce jour.
Restant à votre disposition
Très cordialement
Nicole Bihan