Después de 5 artículos somos ya 466 lectores. Estoy emocionado que en tan poco tiempo seamos tantos, muchas gracias. Te quería pedir un favor, dado que entiendo que es interesante para ti el contenido que aquí escribo, ¿Por qué no le pides a dos personas que se den de alta? Sería un pequeño regalo de navidad tanto para ellos como para mí.
Ahora si vamos con el tema de esta semana. En el artículo anterior nos adentramos en el mundo de los sesgos y en como nuestros prejuicios y creencias se acaban introduciendo en los algoritmos de inteligencia artificial, provocando resultados que podríamos considerar “incorrectos”. Pero hoy me gustaría adentrarme en la dirección contraria, es decir, ¿los humanos incorporamos en nuestras creencias los sesgos que provoca la inteligencia artificial?
Una primera respuesta categórica: SI.
Una afirmación categórica: ES UN PROBLEMA.
En un estudio publicado recientemente (octubre 2023) por Scientific Reports se demostró que, efectivamente, cuando un algoritmo tiene sesgos estos se transmiten a los humanos. En la investigación se planteó la hipótesis de que las personas que realizan una tarea (simulada) de diagnóstico médico asistidas por un sistema de IA sesgado reproducirán el sesgo del modelo en sus propias decisiones, incluso cuando pasen a un contexto sin apoyo de IA. En tres experimentos, los participantes completaron una tarea de clasificación de temática médica con o sin la ayuda de un sistema de IA sesgado. Las recomendaciones sesgadas de la IA influyeron en las decisiones de los participantes. Además, cuando los participantes asistidos por la IA pasaban a realizar la tarea sin ayuda, cometían los mismos errores que la IA había cometido durante la fase anterior. Así, las respuestas de los participantes imitaban el sesgo de la IA incluso cuando ésta ya no hacía sugerencias. Estos resultados demuestran que la IA se hereda del ser humano.
Cabe decir que de las 200 personas que participaron en el estudio no había ningún profesional médico cualificado, pero aquí no se quería validar la aplicabilidad de la IA en el sector médico sino simplemente validar que los humanos tendemos a incorporar (y de una manera muy fuerte) los sesgos que genera la IA, les damos una alta credibilidad (lo digo para que nadie dude del estudio ;-) ).
Y esto es un problema, y lo es porque como se desprende del estudio no se trata sólo de que los humanos incorporemos estos sesgos sino que estos se mantienen cuando desaparece el uso de la IA. En el año 2020 en Sant Cruz (California) se prohibió el uso de sistemas algorítmicos para predecir las zonas más problemáticas de la ciudad y por lo tanto desplegar allí más policías. Y se realizó porque se creyó que el sistema incluía sesgos basados en prejuicios raciales y económicos. El tiempo ha demostrado que, aunque el sistema ya no se usa, los policías siguen actuando con los sesgos derivados del sistema al haber interiorizado esas zonas como las más problemáticas de la ciudad.
¿Por qué sucede?
Podemos decir que el problema no es tanto que los humanos adoptemos los sesgos generados por los algoritmos de IA sino el motivo por el cual lo hacemos y que implica una mayor persistencia en nosotros mismos de estos sesgos: lo hacemos porque atribuimos más objetividad a los resultados de la IA que a otras fuentes (es como cuando pensamos que los mejores resultados de una búsqueda en Google son los resultados que aparecen en primer lugar, aunque la búsqueda ofrezca miles d resultados).
“el grado de influencia de una fuente de información depende de lo inteligente que se la considere”, afirma Celeste Kidd, profesora adjunta de psicología en la Universidad de California en Berkeley.
Cuando interaccionamos con una persona, nuestra percepción de cómo se expresa nos ayuda a generar o no confianza. Como habla, las pausas que realice, los movimientos corporales… todo son inputs que tenemos para objetivizar esa fuente de información, pero cuando un algoritmo nos responde todo esto no existe.
Seguramente la falta de transparencia, la incapacidad de explicar el cómo se generan los resultados en un algoritmo de IA, dificultan todavía más la eliminación de esos sesgos.
Un posible camino para tratar de eliminar estos sesgos será el conocer mucho mejor como se construyen los resultados de una IA: que fuentes usa, como las combina, de donde saca los datos para generar las respuestas.
Nuevo reto en la IA, evitar incorporar los sesgos que genera buscando la transparencia en como funcionan.
Y, como siempre, Seguimos!