Amazon desecha una IA de reclutamiento por su sesgo contra las mujeres

Amazon desecha una IA de reclutamiento por su sesgo contra las mujeres

La inteligencia artificial esta produciendo avances enormes en varias ramas a un ritmo hasta ahora desconocido. Sin embargo, no se debe olvidar que bajo determinadas circunstancias y casos, debido a problemas generalmente vinculados con los documentos usados en la base de documentos de entrenamiento del software, su uso puede llegar a jugar malas pasadas. Amazon® lo ha sufrido con una tool que emplea inteligencia artificial para reclutamiento laboral, segun informa Reuters.

Estos sistemas entregan enormes mejorías para seleccionar a candidatos con mayor eficiencia, sin embargo en el caso de la inteligencia artificial de Amazon, los resultados que prometía presentaban sesgos contra las mujeres, es decir, que por ejemplo, en reclutamiento de candidatos para trabajos de desarrollo de software y en otras áreas técnicas, el metodo no estaba aplicando principios de igualdad y meritocracia, sino que producía una significativo discriminación contra las mujeres.

La inteligencia artificial presenta desafíos enormes inclusive para enormes como Amazon

El hecho de que una circuntancia así se dé dentro de una compañia como Amazon, referente en el campo de la automatización y el uso de tools de aprendizaje automático, puede parecer inexplicable, sin embargo no lo es. La razón atras del sesgo contra el sexo femenino esta en como ha funcionado el reclutamiento en Amazon® en los últimos diez años.

La inteligencia artificial debe ser alimentada de documentos para producir ejemplos y hallar similitudes positivas. Si el metodo de captación de empleados de la compañia en los últimos años generaba mayoritariamente contrataciones masculinas, y esos documentos se le entregan a la tool sin observaciones de lo que esta bien o mal, o de la igualdad de posibilidades que se busca, el software interpreta que lo corriente es lo positivo. Acto seguido, actuará en base a ello.

En este caso, se crearon 500 ejemplos informáticos con interés a características específicas del empleo y localizaciones. Cada uno de esos 500 aprendió a reconocer 50.000 frases que aparecían en el currículum de los candidatos. El dilema es que los hombres, segun la fuente de Reuters, tienden a utilizar terminos como realización o reconquista mas que las mujeres, y el metodo los primó.

Si no se hace nada para frenarlo, la inteligencia artificial puede reproducir y amplificar los sesgos humanos

La simple introducción del término “women’s” en el currículum generaba un ultraje contra las mujeres. Las mujeres tituladas en 2 universidades femeninas no mixtas además sufrían efectos de degradación para el sistema. Aunque dentro de la compañia esto se vio como algo negativo y se quiso actualizar ese comportamiento de la inteligencia artificial para hacerla mas neutra, el proyecto se desechó cuando se percibió que no había certeza de que el sesgo no se pudiera reproducir en otro sentido.

El dispositivo de programadores a cargo fue disuelto a causa de una pérdida de esperanza en el proyecto. La tool se llegó a usar, sin embargo no para basarse solamente en sus recomendaciones.

Un dilema con difícil solución

Entrenar a un software de inteligencia artificial para sacar resultados óptimos no es algo banal. Como se ha mencionado, no es lo mismo alimentar a una maquina con documentos a discreción, sin aportar mas profundidad al analisis de datos, que hacerlo. Lo 2° es mucho mas complicado, porque en este caso en Amazon® se ha visto mal el sesgo, sin embargo en otros varios puede no ser así y que la desigualdad se perpetúe e inclusive crezca a largo plazo.

Al diseñar estas tools las industrias no sólo deben investigar la productividad, sino de alguna forma reconocer qué patrones repetitivos y del todo positivos se pueden estar dando con decisiones por personas, para así producir ejemplos que tiendan mas a la centralidad.

Puedes estudiar mas sobre inteligencia artificial escuchando vuestro podcast ‘Captcha’, donde debatimos en profundidad sobre todo lo que le rodea.

También te recomendamos

Lavadora con función vapor: qué es y como debe utilizarse

El último algoritmo de Google® no predice lo que averiguas sino cuando morirás

Crean una inteligencia artificial con la que afirman que se puede predecir tu personalidad escaneando tus ojos


La novedad Amazon® desecha una IA de reclutamiento por su sesgo contra las mujeres fue publicada originalmente en Genbeta por Antonio Sabán .


Genbeta



Agradecemos a la fuente original por la información que nos ayudo a crear este articulo.

También puedes revisar estas noticias relacionadas.

Tags: #Amazon #contra #desecha #mujeres #reclutamiento #sesgo

Deja un comentario

Author: 
    author