4 noviembre 2024

¿Los sistemas de Inteligencia Artificial son sexistas y racistas?

Hoy analizamos los sistemas de Inteligencia Artificial, como el Aprendizaje Automático o Machine Learning, en donde los sistemas aprenden mediante el ingreso de  información no estructurada suministrada en forma de ejemplos de la vida real. Y descubrí que los sistemas están armando asociaciones que parten de relatos/información sesgada. Estamos alimentando estos sistemas, con los propios prejuicios de la sociedad en que vivimos.

Las aplicaciones que utilizan Machine Learning son enormes. Desde motores de búsqueda, diagnósticos médicos, detección de fraude en el uso de tarjetas de crédito, análisis del mercado de valores, clasificación de secuencias de ADN, reconocimiento del habla y del lenguaje escrito, juegos y robótica, etc ( wikipedia)

Hace un tiempo, recibí un llamado telefónico de un Banco. El mensaje estaba grabado y aunque no suelo realizar ninguna encuesta. Algo de lo dicho me causó curiosidad. Creo que ofrecían financiamiento para emprendedores. Tuve que seleccionar rango de edad, género, y alguna otra cosa más. Al finalizar salió una voz también grabada que me decía que lamentablemente, ya estaba cubierto el cupo para mi categoría. Evidentemente el sistema al obtener el dato que yo era mujer ya no le interesé.

Todos los días, las mujeres y muchas minorías, lidiamos con este tipo de discriminaciones.

Por ejemplo, el año pasado, Google tuvo que pedir disculpas, pues en su sistema de clasificación de fotos, incluía a las personas negras junto a los gorilas. También Nikon tuvo que reparar un error, pues el software que estaba incluído en sus cámaras, detectaba como si estuvieran pestañando, a las personas asiáticas.  Y descartaba las fotos. Estos algoritmos aprenden gracias a que son alimentados por ejemplos de fotos.  Elegidas por los ingenieros de sistemas que son generalmente hombres blancos .  A los cuales les cuesta pensar en la diversidad que existe en el planeta.

Así también , el modelo de Continuous Bags of Words #CBOW , que utiliza la representación vectorial de palabras, tiene mucho más cerca en su nube de palabras Medico-Hombre Enfermera-Mujer.

Investigadores  de las Universidades de  Utah, Arizona y Haverford College en Pennsylvania han creado un método que resuelve y repara este tipo de sesgos no intencionales sobre raza, género y edad.

En el siguiente enlace, te propongo visitar el sitio donde está publicado el paper : Certifying and removing disparate impact

Aunque después de todo lo narrado, la discriminación que hizo el Banco conmigo, es a propósito. Sino que lo diga Muhammad Yunus, que formó el Banco de Grameen para darle posibilidad a la población pobre de Bangladesh y descubrió que era todo un éxito y que la mayoría de sus clientes ( un 96% eran mujeres). Ellas tomaban microcréditos y los devolvían casi sin casos de mora. Pero esa, ¡es otra historia!

Siguenos por Twitter a través de @Geeksroom y no te pierdas todas las noticias, cursos gratuitos y demás artículos. También puedes seguirnos a través de nuestro canal de Youtube para ver nuestros vídeos y a través de Instagram para ver nuestras imágenes!

Andrea Cummins

Andrea Cummins Es Senior Editor de GeeksRoom. Estudió Ciencias de la Computación en la facultad de Cs Exactas de la Universidad de Buenos Aires. Hace 23 años que vive en el campo, en la ciudad de Venado Tuerto, Santa Fe y gracias a Internet, pudo seguir actualizándose con las nuevas tecnologías. A medida que pasó el tiempo se fue capacitando de manera autodidacta y participando en Congresos y Cursos. Su empresa se llama VenadoSoft. Su hobbie es la fotografía y le encanta mostrar su ciudad y su gente a través de su lente.

Ver todas las entradas de Andrea Cummins →