jueves, 17 de diciembre de 2020

El algoritmo machista


Público

Por Beatríz Gimeno *

Foto: Pixabay

Hace unas semanas programamos un seminario sobre género e Inteligencia artificial que, como suele ser habitual despertó las risotadas en las redes. Salió el asunto del algoritmo y el sexismo y ¡qué risa, un algoritmo sexista! Tampoco, más allá de las expertas solemos encontrarnos a muchas feministas preocupadas por esta cuestión que debería ser una preocupación importante por varias razones.

La Inteligencia Artificial no es una cosa a la que podamos sentirnos ajenas,  es omnipresente, no es una cuestión que ocupe alguna parcela en la vida de alguna gente; la IA está presente en la mayor parte del tiempo de la vida de la mayor parte de la gente. Los algoritmos determinan ya aspectos fundamentales de nuestras vidas como acceder a una entrevista de trabajo, contratar una hipoteca, acceder a un préstamo, pasar la seguridad de un aeropuerto o un banco, usar tarjetas de crédito… Vivimos instaladas en la Inteligencia Artificial y en el futuro lo estaremos aun más. Sin embargo, por alguna razón (ay, todas sabemos la razón: la aparente neutralidad de los sesgos androcéntricos) no estamos prestando suficiente atención al sexismo de dicha tecnología, con el riesgo que ello conlleva. Un riesgo de retroceso de décadas en la posibilidad de comprender el mundo, y de enfrentarnos a él desde posiciones verdaderamente universales, como sólo puede ofrecer una visión en la que estén incluidas en igualdad las mujeres.

Tampoco es tan complicado entender qué los algoritmos heredan los sesgos de género porque se diseñan a partir de un conocimiento androcéntrico y sexista, porque recogen datos que van con sus correspondientes sesgos de género y porque, además, son diseñados por hombres. El número de mujeres sigue siendo muy pequeño en el diseño de la Inteligencia Artificial: Sólo el 12% de las personas con capacidad de decisión en el desarrollo de la IA son mujeres, sólo el 11% de programadoras de código fuente, sólo el 20% del profesorado en asignaturas relacionadas con la IA. En las empresas que desarrollan dichas tecnologías las mujeres son un 12 de los investigadores en Microsoft; el 15% en IBM y el 10% en Google.

El sesgo de género en los algoritmos no sólo reproduce el sexismo, sino que pueden incrementarlo. Por ejemplo, el riesgo es acusado en el uso del lenguaje, que lejos de hacerse menos sexista, cada vez lo es más. Por ejemplo: un algoritmo entrenado con texto tomado de internet relacionaba un nombre femenino como Sarah con palabras atribuidas a la familia y, por el contrario, un nombre masculino como John se asociaba a palabras relacionadas con el trabajo, como profesional y salario. En la red Bing se comprobó que al buscar la palabra «persona» aparecen más imágenes de hombres que de mujeres o que si buscas imágenes relacionadas con palabras como «inteligente» ocurre lo mismo: que aparecen muchos más hombres que mujeres. Son muchos los aspectos importantes en los que los algoritmos con sesgo de género inciden en nuestras vidas como ocurre con la seguridad o en la adscripción de recursos y, desde luego en los motores de búsqueda y las redes sociales que categorizan a los usuarios/as de manera distinta teniendo en cuenta los estereotipos de género. Por ejemplo, Facebook enviaba anuncios para trabajos mejor pagados a hombres blancos, mientras que a las mujeres y a personas no blancas se les mostraron anuncios para trabajos peor pagados.

No se trata de que exista una voluntad explícita por parte de los diseñadores de esta tecnología en programar algoritmos sexistas, se trata de que muchos hombres  no saben reconocer el sexismo cuando lo ven. De ahí que la solución pase por luchar para que cada vez se incorporen más mujeres a espacios con poder de decisión dentro de la Inteligencia Artificial, para que haya mujeres feministas pensando en cómo combatir dichos sesgos, luchando por corregirlos. Eso requiere trabajar para que las chicas se incorporen a las carreras tecnológicas, para que sean promocionadas en dichas empresas, para participen en el diseño de los algoritmos, de los programas. Porque sin ellas, algunas empresas han asumido sesgos tan sangrantes que ha habido que hacer correcciones de género importantes a posteriori, y en algunos casos no se habrán hecho. Por ejemplo, Amazon tuvo que eliminar su algoritmo de selección de personal porque penalizaba a los CV en los que aparecía la palabra «mujer» o se infería; por ejemplo, cuando en el CV aparecía «diseñadora» en lugar de «diseñador». ¿Cuántas veces nuestro CV habrá sido desechado en una selección laboral por el algoritmo? Y estos sesgos se producen, además, en un contexto en el que es muy complicado sexismo a la tecnología, ya que la mayoría de la gente tiende a suponer que ésta es neutra o no contiene sesgos de género y es así, más justa. Nada más lejos de la realidad.

No olvidemos que la primera programadora de la historia fue Ada Lovelace (1815-1852) un siglo antes de que se inventaran los ordenadores. Ni olvidemos tampoco que un siglo después seis mujeres programaron la primera computadora electrónica como parte de un proyecto secreto del ejército estadounidense en la Segunda Guerra Mundial. Poco se sabe de ellas, pero todo el mundo conoce en cambio la historia de Bill Gates fundando su empresa en un garaje, o de Mark Zuckerberg y Facebook. En definitiva, que sí, los algoritmos son tan machistas como la sociedad en la que se crean y desarrollan y sí, es muy importante incorporar esta cuestión al feminismo.

* Beatriz Gimeno. Directora del Instituto de la Mujer.


No hay comentarios: