Lorena Fernández: «La tecnología no es objetiva, los algoritmos los aprende de la sociedad»


  • La ingeniera informática y directora de Identidad Digital de la Universidad de Deusto ofrece el día 23 de marzo la ponencia inaugural del primer seminario sobre ciberfeminismo en la Casa de Colón
  • En la charla ‘¿Puede ser una máquina quitanieves machista?’ hablará sobre cómo la sociedad se mueve por un modelo único marcado en muchas ocasiones por el del hombre blanco y de mediana edad

La ingeniera informática y directora de Identidad Digital de la Universidad de Deusto, Lorena Fernández, ofrece el día 23 de marzo la ponencia inaugural del primer seminario sobre ciberfeminismo de la Casa de Colón, en donde explicará que la tecnología, al contrario de lo que se pensaba inicialmente, no toma decisiones objetivas, sino sesgadas, porque los algoritmos que utiliza los aprende de cómo es la sociedad, por lo que también discrimina por género.

“El mundo digital es el fiel reflejo del mundo análogico. En los albores de internet y de las webs nos decían a las mujeres que por fin iba a ser un espacio en el que no se iba a poder identificar género, no íbamos a estar sujetas, y descubrimos que no solo  no ha pasado, sino que sirve de amplificador de lo que nos sucede. Hemos dado por hecho que las máquinas van a tomar decisiones más objetivas que las personas y no es así”, apunta.

La ponencia que abre este primer seminario, que se imparte a las 10.15 horas, lleva por título ‘¿Puede ser una máquina quitanieves machista?’ y en ella explicará la auditoría de género que se realizó en una ciudad de Suecia, que concluyó que la sociedad se mueve por un modelo único marcado en muchas ocasiones por el del hombre blanco y de mediana edad.

Y uno de esos ejemplos fue que la limpieza de la nieve en la ciudad empezaba por las calles principales para dejar en último lugar a las aceras, priorizando así una movilidad más productiva en la que se utiliza un vehículo privado frente a las personas que usan el transporte público, la bicicleta o van a pie, que es lo que hacen mayoritariamente las mujeres, explica. “Y algorítmicamente en internet pasa lo mismo”, apunta.

Como ejemplo pone los sistemas de reconocimiento facial, ya que los estudios han demostrado que los algoritmos de aprendizaje automático pueden discriminar según el género y la raza, ya que las primeras pruebas se hicieron con personas blancas y fallan más con mujeres negras. También bajan su rendimiento en personas trans, especialmente en el momento de transición, y no son capaces de clasificar a personas no binarias.

Otro de los ejemplos de cómo la tecnología no es objetiva la encontraron en el traductor de Google, ya que al hacer una traducción sin poner el sujeto, traduce automáticamente que él es ingeniero y ella ama de casa. “En ese caso falla el aprendizaje que hace de la información. A la inteligencia artificial, de algoritmos, le tienes que dar información para que en base a ellas genere reglas y si en la mayoría de libros que se publican, o en la mayoría de publicaciones online, o en las traducciones que hacen mayoritariamente las personas aparece que él es ingeniero y ella es ama de casa, pues eso es una regla que toma el algoritmo y en las siguientes búsquedas lo muestra así”, agrega.

En este sentido, el traductor de Google ha hecho un camino intermedio en la actualidad, ya que al realizar traducciones de frases sencillas muestra las dos opciones, pero esto no sirve para textos largos y más elaborados, apunta. “Ahora se está intentando identificar cuáles son esos sesgos que pueden ser de géneros, pero aparecen también mezclados con raza, etnia y edad, hay muchas casuísticas”, detalla.

Los algoritmos de aprendizaje automático establecen patrones tras procesar grandes cantidades de datos. Son como estudiantes en un colegio, ya que aprenden del libro de texto, información con la que se les entrena para que generen reglas de inferencia, y del profesorado, quien decide qué temas entrarán en el examen y les dice a sus estudiantes qué parámetros son importantes. Su limitación es que se pueden cargar de sesgos en varios puntos y de varias maneras, explica.

“La primera casuística se da cuando la realidad de la que aprenden está ya llena de prejuicios. La segunda, cuando les enseñamos solo una parte que no es representativa, que hace que los algoritmos piensen que esa es la única realidad. Otro punto de perversión se puede introducir durante la etapa de preparación de datos y la selección de modelos, cuando se hacen las preguntas equivocadas o se toman en consideración los parámetros erróneos”, asegura.

“Ahora estamos funcionando de manera muy reactiva, se ve el fallo y se corrige, pero tenemos que cambiar el modelo de forma proactiva, es decir, que esta perspectiva ética se incorpore en todo el proceso, desde el inicio”, apunta como solución.

Otro de los ejemplos de cómo el modelo único impera en la sociedad es el de las pruebas de los cinturones de seguridad en los vehículos. Los primeros ‘dummies’, los muñecos con los que se probaban los impactos de un accidente, datan de 1949. El equipo que desarrollaba ese proyecto era masculino y a nadie se le ocurrió que detrás de un volante podía ir una mujer embarazada y el impacto que eso tenía en el cinturón de seguridad, asegura.

Hasta 1996 no desarrollaron el primer muñeco embarazado y hasta ahora no hay un modelo que represente el tamaño y la anatomía promedio del cuerpo femenino, ya que el más utilizado por la industria mide 1,75 metros y pesa 75 kilos, explica. En la Universidad de Virginia hicieron un estudio del impacto que tenía este hecho y  detectaron que las mujeres tenían un 73 por ciento más de probabilidades que los hombres de sufrir una lesión grave en un choque frontal. “Siempre parece que nosotras nos tenemos que ajustar a este mundo medido a la medida de los hombres”, agrega. 

Una tubería que gotea por varios puntos y que pierde científicas

Lorena Fernández trabaja también en potenciar la participación de niñas, jóvenes y mujeres en carreras STEAM (acrónimo en inglés que comprende a los campos de Ciencia, Tecnología, Ingeniería, Arte y Matemáticas) y asegura que ese modelo único que impera en la sociedad también les afecta porque les genera una idea mental de cómo tiene que ser una persona que trabaja en este tipo de titulaciones. “Vienen con una mochila de estereotipos en edades en las que lo único que quieres es encajar y pertenecer a un grupo, lo que hace es desanimarte y decirte no”, afirma.

“Las mujeres no llegan a las carreras tecnológicas. Es como una tubería que gotea y por donde se nos ha escapado el talento femenino desde edades muy tempranas. Las pocas que llegan tienen que enfrentarse a estar solas en el aula y en los ambientes profesionales”, explica.

Y esa tubería tiene muchos agujeros y muy diversos en diferentes etapas vitales. “El agujero más grande es el de la falta de referencias, ya que si no tienen espejos en los que mirarse es difícil que se miren ahí, así que uno de los parches podría ser generar esos referentes”, asegura. Ese parche podría ser incluso de ficción y pone como ejemplo la serie ‘Gambito de dama’, que ha derivado en que muchas niñas están ahora interesadas en el ajedrez. En tecnología también ha pasado, ya que en Estados Unidos hicieron un estudio que detectó el efecto Scully, la protagonista de la serie ‘Expediente X’, porque las mujeres de entre 30 y 40 años que trabajan ahora en ciencias dijeron que había sido uno de sus referentes.

Otro de los agujeros es el de la confianza, la autoeficacia percibida que tienen las niñas, que se creen menos inteligentes que los niños desde los 6 años. En esto influye la familia y el profesorado, ya que cuando ellas sacan buenas notas se lo atribuimos al esfuerzo y a ellos a que son brillantes, especifica. “Animemos a nuestras niñas a que sean valientes y no perfectas, que no estén bajo el yugo de la perfección, que no tengan miedo a equivocarse, porque esa es la base de la ciencia”, concluye.

Trayectoria de Lorena Fernández

Lorena Fernández es Ingeniera informática, máster en seguridad de la información. Actualmente es directora de comunicación digital de la Universidad de Deusto y miembro del grupo experto de la Comisión Europea ‘H2020 Expert Group to update and expand Gendered Innovations/Innovation through Gender’ para analizar el impacto de no incorporar la perspectiva de género en la Inteligencia Artificial.

Además, colabora en el programa de radio ‘Hoy por Hoy Bilbao’ de la Cadena SER desde 2009 con una sección sobre nuevas tecnologías. Es jurado del premio Ada Byron a la mujer tecnóloga y mentora del proyecto Inspira STEAM, un proyecto que busca el fomento de la vocación científico-tecnológica entre las niñas. También es componente del colectivo Doce Miradas, gente con sueños que imagina una sociedad diferente y reclama un espacio común para mujeres y hombres que sea más justo y equilibrado (Premio Periodismo Vasco 2018 en la modalidad de Periodismo Digital).

En 2016 publicó el libro ‘Filipinas. Tierra de tifones’, un proyecto colaborativo con 60 fotos y 60 relatos de diferentes personas que han querido aportar su granito de arena para conseguir becas que cubran el transporte de niñas y niños de Filipinas.

Si continúa navegando, acepta nuestra política de cookies    Más información
Privacidad