Destacado
Home / Sin categoría / Lorena Fernández: “La tecnología no toma decisiones objetivas, sino sesgadas, ya que los algoritmos que utiliza los aprende de la sociedad”

Lorena Fernández: “La tecnología no toma decisiones objetivas, sino sesgadas, ya que los algoritmos que utiliza los aprende de la sociedad”

La ingeniera informática y directora de Identidad Digital de la
Universidad de Deusto ofrece el día 23 de marzo la ponencia inaugural
del primer seminario sobre ciberfeminismo en la Casa de Colón
 En la charla ‘¿Puede ser una máquina quitanieves machista?’ hablará
sobre cómo la sociedad se mueve por un modelo único marcado en
muchas ocasiones por el del hombre blanco y de mediana edad
Las Palmas de Gran Canaria, 22 de marzo de 2021- La ingeniera informática y
directora de Identidad Digital de la Universidad de Deusto, Lorena Fernández, ofrece
el día 23 de marzo la ponencia inaugural del primer seminario sobre ciberfeminismo
de la Casa de Colón, en donde explicará que la tecnología, al contrario de lo que se
pensaba inicialmente, no toma decisiones objetivas, sino sesgadas, porque los
algoritmos que utiliza los aprende de cómo es la sociedad, por lo que también
discrimina por género.
“El mundo digital es el fiel reflejo del mundo análogico. En los albores de internet y
de las webs nos decían a las mujeres que por fin iba a ser un espacio en el que no se
iba a poder identificar género, no íbamos a estar sujetas, y descubrimos que no solo
no ha pasado, sino que sirve de amplificador de lo que nos sucede. Hemos dado por
hecho que las máquinas van a tomar decisiones más objetivas que las personas y no
es así”, apunta.
La ponencia que abre este primer seminario, que se imparte a las 10.15 horas, lleva
por título ‘¿Puede ser una máquina quitanieves machista?’ y en ella explicará la
auditoría de género que se realizó en una ciudad de Suecia, que concluyó que la
sociedad se mueve por un modelo único marcado en muchas ocasiones por el del
hombre blanco y de mediana edad.
Y uno de esos ejemplos fue que la limpieza de la nieve en la ciudad empezaba por
las calles principales para dejar en último lugar a las aceras, priorizando así una
movilidad más productiva en la que se utiliza un vehículo privado frente a las
personas que usan el transporte público, la bicicleta o van a pie, que es lo que hacen
mayoritariamente las mujeres, explica. “Y algorítmicamente en internet pasa lo
mismo”, apunta.
Como ejemplo pone los sistemas de reconocimiento facial, ya que los estudios han
demostrado que los algoritmos de aprendizaje automático pueden discriminar
según el género y la raza, ya que las primeras pruebas se hicieron con personas
blancas y fallan más con mujeres negras. También bajan su rendimiento en personas
trans, especialmente en el momento de transición, y no son capaces de clasificar a
personas no binarias.
Otro de los ejemplos de cómo la tecnología no es objetiva la encontraron en el
traductor de Google, ya que al hacer una traducción sin poner el sujeto, traduce
automáticamente que él es ingeniero y ella ama de casa. “En ese caso falla el
aprendizaje que hace de la información. A la inteligencia artificial, de algoritmos, le
tienes que dar información para que en base a ellas genere reglas y si en la mayoría
de libros que se publican, o en la mayoría de publicaciones online, o en las
traducciones que hacen mayoritariamente las personas aparece que él es ingeniero
y ella es ama de casa, pues eso es una regla que toma el algoritmo y en las
siguientes búsquedas lo muestra así”, agrega.
En este sentido, el traductor de Google ha hecho un camino intermedio en la
actualidad, ya que al realizar traducciones de frases sencillas muestra las dos
opciones, pero esto no sirve para textos largos y más elaborados, apunta. “Ahora se
está intentando identificar cuáles son esos sesgos que pueden ser de géneros, pero
aparecen también mezclados con raza, etnia y edad, hay muchas casuísticas”,
detalla.
Los algoritmos de aprendizaje automático establecen patrones tras procesar
grandes cantidades de datos. Son como estudiantes en un colegio, ya que aprenden
del libro de texto, información con la que se les entrena para que generen reglas de
inferencia, y del profesorado, quien decide qué temas entrarán en el examen y les
dice a sus estudiantes qué parámetros son importantes. Su limitación es que se
pueden cargar de sesgos en varios puntos y de varias maneras, explica.
“La primera casuística se da cuando la realidad de la que aprenden está ya llena de
prejuicios. La segunda, cuando les enseñamos solo una parte que no es
representativa, que hace que los algoritmos piensen que esa es la única realidad.
Otro punto de perversión se puede introducir durante la etapa de preparación de
datos y la selección de modelos, cuando se hacen las preguntas equivocadas o se
toman en consideración los parámetros erróneos”, asegura.
“Ahora estamos funcionando de manera muy reactiva, se ve el fallo y se corrige,
pero tenemos que cambiar el modelo de forma proactiva, es decir, que esta
perspectiva ética se incorpore en todo el proceso, desde el inicio”, apunta como
solución.
Otro de los ejemplos de cómo el modelo único impera en la sociedad es el de las
pruebas de los cinturones de seguridad en los vehículos. Los primeros ‘dummies’, los
muñecos con los que se probaban los impactos de un accidente, datan de 1949. El
equipo que desarrollaba ese proyecto era masculino y a nadie se le ocurrió que
detrás de un volante podía ir una mujer embarazada y el impacto que eso tenía en el
cinturón de seguridad, asegura.
Hasta 1996 no desarrollaron el primer muñeco embarazado y hasta ahora no hay un
modelo que represente el tamaño y la anatomía promedio del cuerpo femenino, ya
que el más utilizado por la industria mide 1,75 metros y pesa 75 kilos, explica. En la
Universidad de Virginia hicieron un estudio del impacto que tenía este hecho y
detectaron que las mujeres tenían un 73 por ciento más de probabilidades que los
hombres de sufrir una lesión grave en un choque frontal. “Siempre parece que
nosotras nos tenemos que ajustar a este mundo medido a la medida de los
hombres”, agrega.
Una tubería que gotea por varios puntos y que pierde científicas
Lorena Fernández trabaja también en potenciar la participación de niñas, jóvenes y
mujeres en carreras STEAM (acrónimo en inglés que comprende a los campos de
Ciencia, Tecnología, Ingeniería, Arte y Matemáticas) y asegura que ese modelo único
que impera en la sociedad también les afecta porque les genera una idea mental de
cómo tiene que ser una persona que trabaja en este tipo de titulaciones. “Vienen
con una mochila de estereotipos en edades en las que lo único que quieres es
encajar y pertenecer a un grupo, lo que hace es desanimarte y decirte no”, afirma.
“Las mujeres no llegan a las carreras tecnológicas. Es como una tubería que gotea y
por donde se nos ha escapado el talento femenino desde edades muy tempranas.
Las pocas que llegan tienen que enfrentarse a estar solas en el aula y en los
ambientes profesionales”, explica.
Y esa tubería tiene muchos agujeros y muy diversos en diferentes etapas vitales. “El
agujero más grande es el de la falta de referencias, ya que si no tienen espejos en
los que mirarse es difícil que se miren ahí, así que uno de los parches podría ser
generar esos referentes”, asegura. Ese parche podría ser incluso de ficción y pone
como ejemplo la serie ‘Gambito de dama’, que ha derivado en que muchas niñas
están ahora interesadas en el ajedrez. En tecnología también ha pasado, ya que en
Estados Unidos hicieron un estudio que detectó el efecto Scully, la protagonista de
la serie ‘Expediente X’, porque las mujeres de entre 30 y 40 años que trabajan ahora
en ciencias dijeron que había sido uno de sus referentes.
Otro de los agujeros es el de la confianza, la autoeficacia percibida que tienen las
niñas, que se creen menos inteligentes que los niños desde los 6 años. En esto
influye la familia y el profesorado, ya que cuando ellas sacan buenas notas se lo
atribuimos al esfuerzo y a ellos a que son brillantes, especifica. “Animemos a
nuestras niñas a que sean valientes y no perfectas, que no estén bajo el yugo de la
perfección, que no tengan miedo a equivocarse, porque esa es la base de la ciencia”,
concluye.
Trayectoria de Lorena Fernández
Lorena Fernández es Ingeniera informática, máster en seguridad de la información.
Actualmente es directora de comunicación digital de la Universidad de Deusto y
miembro del grupo experto de la Comisión Europea ‘H2020 Expert Group to update
and expand Gendered Innovations/Innovation through Gender’ para analizar el
impacto de no incorporar la perspectiva de género en la Inteligencia Artificial.
Además, colabora en el programa de radio ‘Hoy por Hoy Bilbao’ de la Cadena SER
desde 2009 con una sección sobre nuevas tecnologías. Es jurado del premio Ada
Byron a la mujer tecnóloga y mentora del proyecto Inspira STEAM, un proyecto que
busca el fomento de la vocación científico-tecnológica entre las niñas. También es
componente del colectivo Doce Miradas, gente con sueños que imagina una
sociedad diferente y reclama un espacio común para mujeres y hombres que sea
más justo y equilibrado (Premio Periodismo Vasco 2018 en la modalidad de
Periodismo Digital).
En 2016 publicó el libro ‘Filipinas. Tierra de tifones’, un proyecto colaborativo con 60
fotos y 60 relatos de diferentes personas que han querido aportar su granito de

arena para conseguir becas que cubran el transporte de niñas y niños de Filipinas.

Check Also

El Ayuntamiento de Guía dota a Ingenio Blanco de 50 nuevos puntos de luz

Esta actuación ha sido adjudicada por cerca de 80.000 euros y dotará a esta zona …

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies

ACEPTAR
Aviso de cookies