Cerco a los algoritmos machistas, la cara B de la inteligencia artificial
- julio 24, 2022
Las brechas sociales del mundo analógico también se digitalizan de la mano de la inteligencia artificial (IA), dado que esta tecnología, a menudo, opera con datos sesgados en cuestiones de género, y la solución para depurarlos pasa, según expertas consultadas por EFE, por mejorar el funcionamiento de la propia IA y hacerlo, incluso, vía imperativo legal.
De hecho, la investigadora de la Universidad de Harvard Aleksandra Przegalinska se muestra convencida de que, una vez indaguen a fondo sobre la inteligencia artificial, los poderes públicos «verán inmediatamente que -tal vez- junto a su potencial puede venir un cierto abuso de poder».
En este sentido, celebra la ley pionera que ha propuesto la Comisión Europea, ya que «contempla la IA desde la perspectiva del riesgo», según dijo la profesora en una entrevista concedida tras participar en la Escuela de Liderazgo Femenino que organiza la compañía tecnológica china Huawei, y que ha reunido esta semana en Praga a jóvenes talentos de toda Europa.
«Hay esperanza asociada a la IA, y eso deberíamos destacarlo. Pero también hay un riesgo asociado a la inteligencia artificial, o más bien al mal uso de la inteligencia artificial. Y creo que es bueno que tengamos esta regulación», asegura.
La normativa que prepara Bruselas contempla desde los usos de la IA que conllevan un riesgo ‘bajo’ hasta los que llevan implícito un riesgo ‘alto’, un criterio que, según Przegalinska, varía en función del «impacto en la vida humana» que tenga esta tecnología a la hora de aplicarse.
«Pensemos en un área como la previsión del tiempo. No es algo que vaya a perjudicar a alguien si simplemente le dices que va a llover. Es un problema menor comparado con una situación en la que un algoritmo sesgado afirma que tienes una enfermedad que en realidad no tienes, o donde un algoritmo muy complejo te dice que no puedes obtener un préstamo y no sabes por qué», plantea.
Las mujeres, las más perjudicadas
En estas situaciones que expone Przegalinska, las mujeres son, con frecuencia, las personas más afectadas, dado que sus parámetros están infrarrepresentados en las bases de datos con las que operan los algoritmos, y que son, pues, una correa de transmisión de las discriminaciones reales que la mujer sufre en el mundo analógico.
«La tecnología no es el problema; sino la gente. Hay un dicho en el mundo de la IA que dice: ‘basura fuera, basura dentro’. Entonces, si los datos están sesgados, por supuesto que habrá también un sesgo en el sistema», asevera la jefa del área de ciencias cognitivas de la Universidad de Tillburg, Maria Postma, que también habló con EFE durante su estancia en el evento.
En este sentido, la profesora recuerda que la IA es un intento de «crear una versión artificial de la inteligencia humana» para usarse, por ejemplo, en la traducción simultánea de idiomas o la conducción autónoma de vehículos, de modo que la idea de base fue, según ella, «crear una especie de simulación de cerebro humano».
Para realizar las tareas asignadas por los humanos, la IA se nutre de bases de datos y a partir de esta información genera, a su vez, algoritmos con modelos matemáticos que guían sus acciones.
«Pongamos que en una base de datos hay información basada en las decisiones que se han tomado en el pasado sobre los perfiles de los candidatos a un empleo. Y, en el pasado, se tomaban muchas decisiones con un sesgo de género, y candidatas mujeres no eran seleccionadas para un puesto determinado», expone como ejemplo.
Y prosigue: «Si el sistema trabaja con esta información, entonces va a usar el género como una variable en su proceso de toma de decisión, porque la IA pensará que, si excluye a las mujeres, llegará a la misma decisión que los humanos hicieron en el pasado», alerta.
Sin embargo, tanto Postma como Przegalinska reivindican la existencia de soluciones para detener esta espiral de sesgo y que pasan o bien por «excluir la variable género» del sistema, según dice Postma, o bien por «estropear a propósito» el modelo matemático de la IA, propone Przegalinska, desordenando y mezclando los datos, a fin de «aumentar la aleatoriedad» de los algoritmos.
Investigadoras en IA
Con todo, para la directora de la Escuela de Liderazgo Femenino, la española Berta Herrero, el ámbito de trabajo de estas dos expertas, que han impartido conferencias a las 29 estudiantes de la academia de jóvenes talentos, refleja que aún «hacen falta especialistas en ética» en el campo de la IA.
«Gente, por ejemplo, proveniente del mundo de la filosofía, que sepa dónde están los sesgos, esas barreras que están impidiendo que el mundo digital se desarrolle de manera igualitaria«, comenta a EFE.
La representante española en la Escuela, Maitane González, acaba de graduarse en Derecho y, desde su perspectiva de jurista, se muestra partidaria de «regular con anterioridad» nuevas tecnologías como la IA. «Si simplemente nos vamos adaptando a lo que se va innovando, lo que vamos a tener son un montón de consecuencias negativas ya presentes en la sociedad. Por eso tenemos que regular antes para poder prevenirlas», sostiene esta bilbaína de 22 años. EFE
Bruno Fortea Miras
About Jose Alexis Correa Valencia
0 Comments:
Publicar un comentario