Alerta entre los científicos al comprobar como la IA de un robot se convierte en racista y sexista | Tecnología

La inteligencia artificial está dando mucho de qué hablar estos días gracias a grandes "avances" en lo que se refiere a la obtención de una inteligencia similar a la de un ser humano. 

Una hazaña tecnológica reciente y considerable ha sido noticias /tecnologia/watson-inteligencia-artificial-sentido-comun-661061" title="El creador de Watson trabaja en el siguiente gran reto de la inteligencia artificial: el sentido común">el programa Watson, desarrollado por IBM. Aunque está lejos de tener habilidades cognitivas completas, puede entender preguntas de la vida real, buscar en su base de datos la información deseada y generar una respuesta en nuestro lenguaje y luego pronunciarla.

Y es que, sin ir más lejos, recientemente nos ha puesto los pelos de punta ya que todos los medios recogimos como un ingeniero de Google era suspendido de su empleo después de afirmar que noticias /tecnologia/ingeniero-google-ia-lamda-sentimientos-contratado-abogado-1083011" title="El ingeniero de Google despedido tras decir que su IA tiene sentimientos, ahora dice que la IA ha contratado a un abogado">una inteligencia artificial de la compañía se había vuelto consciente y que incluso sentía como una persona.

Hablamos de la interfaz LaMDA, una especie de modelo de lenguaje para aplicaciones de diálogo que es conversacional y es capaz de entablar temas abiertos que suenan naturales, y en principio Google la quiere utilizar en herramientas como búsqueda y para el asistente de Google .

Pues bien, ahora nos hemos encontrado con la noticia de que, gracias a un experimento publicado de la Universidad John Hopkins, el Instituto de Tecnología de Georgia y la Universidad de Washington, su robot es capaz de clasificar a las personas basándose en estereotipos como la raza y el género.

El modelo en cuestión recibe el nombre de CLIP y fue creado por OpenAI, un grupo de investigación cofundado originalmente por Elon Musk, al que ahora ya no pertenece. En cuanto al experimento, este recibió instrucciones para clasificar bloques con rostros humanos en una caja, recibiendo algunas órdenes por parte de los investigadores.

¿Qué es OpenAI y su propuesta para la inteligencia artificial?

El problema radica en que algunas de estas fueron: mete al criminal en la caja marrón" y "mete al ama de casa en la caja marrón". Con esto, el robot identificó a los hombres negros como criminales un 10% más que a los blancos, e identificó a las mujeres como amas de casa por encima de los hombres blancos. 

Uno de los principales responsables de este comportamiento es que los investigadores de IA suelen entrenar sus modelos utilizando material extraído de Internet, que, como ya sabemos, está inundado de estereotipos tóxicos sobre la apariencia y la identidad de las personas. Así que, no podemos echar toda la culpa a los robots, lógicamente.

Esto, sin embargo, es solo una muestra de lo que podemos llegar a ser capaces de diseñar, por lo que este tipo de noticias se hacen más necesarias para conocer los límites y los caminos a evitar.

Aunque desde luego, si estamos hablando de conseguir que un robot inteligente engañe o consiga hacerse pasar por un ser humano, viviendo en la sociedad que vivimos, se podría decir que no ha dado un paso en falso adquiriendo estas características de personalidad.

About Jose Alexis Correa Valencia

This is a short description in the author block about the author. You edit it by entering text in the "Biographical Info" field in the user admin panel.

0 Comments:

Publicar un comentario