Los usuarios de Google Docs critican duramente los algoritmos de IA utilizados para la escritura asistida | Tecnología

Una vez que los modelos de lenguajes están integrados en algunas apps, Google Docs está sumando nuevas funciones de escritura asistida para ayudar a los usuarios a escribir más rápido y mejor. 

Y es que, más allá de las correcciones gramaticales y ortográficas, veremos sugerencias para mejorar el estilo de nuestra escritura a medida que redactamos el texto.

La escritura asistida se está introduciendo para los usuarios de las empresa básicamente, y la función está activada por defecto. El problema reside en que no todo el mundo está siendo partidario de ser guiado por el algoritmo, y algunas personas encuentran irritante su capacidad de lenguaje inclusivo absurdo.

Algunos ejemplos que encontramos es que palabras como "policías" pueden hacer que el modelo sugiera que se cambie por algo más neutral como "agentes de policía". Otro caso es el del cambio de  "casero" por "propietario" o "dueño" o la eliminación automática de palabras malsonantes.

Pese a que este nuevo sistema es positivo para mejorar la escritura, ¿hasta qué punto realmente cumple esta función y no perjudica más que mejorar? 

Existe un problema de base y es que, la escritura asistida utiliza modelos de comprensión del lenguaje, que se basan en millones de frases y oraciones comunes para aprender automáticamente cómo se comunica la gente. Sin embargo, esto también significa que pueden noticias /life/estos-sesgos-cognitivos-te-impiden-ver-realidad-692795" title="Estos sesgos cognitivos te impiden ver la realidad">reflejar algunos sesgos cognitivos humanos.

Con esto queremos decir que mientras los expertos se esfuerzan por crear un sistema inteligente perfecto, la imparcialidad en los modelos de aprendizaje automático está demostrando ser algo complicado de medir y mejorar.

Tratar de arreglar la equidad es difícil, no sólo porque la gente no se pone de acuerdo sobre lo que significa el término, sino porque las soluciones para una aplicación pueden no ser adecuadas para otra.

"Tenemos algunos problemas. Tenemos que resolver la ética. Tenemos que asegurarnos de que los errores del pasado no se repitan. Tenemos que entender la ciencia de la vida de la IA. De lo contrario, vamos a crear un monstruo. Soy muy optimista y creo que, si prestamos atención, podremos resolver todas esas cuestiones", afirma el director general de IBM, Arvind Krishna

About Jose Alexis Correa Valencia

This is a short description in the author block about the author. You edit it by entering text in the "Biographical Info" field in the user admin panel.

0 Comments:

Publicar un comentario