La ha desarrollado una joven de nacionalidad india. Se colocaba delante de una cámara para que el dispositivo pudiese grabar los movimientos de las manos, así pues, registraba los significados. Priyanjali Gupta, estudiante de ingeniería en el Instituto de Tecnología Vellore (India), ha utilizado la inteligencia artificial para que el lenguaje de signos se traduzca a inglés en tiempo real.
Para llevar a cabo la innovación, la estudiante empleó una base de datos que ha creado desde cero. Concretamente, ha estado delante de una cámara mientras hablaba en lenguaje de signos para que el dispositivo pudiese captar los movimientos de las manos, de esta manera, se reconocían los gestos para registrar los significados.De momento, el modelo de Gupta es capaz de traducir el lenguaje en fotogramas estáticos, teniendo en cuenta que para realizar un vídeo de una traducción completa sería necesario que la inteligencia artificial ampliase sus capacidades a través de un entrenamiento más profundo.
Gupta ha publicado en GitHub su trabajo, indicando traduce las palabras en inglés gracias a la API de detección de objetos de Tensorflow. Por ahora, los signos que reconoce son ‘hola’, ‘te quiero’, ‘gracias’, ‘por favor’, ‘sí’ y ‘no’.
El origen de la idea
La idea se originó porque la joven se comunicaba con el asistente de voz Alexa, además, la herramienta podría ofrecer una forma más intuitiva de comunicarse con las personas mudas o aquellos usuarios que tengan problemas de audición.
Para
seguir con el desarrollo, Gupta se inspiró en el trabajo del videógrafo
Nicholas Renotte, quién había creado una herramienta similar hace unos
años. El inconveniente que puede frenar a la joven es diferir la idea de
un país a otro, debido a que requiere un contexto para que el lenguaje pueda traducirse correctamente.
0 Comments:
Publicar un comentario