Miradas que lo dicen todo o cómo Google quiere que actives su asistente sin siquiera decir OK Google | Tecnología

Como ya todos conocemos, los asistentes ya sean de Google o Amazon inician el proceso de reconocimiento y respuesta con determinadas palabras de activación. Según afirma Google , este proceso no es igual entre los seres humanos por lo que está buscando la manera de que esto se replique en sus dispositivos.

En el Google I/O 2022 la compañía anunció una novedad relativa a estas situaciones a la llamaron Look and Talk, que tiene como objetivo simplificar la comunicación con noticias /tecnologia/asistente-google-ahora-entendera-mejor-forma-hablar-1068333" title="El Asistente de Google ahora entenderá mejor tu forma de hablar">el Asistente de Google hasta niveles en los que, con miradas, ya puedas comenzar a interactuar con el asistente.

Contemplan la idea de que una vez que te encuentres a menos de 1,5 metros del dispositivo, el usuario pueda simplemente mirar a la pantalla y hablar para que todo de comienzo. Todo esto estará basado en ocho modelos de aprendizaje automático juntos en el que el hasta que el algoritmo pueda diferenciar las interacciones intencionales de las miradas.

Os dejamos un vídeo del propio Google para que podáis ver cómo funcionaría.

Look and Talk - Google

"Hemos desarrollado Look and Talk de acuerdo con nuestros principios de IA.Cumple con nuestros estrictos requisitos de procesamiento de audio y vídeo, y al igual que nuestras otras funciones de detección de cámaras, el vídeo nunca sale del dispositivo", explican en su blog, en el que obtendrás más información.

La interacción de Look and Talk se basa tres fases. En la primera, el asistente utiliza señales visuales para detectar cuándo un usuario está demostrando su intención de interactuar con él y, a continuación despierta como ahora hace con la palabra de activación "Oye Google " u "OK Google ".

Después, valida y comprende la intención del usuario mediante señales visuales y acústicas, es decir, estudia que realmente esa mirada sea intencionada. Estas dos fases constituyen el núcleo de la funcionalidad de Look and Talk, ya que la tercera, por el momento, no ha sido comentada.

La función ya ha sido probada con 3.000 participantes con los que han ido mejorando el proceso de reconocimiento. "Aunque se trata de un hito clave en nuestro camino, esperamos que esta sea la primera de muchas mejoras en nuestros paradigmas de interacción que seguirán reimaginando la experiencia del Asistente de Google de forma responsable", finalizan.

About Jose Alexis Correa Valencia

This is a short description in the author block about the author. You edit it by entering text in the "Biographical Info" field in the user admin panel.

0 Comments:

Publicar un comentario