Todas las Noticias en Películas, Avances de Películas y Reseñas.

Mejora del Asistente de Google: ‘Mira y Habla’, más frases rápidas, reconocimiento mejorado del tono de piel y futuras novedades

Mejora del Asistente de Google: ‘Mira y Habla’, más frases rápidas, reconocimiento mejorado del tono de piel y futuras novedades

Recientemente estamos viendo una gran cantidad de mejoras en el Asistente de Google. Una de las mejores cosas a destacar es el oficial de la compañía. anuncio de la nueva función de la aplicación de software llamada “Mira y habla” durante su discurso de apertura de Google I/O. No obstante, también hay otros detalles que vale la pena mencionar y apreciar, especialmente si dependes mucho del Asistente en tus actividades diarias. Entre ellas se encuentran la mejora de Google Assitant en cuanto al reconocimiento de tonos de piel y la ampliación de su biblioteca de frases rápidas.

Recientemente, la nueva función Mirar y hablar introducida por Google se está implementando ampliamente para todos los usuarios de Nest Hub Max en los EE. UU. La idea principal detrás de esto es simple: hacer que las interacciones de los usuarios con el dispositivo sean más sencillas y, sobre todo, más naturales. Esto simplifica la entrega de comandos a Google Assitant al eliminar la frase clave “Hola Google” cada vez que una persona necesita activar Nest Hub Max. La función funciona mediante la coordinación de diferentes tecnologías integradas por Google. Específicamente, Look and Talk utiliza las capacidades Face Match y Voice Match del sistema, ayudándolo a determinar cuándo responder.

Al utilizar la función Mirar y hablar, el usuario solo necesita pararse a no más de 5 pies de distancia del Nest Hub Max, mirar y dar órdenes al Asistente de Google. “Digamos que necesito arreglar el fregadero de mi cocina que gotea”, dice la vicepresidenta asistente de Google, Sissie Hsiao, tratando de explicar cómo funciona Look and Talk en la publicación del blog. “Cuando entro en la habitación, puedo simplemente mirar mi Nest Hub Max y decir ‘Mostrar fontaneros cerca de mí’, sin tener que decir ‘Ok Google’ primero”.

Recomendado:  Meta multado con $ 1.3 mil millones por violar las pautas de privacidad de datos de la UE

Hsiao también agrega que el video de las interacciones que analiza el Asistente se “procesa completamente en el dispositivo”, lo que garantiza que sus datos no se compartan con Google ni con ninguna otra aplicación de terceros. Hsiao también enfatiza que la nueva función respeta la privacidad, por lo que tienes la opción de activarla o desactivarla en cualquier momento. Inicialmente está desactivado y debes activarlo a través de la aplicación Google Home. Simplemente vaya a la configuración del dispositivo Nest Hub Max, luego a “Reconocimiento y uso compartido”, luego al menú “Face match” y active la configuración.

“Hay muchas cosas que suceden detrás de escena para reconocer si realmente estás haciendo contacto visual con tu dispositivo en lugar de simplemente darle una mirada de pasada”, señala Hsiao. “De hecho, se necesitan seis modelos de aprendizaje automático para procesar más de 100 señales tanto de la cámara como del micrófono, como proximidad, orientación de la cabeza, dirección de la mirada, movimiento de los labios, conciencia del contexto y clasificación de la intención, todo en tiempo real”.

Por otro lado, dado que Look and Talk funciona a través de Face Match, es importante señalar que Google se aseguró de hacerlo efectivo para una diversidad de usuarios al incluir la tecnología Real Tone que lanzó el año pasado. Esto permite que la cámara Nest Hub Max funcione de manera eficiente en diferentes tonos de piel. Además, la compañía promete ir más allá utilizando la “Escala de tono de piel de monje” para ayudar a la máquina a comprender las imágenes de manera más eficiente.

Recomendado:  una fusión entre Elden Ring y Genshin Impact que luce increíble

Además, con la esperanza de disminuir la necesidad de decir más la frase clave “Hola Google”, Google también incluye más frases rápidas en Nest Hub Max. Esto simplifica las cosas para los usuarios sin tener que mirar fijamente la cámara del dispositivo o pararse frente a ella. Al igual que Look and Talk, Voice Match que gestiona el trabajo de frases rápidas también se puede activar y desactivar.

Si bien las mejoras reveladas por Google hacen que el Asistente sea más satisfactorio esta vez, Google dice que todavía tiene más planes para el software en el futuro. Incluye brindarle mejores modelos de habla y lenguaje para “comprender los matices del habla humana”. A partir de ahora, la compañía está trabajando en un chip Tensor diseñado a medida para permitir que el Asistente maneje tareas de aprendizaje automático en el dispositivo de la manera más rápida posible. Una vez que tenga éxito, Google dice que esta tecnología prometedora ayudará al Asistente a comprender mejor el habla humana incluso con la presencia de muletillas innecesarias (como “uhm” o “ahh”) y pausas cuando alguien está hablando.