Todas las Noticias en Películas, Avances de Películas y Reseñas.

Apple se asocia para mejorar los sistemas de reconocimiento de voz para usuarios discapacitados

Si bien el asistente de voz de Apple, Siri, todavía es ridiculizado por escuchar mal las solicitudes, se ha vuelto mucho más preciso con los años. Un nuevo proyecto pretende mejorar aún más la funcionalidad. La Universidad de Illinois Urbana – Champaign (UIUC) está trabajando en el Proyecto de Accesibilidad del Habla junto con Apple y otros para mejorar los sistemas de reconocimiento de voz para usuarios discapacitados.

Proyecto de accesibilidad del habla de UIUC

El objetivo del proyecto es ampliar cuántos patrones de habla Los sistemas de reconocimiento de voz pueden entender. Actualmente, las personas con impedimentos y discapacidades del habla tienden a tener más dificultades con Siri y otros asistentes de voz similares que el público en general.

En particular, el Proyecto de Accesibilidad del Habla se centra en mejorar los sistemas de reconocimiento de voz para personas con un puñado de enfermedades y discapacidades. Entre ellas se incluyen la enfermedad de Lou Gehrig (esclerosis lateral amiotrófica), la enfermedad de Parkinson, la parálisis cerebral y el síndrome de Down.

Estas personas, con mucha frecuencia, simplemente no pueden beneficiarse de las herramientas de reconocimiento de voz y asistentes de voz actuales. Por mucho que las herramientas hayan mejorado, sus algoritmos siguen siendo incapaces de interpretar los patrones del habla que causan estas enfermedades, dolencias y discapacidades.

La idea es que los sistemas de reconocimiento de voz podrían mejorar drásticamente la calidad de vida de estos usuarios, especialmente cuando también experimentan problemas de movilidad. Se están recopilando muestras de datos de personas “que representan una diversidad de patrones de habla” para crear un conjunto de datos privado y anónimo.

Recomendado:  Amazon destroza el precio de la cafetera de gama alta estrella de su web y desafía al LIDL

Apple se une a otros gigantes tecnológicos para ayudar a UIUC a mejorar los sistemas de reconocimiento de voz

Apple, Amazon, Google, Meta y Microsoft se han asociado con UIUC en el proyecto. También lo han hecho varias organizaciones sin fines de lucro. Comenzando con el inglés americano, los grupos esperan utilizar el conjunto de datos para entrenar modelos de aprendizaje automático. El objetivo aquí es ayudar a los modelos a afrontar mejor los diferentes patrones de habla, impedimentos y discapacidades.

Conseguir que tantos gigantes tecnológicos se unan al proyecto sólo puede ayudar. Cada uno tiene su propio asistente virtual o funciones de reconocimiento de voz. Integrar el estudio con todas sus herramientas podría acelerar el desarrollo. Como mínimo, proporcionará más recursos y evitará la duplicación de esfuerzos.

Mark Hasegawa-Johnson, profesor de ingeniería eléctrica e informática de la UIUC que lidera el proyecto, señaló la importancia del trabajo.

El proyecto también incluye a Heejin Kim, profesora investigadora en lingüística. También estará presente el profesor clínico de ciencias del habla y la audición Clarion Mendes. Mendes también es logopeda. Los miembros del personal del Instituto Beckman de Ciencia y Tecnología Avanzadas de la UIUC, incluidos profesionales de TI, también están ayudando en el proyecto.