Todas las Noticias en Películas, Avances de Películas y Reseñas.

El socio de Apple reportado AC Global Risk criticado por la tecnología de ‘análisis de riesgo de voz’

Se han vertido grandes dudas sobre el trabajo de AC Global Risk, una firma que produce software que analiza el riesgo que representa un individuo en función de su voz. La intercepción habló con varios expertos que plantearon preocupaciones tecnológicas y éticas sobre la empresa. La compañía ha afirmado anteriormente que Apple es uno de sus clientes clave; También se cree que Facebook y Google tienen una relación con AC Global Risk.

Juzgar si una persona es un riesgo, según su voz

AC Global Risk afirma producir un producto que establece el nivel de riesgo asociado con una persona al analizar cómo habla.

El informe sobre La intercepción explicado:

Los clientes de AC Global Risk ayudan a desarrollar preguntas automatizadas para entrevistas de sí o no. El grupo de personas seleccionadas para una selección determinada responde a estas sencillas preguntas en su idioma nativo durante una entrevista de 10 minutos que se puede realizar por teléfono. Luego, la RRA mide las características de su voz para producir un informe de evaluación que califica a cada individuo en un espectro de bajo a alto riesgo.

AC Global Risk ha dicho que Apple es uno de sus principales clientes tecnológicos. En julio, el director ejecutivo de la empresa, Alex Martin, realizó una entrevista con Bloomberg. El presentador citó a Facebook, Palantir y Apple como clientes de la empresa de Martin, una afirmación que no rechazó. En cambio, Martin dijo: “Ayudamos a las empresas a evaluar a las personas que se encuentran en el espacio de seguridad para ellas”.

Dicho esto, Apple no ha dicho públicamente cómo, o incluso si, utilizó el software AC Global Risk.

Recomendado:  3 formas de calcular potencias/cuadrados en Excel para principiantes

Tecnología “falsa”

Una investigación de La intercepción ha vertido dudas sobre las afirmaciones de AC Global Risk. Habló con varios académicos que destacaron los problemas y riesgos de la tecnología. Algunos expertos que analizaron materiales asociados con el proyecto utilizaron palabras como “falso” para describir su trabajo.

Alex Todorov, psicólogo de la Universidad de Princeton que estudia la ciencia de la percepción social y las primeras impresiones, dijo La intercepción:

Hay algo de información en cambios dinámicos en la voz y la están detectando. Esto es perfectamente plausible. “Pero la pregunta es, ¿qué tan inequívoca es esta información para detectar la categoría de personas que han definido como riesgosas? Siempre hay ambigüedad en este tipo de señales “.

Björn Schuller, profesor de la Universidad de Augsburg, destacó las preocupaciones éticas. Dijo que “desde un punto de vista ético, es muy dudoso y sombrío dar la impresión de que reconocer el engaño solo de la voz se puede hacer con precisión”.