Todas las Noticias en Películas, Avances de Películas y Reseñas.

El organismo de control del Reino Unido dice que la tecnología de inteligencia artificial emocional es “inmadura”; Insta a los formuladores de políticas a regular la tecnología biométrica

Recientemente, el organismo de control de los derechos de la información del Reino Unido ha hecho varias afirmaciones contra el desarrollo de tecnologías de análisis de emociones. La Oficina del Comisionado de Información (ICO) advierte a las organizaciones que consideren los riesgos públicos de utilizar estas tecnologías antes de instituirlas en los sistemas.

Una tecnología ‘inmadura’

La autoridad del Reino Unido detalla cómo estas tecnologías ponen en peligro a las personas vulnerables, lo que las llevó a investigar a las organizaciones que no cumplen con los estándares de las ICO.

¿Cuál es la razón para esto? La tecnología de reconocimiento emocional (ERT) es una industria en crecimiento que tiene como objetivo utilizar inteligencia artificial (IA) para detectar emociones a partir de expresiones faciales, pero también es controvertida y se pueden incorporar sesgos en el sistema, según expertos de la Universidad de Cambridge y UCL.

Las tecnologías de análisis emocional, como la ERT, examinan datos de fuentes como los latidos del corazón, el seguimiento de la mirada, el análisis de sentimientos, los movimientos faciales, el análisis de la marcha y la humedad de la piel. Independientemente de lo prometedora que parezca la tecnología biométrica y de cómo se utilice cada vez más, se dice que se utiliza sin la conocimiento de los usuarios o consentimiento.

En el caso de la IA que escanea las emociones, la ICO afirma que el análisis de las emociones depende de la recopilación, el almacenamiento y el procesamiento de una variedad de datos personales, “incluidas respuestas emocionales o de comportamiento subconscientes y, en algunos casos, datos de categorías especiales”. En comparación con las tecnologías biométricas más convencionales utilizadas para confirmar o identificar a una persona, este tipo de uso de datos es significativamente más riesgoso.

Recomendado:  donde depositarlo y hasta cuando

Las tecnologías de análisis de emociones, al igual que otras formas de inteligencia artificial y tecnologías biométricas, generan preocupaciones sobre el sesgo, la privacidad y la vigilancia masiva. Según ICO, la incapacidad de algoritmos que no han sido suficientemente desarrollados para detectar señales emocionales crea un riesgo de sesgo sistémico, inexactitud e incluso discriminación.

“Los avances en el mercado de la biometría y la inteligencia artificial de las emociones son inmaduros. Puede que no funcionen todavía, o incluso nunca”, dijo el comisionado adjunto de la ICO, Stephen Bonner. “Los únicos despliegues biométricos sostenibles serán aquellos que sean completamente funcionales, responsables y respaldados por la ciencia”, añade Bonner.

Tecnología y legislación biométrica

según TechCrunchla ICO puede sentirse obligada a realizar intervenciones más significativas en esta área porque los legisladores del Reino Unido realmente no están tomando la iniciativa de regular la tecnología biométrica.

Esto es particularmente cierto dado que los expertos han determinado que el país necesita urgentemente nuevas leyes para regular el uso de tecnologías biométricas y han instado al gobierno a introducir legislación primaria.

La ICO ha mencionado tomar medidas contra las empresas que intentan utilizar técnicas de recopilación de datos poco éticas o descuidadas para su beneficio. El objetivo es garantizar que la ICO esté preparada para abordar los problemas de privacidad que la innovación revolucionaria pueda generar y promover la innovación responsable.

“La ICO seguirá examinando el mercado, identificando a las partes interesadas que buscan crear o implementar estas tecnologías y explicando la importancia de mejorar la privacidad de los datos y el cumplimiento”, enfatiza Bonner.

El regulador emitirá directrices sobre cómo utilizar las tecnologías biométricas, como el reconocimiento de voz, facial y de huellas dactilares, en 2023, según El guardián.

Recomendado:  ¿Alguien sabe si haces clic en su Bitmoji?

ⓒ 2023 . .

Etiquetas: