Todas las Noticias en Películas, Avances de Películas y Reseñas.

La línea de ayuda de salud mental corta vínculos con la atención al cliente de IA por el intercambio de datos

Cierta línea de ayuda de salud mental ya no se asociará con un servicio de atención al cliente de IA para compartir datos luego de críticas a su relación por información y conversaciones confidenciales.

Crisis Text Line pone fin a su relación con Loris.ai

Una plataforma de inteligencia artificial conversacional llamada Loris.ai prometió que su solución de chat impulsada por inteligencia artificial ayudaría a los representantes de servicio al cliente a responder de manera eficiente y efectiva a los clientes en función de su tono de voz.

Durante su asociación con Crisis Text Line, una línea de ayuda por mensajes de texto sobre salud mental, Loris.ai desarrolló sistemas de inteligencia artificial para ayudar a los agentes de servicio al cliente a comprender mejor el sentimiento en los chats a través de datos anónimos recopilados.

Pero en un declaración a la BBCla línea de ayuda de salud mental dijo que puso fin a su relación de intercambio de datos con Loris el 31 de enero y solicitó la eliminación de sus datos.

El vicepresidente de CTL, Shawn Rodríguez, también habló con la BBC y aclaró que Loris.ai no había accedido a ningún dato desde principios de 2020.

Además, Crisis Text Line dijo que habían escuchado quejas de la comunidad sobre la relación, y un miembro de la junta directiva de CTL tuiteó que se habían “equivocado” al aceptarla.

Hace poco tiempo, @CrisisTextLine También anunciamos que terminamos nuestro acuerdo de intercambio de datos con Loris: https://t.co/WBNTedlCTG Me equivoqué cuando acepté esta relación. (2/3)

-danah boyd (@zephoria) 1 de febrero de 2022

Estas preocupaciones planteadas por la comunidad siguieron después un informe de Politico citando la postura ética de recopilar datos confidenciales de una conversación con una línea directa de suicidio.

Recomendado:  Telegram 8.0 ya está disponible: transmisiones en vivo ilimitadas, reenvío flexible y más

En defensa, Loris.ai agregó que, utilizando la información obtenida del estudio de casi 200 millones de textos, los orígenes de la IA provienen de la propia Crisis Text Line, donde las conversaciones desafiantes son fundamentales.

Por otro lado, CTL garantiza además que todos los datos compartidos sean completamente anónimos y despojados de información de identificación. Ha sido transparente con sus usuarios sobre el intercambio de datos, hasta sus términos y condiciones.

El vicepresidente de CTL, Rodríguez, enfatiza que los datos y la inteligencia artificial siguen siendo parte integral de la asistencia de CTL a las personas que necesitan apoyo de salud mental después de 6,7 millones de conversaciones con personas.

La identificación de personas en riesgo se realizó utilizando datos y brindándoles ayuda lo más rápido posible, dijo.

“Y los datos se utilizan con éxito para reducir la intensidad de decenas de miles de personas que envían mensajes de texto en crisis y que experimentan ideas suicidas”, añadió Rodríguez.

Lea también: Maxence Bouygues explica cómo el equipo de atención al cliente utiliza el aprendizaje profundo para comprender su propio negocio

Las críticas de la asociación

Sin embargo, Politico habló con varios expertos que, en primer lugar, fueron muy críticos con dicha asociación. Uno cuestionó si las personas con problemas de salud mental podían dar su pleno consentimiento para compartir datos.

“CTL puede tener consentimiento legal, pero ¿tienen un consentimiento real, significativo, emocional y plenamente entendido?” Jennifer King, política de privacidad y datos del Instituto de Inteligencia Artificial de la Universidad de Stanford, dijo a Politico.

Y como se recuerda, la propia CTL también dejó en claro que al principio sentían que la asociación estaba mal, por lo que tomaron las medidas adecuadas para arreglar las cosas.

Recomendado:  Fecha de lanzamiento y todas sus novedades

En respuesta, CTL escribió en una declaración en su sitio web que escucharon los comentarios de la comunidad, y es alto y claro que cualquier persona en crisis debería poder entender a qué está dando su consentimiento cuando pide ayuda.

Lee el artículo: La próxima vez que llame al servicio de atención al cliente, es posible que esté hablando con un robot

Este artículo es propiedad de Tech Times.

Escrito por Thea Felicity

ⓒ 2023 . .

Etiquetas: