Todas las Noticias en Películas, Avances de Películas y Reseñas.

Los modelos de IA podrían estar violando las leyes del derecho al olvido, advierten los investigadores

Las leyes del derecho al olvido (RTFB), también conocidas como leyes de derecho a la eliminación, son regulaciones de protección de datos que otorgan a las personas el derecho de solicitar la eliminación o eliminación de su información personal de las plataformas en línea y los resultados de los motores de búsqueda.

Estas leyes tienen como objetivo principal mejorar los derechos de privacidad de las personas y darles más control sobre sus datos personales en Internet. Con el rápido crecimiento de la tecnología de IA generativa, ahora aumentan las preocupaciones sobre su impacto potencial en la privacidad del usuario.

La Unidad de Negocios Data61 de la Agencia Nacional de Ciencias de Australia destacó recientemente una preocupación crucial: los modelos de lenguajes grandes (LLM) pueden violar las leyes RTBF existentes, informó Science X Network. reportado.

Derecho al olvido: leyes en la era de la IA

Dawen Zhang y seis colegas profundizan en las posibles consecuencias del uso generalizado de LLM en su artículo titulado “Derecho a ser olvidado en la era de los grandes modelos lingüísticos: implicaciones, desafíos y soluciones”.

En el centro de sus preocupaciones está la naturaleza única de los LLM en comparación con los motores de búsqueda tradicionales. Si bien las leyes RTBF se han centrado principalmente en los motores de búsqueda, los LLM no pueden pasarse por alto cuando se trata de regulaciones de privacidad.

Según Zhang, “los LLM almacenan y procesan información de una manera completamente diferente”, en contraste con los enfoques de indexación de los motores de búsqueda. Las fuentes de datos resaltaron aún más el alcance del problema utilizado para capacitar a los LLM.

Recomendado:  Usuarios de Facebook y Instagram en el Reino Unido puede comprar verificación

Un asombroso 60% de los datos de entrenamiento para modelos como ChatGPT-3 se obtiene de recursos públicos, y tanto OpenAI como Google han dependido en gran medida de las conversaciones de Reddit para reforzar sus LLM.

Las implicaciones de esta dependencia de datos públicos son significativas. Zhang advirtió que los LLM podrían terminar memorizando información personal, que podría aparecer sin darse cuenta en sus resultados.

Esto abre la puerta a posibles violaciones de la privacidad, ya que los casos de alucinaciones (la producción espontánea de información falsa) podrían conducir a la difusión de datos dañinos o incorrectos que ensombrecen a los usuarios privados.

Los investigadores dijeron que a la complejidad se suma la falta de transparencia que rodea a muchas fuentes de datos de IA generativa.

‘Desaprendizaje de la máquina’

Para abordar estas crecientes preocupaciones, los investigadores propusieron ampliar las leyes RTBF existentes para incluir los LLM. Abogan por desarrollar procesos que permitan eliminar datos personales de los LLM, como el “desaprendizaje automático” mediante la capacitación SISA (compartida, aislada, cortada y agregada) y la eliminación aproximada de datos.

En respuesta a la evolución del panorama, OpenAI ha dado recientemente un paso hacia la protección de la privacidad al aceptar solicitudes de eliminación de datos. Sin embargo, los investigadores enfatizan que se requieren medidas más integrales para garantizar que los derechos de privacidad estén salvaguardados en medio del rápido avance de la tecnología.

Zhang subrayó la importancia de preservar la privacidad como un derecho humano fundamental y afirmó que “el principio de privacidad no debe cambiarse y los derechos de las personas no deben verse comprometidos debido a los avances tecnológicos”.

Recomendado:  La primera Apple Store fuera de EE. UU. será demolida a finales de 2023

Los hallazgos del equipo de investigación fueron recientemente publicado en arXiv.

â“’ 2023 . .