Todas las Noticias en Películas, Avances de Películas y Reseñas.

Italia quiere bloquear ChatGPT de OpenAI: ¿por qué?

La Autoridad Italiana de Protección de Datos, Guarante, ha emitido una orden a OpenAI para que deje de procesar datos personales utilizando su modelo ChatGPT, según un informe de TechCrunch.

Reglamento General de Protección de Datos

A la autoridad le preocupa que la empresa con sede en San Francisco esté infringiendo el Reglamento General de Protección de Datos (GDPR) de la Unión Europea y haya procesado ilegalmente datos de personas. Le ha dado a OpenAI 20 días para responder a la orden o enfrentar fuertes multas.

El RGPD se aplica a cualquier usuario de la Unión Europea cuyos datos personales sean tratados. El modelo ChatGPT de OpenAI, que puede producir biografías de personas identificadas en la región bajo demanda, ha estado procesando este tipo de información y no está claro cómo la gente puede pedirle a la empresa que corrija información errónea.

El regulador italiano también está preocupado por la falta de un sistema que impida que los menores accedan a la tecnología.

Según TechCrunch, como OpenAI no tiene presencia legal en la UE, cualquier organismo de protección de datos tiene la capacidad de tomar medidas según el RGPD si identifica amenazas a los consumidores locales.

El comunicado de Guarante también hace referencia a una filtración de datos que tuvo el servicio a principios de este mes. OpenAI reconoció que una función de historial de conversaciones puede haber comprometido la información financiera de algunos clientes además de filtrar los chats de los usuarios.

Los modelos anteriores se entrenaron utilizando datos tomados de Internet, incluidos foros como Reddit, pero OpenAI se ha mostrado reacio a revelar detalles sobre los datos de entrenamiento utilizados para su generación más reciente de tecnología, GPT-4.

Recomendado:  ¿Para qué se utiliza Python? Una guía para principiantes sobre el desarrollo de Python

El RGPD permite una variedad de escenarios, desde el permiso hasta el interés público, pero el volumen de datos requerido para entrenar grandes modelos lingüísticos hace que la cuestión de la legalidad sea más desafiante. Como mínimo, no parece que OpenAI les haya dicho a las personas cuyos datos utilizó para entrenar sus IA comerciales.

Cuestión de legalidad

Está en discusión la cuestión de la legalidad de este procesamiento, o la base legal sobre la cual OpenAI procesó los datos de los europeos. Las autoridades de protección de datos pueden solicitar que OpenAI elimine cualquier información personal que haya procesado incorrectamente en relación con los europeos.

Sin embargo, no está claro si eso requeriría que la empresa vuelva a entrenar modelos creados con datos obtenidos ilegalmente.

Dado que OpenAI no disuade activamente a los niños menores de 13 años de registrarse para utilizar el chatbot, a la autoridad italiana también le preocupa la posibilidad de que la empresa procese datos de menores.

La agencia ha estado persiguiendo agresivamente los peligros para los datos de los niños en los últimos años, y recientemente impuso una prohibición similar a Replika, un chatbot de IA para amistades virtuales, debido a preocupaciones sobre la seguridad de los niños.

ⓒ 2023 . .

Tabla de Contenido