Según el director ejecutivo de OpenAI, Sam Altman, la empresa ya no utilizará los datos de los clientes de pago para entrenar sus modelos de IA en lenguajes grandes, incluido GPT.
Altman reveló en una entrevista con CNBC el viernes que OpenAI no había utilizado datos de clientes para entrenar sus modelos de IA durante algún tiempo, ya que los clientes habían expresado preocupaciones sobre la privacidad y la protección de datos.
Preocupaciones sobre la privacidad
OpenAI actualizó silenciosamente sus términos de servicio el 1 de marzo para reflejar este cambio. Sin embargo, los términos de uso actualizados de la compañía señalan que pueden usar contenido de servicios distintos a su API, que podría incluir texto que los empleados ingresan en el popular chatbot ChatGPT.
Los expertos ya han expresado su preocupación por el uso de chatbots de IA y han advertido a los usuarios sobre lo que comparten con estas herramientas.
Afirman que los chatbots de IA pueden recopilar grandes cantidades de datos para publicidad dirigida. Ali Vaziri, director legal del equipo de datos y privacidad del bufete de abogados Lewis Silkin, dijo que las capacidades humanas de las herramientas de inteligencia artificial pueden desarmar a los usuarios.
La Casa Blanca aborda los riesgos de la IA
El auge de herramientas de inteligencia artificial como ChatGPT ha generado preocupaciones en varios campos, particularmente sobre cómo podría afectar el empleo, la seguridad y la privacidad.
Esto ha llevado a funcionarios de la Casa Blanca y a la vicepresidenta Kamala Harris a reunirse el viernes con directores ejecutivos de cuatro empresas tecnológicas líderes, incluida OpenAI, para discutir los riesgos asociados con la IA.
La primera área clave discutida fue la transparencia. Es esencial garantizar que las personas comprendan cómo funcionan los sistemas de inteligencia artificial y cómo se utilizan. La segunda área fue la capacidad de evaluar y verificar la seguridad y eficacia de los sistemas de IA.
Esto subraya que es necesario establecer estándares para evaluar los sistemas de IA, como auditorías, pruebas y procesos de certificación. La tercera área discutida fue la necesidad de que los sistemas de IA estén a salvo de ataques y actores maliciosos.
Los directores ejecutivos se comprometieron a colaborar con la administración para garantizar que el pueblo estadounidense pueda beneficiarse de la innovación en inteligencia artificial mientras se protegen su seguridad y sus derechos.
La Casa Blanca también emitió un comunicado en el que se describen acciones adicionales destinadas a promover la innovación responsable y la mitigación de riesgos en la IA. Estas acciones incluyen el Plan para una Declaración de Derechos de la IA, acciones ejecutivas, el Marco de gestión de riesgos de la IA y un plan para establecer un recurso nacional de investigación de la IA.
La decisión de OpenAI de no utilizar los datos de los clientes para entrenar sus modelos de IA es un paso en la dirección correcta hacia la privacidad y protección de los datos. Sin embargo, el uso de texto de servicios como ChatGPT sigue siendo una preocupación para algunos.
La reunión entre funcionarios de la Casa Blanca y directores ejecutivos de empresas de tecnología también muestra la importancia de abordar los riesgos potenciales asociados con la IA y al mismo tiempo promover la innovación.
ⓒ 2023 . .