Todas las Noticias en Películas, Avances de Películas y Reseñas.

El fiasco de Samsung ChatGPT destaca los problemas generativos de privacidad de la IA

Una palabra pronunciada ya no se recuerda. Este adagio ahora suena más que cierto para tres Samsung empleados, que sin darse cuenta filtraron el código fuente, una secuencia de prueba y discusiones internas de la empresa a OpenAI, una empresa detrás de ChatGPT.

Según The Economist Corea, Samsung desconfiaba al principio de adoptar el chatbot impulsado por IA, por temor a que pudiera filtrar su información interna, como secretos comerciales al mundo (si tan solo lo supieran). Sin embargo, mientras ChatGPT estaba arrasando en todo el mundo, Samsung decidió unirse a la fiesta y dio luz verde a su uso en el lugar de trabajo para que los empleados pudieran estar al tanto de los cambios tecnológicos. En ese momento, la compañía emitió un aviso a aquellos que planeaban usar ChatGPT para “prestar atención a la seguridad de la información interna y no ingresar información privada” al alimentar al asistente de IA con cualquier indicación.

Aparentemente, el mensaje cayó en oídos sordos, ya que en el lapso de los próximos 20 días, no uno, sino tres ingenieros de la compañía revelaron lo que parecían ser datos corporativos confidenciales de Samsung, lo que podría brindar a OpenAI y a sus competidores información sobre su tecnología.

En el primer caso, un empleado de Samsung encontró un error en el código fuente del programa de descarga de la base de datos de medición de la planta de semiconductores y pidió una solución a ChatGPT. En el segundo caso, un empleado estaba usando ChatGPT para optimizar la secuencia de prueba de un programa que identifica el rendimiento y los chips defectuosos. En el tercer caso, un empleado primero grabó la reunión interna de la empresa en su teléfono inteligente, luego la transcribió usando una aplicación de reconocimiento de voz y la envió a ChatGPT para generar actas de reunión. Los tres ahora enfrentan investigaciones disciplinarias.

Recomendado:  Revisión | The Last Guardian – Temporada 2 (Netflix original)

Puede esperar que Samsung prohíba ChatGPT inmediatamente después de las filtraciones, pero eso no fue lo que sucedió. En cambio, Samsung buscó educar a sus empleados sobre los riesgos de privacidad de la IA, diciéndoles que cualquier cosa que le digan a ChatGPT terminará en los servidores externos de OpenAI. Eso significa que una vez que derrame los frijoles, no hay vuelta atrás, no hay forma de recuperar estos datos. Samsung también ha puesto un límite a la cantidad de datos que cada empleado puede cargar en ChatGPT, y advirtió que si alguien vuelve a dejar pasar algo, desconectará el uso de ChatGPT para siempre.

Una vez que le dices algo a ChatGPT, no puedes dejar de decirlo.

Samsung no es la primera, sino la última víctima de la tendencia de sus empleados a discutir asuntos delicados con el chatbot de OpenAI. Otras empresas también están aprendiendo sobre la marcha.

Amazonas restringió el uso de ChatGPT ya en enero, advirtiendo a los empleados que no ingresen información confidencial, como un código, en el chatbot después de que la empresa Salida detectada que “muy parecido” datos internos de Amazon en las respuestas de ChatGPT. Otro gigante minorista estadounidense, walmartinicialmente había bloqueado ChatGPT después de detectar actividad que “presentaba un riesgo para la empresa”, pero despues lo abrió para su uso y emitió un conjunto de directricesincluyendo que los empleados deben “evite ingresar cualquier información sensible, confidencial o de propiedad exclusiva”.

Una serie de empresas de servicios financieros han prohibido por completo ChatGPT en el lugar de trabajo. Banco de America agregó ChatGPT a su lista de aplicaciones no autorizadas no permitidas para uso comercial. Otras entidades financieras que han bloqueado el acceso al chatbot incluir JPMorgan Chase, Citigroup Inc, Goldman Sachs, Deutsche Bank y Wells Fargo. Este último le dijo a Bloomberg que la línea con las restricciones estándar de software de terceros, y que “continuar evaluando formas seguras y efectivas” para usar la tecnología.

Recomendado:  Especificaciones del iPhone 15 Ultra: todo lo conocido más precio potencial y fecha de lanzamiento revelados

La industria bancaria ha sido la más proactiva en responder a los riesgos planteados por ChatGPT, y es comprensible que así sea: los bancos manejan montones de información confidencial de los clientes y están fuertemente regulados. Pero los mismos riesgos se aplican a todas las industrias. Una vez que proporcione al chatbot una pieza de información, ya sea un fragmento de código patentado o una transcripción de una reunión de la junta, ya no debe considerarlo un secreto, sino parte del dominio público.

Los términos de servicio de OpenAI sugieren que no debe esperar ninguna privacidad al interactuar con el chatbot, y le da la responsabilidad de no dejar que el gato salga de la bolsa. Por ejemplo, OpenAI dice que puede ver y usar sus conversaciones con ChatGPT para entrenar la IA y que no podrá ayudarlo a eliminar indicaciones específicas de su historial de chat.

Eso significa que si le dice a ChatGPT información confidencial sobre usted o su empresa, otra persona puede potencialmente solicitar a ChatGPT esos datos y obtenerlos. En el caso de Samsung, sus competidores pueden intentar interrogar al chatbot sobre la información que los empleados filtraron.

OpenAI ofrece la opción de optar por que sus datos no se utilicen para capacitación: para eso necesitarás llenar un formulario especial. Sin embargo, si ya ha compartido algunos datos con ChatGPT que lamenta compartir, puede que sea demasiado tarde para eso. Es posible que desee considerar eliminar su cuenta, ya que solo en ese caso se podría eliminar su historial de chat. OpenAI dice el proceso podría tardar hasta 30 díasy no podrá restaurar su cuenta después de que desaparezca.

Recomendado:  "Arquitecto de la prisión - Psych Ward: Wardens Edition" revelado en PDXCON

Pero qué sucede después de eso es una gran pregunta, ya que los usuarios generalmente desconocen cómo se usó su información para entrenar el algoritmo y no tienen forma de verificar que se eliminó. Si bien es teóricamente posible hacer que el sistema “desaprenda” los datos, es decir, olvide lo que ha aprendido, este proceso se considera inmensamente difícil, sobre todo porque requiere identificar el impacto de puntos de datos específicos en un modelo entrenado. mientras ha habido investigación sobre el llamado “desaprendizaje” de las máquinas en medio de las crecientes preocupaciones sobre las implicaciones de seguridad y privacidad de la IA generativa, es el área que necesita más trabajo. El enfoque predominante parece ser volver a entrenar todo el modelo desde cero, lo que es inviable en la práctica.

Por lo tanto, si no podemos estar seguros de que la información que alimentamos a ChatGPT haya desaparecido para siempre, incluso después de haber ejercido todas nuestras opciones de privacidad hasta pedir que se elimine, entonces probablemente sea mejor no confiar en los ayudantes de IA con su o los secretos más íntimos de su empresa. Quién sabe dónde podrían aparecer. Como dice el propio OpenAI: “Por favor, no comparta información confidencial en sus conversaciones”. En efecto.