Todas las Noticias en Películas, Avances de Películas y Reseñas.

Google cree que Bard ChatBot puede filtrar datos confidenciales de la empresa: ¡los empleados no deberían usarlo!

Alphabet recuerda a sus empleados que se abstengan de utilizar el chatbot Bard de Google, ya que potencialmente puede filtrar sus principales secretos. Es seguro decir que incluso su propio creador conoce sus limitaciones en este momento.

Google insta a los empleados a dejar de usar Bard Chatbot

Google ha ordenado a sus empleados que no introduzcan información confidencial en los chatbots de IA, citando su política de larga data sobre la protección de datos confidenciales.

Los chatbots, incluidos Bard y ChatGPT, utilizan inteligencia artificial generativa para entablar conversaciones con los usuarios y responder a diversas indicaciones. Los revisores humanos pueden revisar estas conversaciones y los investigadores han descubierto que la IA puede replicar la información que aprendió durante el entrenamiento, lo que plantea un riesgo potencial de fuga de datos.

Alphabet también ha alertado a sus ingenieros para que se abstengan de utilizar directamente el código informático generado por chatbots, según algunos expertos, según Gizmodo.

En respuesta a las preocupaciones planteadas, Alphabet afirmó que Bard podría hacer sugerencias de código no deseado, pero sigue siendo beneficioso para los programadores. Google también enfatizó su compromiso con la transparencia respecto a las limitaciones de su tecnología.

Estas precauciones indican los esfuerzos de Google para mitigar cualquier posible consecuencia negativa que surja de su software, particularmente en competencia con ChatGPT desarrollado por OpenAI y Microsoft Corp (MSFT.O).

El resultado de esta carrera entre Google y sus rivales podría implicar importantes inversiones e ingresos por publicidad y servicios en la nube derivados de nuevos programas de inteligencia artificial.

El enfoque cauteloso de Google también se alinea con los estándares de seguridad adoptados por muchas empresas, que incluyen advertir a los empleados sobre el uso de programas de chat disponibles públicamente, según Reuters.

Recomendado:  Android 13, nuevas características y capacidades anunciadas en Google I/O 2023

Varias empresas de todo el mundo, incluidas Samsung (005930.KS), Amazon.com (AMZN.O) y Deutsche Bank (DBKGn.DE), han implementado medidas para regular el uso de chatbots de IA, según declaraciones proporcionadas a Reuters. Apple (AAPL.O) supuestamente sigue un enfoque similar, aunque no respondió a las solicitudes de comentarios.

Uso de herramientas de inteligencia artificial en el trabajo

Una encuesta realizada por el sitio de redes Fishbowl, que incluyó a casi 12.000 encuestados de las principales empresas con sede en EE. UU., reveló que alrededor del 43% de los profesionales utilizaban ChatGPT y otras herramientas de inteligencia artificial en enero, a menudo sin informar a sus superiores.

En febrero, Google ordenó a su personal que probara Bard antes de su lanzamiento oficial para evitar compartir información interna con el chatbot, según informó Insider. Ahora, Google está implementando Bard en más de 180 países y en 40 idiomas, posicionándolo como una plataforma para la creatividad. Las pautas de precaución de la compañía también se extienden a las sugerencias de código proporcionadas por el chatbot.

Ese mismo mes, los empleados de Google criticaron a su propio director ejecutivo, Sundar Pichai, por lanzar apresuradamente una herramienta similar a ChatGPT.

Google confirmó que ha entablado conversaciones detalladas con la Comisión de Protección de Datos de Irlanda y está atendiendo las consultas de los reguladores. Esto se produce después de que un informe de Politico afirmara que el lanzamiento de Bard en la UE se había pospuesto en espera de más información sobre sus implicaciones para la privacidad.

ⓒ 2023 . .