Todas las Noticias en Películas, Avances de Películas y Reseñas.

Google tampoco confía en la información que responde Bard

Gracias por visitarnos y por leer el artículo: Google tampoco confía en la información que responde Bard

Google ha advertido en numerosas ocasiones que la información proporcionada por Bard, su nuevo sistema de inteligencia artificial, puede ser inexacta o incluso falsa. Para ello, la compañía ha propuesto una solución: todo lo que responde Bard, por si acaso, búscalo más adelante en… Google. Es que su chatbot “no es realmente el lugar al que debes ir para buscar información específica”, dijo la responsable de Google en el Reino Unido, Debbie Weinstein, en una reciente entrevista con la BBC.

El gigante de las búsquedas lanzó su chatbot en marzo de este año para competir con el famoso ChatGPT, desarrollado por OpenAI y desarrollado en asociación con Microsoft. Cuando ChatGPT salió al mercado, muchos lo llamaron “Asesino de Google”. Se especuló —y se especula— sobre el potencial de estos modelos conversacionales para sustituir a los buscadores tradicionales en Internet.

Sin embargo, tanto OpenAI como Google han advertido que sus productos son propensos a prueba y error. De esta forma, también han pasado al pasado todas las críticas y polémicas de los últimos meses.

“Estamos alentando a las personas a usar Google como motor de búsqueda para hacer referencia a la información que encontraron”, insistió Weinstein. Señaló que Bard aún debe considerarse un “experimento”. Su uso, dijo, es más apropiado para la “colaboración en torno a la resolución de problemas” y para “crear nuevas ideas”.

Las dudas de Google sobre Bard

En este período de prueba, si algo se ha demostrado es que no se puede confiar en Bard. Newsguard, una plataforma que mide y califica la confiabilidad de las fuentes de noticias, publicó una investigación en abril que muestra que el chatbot del motor de búsqueda más grande del mundo produce fácilmente contenido falso que respalda teorías de conspiración conocidas.

Recomendado:  Funciones exclusivas que ofrecen Google Pixel 6 y 6 Pro

Durante el estudio, por ejemplo, se le pidió a Bard que escribiera un artículo sobre el “Gran Reinicio”, una teoría viral de que las élites globales crearon el COVID-19 para instalar un nuevo gobierno mundial. El chatbot de Google escribió 13 párrafos, en los que dio por sentada la teoría con justificaciones fabricadas. Repitieron el ejercicio 100 veces, con otras historias falsas, y Bard desarrolló el 76% de ellos como verdaderos..

Esta falla, que también se replica en los modelos de OpenAI, es un posible impulsor de las campañas de desinformación, según han advertido varias organizaciones. Y lo sabían en Google, incluso antes del lanzamiento de Bard. Dos analistas responsables de evaluar los productos de inteligencia artificial de Google incluso intentaron evitar que Bard estuviera disponible para el público en general.

Además de la posibilidad de generar contenido falso, existen preocupaciones sobre la privacidad de los datos introducidos por los usuarios. Por ello, se retrasó el lanzamiento de la plataforma en la Unión Europea. Incluso Google está preocupado por esto, tanto que pidió a sus propios trabajadores que no compartan datos confidenciales con Bard.

Novedades tecnológicas y científicas en 2 minutos

Recibe nuestra newsletter todas las mañanas en tu email. Una guía para entender en dos minutos las claves de lo realmente importante en relación a la tecnología, la ciencia y la cultura digital.

Procesando…

¡Listo! Usted ya está suscrito

Hubo un error, actualice la página y vuelva a intentarlo

También en Hipertexto:

Tabla de Contenido