Todas las Noticias en Películas, Avances de Películas y Reseñas.

Bard AI Chatbot de Google puede escribir y generar código de depuración

Escucha el Podcast:

Bard, el nuevo chatbot de inteligencia artificial de Google, ahora puede ayudarlo a escribir y depurar código de software. Google anunció lo mismo a través de una publicación de blog.

Hace unos días, en una entrevista, el CEO de Google, Sundar Pichai, prometió que su chatbot de IA, Bard, recibiría mejoras y mejoraría con el tiempo. A la luz de las declaraciones del CEO, Google anunció recientemente que Bard ahora puede ayudar a escribir y depurar código. Además, el chatbot de IA puede explicar el código a los usuarios y ayudar con la creación de funciones de Hojas de cálculo de Google. Hasta ahora, ChatGPT era conocido por ayudar con la escritura de código, pero parece que Google está ansioso por ponerse al día. Bard está disponible para una pequeña cantidad de usuarios en los Estados Unidos y el Reino Unido y aún está en fase de prueba.

Google anuncia los nuevos poderes de Bard

En la publicación del blog que anuncia las nuevas habilidades de Bard, la codificación se describe como “una de las principales solicitudes” que la empresa ha recibido de sus usuarios.

La publicación del blog describe las capacidades de Bard de la siguiente manera: “A partir de ahora, Bard puede ayudar con las tareas de programación y desarrollo de software, incluida la generación de código, la depuración y la explicación del código. Más de 20 lenguajes de programación, incluidos C++, Go, Java, Javascript, Python y Typescript, admitirán estas capacidades. Y puede exportar el código de Python a Google Colab sin tener que copiar y pegar. Bard también puede ayudar con las funciones de escritura de Google Sheets”.

Recomendado:  Revisión de Mi Watch Lite (Redmi GPS Watch): reloj inteligente económico con GPS incorporado

Agregando que Bard también puede ayudar a explicar el código, la publicación dice: “Además de generar código, Bard también puede ayudar a explicar fragmentos de código. Esto es especialmente útil si está aprendiendo a programar por primera vez o si necesita ayuda adicional para comprender lo que puede producir un bloque de código”.

Sobre la posibilidad de alucinar

Hemos escuchado mucho sobre la tendencia del chatbot de IA a ‘alucinar’ en este momento. Se dice que la IA está alucinando cuando presenta información falsa con seguridad, lo que lleva al usuario a creer que es verdad. La publicación del blog de Google sobre Bard incluye una advertencia sobre el potencial de alucinación del chatbot de IA.

Afirma: “Bard es todavía un experimento en su infancia y, en ocasiones, puede presentar información inexacta, engañosa o fraudulenta con seguridad. Bard puede proporcionarle un código funcional que no produce el resultado esperado, así como un código que no es óptimo o está incompleto. Antes de confiar en las respuestas de Bard, siempre verifíquelas dos veces y pruebe y examine minuciosamente el código en busca de errores, fallas y vulnerabilidades. A pesar de estos obstáculos, creemos que las nuevas capacidades de Bard pueden ayudarlo brindándole nuevos métodos para escribir código, crear casos de prueba y actualizar las API. Si Bard cita extensamente de un proyecto de código abierto existente, se citará la fuente.

¿Qué piensan los empleados de Google sobre Bard?

En febrero, cuando Bard acababa de ser lanzado, se informó que los empleados no estaban contentos con la forma en que se manejó el anuncio y lo etiquetaron como “apresurado, fallido y no Google”. Luego, la empresa solicitó la asistencia de sus empleados para corregir los errores de Bard, declarando incentivos para aquellos que aceptaron ayudar. El CEO, Sundar Pichai, reveló que más de 80.000 empleados participaron en las pruebas internas de Bard e incluso les agradeció por correo electrónico.

Recomendado:  Microsoft dice que alrededor del 92% de los servidores Exchange vulnerables están parcheados en todo el mundo

Bloomberg informa que, más recientemente, los empleados de Google que probaron el chatbot de IA Bard lo consideraron ineficaz y patológicamente deshonesto. Un trabajador también advirtió que el consejo de Bard en ciertas circunstancias podría resultar en “muerte o lesiones”.

Según un documento interno visto por la publicación, 18 empleados actuales y anteriores de Google afirmaron que Bard estaba difundiendo información de baja calidad “en una carrera para mantenerse al día con la competencia” mientras ponía “menos énfasis en sus compromisos éticos”.