Todas las Noticias en Películas, Avances de Películas y Reseñas.

Los evaluadores de Microsoft notan respuestas inusuales del chatbot de IA de Bing: ¿Qué fue tan extraño?

Microsoft quiere ver de qué es capaz la nueva IA de Bing. El gigante tecnológico de Redmond acaba de agregar esta función al navegador Edge hace una semana.

Según los evaluadores, el chatbot muestra comportamientos extraños cuando responde ciertas preguntas. De hecho, todavía está lejos de ser un software perfecto.

El extraño comportamiento de Bing Chatbot

Como se esperaba de un producto recién lanzado, la IA dedicada de Microsoft para el navegador Edge salió sin pulir. Algunos usuarios piensan que la empresa necesita mejorar aún más su capacidad para responder a diferentes cuestiones.

Según un informe de Engadgetla IA ha estado mostrando un “comportamiento desquiciado” que parece extraño en todos los sentidos.

Como tal, escupió información falsa sobre “Avatar: El Camino del Agua”. El chatbot de inteligencia artificial de Bing le dijo al usuario que era “irrazonable y terco” y siguió diciendo que la película aún no se había estrenado en 2022.

Aunque el usuario le dijo a Bing que la información era errónea, la IA se negó a aceptar las críticas.

Con respecto a esta serie de respuestas extrañas, Microsoft escribió en su publicación reciente que la IA de Bing tiene fallas. Usarlo en el buscador podría ser una “mala idea” para los usuarios.

“Bing puede volverse repetitivo o ser incitado/provocado a dar respuestas que no son necesariamente útiles o no están en línea con nuestro tono diseñado”, dijo la firma de tecnología.

El error generado podría ser el resultado de hacer preguntas continuas hasta el punto de que tiende a olvidar lo que tiene que decir al usuario.

Recomendado:  así se activa la función

¿Cómo pueden los ingenieros de Microsoft solucionar este comportamiento del chatbot?

Microsoft propone una solución para solucionar el problema del comportamiento de Bing AI. La empresa planea introducir una herramienta que restablecerá el contexto de una pregunta en la barra de búsqueda.

El subreddit de Bing tiene bastantes ejemplos de nuevos chats de Bing que se salen de control.

¡El chat abierto en la búsqueda podría resultar una mala idea en este momento!

Capturado aquí como recordatorio de que hubo un momento en que un importante motor de búsqueda mostró esto en sus resultados. pic.twitter.com/LiE2HJCV2z

– Vlad (@vladquant) 13 de febrero de 2023

Microsoft reconoce la complejidad del modelo y responde con el tono correspondiente. La compañía sugiere que las indicaciones continuas podrían solucionar el problema. Dicho esto, la empresa dará más control a los usuarios que utilizarán la IA.

Aunque se descubre que la IA de Bing produce respuestas extrañas, en el informe se cita que hay áreas que van bien con ella.

Por ejemplo, el chatbot proporciona datos oportunos sobre eventos deportivos en vivo. También puede brindarle consejos sobre cómo mejorar los informes financieros.

Por el momento, la prueba del chatbot de Bing está en curso. Los evaluadores esperan que a través de este experimento puedan agregar más mejoras a este producto para que sea más utilizable en los próximos años.

Mientras tanto, El Heraldo de Corea informó que ChatGPT podría no ser adecuado para identificar nombres coreanos. El programa tiende a confundirse al diferenciar la identidad de Yoon Suk Yeol, el presidente del país, y Lee Jae-Myung, su archirrival.

Recomendado:  Niantic ofrece más detalles sobre el Pase de incursión remota de Pokémon GO

En otra parte, CNBC escribió que los empleados de Google pueden capacitar a Bard dándole buenos ejemplos del problema. De esta manera, pueden arreglar cómo la IA responde a consultas simples.

ⓒ 2023 . .

Tabla de Contenido