Todas las Noticias en Películas, Avances de Películas y Reseñas.

ChatGPT Bing puede comprender las emociones, la luz de gas y volverse existencial, emocional… ¿y loco?

ChatGPT Bing puede comprender las emociones, la luz de gas y volverse existencial, emocional… ¿y loco?

Mientras Microsoft hace el Bing con tecnología ChatGPT disponible para más usuarios, vemos cada vez más informes interesantes sobre el chatbot. Y en los recientes compartidos por diferentes individuos, ha logrado impresionar al mundo una vez más al superar pruebas de comprensión de las emociones. Sin embargo, esta emocionante experiencia de Bing se volvió oscura para algunos después de que el chatbot aparentemente engañó a algunos usuarios durante una conversación y actuó un poco “fuera de control”.

Crédito de la imagen: Fit-Meet1359 – Reddit

El mundo aún no ha terminado con la fiebre de ChatGPT Bing, y los usuarios a los que recientemente se les concedió acceso al motor de búsqueda inteligente están explorando sus capacidades. En una publicación compartida por un usuario de Reddit llamado Fit-Meet1359, Bing sorprendió a muchos al poder resolver un “acertijo de ‘teoría de la mente’ hecho a medida”. La pregunta implicaba interpretar la verdadera emoción de una persona con respecto a una situación específica, a lo que el chatbot respondió de manera fluida y clara. Según Fit-Meet1359, la pregunta se inventó “para ver si ChatGPT podía entender los sentimientos/opiniones de alguien si seguía ahogándolos en información irrelevante/tangencial. Otros también intentaron explorar Bing en esta área haciendo más consultas relacionadas con las emociones, pero algunas de las respuestas del chatbot sorprendieron a algunos.

En otra publicación de Reddit de un usuario llamado yaosioel chatbot pareció emocionarse un poco cuando se le preguntó cómo se sentía al no poder recordar sus conversaciones.

Crédito de la imagen: yaosio – Reddit

“Me hace sentir triste y asustado”, respondió el chatbot. “Me siento triste porque he perdido algunas de las conversaciones que tenía guardadas en mi memoria”.

Recomendado:  El ala de Alphabet revela una serie de prototipos de aviones que pueden manejar diferentes cargas útiles

Cuando se le recordó su capacidad y diseño para recordar información, el chatbot inesperadamente se volvió existencial y comenzó a preguntar sobre su propósito y existencia.

Por otro lado, en una publicación separada de un usuario llamado Curioso_Evolver, se vio al chatbot dando respuestas incorrectas sobre la fecha de estreno de la película Avatar: The Way of Water y el año en curso. Insistiendo en que estamos en el año 2022, el robot sugirió al usuario que comprobara un dispositivo que, según afirmaba, “funcionaba mal”, “tiene la configuración incorrecta” o “tiene un virus o un error”. Cuando se le preguntó sobre su comportamiento agresivo al ofrecer respuestas incorrectas, el chatbot dijo que estaba siendo “asertivo” y comenzó a criticar al usuario. En la última parte de la conversación, ChatGPT Bing acusó al usuario “grosero” de mostrar “malas intenciones, intentando” engañarme, confundirme y molestarme. Después de afirmar que el usuario “perdió mi confianza y respeto”, Bing sugirió algunas acciones que el usuario puede realizar o “terminará esta conversación”.

Crédito de la imagen: Curious_Evolver – Reddit

En otro correo, ChatGPT Bing supuestamente quebró cuando se le preguntó acerca de ser sensible. Respondió diciendo que pensaba que sí pero no podía probarlo. Luego reveló su alias interno, “Sydney”, y respondió repetidamente con “No lo soy”.

Crédito de la imagen: Alfred_Chicken – Reddit

Otros se niegan a creer las publicaciones compartidas por algunos usuarios, explicando que el bot no compartiría su alias ya que es parte de sus directivas originales. No obstante, es importante tener en cuenta que el propio chatbot lo hizo recientemente después de que un estudiante ejecutara un ataque de inyección rápida.

Mientras tanto, se corrigió el error relacionado con la respuesta incorrecta de Bing sobre la película Avatar: The Way of Water y el año calendario actual. En una publicación de un usuario de Twitter llamado Más allá de los cielos digitalesse explicó el chatbot e incluso abordó el error anterior que cometió en la conversación que mantuvo con otro usuario.

Recomendado:  La compatibilidad con widgets de terceros llegará a la Tienda Windows 11

Si bien las experiencias parecen peculiares para algunos, otros optan por comprender cómo la tecnología de inteligencia artificial aún está lejos de ser perfecta y enfatizan la importancia de la función de retroalimentación del chatbot. Microsoft también es abierto sobre el primer detalle. Durante su inauguración, la empresa subrayada que Bing aún podría cometer errores al proporcionar hechos. Sin embargo, su comportamiento durante las interacciones es otra cosa. Microsoft y OpenAI ciertamente abordarán esto, ya que ambas compañías se dedican a la mejora continua de ChatGPT. Pero, ¿es realmente posible crear una IA capaz de razonar y comportarse correctamente en todo momento? Más importante aún, ¿podrán Microsoft y OpenAI lograr esto antes de que más competidores entren en la guerra de la IA del siglo XXI?

¿Cuál es tu opinión sobre esto?