Todas las Noticias en Pel√≠culas, Avances de Pel√≠culas y Rese√Īas.

Alucinaciones en chatbots de IA: ¬Ņrealmente se pueden solucionar?

Los modelos de lenguajes grandes (LLM) han impulsado chatbots como ChatGPT y Google Bard, generando mejoras notables en inteligencia artificial. Sin embargo, estos sistemas avanzados de IA tienen ciertos inconvenientes. Un problema importante son las alucinaciones de la IA, en las que los LLM proporcionan datos falsos o enga√Īosos.

Los LLM est√°n dise√Īados para crear una prosa fluida y coherente, dando la impresi√≥n de que las alucinaciones son reales. Estas inconsistencias l√≥gicas o f√°cticas surgen porque la IA no comprende la realidad subyacente que expresa el lenguaje. En cambio, los LLM dependen de tendencias estad√≠sticas para producir contenido gramatical y sem√°nticamente s√≥lido dentro del contexto dado, seg√ļn Tech Target.

Aunque las alucinaciones son comunes en los LLM, todav√≠a es dif√≠cil identificar los or√≠genes precisos de estos resultados enga√Īosos caso por caso. Estas alucinaciones plantean problemas importantes para las empresas, organizaciones y estudiantes de secundaria que emplean IA generativa para la creaci√≥n de documentos y actividades con resultados de alto riesgo, como la psicoterapia y la redacci√≥n de escritos legales.

Un desafío difícil

El desarrollador del chatbot Claude 2, Anthropic, admite la aparici√≥n de alucinaciones, aunque destaca que los algoritmos existentes est√°n dise√Īados principalmente para anticipar la siguiente frase, que puede provocar errores. Los principales creadores de sistemas de inteligencia artificial, como Anthropic y OpenAI, est√°n intentando activamente aumentar la veracidad de sus modelos. Actualmente se est√° evaluando la eficacia de estos esfuerzos.

Emily Bender, profesora de ling√ľ√≠stica y l√≠der del Laboratorio de Ling√ľ√≠stica Computacional de la Universidad de Washington, cree que la falta de coincidencia de la tecnolog√≠a de IA con los casos de uso previstos provoca alucinaciones en la IA. La cuesti√≥n plantea preocupaciones con respecto a la confiabilidad de la tecnolog√≠a de IA generativa, particularmente a la luz del efecto econ√≥mico anticipado, que el McKinsey Global Institute estima que oscilar√° entre 2,6 billones de d√≥lares a 4,4 billones de d√≥lares, seg√ļn AP News.

Recomendado:  Las betas p√ļblicas de iOS 14.5 y watchOS 7.4 ya est√°n disponibles

Google ha ofrecido anteriormente a las empresas de noticias, donde la precisión es crucial, una herramienta de inteligencia artificial que puede escribir noticias. Junto con OpenAI, The Associated Press está investigando tecnologías de inteligencia artificial para mejorar sus sistemas. Mientras tanto, Ganesh Bagler, un informático indio, está desarrollando algoritmos de inteligencia artificial para crear recetas de comidas del sur de Asia. Comentó que los efectos de los componentes alucinados podrían proporcionar cenas deliciosas o inconsumibles.

Los humanos siempre deben estar involucrados

El creador del servicio de conserjer√≠a familiar Yohana, Yoky Matsuoka, advierte contra la subcontrataci√≥n total del empleo a la IA. Ella sostiene que debido a las alucinaciones de la IA que producen resultados inexactos, los humanos deber√≠an ser incluidos en el proceso para verificar y rectificar su trabajo. Matsuoka tambi√©n enfatiz√≥ lo crucial que es tener en cuenta que la IA se est√° creando “para humanos”.

La presidenta de la Academia Nacional de Ciencias, Marcia McNutt, subraya que la IA deber√≠a utilizarse como segunda opini√≥n. ayudar a las personas a tomar decisiones en lugar de tomar decisiones para las empresas, seg√ļn Forbes.

El objetivo de eliminar las alucinaciones de la IA es un desaf√≠o y contin√ļa a medida que avanza la tecnolog√≠a generativa. Para aprovechar plenamente el potencial transformador de la IA, ser√° esencial lograr el equilibrio correcto entre sus capacidades y el control humano.

‚ďí 2023 . .

Tabla de Contenido