Todas las Noticias en Películas, Avances de Películas y Reseñas.

Alucinaciones en chatbots de IA: ¿realmente se pueden solucionar?

Los modelos de lenguajes grandes (LLM) han impulsado chatbots como ChatGPT y Google Bard, generando mejoras notables en inteligencia artificial. Sin embargo, estos sistemas avanzados de IA tienen ciertos inconvenientes. Un problema importante son las alucinaciones de la IA, en las que los LLM proporcionan datos falsos o engañosos.

Los LLM están diseñados para crear una prosa fluida y coherente, dando la impresión de que las alucinaciones son reales. Estas inconsistencias lógicas o fácticas surgen porque la IA no comprende la realidad subyacente que expresa el lenguaje. En cambio, los LLM dependen de tendencias estadísticas para producir contenido gramatical y semánticamente sólido dentro del contexto dado, según Tech Target.

Aunque las alucinaciones son comunes en los LLM, todavía es difícil identificar los orígenes precisos de estos resultados engañosos caso por caso. Estas alucinaciones plantean problemas importantes para las empresas, organizaciones y estudiantes de secundaria que emplean IA generativa para la creación de documentos y actividades con resultados de alto riesgo, como la psicoterapia y la redacción de escritos legales.

Un desafío difícil

El desarrollador del chatbot Claude 2, Anthropic, admite la aparición de alucinaciones, aunque destaca que los algoritmos existentes están diseñados principalmente para anticipar la siguiente frase, que puede provocar errores. Los principales creadores de sistemas de inteligencia artificial, como Anthropic y OpenAI, están intentando activamente aumentar la veracidad de sus modelos. Actualmente se está evaluando la eficacia de estos esfuerzos.

Emily Bender, profesora de lingüística y líder del Laboratorio de Lingüística Computacional de la Universidad de Washington, cree que la falta de coincidencia de la tecnología de IA con los casos de uso previstos provoca alucinaciones en la IA. La cuestión plantea preocupaciones con respecto a la confiabilidad de la tecnología de IA generativa, particularmente a la luz del efecto económico anticipado, que el McKinsey Global Institute estima que oscilará entre 2,6 billones de dólares a 4,4 billones de dólares, según AP News.

Recomendado:  Google Play Store agrega la opción de votación: categoría Mejor aplicación nueva del año

Google ha ofrecido anteriormente a las empresas de noticias, donde la precisión es crucial, una herramienta de inteligencia artificial que puede escribir noticias. Junto con OpenAI, The Associated Press está investigando tecnologías de inteligencia artificial para mejorar sus sistemas. Mientras tanto, Ganesh Bagler, un informático indio, está desarrollando algoritmos de inteligencia artificial para crear recetas de comidas del sur de Asia. Comentó que los efectos de los componentes alucinados podrían proporcionar cenas deliciosas o inconsumibles.

Los humanos siempre deben estar involucrados

El creador del servicio de conserjería familiar Yohana, Yoky Matsuoka, advierte contra la subcontratación total del empleo a la IA. Ella sostiene que debido a las alucinaciones de la IA que producen resultados inexactos, los humanos deberían ser incluidos en el proceso para verificar y rectificar su trabajo. Matsuoka también enfatizó lo crucial que es tener en cuenta que la IA se está creando “para humanos”.

La presidenta de la Academia Nacional de Ciencias, Marcia McNutt, subraya que la IA debería utilizarse como segunda opinión. ayudar a las personas a tomar decisiones en lugar de tomar decisiones para las empresas, según Forbes.

El objetivo de eliminar las alucinaciones de la IA es un desafío y continúa a medida que avanza la tecnología generativa. Para aprovechar plenamente el potencial transformador de la IA, será esencial lograr el equilibrio correcto entre sus capacidades y el control humano.

ⓒ 2023 . .

Tabla de Contenido