Todas las Noticias en Películas, Avances de Películas y Reseñas.

Los expertos advierten: el gran problema de ChatGPT y otros chatbots nunca se resolverá

Gracias por visitarnos y por leer el artículo: Los expertos advierten: el gran problema de ChatGPT y otros chatbots nunca se resolverá

Alucinaciones de IA, como las que presenta OpenAI y su ChatGPT, Google Bard y Bing de Microsoft, son el gran problema de estos chatbots y, según algunos expertos, de difícil solución.

En el contexto de la inteligencia artificial, una “alucinación” se refiere a un fenómeno en el que un modelo de IA, como un modelo de lenguaje grande (LLM) o un chatbot, genera información que no es precisa o no se basa en datos reales. Estas alucinaciones pueden hacer que el modelo produzca contenido que parece humano y convincente, pero que en realidad carece de significado o contexto real.

Las alucinaciones de IA pueden tomar muchas formas diferentes, desde crear noticias falsas hasta afirmaciones o documentos falsos sobre personas, eventos o hechos científicos.

Por ejemplo, ChatGPT puede crear una figura histórica con una biografía completa y logros que nunca fueron reales. El problema es que en la era actual, donde un solo tweet puede llegar a millones de personas en segundos, la posibilidad de que esta información errónea se propague crea grandes dificultades.

Por otro lado, si una herramienta basada en IA falla por este motivo y percibe amenazas que son falsas, generaría una alarma general que generaría respuestas innecesarias y costosas.

“Esto no se puede arreglar”, explica Emily Bender, profesora del Laboratorio de Lingüística Computacional de la Universidad de Washington. “Es inherente a la falta de coincidencia entre la tecnología y los casos de uso propuestos”.

“Las alucinaciones son en realidad una ventaja adicional”

Aunque en algunos casos, Las alucinaciones de IA pueden ser beneficiosas, como generar imágenes sorprendentes en DALL-E o Midjourneyel problema persiste cuando se trata de la generación de texto, especialmente en el ámbito de las noticias, donde la precisión es crucial.

Recomendado:  Secretos de Twitter revelados en GitHub

Los grandes modelos de lenguaje como GPT-4 que potencian ChatGPT están diseñados para inventar cosas, lo que significa que ocasionalmente pueden producir información falsa interpretada como correcta. Aunque se pueden ajustar para mejorar su precisión, siempre existirá el riesgo de fallar, especialmente en los casos más sutiles que son difíciles de detectar para los humanos.

“Los LLM están diseñados para inventar cosas. Eso es todo lo que hacen”, añade el profesor. “Pero dado que solo inventan cosas, cuando el texto que han extraído resulta ser interpretable como algo que creemos que es correcto, eso es por casualidad. Incluso si se pueden ajustar para que sean correctos la mayor parte del tiempo, seguirán teniendo modos de falla, y es probable que ocurran fallas en casos en los que es más difícil que una persona que lee el texto se dé cuenta, porque son más oscuros. ,” él dice.

Algo que también se busca —aunque algo más complejo— es promover la transparencia en los sistemas de IA, permitiendo que los usuarios entiendan cómo se toman las decisiones y se generan los resultados. El problema es que muchas empresas son muy cautelosas a la hora de revelar información sobre cómo han entrenado sus modelos o su arquitectura. -caja negra-

Aunque los desarrolladores pueden ajustar y mejorar estos modelos para minimizar las alucinaciones, es probable que siempre exista un riesgo inherente de que el modelo produzca información inexacta o engañosa. Por lo tanto, es fundamental utilizar estos sistemas con cuidado y conscientes de sus limitaciones para evitar problemas y asegurar la precisión y responsabilidad en su uso.

Recomendado:  Ben Affleck comenta sobre el lanzamiento de Justice League Snyder Cut

“Un pequeño consejo para abordar las alucinaciones en la IA es implementar una técnica conocida como ‘generación condicional’. Esta técnica consiste en proporcionar información adicional o restricciones específicas al momento de generar contenido. Al condicionar la generación de datos o imágenes a ciertos criterios o contextos específicos, se puede reducir la probabilidad de que la IA genere alucinaciones”, explica hoy a Informática un experto.