Todas las Noticias en Películas, Avances de Películas y Reseñas.

GPT-4 ahora disponible para los suscriptores de ChatGPT Plus

OpenAI finalmente presentado GPT-4. Según la empresa, su último modelo de IA es más preciso y eficiente, ya que puede manejar más entradas sin confusión. Además de eso, GPT-4 de hecho tiene multimodal capacidad, permitiéndole procesar imágenes. GPT-4 ahora está disponible para los suscriptores de ChatGPT Plus y los desarrolladores ahora pueden acceder a él como una API.

Después de los informes sobre su llegada la semana pasada, GPT-4 finalmente está aquí, entregado a través de la infraestructura optimizada para IA de Azure. Fue entrenado en supercomputadoras Microsoft Azure AI y tiene algunas diferencias notables con respecto a GPT-3.5. En particular, GPT-4 anotó en el percentil 88 y superior en diferentes pruebas y puntos de referencia.

“En una conversación informal, la distinción entre GPT-3.5 y GPT-4 puede ser sutil”, dice OpenAI en una publicación de blog. “La diferencia surge cuando la complejidad de la tarea alcanza un umbral suficiente: GPT-4 es más confiable, creativo y capaz de manejar instrucciones mucho más matizadas que GPT-3.5”.

En general, OpenAI dijo que es un 82% menos posible que el nuevo modelo responda a temas y solicitudes restringidos, lo que lo hace seguro para los usuarios. La calidad de su respuesta también mejora, con hasta un 40% de probabilidad de producir respuestas objetivas.

Una gran parte de GPT-4 se centra en su capacidad para manejar consultas de manera más efectiva. Como señaló OpenAI, ahora puede aceptar 25.000 palabras de texto sin experimentar confusión. Esta es una buena noticia para los usuarios que quieran aprovechar todo el potencial del modelo, ya que podrán proporcionar más detalles e instrucciones en sus preguntas y solicitudes. Sin embargo, lo más destacado del GPT-4 es la incorporación de una capacidad multimodal, que era una de las mayores expectativas del modelo desde que se informó la semana pasada. Con esta nueva capacidad, GPT-4 ahora puede procesar entradas de imágenes y describirlas a través de textos, aunque todavía no está disponible para todos los clientes de OpenAI, ya que técnicamente todavía está bajo prueba con la ayuda de Be My Eyes y su función de voluntariado virtual. .

Recomendado:  Cómo reiniciar la computadora solo con el teclado [2023]
Crédito de la imagen: OpenAI

“Por ejemplo, si un usuario envía una imagen del interior de su frigorífico, el Voluntario Virtual no sólo podrá identificar correctamente lo que hay en él, sino también extrapolar y analizar qué se puede preparar con esos ingredientes”, describió la función OpenAi. . “La herramienta también puede ofrecer una serie de recetas para esos ingredientes y enviar una guía paso a paso sobre cómo prepararlos”.

¡Wow, Bing ahora puede describir imágenes, ahora que sabe que está usando GPT-4! de bing

No obstante, esta capacidad multimodal parece haberse incorporado parcialmente al nuevo Bing. Microsoft dijo que el chatbot de su motor de búsqueda ha estado ejecutando el modelo desde la semana pasada. Sin embargo, es importante señalar que la función multimodal de Bing aún es limitada. Para empezar, sólo puede aceptar imágenes a través de enlaces proporcionados en la web, que describirá como una respuesta. Mientras tanto, cuando se le soliciten imágenes mediante descripciones, el chatbot proporcionará el contenido más relevante, incluidos resultados de imágenes y más.

Por cierto, estas mejoras en GPT-4 no significan el fin de los problemas existentes comúnmente presentes en todos los productos de IA generativa. Aunque OpenAI prometió que el modelo sería más seguro que GPT-3.5 en términos de negarse a responder a instrucciones dañinas, aún puede generar alucinaciones y prejuicios sociales. El director ejecutivo de OpenAI, Sam Altman, incluso descrito GPT-4 como algo “todavía defectuoso, todavía limitado”. A pesar de esto, el equipo está dedicado a la mejora continua del modelo a medida que continúa atrayendo más atención del público y Microsoft lo inyecta en más productos.

Recomendado:  El jefe de PlayStation habla sobre el precio de PS5