Todas las Noticias en Películas, Avances de Películas y Reseñas.

ChatGPT supera a los médicos humanos en empatía y calidad del asesoramiento médico: estudio

Un estudio reciente ha demostrado que el modelo de lenguaje de IA, ChatGPT, supera a los médicos humanos en términos de calidad y empatía de sus consejos escritos. El guardián informes.

La investigación sugiere que los asistentes de IA tienen el potencial de desempeñar un papel importante en la medicina y podrían ayudar a mejorar la comunicación de los médicos con sus pacientes.

¡La IA pasa la prueba de calidad y empatía para médicos!

El estudiarpublicado en la revista JAMA Internal Medicine, examinó datos de la comunidad AskDocs de Reddit, donde profesionales de la salud verificados responden a las consultas médicas de los usuarios de Internet.

Los investigadores tomaron una muestra aleatoria de 195 intercambios de AskDocs en los que un médico verificado respondió a una pregunta pública. Luego, las consultas originales se plantearon a ChatGPT, que recibió instrucciones de responder.

Una junta de tres profesionales de la salud autorizados, que no sabían si la respuesta procedía de un médico real o de ChatGPT, evaluó la calidad y la empatía de las respuestas.

Básicamente, los investigadores intentaron realizar un equivalente de la prueba de Turing para un chatbot de IA dentro del campo médico.

Resultados increíbles para ChatGPT

Antes de discutir los resultados, vale la pena señalar que ChatGPT de OpenAI se ha sometido anteriormente a evaluaciones similares. En enero, ChatGPT llamó la atención sobre su capacidad para lograr una calificación B/B en un examen de MBA.

En febrero, ChatGPT logró avances significativos en inteligencia artificial al superar con éxito las etapas iniciales de la entrevista de trabajo para un puesto de ingeniería de software L3.

Recomendado:  Cómo habilitar o deshabilitar recuerdos en Google Chrome

Este es un logro significativo, ya que el puesto L3 generalmente lo ocupan nuevos graduados universitarios que buscan comenzar sus carreras en codificación.

En el mismo mes, un nuevo estudio descubrió que ChatGPT de OpenAI obtuvo casi el 60 % del umbral de aprobación en el examen de licencia médica de los Estados Unidos (USMLE), lo que demuestra su capacidad para casi aprobar el examen.

Volviendo a la prueba de calidad y empatía, The Guardian nos dice que el panel prefirió las respuestas de ChatGPT a las de un médico humano el 79% de las veces.

Las respuestas de ChatGPT también fueron calificadas como de buena o muy buena calidad el 79% de las veces, en comparación con el 22% de las respuestas de los médicos, y el 45% de las respuestas de ChatGPT fueron calificadas como empáticas o muy empáticas en comparación con solo el 5% de las respuestas de los médicos.

Es posible que el robot de IA no haya aprobado un examen de licencia médica real, pero esto demuestra que puede ser una guía empática para cualquiera que reciba las indicaciones correctas.

Esta es una buena noticia, ya que muchas empresas ya han comenzado a integrar el chatbot como una máquina de respuesta automática de sitios web.

ChatGPT promete mejoras en la atención médica

El Dr. John Ayers de la Universidad de California en San Diego, uno de los autores del estudio, dijo que los resultados resaltaron el potencial de los asistentes de IA para mejorar la atención médica. “Las oportunidades para mejorar la atención sanitaria con IA son enormes”, afirmó.

Recomendado:  La IA podría asumir más del 80% de los empleos humanos en el futuro, afirman expertos

El Dr. Christopher Longhurst de UC San Diego Health también comentó sobre los resultados y dijo que el estudio sugiere que herramientas como ChatGPT pueden redactar de manera eficiente consejos médicos personalizados de alta calidad para que los revisen los médicos. Agregó que ya están iniciando el proceso de uso de ChatGPT en UCSD Health.

Manténgase informado aquí en Tech Times.

â“’ 2023 . .

Etiquetas:

Tabla de Contenido