Todas las Noticias en Películas, Avances de Películas y Reseñas.

Los investigadores no pueden utilizar ChatGPT; ¿Cuales son las razones?

y el grupo, dos de los nombres más prestigiosos en publicaciones académicas, han anunciado nuevos estándares editoriales a la luz del surgimiento de la inteligencia artificial (IA).

En un informe de El independienteestos cambios excluyen o limitan severamente el uso de robots de inteligencia artificial sofisticados como ChatGPT para redactar artículos de investigación.

Amenaza de IA

En diciembre de 2022, el chatbot ChatGPT de OpenAI se hizo conocido por sus respuestas casi humanas a las preguntas de los usuarios, lo que provocó graves advertencias de expertos de la industria sobre las posibles interrupciones que la tecnología innovadora podría causar.

Algunos expertos han elogiado el modelo lingüístico de la IA como un elemento revolucionario que tiene el potencial de desplazar tecnologías actuales como el motor de búsqueda de Google.

Tras el lanzamiento del chatbot experimental, la dirección de Google supuestamente declaró un “código rojo” para el negocio de motores de búsqueda de la empresa.

El chatbot de IA ha demostrado su capacidad para resumir estudios, racionalizar y abordar preguntas lógicas y, más recientemente, superar pruebas complejas en campos como el comercio y la medicina.

Los usuarios también han notado que la aplicación de IA ocasionalmente da respuestas que parecen convincentes pero que en realidad son completamente erróneas.

Ver también: Queensland es el estado más reciente en prohibir ChatGPT en las escuelas

Las preocupaciones de los expertos

El editor en jefe de la revista, Holden Thorp, dijo que la editorial está revisando sus directrices para prohibir el uso de ChatGPT y cualquier otra herramienta de inteligencia artificial en los artículos. Dijo que una herramienta de inteligencia artificial no puede ser un autor.

Recomendado:  Samsung logra una cuota del 87% en el segmento de smartphones plegables

Thorp ha dejado claro que las violaciones de estos principios se consideran una mala conducta científica grave, al igual que cosas como el plagio o la edición inapropiada de fotografías de investigación.

Sin embargo, dijo que la IA que crea de manera legal y consciente conjuntos de datos en trabajos de investigación con fines de estudio no se vería afectada por las nuevas reglas.

También se expresó preocupación en un editorial publicado por un editor de casi 3.000 revistas, el martes 24 de enero, que temía que los usuarios de la herramienta pudieran enviar contenido escrito por IA como propio o utilizarlo para realizar revisiones bibliográficas inadecuadamente completas.

Hicieron referencia a otras investigaciones que se han escrito pero que aún no se han publicado, en las que ChatGPT figura como autor.

Se dice que las herramientas de modelo de lenguaje serán aprobadas como autor acreditado en un artículo de investigación, ya que las herramientas de inteligencia artificial no pueden asumir responsabilidad como los escritores humanos.

enfatizó que los investigadores que utilizaron tales instrumentos a lo largo de su estudio deberían incluirlos en las secciones de “métodos” o “agradecimientos” del artículo.

En respuesta al creciente perfil de ChatGPT, otras editoriales, como (que alberga más de 2500 revistas), también han actualizado sus estándares de autoría.

dijo que dichos modelos de IA podrían usarse para mejorar la legibilidad y el lenguaje de la publicación de la investigación, pero no para reemplazar tareas cruciales que los autores deberían realizar, como evaluar datos o sacar conclusiones.

Ver también: BuzzFeed planea utilizar OpenAI para impulsar la creación de contenido

Recomendado:  Presentamos la nueva base de conocimientos

ⓒ 2023 . .

Tabla de Contenido