“Lo siento, como modelo de lenguaje…” es un relleno comĂşn con el que ChatGPT comienza sus respuestas. cuando le pedimos que haga algo que no puede hacer, ya sea por limitaciones tĂ©cnicas (por ejemplo, cuando se le solicita acceder a contenido en lĂnea desde la versiĂłn gratuita) o por polĂticas de contenido impuestas por OpenAI.
Al mismo tiempo, como relleno que es, tambiĂ©n constituye en este punto una ‘firma’ caracterĂstica de ChatGPT… y, cuando la encontramos en algĂşn texto fuera de la plataforma, en prueba inequĂvoca e irrefutable del descuido del ‘copiar y pegar’. Algo parecido —para los que todavĂa recuerdan lo que era Wikipedia— a encontrarnos, de la nada, con la frase “Para otros usos de este tĂ©rmino, ver…” al principio de un texto.
Hace cuatro meses, la publicaciĂłn estadounidense The Verge se hacĂa eco de cĂłmo la frase de ChatGPT (en su versiĂłn en inglĂ©s) demostraba cĂłmo era la inteligencia artificial “contaminando la web […] generando spam, reseñas falsas y otras formas de texto de baja calidad”.
En ese momento, ya habĂa ejemplos de eso en Amazonas crĂticas, y la bĂşsqueda de la frase en Twitter devolviĂł muchas respuestas de bots mal ajustados…y un creciente nĂşmero de tuits que la frase ya fue tomada como un meme.
Sin embargo, muchos no vieron venir que, además de breves publicaciones en redes sociales, ‘Como modelo de lenguaje de IA’ —y otros textos resultantes de copiar directamente de ChatGPT, como ‘Regenerar respuesta’— terminarĂan contaminando tambiĂ©n el sistema de publicaciones cientĂficas arbitradasun supuesto pilar fundamental de nuestro sistema cientĂfico.
ZAO, la APP MÓVIL china que a través de DEEPFAKE te convierte en DICAPRIO en SEGUNDOS
No vas a ganar el Nobel asĂ. oh si, guau
La liebre Ha sido planteada por Andrew Kean Gaoun estudiante de informática de Stanford, despuĂ©s de la curiosidad lo llevĂł a buscar la frase en cuestiĂłn en Google EruditoEl motor de bĂşsqueda de artĂculos cientĂficos de Google (excluidas las referencias explĂcitas a ChatGPT, para garantizar que este no sea el tema del artĂculo).
El resultado ha sido sorprendente: ya hay artĂculos, ‘revisados’ y publicadosque incluyen la frase en un contexto que solo puede explicarse por la inclusiĂłn descuidada de texto copiado de una respuesta de ChatGPT.
Incluso yo soy más cuidadoso cuando le pido a ChatGPT artĂculos para Genbeta. Es broma, es broma. regenerado
Ejemplo del tipo de artĂculos que han protagonizado esta captura:
Y otra:
Y aquĂ otra:
Y si en lugar de Google Scholar usamos otros servicios como PubPeer, encontramos algunos artĂculos más.
Como dice un usuario en Twitter:
“Lo siento, pero si una revista publica un artĂculo con esa declaraciĂłn escrita como está, voy a instar a mi uni a que deje de suscribirse y nunca publique ningĂşn artĂculo allĂ. No tengo nada en contra de AI, pero pongo en duda si el editor está haciendo su debida diligencia”.
y es que hay algo muy roto en el modelo de publicaciones cientĂficas internacionales si el “Journal of Internet Banking and Commerce” acepta como “papel” un documento de una sola página de texto Ăştil, que comienza con “Como modelo de lenguaje de IA, puedo…”, pero especificando en detalle cuándo se “revisĂł” el documento ‘ documento:
Siempre podemos decirles a aquellos que no pueden conseguir un trabajo en otros sectores usando esta técnica que se dediquen a ser revisores académicos. Lo decimos por esto:
“TĂo, que los solicitantes [de empleo] directamente le piden a ChatGPT respuestas a estas preguntas, copian y pegan sin siquiera verificarlas, y realmente creen que terminarán consiguiendo el trabajo. ‘Como modelo de lenguaje de IA’, me estoy volviendo loco”.
Imagen | Marcos Merino a través de la IA
En Genbeta | El truco definitivo para copiar y pegar texto de PDF a MS Word sin alterar el texto