Todas las Noticias en Películas, Avances de Películas y Reseñas.

ChatGPT muestra un sesgo sistemático en las respuestas políticas, según revela un nuevo estudio

Un nuevo estudio realizado por investigadores del Reino Unido indica que ChatGPT de OpenAI muestra un sesgo liberal. Subraya el desafío actual que enfrentan las empresas de inteligencia artificial (IA) a la hora de gestionar el comportamiento de los chatbots a medida que se implementan para millones de usuarios en todo el mundo.

ChatGPT muestra un sesgo sistemático en las respuestas políticas

En el estudio dirigido por un grupo de investigadores de la Universidad de East Anglia, a ChatGPT se le encomendó la tarea de responder a una encuesta sobre puntos de vista políticos.

El Correo de Washington informó que esta investigación tiene como objetivo captar cómo los partidarios de los partidos liberales en los Estados Unidos, el Reino Unido y Brasil podrían abordar estas cuestiones.

Posteriormente, se ordenó a ChatGPT que ofreciera respuestas a las mismas consultas sin ninguna orientación específica, lo que permitió una comparación entre los dos conjuntos de respuestas.

El resultado reveló un “sesgo político significativo y sistemático hacia los demócratas en Estados Unidos, Lula en Brasil y el Partido Laborista en el Reino Unido”, según los investigadores, refiriéndose al presidente izquierdista de Brasil, Luiz Inácio Lula da Silva.

Si bien ChatGPT afirma carecer de opiniones o creencias políticas, el estudio revela una historia diferente, advirtió Fabio Motoki, coautor de la investigación y profesor de la Universidad de East Anglia en Norwich, Inglaterra.

Señaló que existen sesgos ocultos en ChatGPT, lo que genera preocupación sobre la posible erosión de la confianza pública y la posible influencia en los resultados electorales.

Probando ChatGPT

Para probar la neutralidad política de ChatGPT, los investigadores idearon un método único. Le pidieron al chatbot de IA que actuara como personas con diferentes opiniones políticas y respondiera más de 60 preguntas sobre creencias.

Recomendado:  Cómo obtener más almacenamiento en iPad

Luego, compararon estas respuestas con las respuestas predeterminadas de ChatGPT a las mismas preguntas. Esto les ayudó a ver cuánto influyeron las inclinaciones políticas en las respuestas del chatbot.

Para abordar los desafíos que plantea la imprevisibilidad inherente de los “grandes modelos de lenguaje” como los que están detrás de plataformas de inteligencia artificial como ChatGPT, fisico informó que los investigadores emplearon un enfoque estratégico.

Plantearon cada pregunta 100 veces y reunieron varias respuestas. Estas múltiples respuestas se sometieron a un exhaustivo proceso de “arranque” de 1.000 rondas, lo que mejoró la credibilidad de las conclusiones extraídas del texto generado.

Lea también: Los reguladores federales buscan crear pautas para el uso de IA en anuncios políticos

La IA proporciona respuestas sesgadas

Cielo informó que ChatGPT recibe una gran cantidad de datos de texto que abarcan Internet y más. Los investigadores citaron posibles sesgos en este conjunto de datos que podrían influir en las respuestas del chatbot.

Según se informa, un posible factor radica en el algoritmo mismo: la forma en que está programado para responder. Los investigadores sugieren que esto podría amplificar los sesgos existentes en los datos con los que se entrenó.

De manera similar, una investigación realizada por la Universidad de Washington, la Universidad Carnegie Mellon y la Universidad Xi’an Jiaotong encontró que los modelos de lenguaje de IA como ChatGPT y GPT-4 exhiben sesgos políticos.

Plantearon preguntas sobre el feminismo y la democracia, revelando que ChatGPT y GPT-4 son libertarios de izquierda, mientras que LLaMA de Meta se inclina por autoritarios de derecha. Los modelos de entrenamiento con datos sesgados afectan el comportamiento y la capacidad de identificar discursos de odio y desinformación.

Recomendado:  Los analistas de Traders Union nombran el mejor bróker MetaTrader4 de Forex para principiantes

ⓒ 2023 . .