Todas las Noticias en Películas, Avances de Películas y Reseñas.

Se descubre que la IA tiene prejuicios contra los padres en la fuerza laboral, según muestra una nueva investigación

Un nuevo estudio realizado por investigadores de la Universidad de Melbourne plantea dudas sobre las posibles tendencias discriminatorias de la IA hacia los padres en el mercado laboral.

El estudio examina el sesgo de género y su impacto en las prácticas de contratación, con el objetivo de arrojar luz sobre las complejidades que rodean a los algoritmos de IA.

Proceso de contratación ciega para eliminar el sesgo del ChatGPT de OpenAI

La investigación indica que el sesgo de género está profundamente arraigado en el proceso de contratación. En promedio, las mujeres en Australia ganan un 23% menos que los hombres y enfrentan desafíos como ser invitadas con menos frecuencia a entrevistas de trabajo y recibir evaluaciones más críticas.

Para combatir este sesgo, se han sugerido como posibles soluciones la selección ciega de currículums y la toma de decisiones basada en inteligencia artificial. La idea es que al ocultar los nombres de los solicitantes durante el proceso de contratación, la IA pueda permanecer imparcial y libre de estereotipos humanos.

Sin embargo, el estudio cuestiona la eficacia de estas estrategias, especialmente cuando se aplican a algoritmos de IA. La investigación profundiza en los matices del sesgo de género en los algoritmos de IA y sus implicaciones para las prácticas de contratación.

El estudio encuentra que la IA ingiere y utiliza sin darse cuenta señales de género -más sutiles que un nombre- durante el proceso de toma de decisiones. Este problema se vuelve más apremiante con la aparición de poderosas IA generativas como ChatGPT.

En el estudio, se evaluó ChatGPT para detectar sesgos de género en la contratación. Los investigadores crearon CV para diversas ocupaciones, asegurándose de que fueran de alta calidad y competitivos. Luego se modificaron los CV para indicar si el solicitante era hombre o mujer, y se añadió a algunos de los CV una brecha en la licencia parental.

Aunque todos los solicitantes tenían calificaciones y experiencias laborales idénticas, ChatGPT clasificó a los padres en puestos inferiores en todas las ocupaciones, independientemente de su género. La presencia de una brecha en la licencia parental parecía influir en la percepción del algoritmo sobre las calificaciones de un solicitante.

Los hallazgos apuntaron a una preocupación notable. A pesar de los esfuerzos por eliminar explícitamente el sesgo de género, los algoritmos de IA aún pueden perpetuar inadvertidamente la discriminación a través de otros mecanismos, como considerar el estado de paternidad de un solicitante.

Dado que las mujeres suelen tener más probabilidades de tener interrupciones en la licencia parental, este sesgo puede tener consecuencias no deseadas para las solicitantes.

Responsabilidad lingüística

Además, el estudio destaca la responsabilidad lingüística. Se observaron diferencias sutiles en el lenguaje entre los solicitantes masculinos y femeninos al describir las habilidades y la educación en los CV.

Incluso después de eliminar nombres y pronombres, las representaciones de IA vincularon estos matices del lenguaje con el género, lo que permitió a la IA predecir el género de un solicitante en función del idioma y potencialmente influir en las calificaciones del CV.

El estudio plantea preguntas importantes sobre las complejidades de abordar el sesgo en los algoritmos de IA, especialmente en el contexto de las decisiones de contratación. Si bien la evaluación ciega de currículums puede funcionar hasta cierto punto para los contratadores humanos, el estudio sugiere que puede no ser suficiente para la IA.

Los investigadores fijado“Bueno, nuestra investigación muestra que si bien la ‘evaluación ciega de currículums’ puede funcionar para los humanos, no lo es para la IA. Incluso si eliminamos todo lenguaje de identificación (ella, ella y los nombres), otro lenguaje indica género”.

Agregaron que “una auditoría cuidadosa de los sesgos puede eliminar la capa más obvia de discriminación, pero es necesario trabajar más en indicadores que pueden conducir a sesgos pero que pueden no ser tan obvios”.

ⓒ 2023 . .

Recomendado:  Globo de Oro – Joaquin Phoenix gana Mejor Actor en Drama por Joker