Todas las Noticias en Películas, Avances de Películas y Reseñas.

Las herramientas de contratación impulsadas por IA no han logrado reducir el sesgo, afirma un nuevo estudio

En los últimos años, ha habido un aumento en el uso de herramientas de inteligencia artificial que se anuncian como una solución a la falta de diversidad en la fuerza laboral. Estas herramientas van desde chatbots y raspadores de CV hasta ayudar a las empresas a contratar empleados.

Los usuarios de estas herramientas afirman que eliminan los prejuicios étnicos y de género en la contratación mediante la utilización de algoritmos que analizan a los solicitantes de empleo a través de sus patrones de habla, expresiones y otros aspectos.

Sin embargo, investigadores del Centro de Estudios de Género de Cambridge sostienen que las herramientas de reclutamiento de IA son superficiales y equivalentes a la “pseudociencia automatizada” en un informe reciente publicado en Filosofía y Tecnología.

“Tecsolucionismo”

Afirman que es un ejemplo arriesgado de “tecnosolucionismo”: el uso de la tecnología para abordar cuestiones complejas como la discriminación sin realizar las inversiones necesarias ni modificar la cultura organizacional.

Los investigadores han colaborado con un grupo de estudiantes universitarios de informática de Cambridge para desarrollar una herramienta de inteligencia artificial en línea para refutar las afirmaciones de que la inteligencia artificial elimina los prejuicios en el lugar de trabajo, según la u.comunicado de prensa de la universidadque también fue recogido por bbc.

La “Máquina de la Personalidad” muestra cómo los ajustes aleatorios en la expresión facial, la vestimenta, la iluminación y el fondo pueden proporcionar lecturas de personalidad radicalmente diferentes, lo que podría ser la diferencia entre el rechazo y el avance para la actual generación de solicitantes de empleo que compiten por puestos de posgrado.

Recomendado:  Si los AirPods 4 tienen esto, me los compro con la cabeza

El equipo de Cambridge afirma que debido a que la IA está programada para buscar al candidato ideal para el empleador, eventualmente puede fomentar la uniformidad en lugar de la variedad en la fuerza laboral cuando se utiliza para reducir los grupos de candidatos.

“Puntos de datos insignificantes”

Según los investigadores, las personas con alta educación y experiencia pueden derrotar a los algoritmos imitando las actitudes y acciones que la IA está diseñada para reconocer.

Además, sostienen que los solicitantes considerados mejores probablemente terminarán siendo los que más se parezcan a la fuerza laboral actual porque los algoritmos se desarrollan utilizando datos históricos.

“Al afirmar que el racismo, el sexismo y otras formas de discriminación pueden eliminarse del proceso de contratación utilizando inteligencia artificial, estas empresas reducen la raza y el género a puntos de datos insignificantes, en lugar de sistemas de poder que dan forma a cómo nos movemos por el mundo. “, dijo la coautora, la Dra. Eleanor Drage, en un comunicado.

Los investigadores notaron que muchas empresas ahora analizan videos de candidatos utilizando inteligencia artificial, evaluando a los solicitantes según los “cinco grandes” rasgos de personalidad: extroversión, apertura, amabilidad, escrupulosidad y neuroticismo. Dijeron que esto es similar a cómo la IA de detección de mentiras evalúa a los candidatos.

Según Euan Ong, uno de los estudiantes que desarrollaron el estudio, estas herramientas están entrenadas para predecir la personalidad basándose en temas recurrentes en fotografías de personas que han conocido anteriormente.

Como resultado, con frecuencia descubren correlaciones erróneas entre la personalidad y aspectos aparentemente no relacionados de la imagen, como el brillo.

Recomendado:  OnePlus 10 Pro en EE. UU. ahora es compatible con la conectividad 5G de AT&T

Drage dijo que aunque las empresas que utilizan tales herramientas no actúan de mala fe, argumentó que hay “poca responsabilidad” sobre cómo se prueban estos productos.

“Como tal, esta tecnología, y la forma en que se comercializa, podría terminar como fuentes peligrosas de desinformación sobre cómo el reclutamiento puede ser ‘desprejuiciado’ y hecho más justo”.

ⓒ 2023 . .