Todas las Noticias en Películas, Avances de Películas y Reseñas.

Los investigadores desarrollan algoritmos de “imparcialidad” para reducir el sesgo de la IA y garantizar la privacidad

El sesgo en los algoritmos siempre ha sido una cuestión clave en el creciente campo de la inteligencia artificial. Por ejemplo, los investigadores descubrieron en un experimento que la IA defectuosa en los robots tiende a crear estereotipos raciales y de género. Otro estudio sostiene que las herramientas de contratación de IA no han logrado reducir el sesgo y que sólo equivalen a una “pseudociencia automatizada”.

Para abordar este problema, algunos desarrolladores se están asegurando de que sus algoritmos no presenten sesgos dañinos, especialmente en los campos de la banca, la atención médica y muchos más. Estos se denominan algoritmos de “imparcialidad”.

Ahora, un grupo de investigadores de la Escuela de Ingeniería Viterbi de la Universidad del Sur de California (USC) ha desarrollado FairFed, un algoritmo que mejora la equidad y que también promete mantener los datos seguros.

Aprendizaje federado

Según el equipo de investigación, eliminar el sesgo de las fuentes de información puede reducir el sesgo en los algoritmos de aprendizaje automático (ML). Sin embargo, los datos de origen no siempre son accesibles.

Esto es evidente en el aprendizaje federado, donde se utiliza un método de aprendizaje automático para entrenar algoritmos en varios conjuntos de datos descentralizados sin la necesidad de intercambiar muestras de datos locales.

“El aprendizaje federado se ha visto como una solución prometedora para entrenar modelos de aprendizaje automático de forma colaborativa entre múltiples partes manteniendo al mismo tiempo la privacidad de sus datos locales”, dijo Shen Yan, coautor del estudio, en un declaración.

“Sin embargo, el aprendizaje federado también plantea nuevos desafíos para mitigar el posible sesgo contra ciertas poblaciones (por ejemplo, grupos demográficos), ya que esto generalmente requiere acceso centralizado a la información confidencial (por ejemplo, raza, género) de cada punto de datos”.

Recomendado:  Revisión | Cazadores de sombras – Temporada 3

Por lo tanto, FairFed se desarrolló para mejorar la equidad en el aprendizaje federado.

Lea también: Un nuevo estudio afirma que ChatGPT servirá como ayuda de investigación para académicos, no como una amenaza

¿Cómo funciona FairFed?

Cada entidad realiza la eliminación del sesgo local en el conjunto de datos de FairFed. Al utilizar información sobre la población local, desvían su algoritmo.

Estas entidades determinan una métrica de equidad local, que evalúa la equidad del algoritmo para la población local.

Luego, las entidades evalúan la imparcialidad del modelo global en sus conjuntos de datos locales y trabajan con el servidor para cambiar los pesos de agregación del modelo y mejorar el rendimiento de eliminación de sesgos local.

Los resultados del algoritmo hasta ahora han deleitado al equipo de investigación. Afirman que FairFed ofrece un método práctico y exitoso para mejorar los sistemas de aprendizaje federados.

Los “datos heterogéneos”, o datos que tienen una amplia variedad de formas y formatos, están presentes en situaciones de toma de decisiones del mundo real. Por lo tanto, el equipo utilizó diversos datos para analizar FairFed.

En condiciones de alta heterogeneidad de datos, descubrieron que FairFed tuvo un mejor desempeño que los marcos de aprendizaje federados justos de vanguardia, lo que garantizó que los resultados fueran más equitativos para varios grupos demográficos.

Yan afirmó que durante la fase de agregación, lograron desviar el sistema de aprendizaje federado. El investigador señala que esto garantizará que el sistema no acceda a los datos de un individuo y también tome decisiones justas.

El equipo discutirá más a fondo sus hallazgos en la próxima 37ª Conferencia AAAI sobre Inteligencia Artificialun evento que promueve la investigación en el campo de la IA.

Recomendado:  Las 6 mejores alternativas de iTunes que puedes usar (2023)

ⓒ 2023 . .