El algoritmo de recorte automático de fotografías de Twitter favoreció a “rostros jóvenes, delgados y de piel clara”, según los resultados de un concurso realizado por la red social.
La empresa desactivó el recorte automático de fotografías en marzo de este año. Muchos usuarios señalaron que, al publicar una imagen grupal, las personas blancas aparecían destacadas sobre las negras.
El concurso organizado por Twitter corroboró la situación. Los participantes, expertos en Inteligencia Artificial, resaltaron los sesgos que alimentaban el sistema de la red.
Los ganadores demostraron que el algoritmo favorecía “rostros jóvenes, delgados, de piel clara, textura de piel suave y rasgos estereotípicamente femeninos”. El primer lugar lo obtuvo Bogdan Kulynych, estudiante de posgrado de la EPFL: recibió 3.500 dólares.
En segundo lugar, se señaló que estaba sesgado contra las personas de cabello blanco o gris, implicando discriminación por edad.
Mientras que en tercer lugar se destacó que privilegiaba la escritura inglesa frente a la árabe en las imágenes.
Buscando mejoras en la IA de Twitter
Recordemos que el sistema está en constante desarrollo, por lo que aún se puede mejorar. Lo que Twitter buscaba era, basándose en opiniones y hallazgos de expertos, una mejor guía para el recorte automático de fotografías.
Rumman Chowdhury, jefe del equipo META de Twitter, analizado los resultados.
el 3er lugar es para @RoyaPak quien experimentó con el algoritmo de prominencia de Twitter usando memes bilingües. Esta entrada muestra cómo el algoritmo favorece el recorte de las escrituras latinas sobre las árabes y lo que esto significa en términos de daños a la diversidad lingüística en línea.
— Ingeniería de Twitter (@TwitterEng) 9 de agosto de 2021
Dijo: “Cuando pensamos en los sesgos de nuestros modelos, no se trata sólo de lo académico o lo experimental”, dijo el ejecutivo. (Se trata de) cómo eso también funciona con la forma en que pensamos sobre la sociedad”.
“Yo uso la frase ‘la vida imita al arte y el arte imita a la vida’. Creamos estos filtros porque pensamos que eso es lo bello, y eso termina entrenando a nuestros modelos e impulsando estas nociones poco realistas de lo que significa ser atractivo”.
El equipo META de Twitter estudia la ética, la transparencia y la responsabilidad del aprendizaje automático.
¿Cómo llegó el ganador a su conclusión?
Para que Bogdan Kulynych llegara a su conclusión sobre el algoritmo de Twitter, utilizó un programa de inteligencia artificial llamado StyleGAN2. Con él generó una gran cantidad de rostros reales que varió según el color de la piel, así como los rasgos faciales femeninos versus masculinos y la delgadez.
¡Vaya, esta fue una conclusión inesperada de la semana! Mi envío obtuvo el primer lugar en el programa Algorithmic Bias de Twitter. Muchas gracias a @ruchowdh, @TwitterEsp El equipo META y el jurado…
– Bogdan Kulynych (@hiddenmarkov) 8 de agosto de 2021
Como explica Twitter, Kulynych introdujo las variantes en el algoritmo de recorte automático de fotografías de la red y encontró cuál era su favorita.
“(Recortaron) aquellos que no cumplían con las preferencias del algoritmo en cuanto a peso corporal, edad y color de piel”, destacó el experto en sus resultados.
Empresas y prejuicios raciales, ¿cómo se abordan?
Twitter, con su concurso, confirmó la naturaleza generalizada del sesgo social en los sistemas algorítmicos. Ahora surge un nuevo desafío: ¿cómo combatir estos sesgos?
“La IA y el aprendizaje automático son sólo el Salvaje Oeste, sin importar cuán hábil crea que es su equipo de ciencia de datos”, señaló Patrick Hall, investigador de IA.
“Si usted no encuentra sus errores, o si las recompensas por errores no encuentran sus errores, ¿quién los encuentra? Porque tienes errores”.
Sus palabras recuerdan el trabajo de otras empresas cuando tuvieron fracasos similares. The Verge recuerda que cuando un equipo del MIT encontró prejuicios raciales y de género en los algoritmos de reconocimiento facial de Amazon, la empresa desacreditó a los investigadores.
Posteriormente tuvo que prohibir temporalmente el uso de dichos algoritmos.