Todas las Noticias en Películas, Avances de Películas y Reseñas.

Foto de Barack Obama se vuelve blanco, ¿prueba de que la tecnología de IA es racista?

– Después de ser procesada por un algoritmo basado en IA, una foto de baja resolución de Barack Obama se convierte en una persona blanca. Este descubrimiento vuelve a demostrar la existencia de prejuicios raciales en la tecnología de IA (Inteligencia Artificial).

Recientemente, este sesgo racial ha estado en el punto de mira en los Estados Unidos desde que la policía usó tecnología reconocimiento facial para vigilar a los manifestantes de Black Lives Matter.

El algoritmo utilizado para procesar la foto de Barack Obama es el algoritmo PULSE que está integrado en el software Face Depixelizer, y la técnica implementada es ampliación combinado con aprendizaje automático.

No es sólo la foto de Obama la que es la víctima. A partir de un experimento realizado por Robert Osazuwa Ness, un ingeniero de investigación que fundó altdeep.ai, una foto de la estrella de cine Lucy Liu y la congresista estadounidense Alexandria Ocasio-Cortez también se vuelve blanca.

Según Ness, el problema del prejuicio racial es común en aprendizaje automático así que no fue nada sorprendente para él. Sin embargo, esta vez el caso recibió más atención porque involucraba a Barack Obama.

Ness dijo que Barack Obama es una figura tan icónica que es fácil de reconocer incluso si su rostro está oscurecido por la mala calidad de las fotos. Entonces, la incapacidad del algoritmo de IA para identificar su rostro es un ejemplo preocupante de sesgo racial.

En su explicación, los desarrolladores del algoritmo PULSE afirmaron que, de hecho, el algoritmo nunca se entrenó con el conjunto de datos. PULSE usa un modelo generativo de StyleGAN, mientras que StyleGAN se entrena con un conjunto de datos tomado de Flickr.

Recomendado:  Avengers: Ultimatum – la foto detrás del escenario muestra al Dr. Strange y Wanda trabajando juntos

Por otro lado, Denis Malimonov como desarrollador de Face Depixelizer explicó que el software no está destinado a restaurar o aclarar imágenes de baja resolución, sino solo a adivinar la estructura del rostro de una persona en una foto.

Relacionado con este caso, surgió un feroz debate entre académicos, investigadores e ingenieros, algunos de los cuales se llevaron a cabo en redes sociales como Twitter.

Algunos de ellos insisten en que el problema es el conjunto de datos utilizado para entrenar el algoritmo, otros piensan que la fuente del problema es mucho más complicada que solo el conjunto de datos y el algoritmo.

Independientemente de la causa, mientras persista el problema del sesgo racial, el uso de la IA para reconocer rostros en investigaciones criminales debe detenerse o al menos controlarse mediante una regulación estricta.