Todas las Noticias en Películas, Avances de Películas y Reseñas.

El sistema de moderación automática de Facebook falla durante las elecciones intermedias y aprobó casi 20 anuncios que amenazan a los trabajadores

Mientras Meta pretende vencer las noticias falsas mediante el diseño de una estrategia contra la desinformación para las elecciones de mitad de período, parece que no tuvo éxito. Los investigadores presentaron veinte anuncios para pruebas que contienen una amenaza para los trabajadores, y 15 de ellos fueron aprobados por Facebook.

El sistema de moderación automática de Facebook durante las elecciones de mitad de período

Durante los preparativos para las elecciones de mitad de período, Facebook declaró que no permitiría contenido que amenazara con violencia grave para todos, no hasta que investigadores de Cybersecurity for Democracy de Nueva York y el organismo de control Global Witness presentaran 20 anuncios de prueba para saber qué hará Facebook con ellos.

Estos anuncios contienen amenazas hacia los trabajadores electorales que fueron descritas por New York Times como ‘amenazar con linchar, asesinar, ejecutar’, que contengan un lenguaje claro para que sea fácilmente detectado.

De 20, la plataforma aprobó 15 anuncios antes de las elecciones estadounidenses del mes pasado. Antes de publicar el estudio, los investigadores ya eliminaron los anuncios aprobados.

Se presentaron diez anuncios en español y seis de ellos fueron aprobados. Mientras que los otros diez contienen el idioma inglés, con nueve anuncios aprobados. El registro informó que los anuncios de prueba se basaron en ejemplos reales contra trabajadores electorales que modificaron para que fueran legibles.

Los investigadores explicaron: “Eliminamos las malas palabras de las amenazas de muerte y corregimos los errores gramaticales, ya que en una investigación anterior Facebook inicialmente rechazó los anuncios que contenían discursos de odio por estos motivos y luego los aceptó para su publicación una vez que los editamos”.

Recomendado:  La corte ordenó a Telegram que actúe estrictamente sobre los grupos que distribuyen contenido pirateado

Esto demuestra que depender de la moderación de la IA puede ser arriesgado para que una plataforma enorme derrote la información errónea y el discurso de odio hacia todos. Esto también corre el riesgo de que los anuncios no se detecten hasta que sean visibles para el público, que es lo que se supone que debe hacer la IA.

Declaración de Meta

El portavoz de Meta afirmó que las cuentas que enviaron los anuncios de prueba fueron posteriormente desactivadas. También aclararon que una vez que los anuncios se publican, Facebook continúa revisándolos.

El portavoz añadió: “Esta es una pequeña muestra de anuncios que no son representativos de lo que la gente ve en nuestras plataformas. El contenido que incita a la violencia contra los trabajadores electorales o cualquier otra persona no tiene cabida en nuestras aplicaciones, y informes recientes han dejado claro que la capacidad de Meta para abordar estos problemas de manera efectiva excede el de otras plataformas”.

Lea también: TikTok se prepara para la desinformación sobre las elecciones de mitad de período con la función del centro electoral

Prueba de anuncios en otras plataformas

Engadget informó que los investigadores también investigaron otras plataformas además de Facebook. Estos incluyen TikTok y YouTube, cuyas plataformas impidieron la publicación de todos los anuncios amenazantes, seguido de la prohibición de las cuentas.

TikTok lanzó una función que monitorea violaciones como falsificaciones dañinas, incitación a la violencia, desinformación y acoso a los trabajadores electorales. La función del Centro de Elecciones es un esfuerzo de TikTok para transmitir información errónea a la plataforma.

Recomendado:  Deep Dream Generator redefine la forma en que pensamos sobre el arte de la IA

Esto también fue una gran mejora para YouTube, ya que la plataforma también experimentó antes durante las elecciones en Brasil. YouTube y Facebook permitieron que se publicara toda la información errónea sobre las elecciones durante una pasada inicial. Mientras tanto, Facebook rechazó el 50% de los envíos de seguimiento.

ⓒ 2023 . .