Todas las Noticias en Películas, Avances de Películas y Reseñas.

El Comisionado de eSafety de Australia exige a las empresas tecnológicas que compartan estrategias para combatir los materiales de abuso infantil en las plataformas

El martes 30 de agosto, la comisionada de eSafety de Australia, Julie Inman Grant, pidió a gigantes tecnológicos como Apple, Microsoft y Meta que compartieran sus estrategias para identificar, bloquear y denunciar imágenes y videos de explotación infantil publicados en sus respectivas plataformas.

La lucha de Australia contra la explotación infantil

De acuerdo a El Sydney Morning Herald, Grant ha enviado cartas a los gigantes tecnológicos sobre sus procedimientos para proteger a los niños en línea.

Además de las grandes empresas, Grant también ha preguntado a Omegle sobre su estrategia para prevenir la explotación infantil, sobre todo porque los pedófilos utilizan la plataforma para hablar con menores.

Los gigantes tecnológicos deben revelar las medidas que toman para detectar y eliminar materiales de explotación infantil en un plazo de 28 días. Las empresas que no cumplan serán multadas con 383.000 dólares por día.

De acuerdo a Bloombergesta es la primera vez que el gobierno utilizará el proyecto de ley de seguridad en línea de Australia para moderar publicaciones en plataformas de redes sociales.

Lea también: Apple suspende el lanzamiento de CSAM después de recibir una reacción violenta debido a preocupaciones sobre la privacidad del usuario

Llenando el vacío

Grant señaló en su carta que los gigantes tecnológicos no están haciendo lo suficiente para proteger a los niños de los depredadores en línea.

De acuerdo a El Heraldo de la mañana de SydneyApple tiene 1.800 millones de dispositivos en todo el mundo pero sólo ha notificado 160 casos, mientras que Facebook sólo realizó 22 millones de informes a pesar de tener 2.900 millones de usuarios.

Recomendado:  Cómo 'lanzar granadas tácticas' en COD Mobile

Los gigantes tecnológicos tampoco están trabajando para mejorar las funciones de sus respectivas plataformas debido a problemas de privacidad.

Apple y Meta han introducido el cifrado de extremo a extremo en iMessage, Messenger y WhatsApp, evitando que los mensajes sean detectados y recuperados.

Esfuerzos fallidos para luchar contra los materiales ilegales en las plataformas

Aunque las empresas de tecnología parecen estar haciendo lo mínimo en lo que respecta a la protección de menores en línea, todavía hay esfuerzos para ayudar a detectar a los depredadores que explotan a los niños y llevarlos ante la justicia.

En 2021, Apple presentó su función Materiales de abuso sexual infantil, o CSAM, que escanea imágenes guardadas en iCloud. Si la función detecta fotografías inapropiadas, el sistema se comunicará con las autoridades para investigar al propietario.

La característica sonaba bien en el papel, pero inmediatamente recibió una reacción negativa del público en general y de los expertos en seguridad, citando preocupaciones sobre la privacidad. Debido a las fuertes críticas, Apple se vio obligada a suspender el lanzamiento de la función.

Ese mismo año, Facebook agregó nuevas herramientas para ayudar a prevenir la explotación infantil en la plataforma, luego de informes de que alojó la mayor cantidad de materiales de abuso sexual infantil que cualquier otro sitio en 2019.

De acuerdo a ForbesFacebook introdujo una ventana emergente que se mostrará a quienes busquen términos relacionados con la explotación infantil.

El mensaje emergente también incluye enlaces a organizaciones de infractores e información sobre las consecuencias legales de ver materiales ilegales en línea.

Además, la función informará a quienes hayan compartido contenido infantil explotador sobre el daño que puede causar y les advertirá sobre las consecuencias legales.

Recomendado:  Globo muestra “Resurrection” esta semana (08-12 / 07)

Sin embargo, a pesar de los esfuerzos de Meta para eliminar los materiales de abuso infantil de la plataforma, un ex empleado de Facebook le dijo a la Comisión de Bolsa y Valores de EE. UU. o SEC que las estrategias de la compañía son inadecuadas y carecen de recursos.

De acuerdo a BCC, El denunciante también admitió que los moderadores de Facebook no están capacitados y mal preparados para manejar la eliminación de materiales de abuso infantil.

ⓒ 2023 . .

Tabla de Contenido