Todas las Noticias en Películas, Avances de Películas y Reseñas.

¿Qué podría ser el próximo paso de las propuestas de CSAM de Apple?

Las propuestas de Apple para abordar el Material de Abuso Sexual Infantil (MASI), como habrás notado, han atraído cierta controversia. Ahora que se ha retrasado el lanzamiento de nuevas funciones, Cableado eché un vistazo a lo que vendría después.

Es poco probable que la compañía pueda convencer o complacer a todos con lo que sigue, y las consecuencias de sus planes han creado un lío tremendo. Las complejidades técnicas de las propuestas de Apple han reducido algunas discusiones públicas a declaraciones contundentes, a favor o en contra, y el lenguaje explosivo, en algunos casos, ha polarizado el debate. Las consecuencias se producen cuando la Comisión Europea prepara una legislación de protección infantil que podría obligar a las empresas de tecnología a escanear en busca de CSAM. “El movimiento [for Apple] hacer algún tipo de revisión de contenido era desde hace mucho tiempo ”, dice Victoria Baines, experta en ciberseguridad que ha trabajado tanto en Facebook como en Europol en investigaciones de seguridad infantil. Las empresas de tecnología están obligadas por la ley de EE. UU. A reportar cualquier CSAM que encuentren en línea al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), una organización de seguridad infantil sin fines de lucro de EE. UU., Pero Apple históricamente se ha quedado atrás de sus competidores.

Echale un vistazo: ¿Qué podría ser el próximo paso de las propuestas de CSAM de Apple?

Recomendado:  Lectura de fin de semana: "Marketing multiplicado" por Mike Moore y Peter Thomas