Todas las Noticias en Películas, Avances de Películas y Reseñas.

Apple amplía la seguridad infantil a través de mensajes, fotos y Siri

Apple está ampliando sus esfuerzos para combatir el material de abuso sexual infantil (CSAM) en toda su plataforma. El escaneo de contenido en Mensajes, Fotos de iCloud y búsquedas web llegará a iOS | iPadOS 15 y macOS Monterey este otoño.

Fotos de iCloud

Apple comenzó a buscar CSAM en iCloud en 2019, o al menos fue entonces cuando la compañía actualizó su política de privacidad para reflejar el cambio. Según la política:

También podemos utilizar su información personal para fines de seguridad de la cuenta y la red, incluso para proteger nuestros servicios en beneficio de todos nuestros usuarios, y para realizar una preselección o escaneo del contenido cargado en busca de contenido potencialmente ilegal, incluido el material de explotación sexual infantil.

En las próximas versiones de sus sistemas operativos, Apple moverá este escaneo localmente en los dispositivos, al igual que lo hace con otro aprendizaje automático. Apple llama a este algoritmo de escaneo “NeuralHash”.

Antes de cargar una foto en iCloud, se comparará un hash o “huella digital” de la imagen con una base de datos del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC).

Esta base de datos contiene los valores hash de CSAM conocidos según se descubrió en las investigaciones policiales. Si una foto alcanza un cierto umbral, se marcará y se enviará a Apple para su revisión manual. Esta revisión garantiza la precisión y se asegura de que no haya sido un falso positivo. Apple dice que hay “menos de una en un billón de posibilidades por año de marcar incorrectamente una cuenta determinada”.

La cuenta del usuario se bloqueará y Apple compartirá sus hallazgos con NCMEC. Si un usuario siente que su cuenta ha sido marcada por error, puede presentar una apelación para que se restablezca su cuenta. La frase “MASI conocido” es importante. Solo se detectarán las fotos que se hayan encontrado previamente en una investigación policial y su hash almacenado en la base de datos del NCMEC.

Recomendado:  La actualización de AT&T BlackBerry DTEK50 se implementa con el parche de seguridad de junio, versión AAM312

Apple tiene más información en su página web de seguridad infantil, así como una explicación técnica en un PDF.

Mensajes

Otra medida de seguridad se encontrará en Mensajes. La aplicación agregará nuevas herramientas para advertir a los niños y a sus padres cuando reciban o envíen fotos sexualmente explícitas. Si un niño, que forma parte de una cuenta de iCloud Family, recibe o envía una imagen que el sistema considera sexualmente explícita, se verá borrosa y el niño será advertido a través de explicaciones en pantalla.

Apple compartió capturas de pantalla de un ejemplo. Aparecerá una ventana emergente que dice “Esto podría ser sensible a la vista. ¿Está seguro?” Junto con explicaciones fáciles de entender. Si el niño opta por recibir la imagen, sus padres recibirán una notificación.

Siri y la búsqueda

Finalmente, Apple proporcionará recursos adicionales para Siri y la función de búsqueda incorporada. A las personas que le pregunten a Siri cómo pueden denunciar el abuso sexual infantil o infantil o la explotación infantil, se les indicarán recursos sobre dónde y cómo presentar una denuncia. Siri y Search también se están actualizando para intervenir cuando los usuarios realizan búsquedas de consultas relacionadas con CSAM. “Estas intervenciones explicarán a los usuarios que el interés en este tema es dañino y problemático, y proporcionarán recursos de los socios para obtener ayuda con este problema”.

Junto con los detalles técnicos, la página web de Apple comparte evaluaciones técnicas del sistema de detección CSAM de expertos en criptografía y aprendizaje automático.