Todas las Noticias en Películas, Avances de Películas y Reseñas.

Apple ahora analiza el contenido cargado en busca de imágenes de abuso infantil (actualización)

Publicado originalmente el 5 de junio de 2019 con actualizaciones ocasionales para agregar nueva información.

De vez en cuando me gusta consultar las páginas de seguridad y las políticas de privacidad de Apple. Noté algo nuevo en la política de privacidad, que se actualizó por última vez el 9 de mayo de 2019. Debajo del encabezado “Cómo usamos su información personal”, uno de los párrafos ahora dice (énfasis agregado):

También podemos utilizar su información personal para fines de seguridad de la cuenta y la red, incluso para proteger nuestros servicios en beneficio de todos nuestros usuarios, y preselección o Escanear el contenido subido en busca de contenido potencialmente ilegal, incluido el material de explotación sexual infantil.

PhotoDNA

Es posible que Apple incluso haya estado haciendo esto durante años, pero esta es la primera vez que aparece en su política de privacidad. Y verifiqué versiones anteriores usando Wayback Machine. Me arriesgo y supongo que Apple está usando PhotoDNA. Esta es una tecnología desarrollada por Microsoft en 2009:

PhotoDNA se utiliza principalmente en la prevención de la pornografía infantil y funciona calculando un hash único que representa la imagen. Este hash se calcula de manera que sea resistente a las alteraciones en la imagen, incluido el cambio de tamaño y las alteraciones menores de color. Funciona convirtiendo la imagen a blanco y negro, redimensionándola, dividiéndola en una cuadrícula y observando gradientes de intensidad o bordes.

Microsoft finalmente donó PhotoDNA al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC). Es utilizado por empresas como Facebook, Twitter, Google y otras. Básicamente, funciona creando un hash de una foto o video, comparándolo con hash conocidos de pornografía infantil en la base de datos del Programa de Identificación de Víctimas Infantiles del NCMEC y viendo si hay una coincidencia.

Ahora, las empresas que escanean el contenido de los usuarios son un poco preocupantes incluso si se usan para bien en casos como este, especialmente Apple dada su postura de privacidad. Según las preguntas frecuentes de PhotoDNA de Microsoft, las imágenes se convierten instantáneamente en un hash seguro y no se pueden aplicar ingeniería inversa. PhotoDNA se utiliza específicamente para la pornografía infantil y no se puede utilizar para buscar otro contenido.

Recomendado:  Apple celebra el año nuevo chino con una película para iPhone X

Una posibilidad es que el escaneo de Apple lo realice el demonio de fotoanálisis. Este es el algoritmo que se utiliza para detectar personas, objetos, etc. en sus fotos, y se realiza de forma local. Eso podría estar implícito en la frase “preselección”. Pero la palabra “contenido subido” me hace tropezar. ¿Apple está escaneando cosas en iCloud Drive o solo fotos de iCloud? El “escaneo” también es un problema. Lo uso porque esa es la palabra que usa Apple, pero no creo que comparar hashes sea lo mismo que “escanear”.

Seguridad de iCloud

En su página de descripción general de seguridad de iCloud, Apple dice que los datos de los clientes están encriptados en tránsito y en los servidores de iCloud. Esto incluye tanto la aplicación Fotos como el contenido almacenado en iCloud Drive. Así que me pregunto en qué punto Apple escanea el contenido. Claramente antes de que se cifre.

Sabemos que Apple también almacena las claves de cifrado en la nube, de acuerdo con las Pautas de proceso legal de la compañía. [PDF]. Así es como Apple lo ayuda a restablecer su contraseña y a proporcionar datos a las fuerzas del orden bajo una citación. Además, los términos legales de Apple para iCloud dicen lo siguiente (énfasis agregado):

C. Eliminación de contenido

Usted reconoce que Apple no es responsable de ninguna manera por el Contenido proporcionado por otros y no tiene la obligación de preseleccionar dicho Contenido. Sin embargo, Apple se reserva el derecho en todo momento de determinar si el Contenido es apropiado y cumple con este Acuerdo, y puede preseleccionar, mover, rechazar, modificar y / o eliminar Contenido en cualquier momento, sin previo aviso y a su sola discreción, si se determina que dicho Contenido infringe este Acuerdo o es objetable de otro modo.

¿Cómo puede Apple determinar si el contenido es apropiado o no si no está escaneando el contenido de iCloud a pesar de que está encriptado? O, como mencioné, tal vez esté haciendo todo este escaneo durante la carga / antes del cifrado. No me malinterpretes, no tengo ningún problema con el escaneo de Apple en busca de contenido de abuso infantil, pero me gustaría saber el alcance del conocimiento de Apple sobre el contenido general del cliente.

Recomendado:  Australia y Alemania también obtienen el Asistente de Google para dispositivos Marshmallow y Nougat

La palabra “apropiado” debe definirse porque, como vimos en 2012, Apple una vez eliminó el guión de un guionista adjunto a un correo electrónico porque tenía un personaje viendo un anuncio pornográfico en su computadora:

Y LUEGO LO VI: una línea en el guión que describe a un personaje que ve un anuncio de un sitio pornográfico en la pantalla de su computadora. Al modificar esta línea, se entregó todo el documento sin problemas.

Me comuniqué con Apple con preguntas y actualizaré este artículo si obtengo una respuesta.

Nota: Además, un detalle crucial que un lector señala a continuación es que el cifrado de extremo a extremo para el contenido de iCloud solo se activa si habilita la autenticación de dos factores. Pero eso no incluye iCloud Drive o iCloud Photos. El cifrado de un extremo a otro es diferente al “cifrado en tránsito y en reposo en el servidor”.

Actualización: 2019-10-25

Henry Farid, una de las personas que ayudó a desarrollar PhotoDNA, escribió un artículo para Cableado diciendo:

Los avances recientes en cifrado y hash significan que tecnologías como PhotoDNA pueden operar dentro de un servicio con cifrado de extremo a extremo. Ciertos tipos de algoritmos de cifrado, conocidos como homomórficos parcial o totalmente, pueden realizar hash de imágenes en datos cifrados. Esto significa que las imágenes de los mensajes cifrados se pueden comparar con material dañino conocido sin que Facebook o cualquier otra persona pueda descifrar la imagen. Este análisis no proporciona información sobre el contenido de una imagen, preservando la privacidad, a menos que sea una imagen conocida de abuso sexual infantil.

Creo que el cifrado homomórfico es todavía relativamente nuevo y no creo que Apple lo utilice actualmente. Pero yo pudo vea a Apple usándolo porque puede realizar cálculos sobre datos cifrados con esta técnica, similar a lo que Apple puede hacer con la privacidad diferencial. Espero la guía de seguridad de iOS 13 para ver si puedo obtener alguna información. O como mencioné anteriormente, tal vez Apple solo escanee este contenido antes de se carga y se cifra.

Recomendado:  La actualización 9.1.24 de Google Play Store ya está disponible [APK download]

Actualización: 2020-01-08

Parece que finalmente puedo tener una respuesta. Hablando en CES 2020, la directora de privacidad de Apple, Jane Horvath, mencionó las fotos respaldadas en iCloud en términos de escaneo.

Como parte de este compromiso, Apple utiliza tecnología de coincidencia de imágenes para ayudar a encontrar y denunciar la explotación infantil. Al igual que los filtros de correo no deseado en el correo electrónico, nuestros sistemas utilizan firmas electrónicas para detectar sospechas de explotación infantil.

“Las cuentas con contenido de explotación infantil violan nuestros términos y condiciones de servicio, y cualquier cuenta que encontremos con este material será deshabilitada.

Es bueno escuchar finalmente algo oficial de Apple.

Actualización: 2020-02-11

Una orden de registro reveló que Apple escanea los correos electrónicos en busca de este contenido.

Actualización: 2021-08-09

Ha sido un fin de semana ajetreado. La actualización original de Apple de su política de privacidad fue silenciosa, pero ahora han hecho un anuncio público. Este artículo fue un intento de averiguar exactamente qué estaba haciendo Apple y cuándo. Por ejemplo, ¿cómo pueden buscar este material si los datos de iCloud están encriptados?

Apple busca valores hash de CSAM conocidos durante su carga en iCloud, que es lo que significa el término “preselección” como se compartió anteriormente. Pero ahora han movido este algoritmo de escaneo y base de datos hash localmente en todos los dispositivos. Es un término medio inteligente entre la privacidad y la invasión.

Tampoco es PhotoDNA; en su lugar, Apple creó su propia tecnología que llama NeuralHash. Hay un PDF técnico aquí, así como un PDF fácil de entender aquí.

En pocas palabras: a pesar del escaneo realizado localmente, solo escanea las fotos cargadas en iCloud Photos. Las fotos que no sean de iCloud no se verán afectadas, ni (sospecho) las fotos almacenadas en otros lugares como la aplicación Archivos.

Tabla de Contenido