TLDR / Puntos clave
-
Apple anunció dos nuevas funciones: seguridad de la comunicación en Mensajes y detección de CSAM en Fotos de iCloud
La respuesta de Apple a los crÃticos: no hay riesgos sustanciales para los niños y se conserva el cifrado de extremo a extremo
Apple deberÃa haber anticipado las consecuencias y abordar de manera proactiva las posibles preocupaciones
Hay medidas de mitigación disponibles para posibles explotaciones preocupantes.
Estas medidas de mitigación deben probarse y perfeccionarse durante este lanzamiento inicial limitado.
La Electronic Frontier Foundation (EFF) emitió recientemente un comunicado en el que argumentó que Apple estaba cambiando su postura en contra de la creación de una puerta trasera de cifrado. Esto, argumentó la EFF, se estaba haciendo para abordar el problema ciertamente grave de la explotación infantil, pero que al hacerlo, el enfoque de Apple estaba ‘abriendo la puerta a un abuso más amplio’, incluidos los niños muy vulnerables que Apple pretendÃa proteger. asà como por parte de actores malignos para explotar este sistema y derrotar el cifrado a voluntad.
Apple se encogió de hombros
Tomó un fin de semana, pero luego Apple habló. Parece que la distopÃa orwelliana no estaba arrasando el tranquilo campo después de todo, y esa privacidad individual, y de hecho la razón (trollear tanto a Shelley como a Rand), aún podrÃa respirar. De hecho, las preguntas frecuentes de Apple cambiaron sustancialmente el enfoque de este artÃculo. Aparte de TMOAndrew Orr’s, ha habido muchas inmersiones profundas en lo que es y no es esta tecnologÃa, cómo funciona, lo que Apple ha dicho en respuesta a consultas y lo que queda de posibles exploits plausibles. Dado el volumen de explicaciones autorizadas, no las repetiremos aquÃ, excepto para resaltar cuestiones clave y la refutación de Apple, antes de discutir la respuesta de la comunidad de Apple, asà como las opciones para mitigar amenazas legÃtimas.
Brevemente, se están implementando dos tecnologÃas distintas, inicialmente en iOS y iPadOS 15, watchOS 8 y posteriores, en macOS Monterey, y solo están disponibles en los EE. UU. No está tan claro si y cuándo estarán disponibles en otros paÃses, pero una implementación inicial limitada se ajusta a las mejores prácticas de diligencia debida antes de una distribución más amplia.
Seguridad de la comunicación
La primera es una nueva función en Mensajes, Seguridad de la comunicación y ‘… solo está disponible para cuentas familiares configuradas en iCloud’. Las cuentas de padres o tutores deben optar por la función, que solo afecta a las cuentas familiares de usuarios menores o iguales a 12 años. Esta función notifica al niño si está recibiendo / enviando contenido para adultos, que inicialmente aparece borroso, y le advierte que si continúa, se notificará a sus padres. No notifica a los padres si los niños son mayores de 12 años. Apple no está ni desea estar al tanto de estas comunicaciones, ni notifica a las autoridades policiales. La función no interrumpe el cifrado de un extremo a otro (consulte las preguntas frecuentes de Apple), pero proporciona a las vÃctimas de abusos y a quienes conocen a las vÃctimas información sobre cómo buscar ayuda.
Esta fue la menos controvertida de las dos notificaciones. Algunos han notado que esta función podrÃa excluir a los niños que no cumplen con el género; sin embargo, esto se aplicarÃa solo a aquellos en una cuenta familiar habilitada, e incluso entonces, solo funcionarÃa en Mensajes para niños de 12 años o menos. Otros ya han señalado que hay muchas aplicaciones de terceros, comúnmente utilizadas por sus compañeros, donde estos niños pueden comunicarse y lo hacen libremente sin la supervisión de sus padres.
CSAM, Fotos e iCloud
La segunda caracterÃstica fue el enfoque de Apple sobre el ‘Material de abuso sexual infantil’ (CSAM), que es una tecnologÃa y un conjunto de caracterÃsticas independientes. Esta función solo se aplica a las fotos que un usuario intenta cargar en iCloud, el servicio de almacenamiento en la nube de propiedad de Apple, por el cual tiene responsabilidad (y obligación).
Apple afirma: ‘El sistema no funciona para usuarios que tienen las fotos de iCloud deshabilitadas. Esta función no funciona en la biblioteca de fotos privada de su iPhone en el dispositivo ‘. Es importante destacar que Apple no está ‘escaneando’ NINGÚN fotos reales en su dispositivo. Más bien, la compañÃa está utilizando hashes neuronales ilegibles (cadenas de números y ecuaciones matemáticas) que se almacenan en el dispositivo y que corresponden a imágenes CSAM conocidas para evitar que dichas imágenes se carguen en iCloud. En sus preguntas frecuentes, la compañÃa dijo: “Apple no aprenderá nada sobre otros datos almacenados únicamente en el dispositivo”. Por lo tanto, no se está haciendo “escaneo”, como se entiende comúnmente.
Craig Federighi explicó que esto se envuelve en un ‘vale de seguridad’, que contiene el resultado del partido, y que esto es lo que se carga en iCloud. En iCloud se realizan más cálculos matemáticos sobre el contenido del cupón, y solo si se alcanza un “umbral” en la cantidad de contenido, “se aprende algo”, momento en el que un humano se involucra solo en ese contenido.
Además, “no hay informes automatizados para las fuerzas del orden, y Apple realiza una revisión humana antes de presentar un informe al NCMEC” (el Centro Nacional para Niños Desaparecidos y Explotados). Apple declaró que las imágenes que no sean CSAM no se marcarán, ni se pueden agregar al sistema, e incluso si un paÃs intentara incluir otras imágenes, la revisión a nivel humano las eliminarÃa y no se reportarÃan. Hay más información sobre lo que sucede en iCloud en los enlaces a las discusiones de Andrew y Rene Ritchie.
Siguiente: El contexto es el rey