Todas las Noticias en Películas, Avances de Películas y Reseñas.

Funciones de seguridad de protección infantil propuestas por Apple: un asunto pendiente

TLDR / Puntos clave

          Apple anunció dos nuevas funciones: seguridad de la comunicación en Mensajes y detección de CSAM en Fotos de iCloud
          La respuesta de Apple a los críticos: no hay riesgos sustanciales para los niños y se conserva el cifrado de extremo a extremo
          Apple debería haber anticipado las consecuencias y abordar de manera proactiva las posibles preocupaciones
          Hay medidas de mitigación disponibles para posibles explotaciones preocupantes.
          Estas medidas de mitigación deben probarse y perfeccionarse durante este lanzamiento inicial limitado.

La Electronic Frontier Foundation (EFF) emitió recientemente un comunicado en el que argumentó que Apple estaba cambiando su postura en contra de la creación de una puerta trasera de cifrado. Esto, argumentó la EFF, se estaba haciendo para abordar el problema ciertamente grave de la explotación infantil, pero que al hacerlo, el enfoque de Apple estaba ‘abriendo la puerta a un abuso más amplio’, incluidos los niños muy vulnerables que Apple pretendía proteger. así como por parte de actores malignos para explotar este sistema y derrotar el cifrado a voluntad.

Apple se encogió de hombros

Tomó un fin de semana, pero luego Apple habló. Parece que la distopía orwelliana no estaba arrasando el tranquilo campo después de todo, y esa privacidad individual, y de hecho la razón (trollear tanto a Shelley como a Rand), aún podría respirar. De hecho, las preguntas frecuentes de Apple cambiaron sustancialmente el enfoque de este artículo. Aparte de TMOAndrew Orr’s, ha habido muchas inmersiones profundas en lo que es y no es esta tecnología, cómo funciona, lo que Apple ha dicho en respuesta a consultas y lo que queda de posibles exploits plausibles. Dado el volumen de explicaciones autorizadas, no las repetiremos aquí, excepto para resaltar cuestiones clave y la refutación de Apple, antes de discutir la respuesta de la comunidad de Apple, así como las opciones para mitigar amenazas legítimas.

Recomendado:  Las tarjetas Coinbase ahora se pueden agregar a Apple Pay

Brevemente, se están implementando dos tecnologías distintas, inicialmente en iOS y iPadOS 15, watchOS 8 y posteriores, en macOS Monterey, y solo están disponibles en los EE. UU. No está tan claro si y cuándo estarán disponibles en otros países, pero una implementación inicial limitada se ajusta a las mejores prácticas de diligencia debida antes de una distribución más amplia.

Seguridad de la comunicación

La primera es una nueva función en Mensajes, Seguridad de la comunicación y ‘… solo está disponible para cuentas familiares configuradas en iCloud’. Las cuentas de padres o tutores deben optar por la función, que solo afecta a las cuentas familiares de usuarios menores o iguales a 12 años. Esta función notifica al niño si está recibiendo / enviando contenido para adultos, que inicialmente aparece borroso, y le advierte que si continúa, se notificará a sus padres. No notifica a los padres si los niños son mayores de 12 años. Apple no está ni desea estar al tanto de estas comunicaciones, ni notifica a las autoridades policiales. La función no interrumpe el cifrado de un extremo a otro (consulte las preguntas frecuentes de Apple), pero proporciona a las víctimas de abusos y a quienes conocen a las víctimas información sobre cómo buscar ayuda.

Esta fue la menos controvertida de las dos notificaciones. Algunos han notado que esta función podría excluir a los niños que no cumplen con el género; sin embargo, esto se aplicaría solo a aquellos en una cuenta familiar habilitada, e incluso entonces, solo funcionaría en Mensajes para niños de 12 años o menos. Otros ya han señalado que hay muchas aplicaciones de terceros, comúnmente utilizadas por sus compañeros, donde estos niños pueden comunicarse y lo hacen libremente sin la supervisión de sus padres.

Recomendado:  Microsoft advierte a los usuarios que la última actualización de Windows 10 puede generar errores en el dispositivo

CSAM, Fotos e iCloud

La segunda característica fue el enfoque de Apple sobre el ‘Material de abuso sexual infantil’ (CSAM), que es una tecnología y un conjunto de características independientes. Esta función solo se aplica a las fotos que un usuario intenta cargar en iCloud, el servicio de almacenamiento en la nube de propiedad de Apple, por el cual tiene responsabilidad (y obligación).

Apple afirma: ‘El sistema no funciona para usuarios que tienen las fotos de iCloud deshabilitadas. Esta función no funciona en la biblioteca de fotos privada de su iPhone en el dispositivo ‘. Es importante destacar que Apple no está ‘escaneando’ NINGÚN fotos reales en su dispositivo. Más bien, la compañía está utilizando hashes neuronales ilegibles (cadenas de números y ecuaciones matemáticas) que se almacenan en el dispositivo y que corresponden a imágenes CSAM conocidas para evitar que dichas imágenes se carguen en iCloud. En sus preguntas frecuentes, la compañía dijo: “Apple no aprenderá nada sobre otros datos almacenados únicamente en el dispositivo”. Por lo tanto, no se está haciendo “escaneo”, como se entiende comúnmente.

Craig Federighi explicó que esto se envuelve en un ‘vale de seguridad’, que contiene el resultado del partido, y que esto es lo que se carga en iCloud. En iCloud se realizan más cálculos matemáticos sobre el contenido del cupón, y solo si se alcanza un “umbral” en la cantidad de contenido, “se aprende algo”, momento en el que un humano se involucra solo en ese contenido.

Además, “no hay informes automatizados para las fuerzas del orden, y Apple realiza una revisión humana antes de presentar un informe al NCMEC” (el Centro Nacional para Niños Desaparecidos y Explotados). Apple declaró que las imágenes que no sean CSAM no se marcarán, ni se pueden agregar al sistema, e incluso si un país intentara incluir otras imágenes, la revisión a nivel humano las eliminaría y no se reportarían. Hay más información sobre lo que sucede en iCloud en los enlaces a las discusiones de Andrew y Rene Ritchie.

Recomendado:  Batwoman showrunner habla sobre por qué tomaron la decisión de reemplazar a Kate Kane

Siguiente: El contexto es el rey