El miércoles, Apple anunció que no seguirá adelante con su herramienta de detección de material de abuso sexual infantil (CSAM) propuesta anteriormente para iCloud Photos. La controvertida herramienta habrÃa permitido a Apple comprobar iPhones, iPads y fotos de iCloud en busca de CSAM. Pero los crÃticos se opusieron a la caracterÃstica debido a sus graves implicaciones para la privacidad.
Apple no avanza con la herramienta de detección CSAM para fotos de iCloud
en un declaración enviado a cableado, Apple dijo que hay otras formas de proteger a los niños que no requerirán que las empresas revisen los datos personales. Cupertino aseguró que continuarÃa trabajando con gobiernos, defensores de la infancia y otras empresas para ayudar a proteger a los jóvenes y preservar su derecho a la privacidad. Por lo tanto, al hacerlo, Apple espera hacer de Internet un lugar más seguro no sólo para los niños sino también para todos.
Mirando hacia atrás, cuando Apple anunció por primera vez la herramienta CSAM para fotos de iCloud en 2021, esperaba ayudar a combatir la explotación infantil y promover la seguridad. Se trata de cuestiones urgentes que la comunidad tecnológica deseaba desesperadamente abordar. Sin embargo, tras recibir una ola de crÃticas por parte de varios defensores de la privacidad, Apple tuvo que frenar la implementación de la herramienta CSAM para iCloud. Según Apple, “llevarÃa más tiempo durante los próximos meses recopilar información y realizar mejoras antes de lanzar estas funciones de seguridad infantil de importancia crÃtica”.
Apple sigue preocupada por el CSAM
El anuncio del miércoles indica que Apple está abandonando la implementación de la herramienta, al menos por ahora. Sin embargo, eso no quiere decir que Cupertino esté descuidando por completo la defensa de la seguridad. En lugar de la herramienta CSAM, Apple se está volviendo a centrar en su función de seguridad de las comunicaciones, que estuvo disponible por primera vez en diciembre de 2021. Dicha herramienta de seguridad de las comunicaciones serÃa una función de control parental opcional que advertirÃa a los menores y a sus padres cuando los archivos adjuntos entrantes o enviados en iMessage sean sexualmente explÃcito. Si es asÃ, Apple los borrará.
La reciente declaración de Apple sobre sus planes de no seguir adelante con la herramienta CSAM para iCloud vino junto con el anuncio de varias caracterÃsticas de seguridad nuevas. Más particularmente, Apple dijo que traerá cifrado de extremo a extremo de los datos de iCloud. Estos incluirÃan copias de seguridad, fotografÃas, notas, historiales de chat y otros servicios. La función, llamada Protección avanzada de datos, permitirá a los usuarios mantener ciertos datos seguros contra piratas informáticos, gobiernos y espÃas.
La Protección Avanzada de Datos de Apple, sin embargo, también obtuvo algunas reacciones negativas por parte del gobierno, particularmente del FBI, que expresó su profunda preocupación por la nueva caracterÃstica.