Todas las Noticias en Películas, Avances de Películas y Reseñas.

Apple cancela planes para la herramienta de detección de CSAM para fotos de iCloud

El miércoles, Apple anunció que no seguirá adelante con su herramienta de detección de material de abuso sexual infantil (CSAM) propuesta anteriormente para iCloud Photos. La controvertida herramienta habría permitido a Apple comprobar iPhones, iPads y fotos de iCloud en busca de CSAM. Pero los críticos se opusieron a la característica debido a sus graves implicaciones para la privacidad.

Apple no avanza con la herramienta de detección CSAM para fotos de iCloud

en un declaración enviado a cableado, Apple dijo que hay otras formas de proteger a los niños que no requerirán que las empresas revisen los datos personales. Cupertino aseguró que continuaría trabajando con gobiernos, defensores de la infancia y otras empresas para ayudar a proteger a los jóvenes y preservar su derecho a la privacidad. Por lo tanto, al hacerlo, Apple espera hacer de Internet un lugar más seguro no sólo para los niños sino también para todos.

Mirando hacia atrás, cuando Apple anunció por primera vez la herramienta CSAM para fotos de iCloud en 2021, esperaba ayudar a combatir la explotación infantil y promover la seguridad. Se trata de cuestiones urgentes que la comunidad tecnológica deseaba desesperadamente abordar. Sin embargo, tras recibir una ola de críticas por parte de varios defensores de la privacidad, Apple tuvo que frenar la implementación de la herramienta CSAM para iCloud. Según Apple, “llevaría más tiempo durante los próximos meses recopilar información y realizar mejoras antes de lanzar estas funciones de seguridad infantil de importancia crítica”.

Apple sigue preocupada por el CSAM

El anuncio del miércoles indica que Apple está abandonando la implementación de la herramienta, al menos por ahora. Sin embargo, eso no quiere decir que Cupertino esté descuidando por completo la defensa de la seguridad. En lugar de la herramienta CSAM, Apple se está volviendo a centrar en su función de seguridad de las comunicaciones, que estuvo disponible por primera vez en diciembre de 2021. Dicha herramienta de seguridad de las comunicaciones sería una función de control parental opcional que advertiría a los menores y a sus padres cuando los archivos adjuntos entrantes o enviados en iMessage sean sexualmente explícito. Si es así, Apple los borrará.

Recomendado:  ¿Qué es Sprint-to-Fire en COD Mobile? Importancia y Beneficios

La reciente declaración de Apple sobre sus planes de no seguir adelante con la herramienta CSAM para iCloud vino junto con el anuncio de varias características de seguridad nuevas. Más particularmente, Apple dijo que traerá cifrado de extremo a extremo de los datos de iCloud. Estos incluirían copias de seguridad, fotografías, notas, historiales de chat y otros servicios. La función, llamada Protección avanzada de datos, permitirá a los usuarios mantener ciertos datos seguros contra piratas informáticos, gobiernos y espías.

La Protección Avanzada de Datos de Apple, sin embargo, también obtuvo algunas reacciones negativas por parte del gobierno, particularmente del FBI, que expresó su profunda preocupación por la nueva característica.