Todas las Noticias en Películas, Avances de Películas y Reseñas.

Características nuevas y principales que debe conocer

Desde sus inicios, Apple siempre ha priorizado la privacidad y la seguridad. No está satisfecho con fabricar los mejores teléfonos inteligentes y tabletas de su clase, también desea que sus clientes se sientan cómodos usando sus dispositivos. Con iOS 15, Apple está brindando otra capa de seguridad a sus dispositivos, gracias a ‘Child Safety’.

Hoy, le diremos prácticamente todo lo que necesita saber sobre la seguridad infantil y lo ayudaremos a comprender cómo Apple incorpora este sistema de filtrado. Ahora, sin más preámbulos, veamos qué es la seguridad infantil y cómo puede afectar su vida cotidiana.

¿Qué significa Child Safety en iOS 15?

Child Safety es una característica de iOS 15 que tiene como objetivo frenar la distribución de material de abuso sexual infantil (CSAM) y ayudar a proteger a los niños de los depredadores que usan herramientas de comunicación para explotarlos. Apple está listo para implementar la función primero en los Estados Unidos y luego en otras regiones. Es una característica triple que tiene el potencial de tranquilizar a los padres. Como siempre, esta nueva incorporación se está implementando sin costo alguno. El único requisito previo es iOS 15.

Apple está trabajando en estrecha colaboración con los principales expertos en seguridad infantil para que el sistema sea lo más infalible posible.

Relacionado: Los mejores juegos de Android para niños [Age group-wise]

¿Cómo implementa Apple Child Safety en iOS 15?

El conjunto de características de Child Safety no se creó de la noche a la mañana; Apple lo ha perfeccionado en muchas iteraciones. En su forma actual, Child Safety en iOS 15 se divide en tres secciones. La primera parte es la seguridad de la comunicación en la aplicación Mensajes predeterminada. El segundo es el escaneo CSAM en iCloud Photos. Y finalmente, la tercera parte llega en forma de guía más segura en Siri y búsqueda. A continuación, aprenderemos lo que significan.

Seguridad de la comunicación en la aplicación Mensajes

Imagen: manzana

Podría decirse que la aplicación Mensajes predeterminada en iOS es una de las partes más atractivas de un dispositivo Apple, razón por la cual este sistema de filtrado tiene el potencial de ser particularmente efectivo. La seguridad de la comunicación agrega una capa adicional a la interfaz de usuario de Mensajes de su hijo. Cuando reciben una imagen sexualmente explícita, la foto se vuelve borrosa y se les informa sobre la naturaleza sensible de la foto. Si aún desean continuar, existe una disposición para enviar una alerta a los padres o tutores. El mismo sistema de filtrado entra en juego si los menores optan por enviar fotografías sexualmente explícitas. Los padres reciben una alerta si su hijo elige ignorar la advertencia y presionan enviar.

Recomendado:  Android 8.0 para HTC 10 disponible en Verizon y Sprint

Esta función es exclusiva para cuentas configuradas como familias en iCloud en iOS 15, iPadOS 15 y macOS Monterey.

Detección de CSAM en iCloud Photos

La detección de MASI en iCloud Photos es la implementación más extendida del programa Child Safety. Afecta a todos los usuarios que hacen una copia de seguridad de sus fotos en iCloud, lo que últimamente ha causado un poco de alboroto en los medios. Para detectar y prevenir la distribución de material de abuso sexual infantil (CSAM), Apple utiliza técnicas criptográficas avanzadas. Después de que se detecte una imagen y se demuestre que viola las pautas, los dispositivos iOS 15 y iPadOS 15 informarán los casos al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC). El NCMEC es el centro de todos los informes respaldados por CSAM y trabaja en estrecha colaboración con las oficinas de aplicación de la ley en los Estados Unidos para castigar a los infractores.

El “escaneo” de fotos puede generar algunas señales de alerta, pero Apple asegura que no escanea todas las fotos en iCloud. Solo escanea fotos que se ajustan a un determinado perfil. El perfil lo proporciona el NCMEC y otros servicios de seguridad infantil. El aprendizaje automático en el dispositivo juega un papel importante en la detección de MASI. Limita la exposición y analiza con precisión fotos sensibles para ofrecer tranquilidad a los padres.

Relacionado: 26 juegos de zoom para niños

Orientación más segura en Siri y Search

Imagen: manzana

Mientras que la detección de MASI en iCloud y la seguridad de la comunicación se centran en proteger a los niños menores de edad de la exposición. Una guía más segura en Siri y Search está enseñando a los usuarios sobre el comportamiento problemático. Si un usuario emplea la búsqueda por voz de Siri o la búsqueda normal para buscar consultas relacionadas con material de abuso sexual infantil, iOS 15 interviene con un mensaje de advertencia. La advertencia explica que el interés en tales temas es problemático y dañino. iOS 15 incluso proporciona recursos para ayudar a alguien con el problema.

Recomendado:  Cómo voltear o duplicar la cámara en Google Meet en Windows y Mac

¿Puedes desactivar la seguridad infantil?

Child Safety está inherentemente integrado en iOS 15. Por lo tanto, no puede ignorarlo para siempre. Sin embargo, hay un par de condiciones que debe cumplir para que el servicio funcione según lo previsto. En primer lugar, la función ‘Seguridad de la comunicación’ es exclusiva de las cuentas configuradas como ‘Familias’. Las cuentas aisladas no tienen esta característica. Además, a partir de ahora, la detección de CSAM solo entra en juego en las fotos de iCloud. Si no tiene iCloud, iOS 15 no escaneará su biblioteca privada en busca de CSAM.

No hay una palanca distinta para apagar el servicio, solo formas indirectas de deshabilitarlo.

Preguntas frecuentes

¿Todo el mundo puede acceder a la seguridad de las comunicaciones en Mensajes?

No, los titulares de cuentas estándar no pueden acceder a la seguridad de las comunicaciones. Se requiere que su cuenta esté configurada como ‘Familia’ en la configuración de iCloud antes de que pueda hacer que la función de seguridad infantil funcione en iOS 15.

¿Las nuevas medidas de seguridad infantil interrumpirán la privacidad?

Apple ya se enfrenta a muchas críticas con respecto al anuncio de escaneo de fotos. Sin embargo, la empresa asegura que no tiene intención de escanear todas tus fotos y no tendrá acceso a ninguna de tus fotos o mensajes. Simplemente cotejará sus fotos y mensajes con perfiles conocidos de MASI e informará a las autoridades si es necesario.

¿Apple escaneará todas las fotos en tu iPhone?

No, Apple no escaneará todas tus fotos en tu iPhone con iOS 15. Utilizará el aprendizaje automático en el dispositivo para hacer una referencia cruzada de las fotos que está cargando en iCloud, tomando nota de las entradas sospechosas de CSAM. Si no carga fotos en iCloud, el servicio CSAM está deshabilitado de forma predeterminada.

Recomendado:  El volcado del sistema Galaxy Tab S3 revela las características clave del Galaxy S8

¿La detección de MASI se aplica a las fotos antiguas o solo a las nuevas?

La detección de CSAM se aplica tanto a las fotos antiguas como a las nuevas. Si alguien tiene archivos multimedia que insinúan abuso sexual de niños, CSAM notificaría a las autoridades de inmediato y se tomarían las medidas apropiadas.

¿Cómo maneja CSAM las fotos inocentes?

La detección de CSAM para fotos en iCloud funciona mediante la verificación cruzada de fotos con imágenes conocidas de CSAM. Si no se identifican coincidencias, la foto recibe luz verde. Por lo tanto, si le preocupa que Apple informe imágenes de sus hijos desnudos o semidesnudos en su teléfono inteligente, puede estar seguro de que la empresa está trabajando con varias organizaciones para asegurarse de que no se registren informes falsos.

¿El gobierno utilizará el escaneo en el dispositivo de Apple?

Apple siempre ha sido un firme partidario de la privacidad, tanto que se enorgullece de ser la empresa más privada que existe. Entonces, cuando a Apple se le ocurrió escanear en el dispositivo, las alarmas comenzaron a sonar. Sin embargo, Apple ha asegurado que el sistema Child Safety no será utilizado por el gobierno ni por ninguna otra parte para escanear los archivos personales de los usuarios. Todo el sistema es completamente auditable y hay muchas cajas de seguridad para proteger los datos del usuario.

RELACIONADO