Todas las Noticias en Películas, Avances de Películas y Reseñas.

Los buenos usos que Apple le ha dado a la IA

esto es gracias a sistema de procesamiento de fotos. El sistema HDR inteligente, el Modo Acción, el Modo Cine o la estabilización por software son posibles con los procesadores Bionic, que incorporan sistemas de IA. Apple lo incluye bajo el concepto de Fotografía Computacional, término acuñado en 2019 cuando presentaron los iPhone 11 y 11 Pro.

El iPhone que aprende de nosotros

Tradicionalmente, el software no “aprendía” ni se “mejoraba” a sí mismo. Pero esto cambió con la IA. Y es que, gracias a la implementación de este sistema en el iPhone, ahora el teléfono aprende mejor de nuestros hábitos.

Desde la ubicación o la hora, para recomendar un modo de concentración, la hora a la que nos vamos a dormir y dejamos de usar el teléfono para cargarlo de una forma más optimizada, e incluso las aplicaciones que más usamos, para que mostremos un acceso más directo a a ellos.

Y todo ello, en segundo plano, sin consumir recursos y sin enviar la información a terceros. Todo queda dentro del procesador del iPhone, ya que tiene la capacidad de saber cómo manejamos el dispositivo, y se adapta a lo que hacemos con él.

imágenes y textos

Aunque ahora está mucho más integrado, en su momento fue un auténtico “volar los sesos”. Y es que tenemos la posibilidad, en una imagen o en un vídeo, de ser capaz de seleccionar texto para copiarlo a otro sitio.

O también, podemos recortar una imagen, eliminando el fondo, simplemente seleccionando el elemento de la foto o vídeo que queramos. Las tareas que antes requerían mucho tiempo y accesorios de terceros ahora se realizan con el toque de un dedo.

Recomendado:  La transición USB-C del iPhone 15 podría ocurrir, dice Ming-Chi Kuo; ¿Es esto mejor que el puerto Lightning?

Las falsificaciones profundas

Sí. Aunque los deepfakes tienen connotaciones negativas, lo cierto es que Apple ha conseguido cambiar el término y todo lo que conlleva. Uno de los mejores ejemplos es la posibilidad de crear una voz sintética, directamente en el iPhone, usando nuestra voz. Gracias a nuestras grabaciones, la IA crea una voz que suena como la nuestray sus aplicaciones están enfocadas a la accesibilidad.

Y de la voz, pasamos a la imagen. Y aunque esto no lo hemos visto en acción, lo que nos enseñaron promete (y mucho). En el caso del Apple Vision Pro, cuando hacemos una videollamada con las gafas puestas, la otra persona nos ve la cara completa. No es un avatar ni un lector 3D, sino un un escaneo de nuestra cara. Una vez más, gracias al uso de la IA.