Todas las Noticias en Películas, Avances de Películas y Reseñas.

iPhone 13: cómo se creó el modo cinematográfico

El modo cinematográfico fue una de las grandes novedades del iPhone 13. En una nueva entrevista con Techcrunch, El vicepresidente de Apple, Kaiann Drance, y el diseñador del equipo de interfaz humana, Johnnie Manzari, explican cómo se hizo.

“Sabíamos que llevar una profundidad de campo de alta calidad al video sería mucho más desafiante [than Portrait Mode]”, Dice Drance. “A diferencia de las fotos, el video está diseñado para moverse mientras la persona graba, incluido el apretón de manos. Y eso significaba que necesitaríamos datos de profundidad de mayor calidad para que el modo cinematográfico pudiera funcionar en sujetos, personas, mascotas y objetos, y necesitábamos esos datos de profundidad de forma continua para mantenernos al día con cada fotograma. Representar estos cambios de enfoque automático en tiempo real es una gran carga de trabajo computacional “. El A15 Bionic and Neural Engine se usa mucho en el modo cinematográfico, especialmente dado que también querían codificarlo en Dolby Vision HDR. Tampoco querían sacrificar la vista previa en vivo, algo que la mayoría de los competidores del Modo Retrato tardaron años en enviar después de que Apple lo introdujo.

Echale un vistazo: iPhone 13: cómo se creó el modo cinematográfico

Recomendado:  Apple lanza iOS 14.6 con soporte para suscripciones a podcast