Tim Cook habla sobre Apple TV +, el iPhone 11 y más en una nueva entrevista
22 julio, 2020
Las mejores fundas con tarjetero para iPhone 11 y iPhone 11 Pro
22 julio, 2020

Apple prueba la función de cámara Deep Fusion en iPhone 11 y iPhone 11 Pro en iOS 13 desarrollador beta

Apple ha estado actualizando iOS 13 a un ritmo récord, en parte para agregar nuevas funciones, pero, principalmente, para corregir errores.

Pero eso no significa que las características adicionales aún no estén en el horizonte. Por ejemplo, la función de cámara Deep Fusion, que Apple anunció en su evento “solo por innovación” a principios de este año junto con el iPhone 11 y iPhone 11 Pro . Apple siempre ha dicho que la función se lanzará en una fecha posterior, con una actualización de software posterior para iOS 13, y ahora la función está en versión beta.

The Verge tiene el informe de hoy, que describe cómo Apple está trabajando en el próximo lanzamiento público de Deep Fusion y cómo la característica hará que las cámaras ya sean impresionantes en Apple los teléfonos inteligentes insignia más nuevos aún mejor.

Puede ver el resultado de una foto capturada con Deep Fusion en la imagen en la parte superior de este artículo.

Deep Fusion es una característica importante para las imágenes de “luz media a baja”. También es una función que se ejecuta completamente en segundo plano, trabajando para optimizar y mejorar las imágenes mientras el propietario del iPhone 11/11 Pro toma fotos mientras viaja.

El informe tiene un buen desglose de cómo debería funcionar en segundo plano:

  1. En el momento en que presiona el botón del obturador, la cámara ya ha tomado tres fotogramas en Una velocidad de obturación rápida para congelar el movimiento en la toma. Cuando presiona el obturador, toma tres disparos adicionales y luego una exposición más larga para capturar los detalles.
  2. Esos tres disparos regulares y disparos de larga exposición se fusionan en lo que Apple llama un “largo sintético”: esta es una gran diferencia con respecto al Smart HDR.
  3. Deep Fusion elige la imagen de exposición corta con el mayor detalle y la combina con la exposición sintética de larga duración; a diferencia de Smart HDR, Deep Fusion solo combina estos dos cuadros, no más. Estas dos imágenes también se procesan para el ruido de manera diferente que Smart HDR, de una manera que es mejor para Deep Fusion.
  4. Las imágenes se ejecutan a través de cuatro pasos de procesamiento de detalles, píxel por píxel, cada uno adaptado a cantidades cada vez mayores de detalles: el cielo y las paredes están en la banda más baja, mientras que la piel, el cabello, las telas, etc. nivel más alto. Esto genera una serie de ponderaciones sobre cómo combinar las dos imágenes, tomando detalles de una y tono, color y luminancia de la otra.
  5. Se genera la imagen final.

Según el informe, el teleobjetivo utilizará principalmente Deep Fusion, con la función Smart HDR solo tomando el control en una toma cuando hay escenas muy brillantes. La lente gran angular estándar, mientras tanto, se basará principalmente en la función Smart HDR para escenas brillantes a medias brillantes, y Deep Fusion se activará con las escenas de luz media a baja. La lente ultra ancha nunca usará Deep Fusion o Night Mode, porque solo admite la función Smart HDR y ninguna de las otras funciones.

El modo nocturno siempre se activará y será la característica principal en un escenario con poca luz.

Como se señaló en el informe, Apple actualmente está probando la función en una versión beta de iOS 13. Sin embargo, esa versión beta actualmente no está disponible para desarrolladores ni probadores beta públicos. Apple probablemente sembrará esa primera beta, con Deep Fusion, en algún momento pronto, posiblemente incluso más tarde hoy como iOS 13.2.

¿Estás esperando la llegada de Deep Fusion?

Comments are closed.