Deep Fusion ya está disponible (en beta) para los iPhone 11: te explicamos cómo mejora sus cámaras

iPhone 11 Pro camaras

Ya te contamos, en el análisis del iPhone 11 y en nuestra opinión sobre el iPhone 11 Pro, que las cámaras de los nuevos teléfonos de Apple son realmente buenas (especialmente en ciertas condiciones), pero aún con ello, Apple aún se guarda un secreto más bajo la manga: Deep Fusion. Esta tecnología, anunciada durante la presentación de los teléfono, acaba de liberarse en la última beta para desarrolladores así que va siendo buen momento para que repasemos qué hace y qué ventajas te dará en tu smartphone.

Deep Fusion, qué es y qué hace con las fotos

A grandes rasgos podría decir que Deep Fusion es una nueva tecnología desarrollada por Apple para conseguir sacar mayor partido a sus cámaras. Para ello, este sistema echa mano del motor Neural Engine del nuevo procesador A13 Bionic, logrando con ello un paso más dentro del procesado de imagen que, según promete, nos ofrecerá imágenes aún más detalladas y ricas, especialmente en interiores y en situaciones de luz media.

Como te apuntábamos al principio, los análisis de los dos terminales manzaneros nos han ayudado a constatar, además de que Apple sigue haciendo cosas muy de Apple (como mantener una pantalla HD en un teléfono de 800 euros o incluir un cargador de 5W en la caja de un teléfono que soporta 18W), que la firma ha hecho un trabajo bastante bueno en términos de autonomía, de panel (solo en el caso del Pro, claro) y sobre todo de fotografía.

Casi en todas las situaciones -corramos un tupido velo con el gran angular a baja luz-, los teléfonos demuestran no tener rival en el mercado, con fotos muy buenas de día, un disparo de retrato fantástico, una grabación de vídeo que convence y un modo noche que tiene a todo el mundo obsesionado. Ahora a todas estas virtudes habría que sumar un plus de mejora adicional que podrá notarse en cualquier foto que hagas.

Ojo, esta mejora no es como el modo IA que activas en algunos teléfonos o el propio modo noche (donde ves en pantalla que se han activado y tienes la posibilidad de quitarlo). Aquí Deep Fusion funcionará siempre, explican bien en The Verge, sin que suponga una opción o algo que el usuario sea consciente que está usando -por no aparecer, ni siquiera deja constancia en el EFIX de la foto. Simplemente estará activo en la cámara desde que la actualización llegue y permanecerá latente en ella, trabajando en cada captura que se realice.

¿En qué lentes funciona Deep Fusion?

Deep Fusion funciona en la lente gran angular y en el teleobjetivo, pero no en el ultra gran angular. Eso significa que mientras que en el iPhone 11, solo lo disfrutará en una de las cámaras, en el iPhone 11 Pro tendrás la tecnología funcionan cuando uses tanto la lente principal como el teleobjetivo.

En la primera, se encargará, como hemos dicho, de trabajar y mejorar las fotos cuando se disparen en luz medio baja mientras que con el teleobjetivo estará «presente» casi todo el tiempo, dejando la tecnología Smart HDR de la cámara para situaciones muy brillantes y el modo Noche para escenas muy oscuras.

¿Cómo funciona exactamente Deep Fusion?

Deep Fusion hace un total de 9 fotografías, aunque evidentemente tú solo obtendrás una en tu carrete y casi ni te darás cuenta del proceso -de ahí que sea tan importante el empuje de su procesador, del que ahora conocerás su implicación.

Antes de que presiones el botón de disparo, el sistema ya se ha encargado de tomar 4 capturas principales y otras «4 secundarias» y, cuando finalmente le das, se toma una última de exposición más larga y la información de todas ellas son procesadas por el motor Neural Engine. Así se seleccionan, digamos que, las mejores «partes» de cada captura, enriqueciendo la imagen final resultante con el mayor número de detalle posible y combinación de píxeles para que obtengas una imagen increíblemente precisa y con un balance de color y luces (recuerda que las condiciones ya no son tan ideales) realmente impresionantes.

En el vídeo que tienes a continuación puedes ver cómo lo explican brevemente durante la conferencia de la compañía -la reproducción comienza justo cuando proceden a ello-:

Disponibilidad de Deep Fusion

Deep Fusion no estuvo listo para la presentación ni lanzamiento de los teléfonos, pero Apple prometió que no se demoraría demasiado. Por el momento, acaba de llegar en la última beta disponible de iOS 13 para desarrolladores, sin fecha todavía de cuándo se estrenará de manera oficial entre el gran público.

De todas formas, Google y su Pixel 4 están a la vuelta de la esquina y dada la gran expectación que hay con su rendimiento fotográfico, Apple bien podría ponerse las pilas para intentar frenar a la única cámara que podría hacerle sombra. Veremos.


Síguenos en Google News

Sé el primero en comentar

Deja tu comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

*

*

  1. Responsable de los datos: Actualidad Blog
  2. Finalidad de los datos: Controlar el SPAM, gestión de comentarios.
  3. Legitimación: Tu consentimiento
  4. Comunicación de los datos: No se comunicarán los datos a terceros salvo por obligación legal.
  5. Almacenamiento de los datos: Base de datos alojada en Occentus Networks (UE)
  6. Derechos: En cualquier momento puedes limitar, recuperar y borrar tu información.