Apple quiere ser más Google: más machine learning para mejorar sus fotos

Apple quiere ser más Google: más machine learning para mejorar sus fotos

Pedro Santamaría

Google demostró con el primer Pixel que una única cámara y un buen procesador de software son más que suficiente para conseguir fotografías con el móvil espectaculares. Apple hasta entonces tenía ventajas en cuanto a su procesado, pero con el paso del tiempo se ha reducido, de ahí que ahora apueste por más uso del machine learning para mejorar las fotos y compra Spectral Edge.

Apple le sigue los pasos a Google

iPhone 11 - Análisis

La capacidad fotográfica del iPhone pocas veces se ha puesto en duda. Normalmente ha sido siempre el gran referente año tras año. El problema es que, a pesar de los buenos resultados de las últimas generaciones, ya no era algo tan evidente. El procesado de Apple no es que no avanzase, el que sus competidores daban saltos más grandes y en especial Google.

Los Pixel demuestran cómo un buen software es capaz de suplir carencias a nivel de número de sensores, focales, etc. Por eso, y por cómo avanza todo es lógico que las compañías apuesten mucho más por todos esos algoritmos que mejoran los resultados del día a día. Y claro, Apple no quiere quedarse atrás. Después de presentar Deep Fusion, que hace mucho de esto, ahora va y adquiere una compañía especializada en machine learning para mejorar la calidad de las imágenes.

iPhone 11 Pro - Noche

Foto nocturna realizada con iPhone 11 Pro

Según publica Bloomberg, Apple ha adquirido la compañía Spectral Edge. Esta compañía con base en el Reino Unido hace uso del aprendizaje máquina para analizar las imágenes en busca de nuevos algoritmos que puedan aplicar para mejorar la calidad final.

El precio de la compra no se ha determinado, pero realmente es el dato que menos importa al usuario. Aquí la clave es saber cómo podría mejorar la calidad fotográfica de los dispositivos de Apple. Y es que la fotografía se ha convertido en un apartado clave en los teléfonos actuales y en los iPhone más concretamente.

Teléfonos que cuestan alrededor de 1.000 euros no pueden permitirse que otras mucho más económicos estén fotográficamente hablando al mismo nivel en muchos escenarios. Vale, es cierto que hay otros factores que justifican la diferencia en precio, pero si buscas una buena cámara por qué apostar por un iPhone y no otra opción del mercado, a pesar de llevar Android como sistema operativo.

La tecnología de Spectra Edge podría mejora la propia IA que Apple usa ahora mismo en la última versión del sistema, con características como la mencionada Deep Fusion. Esto ya no sólo para mejorar el detalle de las imágenes sino la escenas donde hay menos luz. Ahí es donde todo el tema de inteligencia artificial juega un papel clave, interpretando mejor el cómo serían los colores si se contase con sensores más luminosos y lentes más capaces.

Eso sí, aunque la startup ha comentado que su tecnología podría aplicarse tanto a nivel de software como hardware es muy probable que más allá de los actuales iPhone 11 y 11 Pro el resto no vea estas futuras mejoras. Ya sabes cómo suele funcionar Apple en ese sentido, con el discurso de querer la mejor experiencia hay características que quedan a un lado, como por ejemplo Sidecar o similares.