I nuovi iPhone 11 stanno riscuotendo un ottimo riscontro da parte di pubblico ed addetti ai lavori. Rispetto alle scorse generazione, il divario con la concorrenza si è fatto minimo, soprattutto dal punto di vista della fotocamera. Sia lato hardware, grazie all’introduzione di un sensore grandangolare, che software, fra ottimizzazioni, modalità Notte e, a breve, Deep Fusion. Questa feature verrà introdotta con l’aggiornamento adiOS 13.2, una delle prossime beta in arrivo, per quanto una data precisa non ci sia ancora.
Aggiornamento 04/10: dopo il rilascio di iOS 13.2 sono stati pubblicati in rete i primi samples a confronto fra Smart HDR e Deep Fusion. Ve li lasciamo qua di seguito:
Very first tests of #DeepFusion on the #iPhone11 pic.twitter.com/TbdhvgJFB2
— Tyler Stalman (@stalman) October 2, 2019
By popular demand, here is Smart HDR vs #DeepFusion. Both shot on the #iPhone11Pro pic.twitter.com/AQqrw97VhF
— Tyler Stalman (@stalman) October 2, 2019
Deep Fusion pic.twitter.com/A6AC6fJPaQ
— Ice universe (@UniverseIce) October 3, 2019
Here’s my first #DeepFusion tests on the #iPhone11, just a little bit sharper, but nothing crazy (yet) pic.twitter.com/QOmm0Zv3qo
— Ben Geskin (@BenGeskin) October 3, 2019
Pretty huge difference in camera quality comparing the #iPhoneXR VS the #iPhone11! This is even without #DeepFusion.
What I’m saying is, I’d prefer to eat the donuts on the left than the right. Portrait mode FTWRead the full comparison on @appleinsider https://t.co/mKoNLdMB7t pic.twitter.com/AyCKQNU6kx
— Andrew O’Hara (@Andrew_OSU) October 1, 2019
RT Andrew_OSU: Can you spot which photos were shot with #DeepFusion on #iOS13.2? Both shot on #iPhone11Pro, one with iOS 13.1 and the other iOS 13.2. pic.twitter.com/JPg6rYbOAx
— primo4k (@primo4k) October 2, 2019
LEGGI ANCHE:
Apple ridurrà le prestazioni del processore su iPhone X, XR e XS Max
Deep Fusion sarà disponibile con iOS 13.2, ma non per tutti
Se avete un melafonino che non sia di ultima generazione, purtroppo non potrete sfruttare questa feature. La sua esistenza è permessa dal nuovo SoC Apple A13 Bionic, più precisamente dalla potenza espressa e dall’implementazione delNeural Engine. L’obiettivo del team di ingegneri Apple è stato quello di migliorare la resa delle foto scattate con luci medie. Molto spesso, infatti, capita di realizzare foto al chiuso, all’interno di edifici e non sotto la luce solare diretta. Per avere un’idea di cosa stiamo parlando, potete guardare la foto qua sotto: per averla in dimensione originale vi basterà cliccarci sopra.
Con Deep Fusion si hanno così 3 modalità che entrano in gioco automaticamente sulla base dei livelli di luce e della lente che si sta utilizzando.
- La lente standard usa lo Smart HDR in scene ad alte/medie luci, Deep Fusion per quelle con medie/basse luci e Notte per le scene più buie
- Il teleobiettivo usa perlopiù Deep Fusion, con lo Smart HDR che entra in gioco soltanto con molta luce e Notte per gli scatti bui
- La grandangolare userà sempre lo Smart HDR, non potendo contare su Deep Fusion e Notte
Al contrario della modalità Notte, visibile e anche disattivabile, quella Deep Fusion agirà nel totale anonimato, non palesandosi agli occhi dell’utente e nemmeno nei dati EXIF. Questo perché Apple non vuole che ciò distragga le persone alla ricerca del miglior scatto, concentrandosi sull’esperienza generale.
Ma vediamo di capirci qualcosa in più sul funzionamento pratico. Quando viene premuto il tasto Shutter l’app ha già catturato 4 frames ad alta velocità sottoesposti e 4 frames ad esposizione standard. Nel momento in cui si preme il tasto viene catturato anche un ulteriore scatto a lunga esposizione per acquisire il dettaglio, per un totale di 9 frames. Da questi l’algoritmo del Deep Fusion sceglie i 3 migliori e li fonde con quello a lunga esposizione, ottenendo quello che viene definito “synthetic long“.
Dopodiché fra i 4 a bassa esposizione ne viene scelto quello più dettagliato, il quale viene fuso con il synthetic longper avere il risultato finale. In quest’ultimo passaggio viene fatta un’analisi pixel per pixel in modo daaumentare il livello di dettaglio ed allenare l’algoritmo a elaborare il tutto nel giusto modo. Cielo, pareti, pelle, capelli, tessuti e così via: tutto viene analizzato per capire da quale frame prendere i dettagli migliori. Rispetto al già noto Smart HDR, gli scatti in Deep Fusion possono impiegare più tempo nell’elaborazione, anche attorno ad 1 secondo, non potendo quindi funzionare con le raffiche.
[su_app]