I nuovi iPhone 11 stanno riscuotendo un ottimo riscontro da parte di pubblico ed addetti ai lavori. Rispetto alle scorse generazione, il divario con la concorrenza si è fatto minimo, soprattutto dal punto di vista della fotocamera. Sia lato hardware, grazie all’introduzione di un sensore grandangolare, che software, fra ottimizzazioni, modalità Notte e, a breve, Deep Fusion. Questa feature verrà introdotta con l’aggiornamento ad iOS 13.2, una delle prossime beta in arrivo, per quanto una data precisa non ci sia ancora.
Aggiornamento 04/10: dopo il rilascio di iOS 13.2 sono stati pubblicati in rete i primi samples a confronto fra Smart HDR e Deep Fusion. Ve li lasciamo qua di seguito:
LEGGI ANCHE:
Apple ridurrà le prestazioni del processore su iPhone X, XR e XS Max
Se avete un melafonino che non sia di ultima generazione, purtroppo non potrete sfruttare questa feature. La sua esistenza è permessa dal nuovo SoC Apple A13 Bionic, più precisamente dalla potenza espressa e dall’implementazione del Neural Engine. L’obiettivo del team di ingegneri Apple è stato quello di migliorare la resa delle foto scattate con luci medie. Molto spesso, infatti, capita di realizzare foto al chiuso, all’interno di edifici e non sotto la luce solare diretta. Per avere un’idea di cosa stiamo parlando, potete guardare la foto qua sotto: per averla in dimensione originale vi basterà cliccarci sopra.
Con Deep Fusion si hanno così 3 modalità che entrano in gioco automaticamente sulla base dei livelli di luce e della lente che si sta utilizzando.
Al contrario della modalità Notte, visibile e anche disattivabile, quella Deep Fusion agirà nel totale anonimato, non palesandosi agli occhi dell’utente e nemmeno nei dati EXIF. Questo perché Apple non vuole che ciò distragga le persone alla ricerca del miglior scatto, concentrandosi sull’esperienza generale.
Ma vediamo di capirci qualcosa in più sul funzionamento pratico. Quando viene premuto il tasto Shutter l’app ha già catturato 4 frames ad alta velocità sottoesposti e 4 frames ad esposizione standard. Nel momento in cui si preme il tasto viene catturato anche un ulteriore scatto a lunga esposizione per acquisire il dettaglio, per un totale di 9 frames. Da questi l’algoritmo del Deep Fusion sceglie i 3 migliori e li fonde con quello a lunga esposizione, ottenendo quello che viene definito “synthetic long“.
Dopodiché fra i 4 a bassa esposizione ne viene scelto quello più dettagliato, il quale viene fuso con il synthetic long per avere il risultato finale. In quest’ultimo passaggio viene fatta un’analisi pixel per pixel in modo da aumentare il livello di dettaglio ed allenare l’algoritmo a elaborare il tutto nel giusto modo. Cielo, pareti, pelle, capelli, tessuti e così via: tutto viene analizzato per capire da quale frame prendere i dettagli migliori. Rispetto al già noto Smart HDR, gli scatti in Deep Fusion possono impiegare più tempo nell’elaborazione, anche attorno ad 1 secondo, non potendo quindi funzionare con le raffiche.
[su_app]La PlayStation 5 è stata lanciata il 19 novembre 2020 in Italia, una settimana dopo…
Dopo 16 anni dal suo arrivo sul mercato, iPhone 2G torna a sconvolgere la vita…
Con l'acquisizione di Activision oramai andata in porto, Microsoft e Sony hanno finalmente firmato uno…
L'operatore virtuale di Vodafone torna alla carica e questa volta prova a tentare i clienti…
Google ha annunciato oggi l'arrivo di Bard anche in Europa e in Italia, dopo la…
L'accesso a Internet è diventato fondamentale nella nostra società sempre più digitale. Per garantire una…