web analytics
apple iphone deep fusion

iPhone 11 riceve Deep Fusion con iOS 13.2: funzionamento e differenze

I nuovi iPhone 11 stanno riscuotendo un ottimo riscontro da parte di pubblico ed addetti ai lavori. Rispetto alle scorse generazione, il divario con la concorrenza si è fatto minimo, soprattutto dal punto di vista della fotocamera. Sia lato hardware, grazie all’introduzione di un sensore grandangolare, che software, fra ottimizzazioni, modalità Notte e, a breve, Deep Fusion. Questa feature verrà introdotta con l’aggiornamento ad iOS 13.2, una delle prossime beta in arrivo, per quanto una data precisa non ci sia ancora.

Aggiornamento 04/10: dopo il rilascio di iOS 13.2 sono stati pubblicati in rete i primi samples a confronto fra Smart HDR e Deep Fusion. Ve li lasciamo qua di seguito:

LEGGI ANCHE:
Apple ridurrà le prestazioni del processore su iPhone X, XR e XS Max

Deep Fusion sarà disponibile con iOS 13.2, ma non per tutti

Se avete un melafonino che non sia di ultima generazione, purtroppo non potrete sfruttare questa feature. La sua esistenza è permessa dal nuovo SoC Apple A13 Bionic, più precisamente dalla potenza espressa e dall’implementazione del Neural Engine. L’obiettivo del team di ingegneri Apple è stato quello di migliorare la resa delle foto scattate con luci medie. Molto spesso, infatti, capita di realizzare foto al chiuso, all’interno di edifici e non sotto la luce solare diretta. Per avere un’idea di cosa stiamo parlando, potete guardare la foto qua sotto: per averla in dimensione originale vi basterà cliccarci sopra.

Deep Fusion

Con Deep Fusion si hanno così 3 modalità che entrano in gioco automaticamente sulla base dei livelli di luce e della lente che si sta utilizzando.

  • La lente standard usa lo Smart HDR in scene ad alte/medie luci, Deep Fusion per quelle con medie/basse luci e Notte per le scene più buie
  • Il teleobiettivo usa perlopiù Deep Fusion, con lo Smart HDR che entra in gioco soltanto con molta luce e Notte per gli scatti bui
  • La grandangolare userà sempre lo Smart HDR, non potendo contare su Deep Fusion e Notte

Al contrario della modalità Notte, visibile e anche disattivabile, quella Deep Fusion agirà nel totale anonimato, non palesandosi agli occhi dell’utente e nemmeno nei dati EXIF. Questo perché Apple non vuole che ciò distragga le persone alla ricerca del miglior scatto, concentrandosi sull’esperienza generale.

Ma vediamo di capirci qualcosa in più sul funzionamento pratico. Quando viene premuto il tasto Shutter l’app ha già catturato 4 frames ad alta velocità sottoesposti e 4 frames ad esposizione standard. Nel momento in cui si preme il tasto viene catturato anche un ulteriore scatto a lunga esposizione per acquisire il dettaglio, per un totale di 9 frames. Da questi l’algoritmo del Deep Fusion sceglie i 3 migliori e li fonde con quello a lunga esposizione, ottenendo quello che viene definito “synthetic long“.

Deep Fusion

Dopodiché fra i 4 a bassa esposizione ne viene scelto quello più dettagliato, il quale viene fuso con il synthetic long per avere il risultato finale. In quest’ultimo passaggio viene fatta un’analisi pixel per pixel in modo da aumentare il livello di dettaglio ed allenare l’algoritmo a elaborare il tutto nel giusto modo. Cielo, pareti, pelle, capelli, tessuti e così via: tutto viene analizzato per capire da quale frame prendere i dettagli migliori. Rispetto al già noto Smart HDR, gli scatti in Deep Fusion possono impiegare più tempo nell’elaborazione, anche attorno ad 1 secondo, non potendo quindi funzionare con le raffiche.


Non perdere alcuna notizia, offerta o recensione pubblicata sul nostro sito! Seguici sui social per rimanere sempre aggiornato in tempo reale grazie ai:

 Canale Offerte Canale NewsGruppo TelegramPagina Facebook, Canale YouTube e il Forum.

Altre news
google pixel 4a xl
Google Pixel 4a XL: una nuova immagine compare su eBay