In queste ore, la Product Line Manager di iPhone Francesca Sweet e il Vice President di Apple Camera Software Engineering Jon McCormack hanno rilasciato una nuova intervista al portale di PetaPixel, offrendo una panoramica circa l’approccio di Apple alla progettazione e allo sviluppo della fotocamera dei nuovi iPhone 12 e iPhone 12 Pro. Fondamentalmente, i due dirigenti hanno spiegato che il colosso di Cupertino vede la tecnologia delle fotocamere come un’unione olistica di hardware e software.
Apple: come si realizza uno scatto perfetto con iPhone 12?
Dall’intervista emerge fuori che Apple ritiene la fotografia da smartphone come una caratteristica che permette agli utenti di “rimanere nel momento, scattare una foto fantastica e tornare a quello che stanno facendo“, senza essere distratti dalla tecnologia che c’è dietro.
https://www.youtube.com/watch?v=cnXapYkboRQ&t=16s
McCormack ha spiegato che, mentre i fotografi professionisti eseguono un processo complesso e laborioso al fine di mettere a punto lo scatto perfetto e la modifica delle loro foto, Apple sta tentando di perfezionare quell’iter, rendendolo immediato e più che mai semplificato. L’uomo aggiunge:
Cerchiamo di replicare il più possibile ciò che il fotografo farà in post. Ci sono due momenti che compongono la realizzazione di fotografia: da una parta abbiamo l’esposizione, lo scatto, il momento, dall’altra invece, troviamo il processo di post-produzione e di editing che permette di portar a termine la foto così come la abbiamo nella nostra testa. Usiamo molta fotografia computazionale durante lo scatto, ma sempre di più in post e lo facciamo automaticamente per te. L’obiettivo è quello di realizzare fotografie che sembrino più fedeli alla realtà, grazie ad un algoritmo che gestisce i parametri migliori al fine di semplificare la vita dell’utente.
Lo sfondo, il primo piano, gli occhi, le labbra, i capelli, la pelle, i vestiti, i cieli: elaboriamo tutto questo in modo indipendente come si potrebbe fare in Lightroom con una serie di modifiche locali. Il software di Apple permette – in maniera del tutto autonoma – di regolare tutto: dall’esposizione, al contrasto e alla saturazione, combinando il tutto in un mix molto più fedele possibile alla realtà.
Un esempio? I cieli sono notoriamente difficili da ottenere, ma con lo Smart HDR 3 possiamo segmentare il cielo e trattarlo in modo completamente indipendente e quindi fonderlo di nuovo. Il risultato? Zero bruciato e una visione veritiera di quello che vi è nella realtà.
McCormack ha spiegato perché Apple ha scelto di includere la funzionalità video HDR Dolby Vision nella nuova gamma di iPhone 12:
Apple vuole rendere a portata di consumer il complicato settore dell’HDR: ecco perché ha scelto di portare su un dispositivo mobile la complessa arte del video in Dolby Vision HDR, che prima era appannaggio delle cineprese costose e gigantesche e suite professionali di alto livello. Ora, anche mia figlia di 15 anni può realizzare un video in Dolby Vision HDR senza conoscenza del mezzo. . È nell’interesse del settore ora andare a creare più supporto.
I dirigenti hanno anche discusso dei miglioramenti hardware della fotocamera di iPhone 12 e iPhone 12 Pro, commentando che “la nuova fotocamera, gli algoritmi di fusione delle immagini migliorati, sono tutti elementi che riducono il rumore e migliorano i dettagli”. In merito alle camere di iPhone 12 Pro Max hanno così ribadito:
Con il Pro Max possiamo estendere questo concetto ancora di più perché il sensore è significativamente più grande e ci consente di catturare più luce in meno tempo. Questo si traduce in una migliorata gestione dello scatto di notte.