Pixel 9a, intervista ad Isaac Reynolds: 'la luce come i dati'

Abbiamo intervistato Isaac Reynolds, Lead Product Manager del team Pixel Camera di Google, durante l'evento a porte chiuse dedicato al nuovo Pixel 9a.

Google ha appena annunciato il nuovo Pixel 9a. Lo smartphone va a completare la serie già disponibile dall’estate scorsa con i modelli 9, 9 Pro e 9 Pro XL. Tra i punti di forza c’è un comparto fotografico evoluto che, lavorando fianco a fianco con i sistemi AI più avanzati, promette di offrire un’esperienza imaging da top di gamma, ma a un prezzo accessibile. Abbiamo avuto l’opportunità di intervistare Isaac Reynolds, Lead Product Manager del team Pixel Camera che ne ha curato lo sviluppo.

Pixel 9a, la fotografia mobile e l’A: intervista ad Isaac Reynolds

L’incontro è avvenuto in occasione di un evento organizzato nella sede milanese di bigG e riservato alla stampa, durante il quale è stato possibile dare uno sguardo in anteprima al dispositivo. Ci sarà tempo per metterlo alla prova, pubblicheremo una recensione completa su queste pagine.

Ecco il nostro scambio con Isaac: ci è sembrata l’occasione perfetta per addentrarci in argomenti che non riguardano solo ed esclusivamente il prodotto, ma anche l’impatto dell’intelligenza artificiale sulle modalità di acquisizione e di fruizione delle immagini, sui vantaggi e sui rischi che questa tecnologia porta inevitabilmente con sé.

Isaac Reynolds, Lead Product Manager del team Pixel Camera di Google

Isaac Reynolds, Lead Product Manager del team Pixel Camera di Google

La prima domanda potrebbe sembrarti banale, ma come possiamo far capire all’utente che è possibile avere un’esperienza fotografica migliore con meno megapixel? Dopotutto, il sensore del Pixel 8a ne aveva 64 e quello del 9a solo 48.

Credo che la cosa da chiarire sia che ci sono almeno 10 specifiche importanti per una fotocamera. E, una volta che analizzi la questione a livello ingegneristico come faccio io, ce ne sono almeno 100. I megapixel ne rappresentano solo una, non attribuirei così tanta enfasi. Ciò a cui faccio riferimento sono le dimensioni del sensore, l’apertura dell’ottica…

Questa è più ampia?

Sì, è più ampia. Mi concentro poi su quanto il sensore sia moderno, su quali siano le tecnologie integrate, su aspetti come la Full Well Capacity e su una moltitudine di caratteristiche che sono definite dall’ingegnerizzazione elettrica del sensore stesso quando lo sottoponiamo a test, fattori che sono molto difficili da leggere in una scheda delle specifiche.

Un’altra cosa importante che non vedrai mai nella scheda delle specifiche di una fotocamera è quanto valore aggiunga l’utilizzo del Tensor G4 con lo stack software che abbiamo creato per il processore. È il nostro software più recente, abbiamo impiegato un anno lavorandoci, implementandolo già sui Pixel 9 e 9 Pro.

I Pixel, per molto tempo, sono stati pionieri della fotografia computazionale. Ora sono per l’AI nell’ambito imaging. Rimarrai meravigliato da quanta differenza possa fare un pacchetto software.

È vero, i megapixel potrebbero cambiare qualcosa qua e là, ma oggi la componente software pesa per almeno la metà, forse di più. Nei nostri test abbiamo visto un avanzamento, è una fotocamera migliore. Dovresti fare gli stessi test, credo che ne sarai contento e soddisfatto.

La doppia fotocamera posteriore dello smartphone

La doppia fotocamera posteriore del nuovo Pixel 9a

La mia domanda era una sorta di provocazione, perché non è semplice far capire tutto questo all’utente finale. La realtà è che tutti guardano ai megapixel: 48, 64… e non è semplice spiegare il pacchetto nel suo insieme.

Credo che, se vuoi ridurre tutto a una frase, io direi che Google tratta la luce come i dati. Per i dati contano l’elaborazione, l’aggregazione, l’utilizzo dell’AI. Immagina che siano milioni e milioni di piccole porzioni di dati. Devono essere elaborati, raffinati e analizzati. In quello siamo bravi, ecco come abbiamo realizziamo una magnifica fotocamera.

Come pensi che gli utenti si stiano avvantaggiando dell’AI applicata alla fotografia mobile?

Uno degli ambiti principali è l’editing. Strumenti come Gomma Magica o Magic Editor, ma anche Scatto Migliore è un altro buon esempio. L’AI può aiutarti a creare momenti che sono importanti per te, un ricordo, qualcosa che forse accade una sola volta nella via. Può darsi che sia semplicemente l’andare a cena con tutta la famiglia, se accade ogni dieci anni. L’AI può aiutarti a catturare e a rivivere quei momenti speciali, anche quando sarebbe molto difficile farlo in altro modo.

Ti faccio un altro esempio. Sono in Italia e sta piovendo, non è l’Italia che pensavo. Avevo sperato nel sole! Posso però utilizzare Magic Editor con Reimmagina per inserire un cielo azzurro e vedere cosa solitamente avrei trovato venendo qui a marzo. Scatto Migliore cattura invece quella fotografia di gruppo da una volta nella vita. Aggiungimi interviene su quella foto di famiglia che scatti quando sei in mezzo al nulla e nessuno può farlo per te. Questi sono momenti che non ricapitano. L’AI può fare ciò che una fotocamera tradizionale non potrebbe mai. Questa è una categoria di ciò che permette.

L’altra è, semplicemente, acquisire immagini fantastiche. Foto Notturna, Super Res Zoom, i video notturni, la modalità Ritratto, tutto in una sola fotocamera. Questo è ciò che l’AI ci offre e una fotocamera tradizionale non potrebbe mai.

Il nuovo Pixel 9a nella colorazione Iris

Il nuovo Pixel 9a nella colorazione Iris

Non credi che l’altro lato della medaglia, parlando di AI applicata alla fotografia mobile, sia in qualche modo legato alla percezione della realtà? In un certo senso, questa tecnologia potrebbe spingere qualcuno a credere che qualcosa sia reale, quando non lo è.

È una questione molto interessante.

E molto complessa.

Sfortunatamente sì, lo è. Mi sono concentrato molto su questo. Ti condividerò la nostra visione più recente, in Google. Però, la prima cosa da chiarire, è che l’editing non è una cosa nuova. Essere in grado di costruire una scena da zero, immortalarla con una fotocamera e poi farne un cattivo uso che potrebbe ingannare le persone, è qualcosa accaduto per decenni. Un classico esempio. Sono appena stato a Berlino. Stavo girando nei musei e ho trovato un’immagine storica della seconda guerra mondiale, con un generale che esce da un bunker per arrendersi alla città. Sotto la foto c’era una didascalia che recitava Questa è una ricostruzione. Già accadeva, 80 anni fa.

Ora, così, non è più semplice rispetto al passato?

È sempre stato incredibilmente facile. Ho trovato altri esempi, come quello delle ragazzine di 13 anni nella Londra del 1914 o 1916. Hanno utilizzato ritagli di cartone e sono state in grado di fingere che ci fossero creature magiche intorno a loro, ingannando un’intera nazione. Erano solo due adolescenti di un secolo fa. [la storia è quella delle fate di Cottingley, ndr]

Questi concetti non sono nuovi. Ciò che vorremmo vedere è che l’intero ecosistema iniziasse a fare esattamente ciò che è successo in quello musicale. Etichette: le etichette con i metadati sono molto importanti per questo. Perché se associ un’etichetta a un immagine che chiarisce Ecco cos’è accaduto, Ecco come è stata fatta, Ecco cosa è stato modificato, e se l’etichetta è preservata ovunque sia mostrata… ecco un modo molto efficace per spiegare alle persone il contenuto e il significato delle immagini.

Google sta già aggiungendo le etichette IPTC in molte delle nostre funzionalità. Instagram è già in grado di leggerle, ma tutti i player dell’ecosistema devono arrivare allo stesso livello di responsabilità, leggendo e scrivendo questi metadati. Poi, potremo davvero iniziare a risolvere un problema che non è nuovo, ma che c’è sempre stato. È stato un problema per molto tempo. Tutti sappiamo che è accaduto con molti giornali, soprattutto quelli di decenni fa, che avevano una loro narrazione, giusto?

Questo tipo di concetto distribuito di un’etichetta a cui tutti collaborano è crittograficamente sicuro, qualcosa che può davvero aiutare tutti noi, non solo con i nuovi problemi, ma anche con quelli vecchi.

Le quattro colorazioni del Pixel 9: Nero ossidiana, Rosa peonia, Grigio creta e Iris

Le quattro colorazioni del Pixel 9a: Nero ossidiana, Rosa peonia, Grigio creta e Iris

L’ultima domanda è: quale pensi possa essere la prossima reale innovazione per la fotografia mobile o, più in generale, per l’ecosistema mobile nel suo complesso?

Ciò di cui vorrei parlare sono i problemi che durano nel tempo. Le fotocamere non sono una novità, sono in giro da un secolo ormai. Da sempre, le loro caratteristiche ritenute importanti dalle persone sono le stesse: prestazioni in presenza di poca luce, dettagli, chiarezza e nitidezza, zoom, range dinamico e tempo. Il catturare una foto di gruppo come abbiamo detto prima, scegliendo lo scatto migliore, per immortalare un momento in cui tutti hanno l’aspetto che desideri. Questi sono da sempre problemi legati alle fotocamere.

Ciò che in Google siamo attrezzati per fare molto bene è apportare innovazione ai prodotti. Dunque, qualunque sia la nuova tecnologia, possiamo passare dalla pubblicazione della sua documentazione teorica in una conferenza al prodotto in un periodo che va dai sei ai nove mesi. È questo ciò per cui è organizzata la nostra azienda. È una cultura un po’ folle in cui lavorare, perché è tutto molto frenetico e sai che le cose cambiano costantemente dalle fondamenta, ma è ottimale per portare le nuove tecnologie sul mercato.

Non voglio nemmeno fare affermazioni su quale sarà la prossima tecnologia. Eravamo nell’era della fotografia computazionale da pionieri. Ora siamo nell’epoca dell’AI con modelli linguistici di grandi dimensioni e ampie finestre di contesto. Li stiamo implementando rapidamente nelle fotocamere e nella fotografia. Non so se sarà così, ma saremo i primi a farlo.

Ti consigliamo anche

Link copiato negli appunti