Il prossimo iPhone 12 avrà una fotocamera che elaborerà delle immagini con profondità 3D, stando alle ultime indiscrezioni emerse online. Più che una fotocamera vera e propria, sarà un laser che, attraverso un software, misurerà la distanza fra il device e gli oggetti intorno (un po’ come funziona l’attuale ToF), ma portando l’esperienza su di un nuovo livello, migliorando anche le funzionalità AR.
iPhone 12: come funzionerà il sensore?
Gli ingegneri stanno lavorando al nuovo modulo fotografico di iPhone 12 da almeno un paio d’anni. Secondo i rumor, si chiamerà ‘world face’, ma non è detto al 100% che lo vedremo sulla prossima generazione di device della mela, sebbene i leak lo suggeriscano. Apple potrebbe decidere di annullarlo all’ultimo, a causa di nuovi imprevisti causati dal Coronavirus, che ne sta rallentando la progettazione.
La società di Cupertino acquisterà il laser per il nuovo 3D dall’azienda Lumentum di San Jose, ovvero la società che al momento realizza lo scanner 3D per il faceID degli attuali iPhone. E’ vero che molti device hanno già un sensore ToF, il quale sembra funzionare più o meno al medesimo modo; pensiamo a OnePlus 7T Pro, Samsung Galaxy S20 Ultra, Galaxy Note 10+ e molti altri, ma sicuramente l’azienda di Cupertino troverà un modo innovativo e particolare per sfruttare il nuovo sensore. Le telecamere di profondità sugli iPhone moderni vi sono già, tuttavia sono relativi al display anteriore per il riconoscimento del volto in tutta sicurezza.
Con l’aggiunta di un modulo 3D sulla back cover dei nuovi iPhone 12 però, si potrebbero realizzare anche scatti con l’effetto bokeh migliorato, grazie all’analisi dei dati aggiuntivi che il laser andrebbe a scandagliare. Al momento, tale feature è realizzata tramite software (e nonostante ciò, è una delle soluzioni migliori presenti sul mercato). Magari si potrà regolare più accuratamente i livelli fra oggetti in primo piano e sfondo, aumentandone l’intensità o diminuendola.
La mappatura 3D in più potrebbe consentire video creativi di qualità professionale. Pensiamo alla clip di uno skateboarder in primo piano in slow motion, con lo sfondo sfocato sul retro. A trarne beneficio inoltre, saranno proprio le app basate sulla realtà aumentata; a tal proposito, Apple ha rilasciato il nuovo ARKit per sviluppare app in AR tre anni fa, ma son stati pochi i software che finora hanno utilizzato ciò.
Andre Wong, vicepresidente del 3D Sensing di Lumentum, afferma:
“Quando si utilizzano app AR senza informazioni approfondite, è un po ‘glitch e non potente come potrebbe in definitiva essere. Ora che ARKit e (Google) ARCore sono usciti entrambi da un po ‘di tempo, vedrai uscire nuove app AR che sono più accurate nel modo in cui posizionano gli oggetti all’interno di uno spazio.”
Grazie ad una specifica app AR per iOS 14, iPhone mostrerà in automatico le informazioni degli articoli presenti negli Apple Store o nei vari punti Starbucks, stando ai report di Benjamin Mayo di 9to5Mac.
Wong inoltre, ipotizza che le fotocamere 3D della back cover consentiranno agli utenti di avere contenuti digitali di nuova generazione da condividere sui social media; ipotizziamo infatti scatti selfie di persone che interagiscono con immagini oleografiche di animali o vip all’interno dei propri salotti. Il concetto è il medesimo di quello che si ha con l’applicazione di terze parti, Holo, ma senza l’analisi dei dati che un ToF potrebbe rilasciare.