Apple ha appena aggiornato la sua pagina relativa alle funzioni per l’accessibilità al fine di evidenziare meglio le opzioni native in macOS e iOS che consentiranno ai dispositivi degli utenti di “lavorare come te” e incoraggiare tutti a “creare qualcosa di meraviglioso“. Una nuova intervista con gli ingegneri dell’accessibilità di Apple e AI/ML è appena emersa nel web: dalle parole trapelate, si nota quello che è stato l’approccio dell’azienda di Cupertino con l’inserimento di nuove features pensate per migliorare l’accessibilità con iOS 14.
iOS 14: Screen Recognition, il passo avanti per utenti con disabilità
L’ingegnere di iOS Chris Fleizach e il membro del team AI/ML Jeff Bigham hanno parlato ai microfoni di TechCrunch di come Apple pensasse di evolvere le funzionalità di accessibilità da iOS 13 a 14 e di come fosse necessaria la collaborazione di tutti per raggiungere questi obiettivi. Uno dei maggiori upgrade della nuova release del software rilasciato questo autunno per quanto riguarda l’accessibilità è contestuale alla funzione di riconoscimento dello schermo: questa va oltre le potenzialità stesse di VoiceOver, che ora utilizza “l‘intelligenza sul dispositivo per riconoscere gli elementi sullo schermo per migliorare il supporto di VoiceOver per le app e le esperienze web“.
Ecco come Apple descrive il riconoscimento dello schermo: “Screen Recognition rileva automaticamente i controlli dell’interfaccia per facilitare la navigazione nelle app e funziona anche con l’intelligenza sul dispositivo al fine di rilevare e identificare suoni importanti come gli allarmi, avvisando gli utenti mediante notifiche.
Ecco come Fleizach di Apple descrive l’approccio di Apple al miglioramento dell’accessibilità con iOS 14, la velocità e la precisione fornite con Screen Recognition:
Abbiamo cercato aree in cui possiamo fare breccia nell’accessibilità, come le descrizioni delle immagini. In iOS 13 abbiamo etichettato le icone automaticamente, ma Screen Recognition fa un altro passo avanti. Possiamo guardare i pixel sullo schermo e identificare la gerarchia degli oggetti con cui si può interagire e tutto questo avviene sul dispositivo in decimi di secondo.
Bigham osserva quanto sia stata cruciale la collaborazione tra i team di Apple per andare oltre le capacità di VoiceOver con Screen Recognition:
VoiceOver è stato il portabandiera dell’accessibilità visiva per così tanto tempo. Se si guarda ai passaggi avvenuti nello sviluppo per Screen Recognition, si nota che questo è stato fondato sulla collaborazione tra i team. Lo abbiamo fatto per assicurarci che il nostro sviluppo di machine learning continuasse a spingere verso un’esperienza utente eccellente.
TechCrunch afferma che, per ora, Screen Recognition non arriverà su Mac perché sarebbe un’impresa assai ardua. Tuttavia, con i nuovi Mac di Apple dotati del SoC personalizzato M1 dell’azienda e con un motore neurale a 16 core che sarà sicuramente all’altezza del compito, è solo questione di tempo prima di vedere questa funzionalità a bordo dei nuovi portatili di Cupertino.