È recentissima la notizia, confermata in via ufficiale, secondo la quale Apple utilizzerà una sua speciale tecnologia per tenere sotto controllo le immagini presenti su iPhone. Il motivo: contribuire in modo concreto alla lotta alla pedopornografia.
In seguito alle tantissime perplessità e critiche sollevate da esperti, e anche dagli utenti, la mela morsicata ha deciso di chiarire la sua posizione. In un documento, emerge una risposta chiara alla domanda più ricorrente a proposito di questa novità, ovvero: Apple scansionerà qualsiasi foto presente sul mio iPhone?
Apple spia le foto su iPhone? Non è come sembra
Alla domanda, una risposta chiarissima. Qualsiasi foto presente su iPhone sarà scansionata dalla mela morsicata?
No. In base alla progettazione, questa funzione si applica solo alle foto che l’utente sceglie di caricare su Foto di iCloud e anche in questo caso Apple viene a conoscenza solo degli account che archiviano raccolte di immagini CSAM note e solo delle immagini che corrispondono a CSAM noto. Il sistema non funziona per gli utenti che hanno disabilitato le foto di iCloud. Questa funzione non funziona sulla libreria fotografica privata dell’iPhone sul dispositivo.
Le immagini “CSAM”, com’è facile intuire, sono le fotografie dal contenuto esplicitamente pedopornografico. Dunque, Apple si limiterà a usare i propri algoritmi solo per controllare (in modo automatico) le immagini che gli utenti caricheranno su iCloud. Tutto quello che è offline resterà offline, conservato su iPhone.
Probabilmente questo non servirà a placare le polemiche relative alla paura che la privacy degli utenti possa essere violata, ma è comunque utile per capire in che modo la mela morsicata ha intenzione di agire per prevenire un fenomeno fin troppo diffuso e assolutamente riprovevole.