La pedopornografia è un problema serio e Apple ha deciso di provare a risolverlo.
Ma è lecito analizzare le foto di tutti gli utenti di iCloud per prevenirla?
Secondo Apple la risposta a questa domanda è si. Infatti entro la fine del 2021 tutti i dispositivi Apple introdurranno una tecnologia atta a combattere la diffusione di materiale pedopornografico online (CSAM Child Sexual Abuse Material).
Apple sostiene che questo sistema di classificazione delle immagini sarà comunque rispettoso della privacy dei suoi utenti. Infatti, invece di analizzare le immagini nel cloud, il sistema eseguirà l'analisi direttamente all'interno del dispositivo dell'utente.
Per ogni foto, prima di essere caricata su iCloud, verrà calcolato in un hash alfanumerico univoco che verrà confrontato con quelli presenti del database NCMEC (National Center for Missing & Exploited Children) in cui sono raccolte tutte le foto sequestrate dalle forze dell'ordine nel corso di operazioni contro la pedopornografia.
Se si dovessero verificare un certo numero di matching tra gli identificativi delle foto dell'utente e quelli presenti nel database NCMEC Apple invierà le immagini ad un revisore umano che avrà il compito di verificare manualmente gli scatti. Nel caso in cui le immagini vengano ritenute inappropriate verrà immediatamente bloccato l'account dell'utente e inviata una segnalazione alle forze dell'ordine.
Sulla carta il sistema non fa una piega. Ma il detto "innocente fino a prova contraria" va a farsi benedire visto che questo sistema andrà ad analizzare le foto di tutti gli utenti in modo indiscriminato.
Inoltre ci sono due questioni che mi lasciano particolarmente perplesso. Mettere una backdoor per analizzare le fotografie contenute in un dispositivo criptato, anche se viene fatto alla luce del sole, è pur sempre mettere una backdoor. Se io ho criptato il mio dispositivo è perché voglio che nessuno possa leggere i miei dati senza la mia autorizzazione. Includere una backdoor mina il livello di fiducia che posso riporre nel sistema visto che non sono più sicuro di poter decidere io chi ha accesso ai miei dati. Infine, l'aver lasciato una porta aperta vuol dire che è anche possibile abusarne per scopi differenti da quelli previsti originariamente. Non ci credi? Proprio in questi giorni i Talebani sono entrati in possesso di dispositivi portatili di rilevamento dell’identità usate dagli Americani per rintracciare terroristi e persone che collaboravano con l’esercito o con le ambasciate. E dubito che l'utilizzo che ne verrà fatto da parte dei Talebani sia esattamente quello progettato originariamente dagli Stati Uniti.
L'altra questione è relativa al tipo di algoritmo utilizzato per il matching delle immagini che non sembra essere così infallibile come proclamato da Apple. Sembrerebbe che già da oggi sia possibile creare facilmente delle collisioni tra gli identificativi univoci delle fotografie. Questo vuol dire che è possibile generare ad arte delle immagini del tutto innocenti che però hanno lo stesso identificativo di immagini pedopornografiche. Vuoi creare problemi ad una persona antipatica? Mandagli un certo numero di foto all'apparenza innocue ma che in realtà hanno lo stesso identificativo di un'immagine pedopornografica.
Queste immagini sono uguali.
— Matteo Navacci (@mrk4m1) August 19, 2021
Il sistema Apple contro la pedopornografia sarà un successone. pic.twitter.com/RaXvo5pc4n
L'anno scorso, per burlarsi di Google, Apple aveva messo un cartellone pubblicitario che recitava "Ciò che accade sul tuo iPhone rimane nel tuo iPhone". Alla luce di questi nuovi fatti sembrerebbe che questo slogan vada rivisto.
E tu che ne pensi? Un fine nobile come quello della tutela dei bambini giustifica una violazione della privacy di questo livello?
Grazie per aver letto questo articolo della rubrica Input/Output. Ad ogni input, tipicamente, corrisponde un output. E solo esponendosi ad input diversi si possono tirare fuori idee non convenzionali. Proprio per questo ogni martedì prendo in input una curiosità legata al mondo tecnologico per ragionare su nuove idee da tirare fuori in output.