Impegni maggiori sono chiesti da anni dalle associazioni (come la National Center for Missing & Exploited Children, NCMEC). Ma gli esperti di sicurezza sono allarmati per i rischi potenziali di sorveglianza di dispositivi personali.
Le analisi avverranno su tutti i dispositivi iOS e iPadOS (principalmente iPhone e iPad). Si inizierà dai prossimi aggiornamenti e riguarderà solo le immagini caricate su iCloud Photos (servizio cloud di Apple). Il controllo, effettuato in locale, confronta i perceptual hash delle immagini con quelle presi da un database, in modo da rilevare le foto pedopornografiche. La base di dati non è disponibile al pubblico, .
Dal momento che un utente raggiunge una soglia di immagini con corrispondenza inizia un processo in più fasi. Il materiale raccolto viene prima passato a un controllore umano. E se la natura delle foto è confermata l’account viene sospeso. Inoltre, il materiale raccolto viene inviato al NCMEC per valutare se segnalare alla forza dell’ordine. Secondo Apple per via della bontà dell’algoritmo e dell’altezza della soglia è possibile contenere il rischio di errore a un singolo controllo umano non necessario ogni miliardo di utenti.
Apple ha difeso questa scelta dicendo che “le immagine decriptate sono viste da umano solo nel caso di forti sospetti di abuso”. Ma per diversi esperti della privacy, i governi chiederanno lo stesso processo ad altre aziende e potenzialmente per altri scopi (come la guerra contro la droga o il controllo degli oppositori politici).
(C) Riproduzione Riservata
Fonti: Apple, Apple (più approfondito), Financial Times