Nella giornata di ieri Apple ha annunciato l’intenzione di implementare un nuovo sistema di sorveglianza all’interno di iCloud. L’azienda scansionerà automaticamente tutte le foto e i video caricati dagli utenti usando una nuova tecnologia chiamata NeuralHash.
NeuralHash, in moto simile al PhotoDNA di Microsoft, scansiona un’immagine o un video cercando una possibile corrispondenza con le immagini di abusi su minore contenute nei principali database delle forze dell’ordine. La scansione è automatica, ma in caso di una presunta corrispondenza, la verifica passa ad un’operatore in carne ed ossa che eventualmente segnalerà il contenuto alle forze dell’ordine.
La misura verrà implementate verso la fine del 2021 ed è inizialmente destinata agli utenti statunitensi, ma proprio in questi giorni il Parlamento Europeo ha approvato ChatControl, una controversa legge che di fatto crea una deroga alla norme sulla privacy, proprio per consentire alle piattaforme tech di scansionare gli allegati e le conversazioni dei loro utenti nell’ambito del contrasto alla pedopornografia.
Come funziona NeuralHash
Apple sta lavorando ad alcuni strumenti per individuare e contrastare i contenuti CSAM – acronimo di child sexual abuse material – da ormai diversi anni. Gli sforzi dell’azienda sono stati resi pubblici esclusivamente questo mercoledì 4 agosto, quando il ricercatore Matthew Green ha rivelato la notizia al mondo, costringendo Apple a rendere pubblica la sua nuova tecnologia.
NeuralHash funziona traducendo un contenuto multimediale in un’identità alfanumerica univoca – una vera e propria firma – chiamata hash. Prima che un contenuto venga caricato su iCloud o iMessage, il dispositivo dell’utente cercherà una corrispondenza tra l’hash dell’immagine con quelli contenuti nei database di immagini raffiguranti abusi noti alle forze dell’ordine. NeuralHash non cerca attivamente nuovi contenuti, ma si limita a verificare una corrispondenza con le immagini già conosciute alle forze dell’ordine grazie ad anni d’indagini e operazioni di contrasto al fenomeno della pedopornografia.
Cercando una corrispondenza prima del caricamento su iCloud, Apple riesce a monitorare le immagini senza bisogno di decriptarle, dato che gli utenti possono scegliere di proteggere il loro account con la crittografia.
Apple sostiene che il suo sistema sia in grado di garantire che l’hash di un’immagine non venga compromesso nemmeno quando questa viene alterata, ad esempio con ritagli o altri effetti.
Non è l’unico strumento contro la pornografia minorile. Apple sta anche lavorando ad un filtro per bloccare l’invio di materiale pornografico su iMessage in caso il sistema rilevi che il destinatario del messaggio è un minorenne.
Un altro strumento interverrà invece se l’utente cercherà keyword legate alla pornografia minorile usando Siri o la funzione di ricerca di Safari.
In caso di corrispondenze, Apple segnala l’immagine al National Center for Missing & Exploited Children e disabilità l’account dell’utente.
Le perplessità degli attivisti a difesa della privacy
Apple sostiene che la sua tecnologia riduca i falsi positivi ad un caso su mille miliardi. È un’affermazione che deve ancora essere verificata da studi di terze parti (probabilmente non succederà mai) e che impone il massimo scetticismo.
Tecnologie di questo tipo sono note per non essere sempre precise e affidabili. Può accadere che gli algoritmi segnalino come sospette immagini innocue (o comunque non raffiguranti abusi sui minori). Proprio questa eventualità – tutto fuorché rara – apre un importante dibattito sul costo proibitivo per la privacy degli utenti introdotto da questi sistemi di sorveglianza automatica. Ogni falso positivo verrà segnalato e valutato da un dipendente in carne ed ossa.
Esistono poi degli altri importanti timori, sottolineano gli attivisti a difesa della privacy. Strumenti come NeuralHash di Apple, e deroghe alle norme sulla privacy come quella introdotta dall’UE, oggi vengono approvate con il pretesto di combattere un reato estremamente deprecabile come la distribuzione di pornografia minorile. Di fatto però creano anche un pericoloso precedente, che un domani potrebbe aprire le porte ad altri sistemi di sorveglianza delle conversazioni e degli scambi degli utenti, magari con il pretesto della guerra allo spaccio di droga o della lotta al terrorismo.
No matter how well-intentioned, @Apple is rolling out mass surveillance to the entire world with this. Make no mistake: if they can scan for kiddie porn today, they can scan for anything tomorrow.
They turned a trillion dollars of devices into iNarcs—*without asking.* https://t.co/wIMWijIjJk
— Edward Snowden (@Snowden) August 6, 2021
Diventa quindi immaginabile un nuovo contesto di sorveglianza perenne, in assenza di quelle importanti garanzie di legge che fino ad oggi hanno regolato l’uso degli strumenti delle intercettazioni e dei captatori informatici. Strumenti che oggi sono non solo predisposti da un giudice esclusivamente in presenza di gravi ipotesi di reato, ma sono anche limitati nel tempo e vengono rimossi con il termine delle indagini.
Il sistema di Apple funziona esclusivamente con le immagini caricate dagli utenti su iCloud e iMessage, mentre i contenuti multimediali caricati localmente sull’iPhone non verranno scansionati. Ad ogni modo, la scansione avviene prima del caricamento sui server di iCloud e non solamente dopo che il contenuto viene ospitato sui server dell’azienda.
“Con così tanti utenti che usano i prodotti di Apple, questa nuova misura di sicurezza ha il potenziale di salvare la vita dei bambini. È la prova che la privacy e la protezione dei bambini possono coesistere”, ha detto John Clark, a capo del National Center for Missing & Exploited Children.
Apple ha dato un messaggio molto chiaro. È loro opinione che costruire un sistema che scansiona gli smartphone degli utenti a caccia di contenuti proibiti è sicuro. Il Governo presto lo chiederà per tutti e per tutto
ha detto Matthew Green, l’esperto di sicurezza informatica della Johns Hopkins University che ha rivelato al mondo l’esistenza di NeuralHash.
L’Electronic Frontier Foundation sottolinea invece che sarà virtualmente impossibile verificare se Apple manterrà o meno le sue promesse, ossia se è vero che solo una piccola parte dei contenuti verranno scansionati e una parte ancora più piccola verrà controllata da dei dipendenti in carne ed ossa. “È una notizia scioccante per tutte quelle persone che si sono affidate alla promessa di Apple di voler rispettare la privacy degli utenti”, si legge in un articolo della EFF.