Questa settimana si è molto discusso di una controversa iniziativa di Apple, che verso la fine del 2021 inizierà a monitorare automaticamente tutti i contenuti – foto e video – caricati dagli utenti statunitensi su iCloud a caccia di possibile materiale pedopornografico.

Sul tema è intervenuto anche Will Cathcart, N.1 di WhatsApp. Cathart ha spiegato che l’app di messaggistica più usata in Europa non intende seguire l’esempio di Apple, perché troppo pericoloso e troppo invasivo per la privacy degli utenti.

WhatsApp

La tecnologia di Apple – NeuralHash – funziona traducendo i contenuti multimediali in una stringa alfanumerica, un’impronta digitale univoca chiamata hash, e confrontando questa impronta con quelle contenute nel database del National Center for Missing & Exploited Children – che è costantemente aggiornato e include tutti i contenuti pedopornografici noti alle forze dell’ordine.

NeuralHash, in altre parole, non cerca contenuti nuovi usando il machine learning – un compito difficile i cui possibili svantaggi eccederebbero i benefici – ma si limita a segnalare i contenuti già noti. Inoltre la tecnologia di Apple dovrebbe essere anche piuttosto brava nell’individuare le immagini pedopornografiche già note anche quando queste vengono alterate – ad esempio con ritagli o perché il contrasto è stato modificato. Apple promette un margine di errore di un caso ogni mille miliardi, ma questo non è bastato a rassicurare gli esperti di privacy e sicurezza informatica, che temono gravi abusi e un danno per la privacy degli utenti irreparabile.

Secondo Will Cathcart di WhatsApp, Apple ha scelto la strada sbagliata per combattere la pornografia minorile. “È un passo indietro per la tutela della privacy di tutte le persone nel mondo”, ha detto, per poi aggiungere che le persone gli hanno chiesto “se anche WhatsApp adotterà questo sistema e la risposta è no”.

Cathart pone alcuni interrogativi importanti, che sono gli stessi quesiti introdotti con urgenza dalla comunità di esperti di sicurezza informatica e diritti digitali.

  1. Chi garantisce che questo sistema di sorveglianza automatica non verrà abusato dai governi autoritari? «Questo sistema verrà usato in Cina?», si chiede Cathcart. «Quali contenuti saranno considerati illegali là, ammesso che avremo mai la possibilità di saperlo.? Come gestirete le richieste dei governi di tutto il mondo di inserire nuovi tipi di contenuti illegali da monitorare con l’intelligenza artificiale?»
  2. Non esistono tecnologie a prova di errore. Contando che ogni immagine segnalata da NeuralHash verrà poi revisionata da una persona in carne ed ossa, con evidenti problemi per la privacy degli utenti, quali sono le garanzie fornite da Apple? «Davvero questo software di scansione automatica installato di default sugli smartphone può essere a prova di errore? I ricercatori non hanno avuto la possibilità di scoprirlo. Perché no? Come faremo a sapere quante volte gli errori del software andranno a violare la privacy degli utenti?»
  3. Come tutte le tecnologie di sorveglianza installate di default nei device di milioni di persone, esiste il forte e credibile rischio che anche NeuralHash possa venire abusato da aziende senza scrupoli per spiare illegalmente le persone. «Cosa succederà quando le aziende che producono spyware scopriranno un modo per abusare di questa tecnologia? Alcuni report recenti hanno mostrato il costo proibitivo delle vulnerabilità di iOS. Cosa succede se qualcuno riuscirà a scoprire un modo per abusare anche di questo sistema?»

Le osservazioni del N.1 di WhatsApp riassumono in modo efficace le preoccupazioni avanzate da gran parte del mondo di esperti di sicurezza informatica. L’iniziativa di Apple – che inizialmente sarà indirizzata solo agli utenti statunitensi – ha ricevuto dure critiche anche dalla Electronic Frontier Foundation e da Edward Snowden.

Una volta Apple disse che non avrebbe assecondato le richieste dei governi di installare una backdoor nei suoi iPhone, perché questo avrebbe compromesso le stesse libertà e gli stessi diritti che il nostro Governo ha il compito di proteggere. Erano parole molto sagge, vale ancora la pena di ascoltarle

ha poi concluso Will Cathcart.

Leggi anche: