Apple ha annunciato di aver abbandonato l’idea di implementare una tecnologia per scansionare automaticamente le foto degli utenti, in modo da individuare e segnalare alle forze dell’ordine eventuali contenuti pedopornografici. L’iniziativa, che inizialmente sarebbe stata limitata agli Stati Uniti, era stata presentata nel 2021.

Il sistema studiato da Apple non prevedeva l’utilizzo di un sistema automatico – o una rete neurale – progettato per comprendere da sé cosa sia potenzialmente un immagine pedopornografica, piuttosto, Apple aveva scelto di usare un database di immagini pedopornografiche già note e archiviate dalle forze dell’ordine (e curato dal National Center for Missing and Exploited Children). Questo sistema avrebbe di fatto cercato una corrispondenza tra le immagini contenute nei telefoni degli utenti e quelle del database, segnalando i casi più sospetti ad Apple e alle autorità.

Peraltro, tale database, per quanto frequentemente aggiornato, sarebbe stato caricato sul dispositivo dell’utente (con le immagini tradotte in dei set di hash, cioè delle impronte digitali alfanumeriche, e dunque impossibili da riprodurre), in modo da limitare la scansione a livello ‘offline’, e non sui sistemi in Cloud di Apple. Le verifiche da parte dei moderatori – autorizzati eventualmente ad allertare le forze dell’ordine – sarebbero partite esclusivamente dopo che il sistema avesse registrato un numero imprecisato di immagini pedopornografiche salvate dall’utente — in modo da evitare che qualcuno potesse essere sottoposto ad indagine semplicemente per aver scaricato in errore un file sbagliato.

La proposta aveva suscitato immediatamente le forti critiche degli attivisti e delle associazioni a favore del diritto della privacy, preoccupati che l’utilizzo di un simile filtro avrebbe aperto le porte ad altre forme di sorveglianza sempre più radicali, affermando l’idea che i produttori di smartphone e le forze dell’ordine abbiano il diritto di scansionare ogni contenuto e ogni conversazione degli utenti, trattando in altre milioni di persone comuni e incensurate alla stregua di presunti criminali.

Gli esperti di sicurezza e di privacy avevano poi contestato l’affidabilità dei sistemi come quello che Apple avrebbe voluto adottare, sostenendo che sono estremamente inaffidabili (e dunque inclini a registrare falsi positivi).

Apple alla fine non ha mai introdotto il filtro contro la pedopornografia ed ha recentemente dichiarato di non essere più interessata a studiare un’iniziativa di questo tipo. Peraltro, proprio di recente Apple ha annunciato di voler proteggere tutti i file salvati su iCloud con la criptografia – una scelta che va nella direzione completamente opposta, rafforzando la privacy degli utenti penalizzando e rendendo le operazioni d’indagine delle forze dell’ordine decisamente più complicate.