Nella giornata di oggi Apple ha annunciato di voler rimandare l’introduzione della sua controversa tecnologia progettata per individuare le immagini di abuso sui minori caricate dagli utenti su iCloud e iMessage. L’azienda non ha cancellato il progetto, ma ha spiegato di volersi prendere più tempo per ridefinire la tecnologia CSAM prima di abilitarla sui suoi device.

Lo scorso mese abbiamo annunciato una nuova feature pensata per proteggere i bambini dai molestatori che utilizzano gli strumenti di comunicazione per addescarli e abusare di loro, e anche per limitare la diffusione del materiale pedopornografico (CSAM – Child Sexual Abuse Material). L’annuncio ha ricevuto importanti feedback da parte dei nostri clienti, delle associazioni per i diritti civili, dal mondo accademico e non solo. Per questa ragione, abbiamo scelto di prenderci del tempo in più. Nei prossimi mesi raccoglieremo e studieremo le osservazioni che ci sono arrivate, in modo da migliorare questa tecnologia fondamentale per difendere il benessere dei bambini

si legge in un comunicato inviato da Apple alla stampa e riportato sito 9to5mac.

La tecnologia anti-CSAM avrebbe fatto il suo debutto su iOS15, iPadOS 15 e macOS. Inizialmente sarebbe stata impiegata esclusivamente in alcuni paesi, come negli Stati Uniti d’America. Apple aveva spiegato che avrebbe implementato il filtro contro la pedofilia anche in altri paesi, decidendo l’approccio più corretto caso per caso e tenendo ovviamente conto delle norme locali.