Con iOS 17, gli iPhone sfocheranno in automatico le immagini pornografiche
È una misura di sicurezza, opzionale e disattivabile, contro le molestie e i cosiddetti "nudi non consensuali".

Durante il WWDC 2023, Apple ha annunciato una nuova funzione di sicurezza per iOS 17 in grado di filtrare in automatico i contenuti sensibili Originariamente introdotta per proteggere i bambini dalla visualizzazione di immagini di natura scabrosa, questa funzione si estenderà ora anche agli adulti. Consentirà agli utenti di far sì che l’iPhone sfochi in automatico le immagini e i video di natura pornografica.
Non si tratta di una misura di sicurezza obbligatoria: è ovviamente assolutamente opzionale. Inoltre, anche una volta attivata sarà comunque possibile visualizzare il contenuto delle immagini facendo pressione sullo schermo. La funzione verrà supportata da diverse app native come Messaggi, FaceTime, AirDrop, oltre che da aclune app di terze parti come WhatsApp e Snapchat.
Apple ha sottolineato l’importanza della privacy, affermando che il processo di elaborazione delle immagini e dei video avverrà in locale sul dispositivo, senza coinvolgere app di terze parti o la stessa Apple. Questo garantisce che i file rimangano privati e che la sicurezza sia gestita correttamente.
L’espansione di questa funzione a tutti gli utenti di iOS 17 è un passo importante verso la prevenzione di contenuti indesiderati. Chissà se in futuro anche altre piattaforme, come Android, decideranno di seguire l’esempio di Apple e introdurre sistemi di sicurezza simili.