La città di Mason City, nell’Iowa, è recentemente diventata il centro di un dibattito riguardo l’uso dell’intelligenza artificiale per censurare i libri. Secondo un rapporto del Globe Gazette, il consiglio scolastico della città sta impiegando la tecnologia IA per compilare elenchi di libri potenzialmente proibiti nelle biblioteche del distretto per l’anno scolastico 2023/24.
Questo intervento è stato promosso dalla recente approvazione del Senate File 496 (SF 496), avvenuta a maggio. Con il sostegno della maggioranza repubblicana e la firma del governatore Kim Reynolds, questa legge ha introdotto modifiche sostanziali al curriculum educativo dell’Iowa. Le nuove disposizioni limitano i libri disponibili nelle biblioteche e nelle aule scolastiche, imponendo che i titoli siano “adatti all’età” e privi di “descrizioni o rappresentazioni visive di un atto sessuale“, come stabilito dal Codice Iowa 702.17.
Colpa di una nuova legge. “Impossibile revisionare i libri manualmente”. Da qui la necessità di usare l’IA per censurare i testi pruriginosi.
Bridgette Exman, vice sovrintendente al curriculum e all’insegnamento del Distretto Scolastico Comunitario di Mason City, ha evidenziato le sfide poste da questa nuova regolamentazione. Le biblioteche del distretto vantano vaste collezioni, rendendo impossibile per i revisori umani verificare ogni singolo titolo. Di conseguenza, l’IA è stata reclutata per esaminare i testi sospetti alla ricerca di contenuti proibiti.
Il distretto scolastico inizia con la creazione di un “elenco principale” tratto da “diverse fonti”, basandosi su precedenti lamentele relative a contenuti sessuali. I libri di quest’elenco vengono quindi esaminati da un “software IA” che determina la presenza o meno di rappresentazioni sessuali.
Exman ha sottolineato l’obbligo legale ed etico di conformarsi alla legge, pur evidenziando l’importanza di concentrarsi su questioni più rilevanti piuttosto che sulla protezione dei bambini dai libri. “Il nostro vero obiettivo è un processo difendibile”, ha dichiarato.
Ovviamente la scelta non piace a tutti, per usare un eufemismo. In molti hanno visto in questo episodio l’ennesima preoccupazione sul ruolo che i software automatizzati avranno nel prendere decisioni che riguardano valori culturali e etici.