Giovedì, OpenAI ha silenziosamente ritirato il suo AI Classifier, uno strumento sperimentale progettato per rilevare testi scritti da intelligenza artificiale. Il pensionamento anticipato dello strumento, notato per la prima volta da Decrypt, è avvenuta senza grandi clamori ed è stata annunciata attraverso una piccola nota aggiunta alla pagina web ufficiale dell’AI Classifier di OpenAI:
Dal 20 luglio 2023, l’AI classifier non è più disponibile a causa del suo basso tasso di accuratezza. Stiamo lavorando per incorporare i feedback e stiamo attualmente ricercando tecniche di prevenzione più efficaci.
Rilasciato il 31 gennaio, per soddisfare almeno in parte le proteste degli insegnanti che temevano che i loro studenti avrebbero usato ChatGPT per barare e non fare i compiti, l’AI Classifier di OpenAI è sempre stato giudicato uno strumento se non controverso, quantomeno molto acerbo e dunque estremamente fallibile. Del resto, fin da subito OpenAI aveva messo le mani davanti spiegando che il suo strumento non era “completamente affidabile”.
Numerose persone avevano segnalato che AI Classifier tende a segnalare come scritti da IA testi in realtà scritti da persone in carne ed ossa. Alcune persone avevano anche aggiunto che AI Classifier rischiava di penalizzare le persone che non parlano l’inglese a livello madrelingua, oltre che le persone nello spettro autistico. Secondo una stima, il sistema riusciva ad identificare il testo prodotto dalle IA solamente nel 26% dei casi, mentre quasi 1 volta su 10 produceva falsi positivi. Nel frattempo sono cambiate molte cose e numerose scuole americane hanno iniziato ad essere molto più tolleranti nei confronti di ChatGPT, al punto che alcune di esse hanno organizzato dei corsi per aiutare gli studenti ad usare le IA in maniera consapevole.