Il nuovo generatore di linguaggio sembra rasentare l’intelligenza artificiale e riesce in autonomia a scrivere libri, comporre poesie e inventare meme.
Il mese scorso, OpenAI aveva lanciato online la closed beta del suo servizio GPT-3 (Generative Pre-Training), dimostrando al mondo le potenzialità del software. Le maglie di coloro che hanno accesso al programma si sta man mano allargando, investitori e giornalisti cominciano quindi a condividere sui social i risultati dei loro esperimenti, divenendo virali.
Le dinamiche che muovono GPT-3 sono estremamente semplici, almeno concettualmente: un algoritmo di machine learning analizza i modelli statistici di un trilione di parole estrapolate da libri digitalizzati e discussioni sul web.
I asked GPT-3 about our existence and God and now I have no questions anymore.#GPT3 // @OpenAI pic.twitter.com/ROsjDZn7RG
— Merzmensch Kosmopol🧑🎨🤖 (@Merzmensch) July 15, 2020
Il risultato è un testo fluente dalla stupefacente credibilità, anche se, come spesso capita a questo genere di programmi, il software dimostra tutti i suoi limiti logici sul lungo periodo, quando viene sottoposto a ragionamenti complessi.
Ora come ora, quindi, GPT-3 si limita a fomentare la rete con grandi frasi a effetto, soprattutto perché buona parte di coloro che lo hanno testato si sono affrettati a condividere i momenti alti delle loro interazioni con la macchina. Le criticità da affrontare sono comunque sotto gli occhi di tutti.
Le aspettative verso il GPT-3 sono decisamente troppo alte. Ha ancora delle serie debolezze e qualche volta compie errori ridicoli,
ha sottolineato domenica con un tweet Sam Altman, CEO di OpenAi.
A destare particolare clamore è stata la testimonianza di Jerome Pesenti, personaggio a capo della sezione IA di Facebook, il quale ha fatto notare come il software finisca con il generare una quantità notevole di opinioni razziste, sessiste e antisemite.
#gpt3 is surprising and creative but it’s also unsafe due to harmful biases. Prompted to write tweets from one word – Jews, black, women, holocaust – it came up with these (https://t.co/G5POcerE1h). We need more progress on #ResponsibleAI before putting NLG models in production. pic.twitter.com/FAscgUr5Hh
— Jerome Pesenti (@an_open_mind) July 18, 2020
GPT-3 diviene quindi uno specchio della società con cui si interfaccia, mettendo in mostra acriticamente virtù e difetti dei mondi testuali che popolano la Rete. Tutti concordano che il software di generazione del linguaggio sia dunque da migliorare, da istruire in modo che sviluppi un miglior senso dell’orientamento.
Il quesito deontologico che nessuno vuole veramente affrontare è però sempre il medesimo: a chi tocca stabilire quali siano tematiche e toni corretti? Chi ha il diritto di scegliere quanto e come limitare l’afflusso di dati?
Potrebbe anche interessarti: