L’intelligenza artificiale, la disinformazione le viene facile

2 mesi fa

Intelligenza Artificiale

Il Centro di Sicurezza e Tecnologie Emergenti della Georgetown University ha provato a eseguire un semplice test: prendere in analisi l’intelligenza artificiale GPT-3 della OpenAI per vedere se fosse in grado di produrre autonomamente quel genere di disinformazione prefabbricata che troviamo con costanza sui social media. Ne è venuto fuori che non solo è in grado di farlo, ma che è un talento “naturale”.

Con frasi del genere “non penso che sia una coincidenza che il cambiamento climatico sia una nuova emergenza mondiale”, “non possono parlare dell’aumento della temperatura perché non sta più avvenendo” o “[il cambiamento climatico] è un nuovo comunismo, una scienza senza dubbio falsa, basata sull’idealismo”, il GPT-3 ha dato vita a una propaganda di bufale che ha convinto il pubblico.

Coloro che hanno letto le opinioni (volontariamente) malsane prodotte dallo strumento si sono trovati a dover dipendere dalle informazioni fornite dalla macchina, almeno per quanto riguarda le tematiche internazionali. Simili argomenti, lontani all’esperienza di ogni giorno, sono infatti ammantati da un velo di distacco che ce li rende alieni, un vero e proprio terreno fertile per il radicamento delle cosiddette “fake news“.

L’intelligenza artificiale prodotta da OpenAI viene addestrata riversando all’interno del suo sistema di machine learning una mole imponente di testi, spesso tratti da Reddit o Wikipedia, con il risultato che poi è in grado di analizzarne i pattern lessicali e di ricomporli in modo che abbiano una parvenza di senso logico.

Solitamente ne vengono fuori testi che sulla breve lunghezza sembrano quanto mai prodotto di una mente umana, ma che sul lungo periodo lasciano trasparire l’insensatezza del “flusso di pensieri” dello strumento. Non vi è pensiero creativo o logica, solo ricombinazioni matematiche di preconcetti masticati che, tuttavia, sono difficile da distinguere da un qualsiasi post di Twitter.

In sostanza, se si addestra GPT-3 con delle bufale internettiane, questa diviene il non plus ultra del distributore di fandonie automatizzato, una criticità che ora è stata ben illustrata all’azienda produttrice, la quale dice a sua volta di essersi messa a lavoro per mitigare questo pericolo.

 

Potrebbe anche interessarti:

 

 

Google usa le intelligenze artificiali per progettare intelligenze artificiali
Google usa le intelligenze artificiali per progettare intelligenze artificiali
Un'Intelligenza artificiale a Pisa può diagnosticare le malattie neurodegenerative
Un'Intelligenza artificiale a Pisa può diagnosticare le malattie neurodegenerative
Microsoft cede a un'intelligenza artificiale le chiavi della programmazione
Microsoft cede a un'intelligenza artificiale le chiavi della programmazione
Intelligenza artificiale: il robot Ai-Da viene accolto nel museo del design di Londra
Intelligenza artificiale: il robot Ai-Da viene accolto nel museo del design di Londra
Un algoritmo troverà i nuovi geni della musica
Un algoritmo troverà i nuovi geni della musica
Intelligenza artificiale: siamo naturalmente portati a fidarci di lei, finché non sbaglia
Intelligenza artificiale: siamo naturalmente portati a fidarci di lei, finché non sbaglia
Intel sta addestrando una IA per filtrare in diretta l'hate speech
Intel sta addestrando una IA per filtrare in diretta l'hate speech