E se fosse proprio l’IA la risposta al complottismo? Fino ad oggi, le IA generative sono state associate al rischio del loro abuso per creare video deepfake e fake news, accentuando un problema già estremamente critico e di difficile risoluzione. Un team di ricercatori è convinto che l’intelligenza artificiale, al contrario, potrebbe essere la chiave di svolta per convincere le persone vittime di disinformazione a comprendere l’infondatezza delle principali teorie del complotto.

Un chatbot per “convertire i complottisti”

Un team di ricercatori ba sviluppato un chatbot basato sull’intelligenza artificiale chiamato DebunkBot, progettato per contrastare la diffusione di teorie del complotto, dimostrando di poter modificare le convinzioni degli utenti. Secondo uno studio pubblicato su Science, DebunkBot ha avuto un impatto significativo e duraturo nel ridurre la credenza in teorie cospirative tra i partecipanti.

Tradizionalmente, si credeva che fosse difficile combattere le teorie del complotto attraverso l’utilizzo di informazioni fattuali. Tuttavia, questo nuovo strumento sfrutta l’IA per rispondere in modo personalizzato alle convinzioni di ciascun utente, mostrando evidenze specifiche per smontare le false teorie. Nel test condotto, più di 2.000 adulti statunitensi hanno interagito con il chatbot e, dopo una breve discussione, il livello di convinzione nelle teorie complottiste è calato in media del 20%. Anche due mesi dopo, l’effetto si è mantenuto stabile.

Questo approccio innovativo suggerisce che una risposta mirata e basata sui fatti possa essere più efficace rispetto alle tradizionali campagne di disinformazione. Il chatbot potrebbe essere utilizzato in contesti specifici, come negli studi medici, per affrontare teorie legate ai vaccini o integrato in forum online dove si diffondono convinzioni errate sulla scienza e la politica.

Bot russi e disinformazione: il piano per spingere le fake news su Google Bot russi e disinformazione: il piano per spingere le fake news su Google

I risultati promettenti del primo studio

I ricercatori hanno testato l’efficacia del chatbot con uno studio che ha coinvolto oltre 2.000 adulti residenti negli Stati Uniti. Ai volontari è stato richiesto di descrivere una teoria del complotto in cui credevano, e di valutare la loro convinzione su una scala da 0 a 100. Tra le teorie citate dai partecipanti, vi erano credenze ampiamente diffuse come quella che sostiene che lo sbarco sulla Luna sia stato messo in scena, che il COVID-19 sia stato creato intenzionalmente per ridurre la popolazione, o che l’assassinio del presidente John F. Kennedy sia stato orchestrato dalla CIA.

I partecipanti sono stati quindi messi in contatto con DebunkBot per una breve conversazione, durante la quale il chatbot ha risposto in modo mirato ai loro argomenti. Per esempio, un partecipante che credeva che l’attacco terroristico dell’11 settembre fosse un inside job, ha sostenuto che il carburante degli aerei non poteva bruciare a temperature sufficienti per fondere le travi d’acciaio del World Trade Center. Il chatbot ha risposto spiegando che è un’idea errata pensare che le travi dovessero fondersi; infatti, l’acciaio inizia a perdere resistenza e diventa malleabile a temperature molto più basse del suo punto di fusione.

Dopo tre scambi di messaggi, che in media duravano circa otto minuti, i partecipanti sono stati invitati a valutare nuovamente il loro grado di convinzione nella teoria del complotto. In media, i partecipanti allo studio hanno ridotto il punteggio di 20 punti. Un quarto dei partecipanti ha dichiarato di aver completamente smesso di credere nella teoria iniziale.