Per aiutare a identificare i momenti di tensione nei dibattiti online che si stanno avvicinando a un tracollo irrimediabile, i ricercatori della Cornell University hanno sviluppato uno strumento di intelligenza artificiale in grado di seguire le conversazioni in tempo reale, di rilevare quando la tensione sta degenerando e di dissuadere gli utenti dall’uso di un linguaggio incendiario. La ricerca mostra risultati promettenti grazie al fatto che i metodi di previsione delle conversazioni, nell’ambito dell’elaborazione del linguaggio naturale, potrebbero rivelarsi utili per aiutare sia i moderatori sia gli utenti a ridurre in modo proattivo l’odio da tastiera e a mantenere sani e produttivi i forum di discussione. “Chi discute con buone intenzioni è solo un essere umano. Nel bel mezzo di un dibattito acceso, su un argomento a cui si tiene molto, può essere facile reagire emotivamente e rendersene conto solo dopo il fatto”, ha dichiarato Jonathan Chang, dottorando in informatica. L’idea non è quella di dire agli utenti cosa dire, ha detto Chang, ma di incoraggiarli a comunicare come farebbero di persona”. Lo strumento, chiamato ConvoWizard, è un’estensione del browser alimentata da una rete neurale profonda. Questa rete è stata addestrata su montagne di dati linguistici estratti dal subreddit Change My View, un forum che privilegia i dibattiti in buona fede su argomenti potenzialmente scottanti legati alla politica, all’economia e alla cultura.
Come agisce ConvoWizard
Quando gli utenti che partecipano a Change My View attivano ConvoWizard, lo strumento è in grado di informarli quando la conversazione inizia a diventare tesa. Può anche informare gli utenti, in tempo reale, mentre scrivono le loro risposte, se il loro commento rischia di aumentare la tensione. Lo studio suggerisce che il feedback dell’intelligenza artificiale può essere efficace nel guidare l’utente verso un linguaggio che elevi il dibattito costruttivo, hanno detto i ricercatori. ConvoWizard chiede sostanzialmente:
“Se questo commento viene pubblicato, aumenterebbe o diminuirebbe la tensione stimata nella conversazione?”.
“Se il commento aumenta la tensione, ConvoWizard dà un avvertimento”, ha detto Chang. La casella di testo diventerebbe rossa, ad esempio. “Lo strumento è in grado di fornire un feedback senza sconfinare nel territorio pericoloso in cui si dice di fare questo o quello”. Per testare ConvoWizard, i ricercatori della Cornell hanno collaborato con il subreddit Change My View, dove circa 50 moderatori e membri del forum hanno utilizzato lo strumento. I risultati sono stati positivi: il 68% ha ritenuto che le stime di rischio dello strumento fossero pari o superiori alla propria intuizione e più della metà dei partecipanti ha riferito che gli avvertimenti di ConvoWizard hanno impedito loro di postare un commento di cui si sarebbero poi pentiti. Chang ha anche notato che, prima di usare ConvoWizard, è stato chiesto ai partecipanti se avessero mai postato qualcosa di cui si fossero pentiti. Più della metà ha risposto di sì. “Questi risultati confermano che, sì, anche gli utenti con buone intenzioni possono cadere in questo tipo di comportamento e sentirsi in colpa”, ha detto Chang.