Con l’aumento delle immagini e dei video generati dall’intelligenza artificiale, Twitter ha deciso di testare una nuova funzione che potrebbe facilitare l’identificazione dei potenziali “contenuti fuorvianti”. L’azienda vuole usare le sue Community Notes anche per i media: si inizia con le immagini individuali, ma presto la funzione verrà estesa anche ai video e ai tweet che contengono più immagini.
Le Community Notes sono un sistema di fact-checking partecipativo. Invece di affidarsi ad un manipolo di aziende, quotidiani o organizzazioni di fact-checkin “istituzionali” (per così dire), Twitter ha scelto un approccio più elastico e meno imposto dall’alto, usando un modello per certi versi simile a quello di Wikipedia. Gli utenti possono segnalare che un tweet contiene informazioni inesatte, fuorvianti o false. Gli utenti che partecipano al programma possono quindi contestare, integrare o correggere la segnalazione e il processo continua finché non si trova una dichiarazione che soddisfa la maggioranza dei partecipanti. Possibilmente, la nota della community deve piacere a tutti gli utenti a prescindere dal loro orientamento politico.
Il sistema sulla carta è molto buono, ma in passato è stato protagonista di alcune controversie. La nuova funzione consente ai collaboratori delle Community Notes con un punteggio sufficientemente alto di aggiungere note alle immagini condivise nei tweet. Come le note sui tweet, le etichette potrebbero aggiungere ulteriore “contesto” alle immagini, ad esempio indicando se una foto è stata creata utilizzando l’IA generativa o è altrimenti manipolata.
Secondo Twitter, l’obiettivo è far sì che le note compaiano automaticamente sulle “copia recenti e future” della stessa immagine, anche se vengono condivise da utenti separati in nuovi tweet. Tuttavia, Twitter sottolinea che ci vorrà del tempo per perfezionare il riconoscimento delle immagini. “Lavoreremo per ottimizzare questo aspetto al fine di ampliare la copertura ed evitare corrispondenze erronee”, ha detto l’azienda.