Leganerd.com
Menu

Etichette sui contenuti IA: scoperto un paradosso difficile da ignorare

Cosa pensano davvero gli utenti dei contenuti scientifici scritti con l’intelligenza artificiale? Dal dibattito pubblico allo studio sperimentale su fiducia e trasparenza delle informazioni online.

Etichette sui contenuti IA: scoperto un paradosso difficile da ignorare

Secondo uno studio pubblicato sulla rivista JCOM, le etichette usate per indicare contenuti generati dall’intelligenza artificiale potrebbero produrre effetti opposti a quelli previsti. Oggi la scrittura di testi scientifici con l’IA è un vero e proprio argomento di attualità. Questa tecnologia ha molte potenzialità ma va monitorata costantemente perché potrebbe commettere errori, imprecisioni eprodurre disinformazione.

L’obiettivo delle etichette editoriali è quello di aumentare la trasparenza e proteggere gli utenti, soprattutto nei social media. Questi spazi, ogni giorno, veicolano tantissimi testi scientifici anche prodotti da sistemi automatici. I ricercatori parlano di due effetti, il primo si chiama “crossover verità-falsità” e causa la scarsa fiducia nelle informazioni scientifiche anche corrette. Poi ci sono le allucinazioni, contenuti plausibili ma errati, un effetto dell’IA generativa autonoma.

Teng Lin è dottorando presso l’Università dell’Accademia cinese delle scienze sociali di Pechino. Insieme a Yiqing Zhang ha analizzato la capacità di coinvolgimento del pubblico dalle etichette che segnalano i contenuti generati con l’AI. Se mentre proteggono dalla disinformazione riescono anche a coinvolgere i lettori, a creare fiducia e ritorno sulla notizia.

intelligenza artificiale

Un esperimento con 433 volontari analizza la fiducia nei testi scientifici scritti con e senza intelligenza artificiale: ecco i risultati e le riflessioni emerse dal sondaggio

L’esperimento ha coinvolto 433 partecipanti reclutati online nel 2024 tra marzo e maggio con la piattaforma Credamo. “Ci siamo concentrati sulle informazioni scientifiche condivise sui social media“, ha spiegato Teng. I ricercatori hanno preparato quattro tipi di post: informazioni scientifiche corrette con o senza etichetta AI e contenuti di disinformazione con o senza la stessa etichetta. È stato utilizzato GPT-4 per la realizzazione dei testi, ai partecipanti è stato chiesto di valutare la credibilità dei contenuti da 1 a 5.

L’intelligenza artificiale adatta l’ascolto alle esigenze di ogni studente di lingue L’intelligenza artificiale adatta l’ascolto alle esigenze di ogni studente di lingue

I ricercatori hanno osservato che le etichette che segnalano la presenza dell’IA non aiutano necessariamente gli utenti a distinguere tra informazioni vere e false. Ne deriva che per i contenuti scientifici legati all’intelligenza artificiale e dichiarati tali non si crea automaticamente una credibilità online certa. La presenza delle segnalazioni fa aumentare la fiducia generale nei contenuti correlati e allo stesso tempo confonde le acque.

Gli utenti sfiduciati su tutto finiscono nella disinformazione. L’esperimento ha mostrato diversi atteggiamenti personali verso l’IA che influenzano il giudizio degli utenti. Se si ha sfiducia e antipatia verso l’IA si ha sfiducia e antipatia anche nel suo testo creato corretto. Teng ha concluso lo studio con queste parole: “Diversi tipi di informazioni scientifiche comportano diversi livelli di rischio“.

Fonte:
Ti potrebbero interessare