L’impiego discutibile di contenuti generati dall’AI, nelle riviste accademiche, si configura come una minaccia crescente per la credibilità della comunità scientifica, già sottoposta a continui scrutini. L’ultima rivelazione in questo contesto suscita una certa perplessità, amplificando le preoccupazioni riguardo alla qualità e all’integrità delle pubblicazioni nel mondo accademico.
Contenuti Generati dall’IA nelle riviste accademiche, quando “il troppo storpia”
Segnalato da un utente su X, un recente studio pubblicato sulla rivista Frontiers in Cell and Developmental Biology, presumibilmente sottoposto al processo di peer review (revisione paritaria o paritetica, detta anche revisione tra pari o valutazione a pari livello, valutazione critica che un lavoro o una pubblicazione riceve da parte di specialisti aventi competenze analoghe a quelle di chi ha prodotto l’opera), ha attirato l’attenzione per l’utilizzo evidente di figure e diagrammi generati dall’intelligenza artificiale. Questo episodio solleva nuovamente interrogativi sulla credibilità della comunità scientifica, in quanto la disseminazione di contenuti prodotti artificialmente nelle pubblicazioni accademiche costituisce una minaccia tangibile alla credibilità degli autori e delle riviste stesse. Sebbene alcune irregolarità siano più facilmente individuabili, nessuno avrebbe previsto un esempio così stravagante come questo del caso attuale.
Article published a couple of days ago. Every figure in the article is AI generated and totally incomprehensible. This passed "peer-review" https://t.co/8oeyjbn098 pic.twitter.com/d58ME9bXTk
— clifford (@cliff_swan) February 15, 2024
Il caso del ratto superdotato
La perplessità nasce a causa di questo studio, dei ricercatori dell’Università Xi’an Jiaotong University, Cina, pubblicato sulla rivista Frontiers. Il titolo è “Cellular functions of spermatogonial stem cells in relation to JAK/STAT signaling pathway” (Funzioni cellulari delle cellule staminali spermatogoniali in relazione alla via di segnalazione JAK/STAT). Quindi, il protagonista delle immagini generate da AI è un ratto. La morfologia è così grottesca e comica da sfuggire a qualsiasi spiegazione, sfoggiando quelli che sembrano essere testicoli grandi quasi quanto l’animale stesso. I testicoli emergono addirittura dallo stomaco, sospesi in aria e connessi a un’apparizione anatomica superiore che sfugge alla vista. Si noti l’enfasi su “sembra essere”, perché le etichette sul diagramma sono un’accozzaglia di parole il cui significato è totalmente sconosciuto, come “testtomcels”, “retat” e “dck”.
La confessione degli autori che però non modificano nulla
Dopo la conseguente polemica generata da questa segnalazione, i ricercatori non si sono tirati indietro e hanno dichiarato che “le immagini di questo articolo sono state generate da Midjourney“. Tuttavia, sembra che non abbiano fatto alcuno sforzo per modificarle. Il che potrebbe anche essere valutato come degli errori pubblicati deliberatamente. A proposito di revisione paritaria, alcuni membri della comunità scientifica avvertono che Frontiers è una cosiddetta “rivista predatoria”, un tipo di rivista che afferma in modo fuorviante di sottoporre a peer-review i lavori presentati, approfittando di scienziati alla disperata ricerca di un articolo da pubblicare. Se fosse vero, questo potrebbe spiegare perché le immagini, assolutamente confuse, non hanno suscitato alcun allarme; nessuno, a quanto pare, sta facendo dei veri e propri controlli. Vale la pena notare, che non tutti sono d’accordo con questa caratterizzazione di Frontiers, dal momento che quali siano davvero le riviste considerabili “predatorie” rimane un argomento acceso nella comunità. Per quanto riguarda la controversia più recente, l’editore ha riconosciuto di aver assistito allo “scrutinio” che si è scatenato sui social media.
“Ringraziamo i lettori per lo scrutinio dei nostri articoli: quando sbagliamo, la dinamica di crowdsourcing della scienza aperta significa che il feedback della comunità ci aiuta a correggere rapidamente il record“, ha scritto Frontiers su X. Record che, comunque, non è stato corretto.
We thank the readers for their scrutiny of our articles: when we get it wrong, the crowdsourcing dynamic of open science means that community feedback helps us to quickly correct the record.
— Frontiers (@FrontiersIn) February 15, 2024
L’AI e le nuove frontiere nel mondo delle riviste scientifiche. Tabù o nuova normalità?
Indipendentemente dalla pubblicazione, è innegabile che l’IA generativa abbia fatto breccia in modo preoccupante nel mondo accademico. Alcuni articoli sono stati più espliciti, elencando ChatGPT come co-autore. Altri non hanno fatto alcuna dichiarazione in tal senso, ma sono riusciti comunque a superare la peer review.
Quelli che vengono scoperti spesso commettono errori di noncuranza, come dimenticare di cancellare frasi rivelatrici dell uso di IA tipo “rigenerare la risposta”. In ogni caso, il contenuto generato da un’intelligenza artificiale è solitamente pieno di errori fattuali. Questo non va bene per nessun tipo di materiale pubblicato, ma soprattutto per quello scientifico, che si basa su conoscenze altamente tecniche che un chatbot generico non può utilizzare correttamente.