Secondo quanto riportato da Futurism, Sports Illustrated ha pubblicato articoli attribuiti a falsi autori generati dall’intelligenza artificiale. Nella lista di autori presumibilmente falsi ci sono “Drew Ortiz” che, da quanto si legge nella bio sul sito della rivista, ha “trascorso gran parte della sua vita all’aria aperta”, e “Sora Tanaka”, “guru del fitness che ama provare cibi e bevande diversi”. Cos’è che non torna? Al di fuori di Sports Illustrated, Drew Ortiz sembra non esistere. Non ha una presenza sui social media e non ha una storia editoriale. Elemento ancor più strano è che la sua foto profilo su Sports Illustrated è in vendita su un sito web che vende foto generate dall’AI, dove viene descritto come “maschio bianco giovane-adulto con capelli corti castani e occhi azzurri”.

Le stranezze negli articoli

La scrittura degli autori dell’IA non è armonica e si percepisce che c’è qualcosa di strano; un articolo di Ortiz, per esempio, avverte che la pallavolo “può essere un po’ difficile da praticare, soprattutto senza una palla vera con cui allenarsi”.Futurism, che è andato a fondo nella questione, afferma che secondo una seconda persona coinvolta nella creazione dei contenuti di Sports Illustrated, che ha chiesto di mantenere l’anonimato, ciò è dovuto al fatto che non sono solo le foto degli autori a essere generate dall’intelligenza artificiale, ma gli articoli stessi, sono stati prodotti utilizzando l’IA.

Autori scomparsi e disclaimer poco convincenti

Dopo che Futurism ha contattato The Arena Group (proprietaria di Sports Illustrated), i falsi autori sono scomparsi improvvisamente sul sito. Nella stessa pagina degli articoli che riportano i titoli degli scrittori generati dall’IA, c’è un disclaimer: “Questo contenuto è stato creato da una terza parte“, si legge. “La redazione di Sports Illustrated non è coinvolta nella creazione di questo contenuto“. La notizia nella notizia è che non è la prima volta che si leggono messaggi simili nei siti dei giornali online. La prima volta, secondo Futurism, un disclaimer simile è apparso in cima agli articoli pubblicati da Reviewed, un sito di recensioni per i consumatori, dell’editore Gannett. In quel caso, il personale del sito aveva accusato il proprio datore di lavoro di aver pubblicato contenuti palesemente generati dall’intelligenza artificiale; all’epoca, la portavoce di Gannett, Lark-Marie Anton, aveva dichiarato che i contenuti incriminati erano stati prodotti da un’azienda terza e Gannett aveva confermato che il materiale non era stato generato dall’intelligenza artificiale. Che si tratti di IA o meno, secondo chi si sta occupando della vicenda sembra esserci un’azienda specializzata dietro gli strani articoli di Reviewed e Sports Illustrated.

Chi ci potrebbe essere dietro i falsi articoli di Sports Illustrated?

Dietro questi articoli potenzialmente IA-generated ci potrebbe essere la società chiamata AdVon Commerce: secondo i più informati c’è lei sia dietro le recensioni Gannett che dietro gli articoli di SI.  Gannett ha scritto di aver collaborato con una società chiamata ASR Group Holdings, che però non è altro che un altro nome utilizzato da AdVon Commerce. Su LinkedIn, AdVon si descrive come un’azienda che offre “soluzioni di ML/AI per il commercio elettronico”. Anche le storie di Sports Illustrated rimandano ad AdVon. Sempre secondo Futurism, la pagina dell’autrice AI di Sports Illustrated “Sora Tanaka”, riporta l’indirizzo e-mail tagreviewteam@gmail.com come informazione di contatto. Una rapida ricerca su Google rivela che quell’indirizzo e-mail è indicato per molti altri scrittori accreditati su altri siti web di proprietà del Gruppo Arena. Più indizi fanno una prova e con questi elementi in mano Futurism ha cercato risposte.

Cosa dicono i diretti interessati

Inizialmente Futurism ha chiesto spiegazioni ai proprietari di Sports Illustrated (The Arena Group) non ricevendo alcuna risposta. Dopo la prima pubblicazione riguardante questa inchiesta, una portavoce di Arena Group ha fornito alcune dichiarazioni che incolpano un appaltatore per i contenuti: Rachel Fink, portavoce del Gruppo Arena, ha confermato che AdVon ha lavorato agli articoli e ha affermato che la partnership era “nel bel mezzo di una revisione quando sono state sollevate le accuse sulla generazione di articoli da parte dell’AI“.  Questa la dichiarazione, come riportata da Futurism:

Oggi è stato pubblicato un articolo in cui si sostiene che Sports Illustrated pubblica articoli generati dall’intelligenza artificiale. Secondo le nostre prime indagini, questo non è vero. Gli articoli in questione erano recensioni di prodotti ed erano contenuti concessi in licenza da una società esterna, AdVon Commerce.  AdVon ci ha assicurato che tutti gli articoli in questione sono stati scritti e modificati da persone. Secondo AdVon, i loro scrittori, redattori e ricercatori creano e curano i contenuti e seguono una politica che prevede l’utilizzo di software antiplagio e anti-AI su tutti i contenuti. Tuttavia, abbiamo appreso che AdVon ha fatto sì che gli scrittori utilizzassero uno pseudonimo o uno pseudonimo in alcuni articoli per proteggere la privacy degli autori – azioni che non approviamo – e stiamo rimuovendo i contenuti mentre la nostra indagine interna continua e da allora abbiamo interrotto la partnership.”

Risposte poco convincenti

Futurism non è convinto delle risposte date e solleva alcune incongruenze. Innanzitutto, l’indagine del Gruppo Arena si è limitata a chiedere ad AdVon se il contenuto fosse generato dall’intelligenza artificiale e a prendere per buona la sua risposta negativa. Le fonti di Futurism, che hanno familiarità con la creazione dei contenuti, non sono d’accordo.  Secondariamente, la dichiarazione rilasciata dalla portavoce di Arena Group non affronta mai l’accusa principale: Sports Illustrated ha pubblicato contenuti di scrittori inesistenti con immagini generate dall’IA. Secondo Fink, la colpa è solo di AdVon che inventato scrittori falsi, ha assegnato loro biografie false e foto generate dall’IA. A questo punto la domanda è: AdVon è coinvolta nella produzione di grandi volumi di contenuti generati dall’intelligenza artificiale per editori, presentandoli come frutto del lavoro umano? Questo potrebbe anche non rappresentare un vero e proprio problema per gli editori, se non altro potrebbe essere un problema di tipo etico, soprattutto nei riguardi dei giornalisti “umani”.