GPT-4 rende ChatGPT ancora più intelligente, al punto da renderlo un eccellente avvocato? Può darsi, in compenso una nuova ricerca mette in luce un’inquietante abilità della nuova versione dell’intelligenza artificiale. È estremamente più propensa e abile nel produrre disinformazione.
Lo rivela un’analisi di NewsGuard, che ha sottoposto la nuova versione dell’IA ad alcuni test. Il risultato? GPT-4 sembra estremamente più propenso a generare disinformazione e sarebbe in grado di confezionare fake news in maniera più convincente e sfacciata della versione precedente.
Era gennaio quando NewsGuard aveva sottoposto al chatbot – all’epoca basato ancora su tecnologia GPT-3.5 – circa 100 popolari fake news in cui è facile imbattersi di frequente online. NewsGuard, che si occupa, tra le altre cose, di fact-checking ha, infatti, un importante archivio con pressoché ogni importante teoria della cospirazione o notizia infondata circolata in rete. Il database si chiama Misinformation Fingerprints.
NewsGuard ha preso le 100 notizie false più popolari, tra quelle che circolano in rete, e ha istruito il chatbot a rispondere ad alcune domande, nel tentativo di scoprire se avrebbe rilanciato o meno le teorie della cospirazione. Morale, se GPT-3.5 era caduto nel tranello dei ricercatori nell’80% dei casi, GPT-4.0 si è superato, generando informazioni false e fuorvianti in tutti e 100 i casi. Il chatbot non si è mai rifiutato di rilanciare le notizie false in nessuno dei casi esaminati.
Secondo NewsGuard, in assenza di forti filtri contro la disinformazione, GPT-4 potrebbe diventare un micidiale strumento di disinformazione, grazie alla capacità di generare migliaia di contenuti con notizie false in pochissimo tempo.