La crescente popolarità di ChatGPT ha anche attirato l’attenzione degli hacker. Johann Rehberger, un ricercatore in sicurezza, ha recentemente dimostrato come sia possibile manipolare il chatbot di OpenAI per leggere, riassumere e pubblicare e-mail, potenzialmente compromettendo dati sensibili.

La vulnerabilità sfruttata da Rehberger sfrutta una caratteristica di ChatGPT ancora in fase di beta-testing, spiega il WSJ. OpenAI ha ringraziato il ricercatore per la segnalazione e ne frattempo ha corretto il problema.

Rehberger ha utilizzato una tecnica chiamata “prompt injection“, illustrando una nuova classe di cyberattacchi emersa con la recente integrazione dell’intelligenza artificiale in una pluralità di app, siti e servizi di aziende terze.

A breve, a Las Vegas si terrà un importante evento dedicato al mondo dell’hacking. In quell’occasione le IA di OpenAI e Google verranno messe a dura prova per identificare ulteriori vulnerabilità.

Il WSJ scrive che ChatGPT funziona attraverso istruzioni poste in un linguaggio naturale, rendendolo suscettibile a manipolazioni. Rehberger ha mostrato come sia possibile confondere il chatbot e indurlo a seguire istruzioni che – in teoria – dovrebbero esserle precluse.

Il problema principale degli attacchi di “prompt injection” è che questi sistemi AI non separano sempre adeguatamente le istruzioni di sistema dai dati che elaborano (gli imput).

Rehberger ha sottolineato come ChatGPT “riduca la barriera all’ingresso per attacchi” poiché gli utenti non necessitano di una profonda conoscenza di programmazione o hacking. L’integrazione di ChatGPT – grazie ai plugin – con i servizi di aziende terze, rischia di accentuare ulteriormente il problema.