OpenAI ha lanciato un programma di ricompense per la segnalazione di bug, invitando i membri del pubblico a trovare e segnalare vulnerabilità nei suoi servizi di intelligenza artificiale, inclusa ChatGPT. Le ricompense vanno da 200$ per le scoperte di “bassa gravità” a 20.000$ per quelle “eccezionali”, e i rapporti possono essere presentati tramite la piattaforma di sicurezza informatica Bugcrowd.

Va notato che la ricompensa esclude i premi per il jailbreaking di ChatGPT o per la generazione di codice o testo dannoso. “Le problematiche relative al contenuto delle prompt e delle risposte del modello sono espressamente escluse dal programma e non saranno ricompensate”, dice la pagina Bugcrowd di OpenAI.

Insomma, tutti gli artifici che hanno lo scopo di bypassare i filtri di ChatGPT, convincendo l’IA a fornire risposte vietate, come battute razziste, codici malevoli o tutorial su come violare la legge e via dicendo, non sono valide al fine del programma di bug hunting.

OpenAI afferma che tali “problemi di sicurezza del modello non si adattano bene a un programma di ricompense per la segnalazione di bug, poiché non sono bug singoli e discreti che possono essere risolti direttamente”. L’azienda sottolinea che “affrontare questi problemi spesso richiede una ricerca sostanziale e un approccio più ampio” e i rapporti per tali problemi dovrebbero essere inviati tramite la pagina di feedback dell’azienda (pro-bono, senza ricompense in denaro).

OpenAI è interessata a segnalazioni di ben diverso spessore. Ad esempio, il mese scorso, un hacker conosciuto come rez0 è stato in grado di rivelare 80 “plugin segreti” per l’API ChatGPT, add-on ancora non rilasciati o sperimentali per il chatbot dell’azienda. (Rez0 ha segnalato che la vulnerabilità è stata risolta entro un giorno dopo che l’ha segnalata su Twitter).