Trovi una vulnerabilità su ChatGPT? OpenAI ti ricompensa con 20mila dollari
OpenAI ha lanciato un programma di ricompense per la segnalazione di bug. Ma il programma esclude le pratiche di jailbreaking dell'IA.

OpenAI ha lanciato un programma di ricompense per la segnalazione di bug, invitando i membri del pubblico a trovare e segnalare vulnerabilità nei suoi servizi di intelligenza artificiale, inclusa ChatGPT. Le ricompense vanno da 200$ per le scoperte di “bassa gravità” a 20.000$ per quelle “eccezionali”, e i rapporti possono essere presentati tramite la piattaforma di sicurezza informatica Bugcrowd.
Va notato che la ricompensa esclude i premi per il jailbreaking di ChatGPT o per la generazione di codice o testo dannoso. “Le problematiche relative al contenuto delle prompt e delle risposte del modello sono espressamente escluse dal programma e non saranno ricompensate”, dice la pagina Bugcrowd di OpenAI.
Insomma, tutti gli artifici che hanno lo scopo di bypassare i filtri di ChatGPT, convincendo l’IA a fornire risposte vietate, come battute razziste, codici malevoli o tutorial su come violare la legge e via dicendo, non sono valide al fine del programma di bug hunting.
OpenAI afferma che tali “problemi di sicurezza del modello non si adattano bene a un programma di ricompense per la segnalazione di bug, poiché non sono bug singoli e discreti che possono essere risolti direttamente”. L’azienda sottolinea che “affrontare questi problemi spesso richiede una ricerca sostanziale e un approccio più ampio” e i rapporti per tali problemi dovrebbero essere inviati tramite la pagina di feedback dell’azienda (pro-bono, senza ricompense in denaro).
OpenAI è interessata a segnalazioni di ben diverso spessore. Ad esempio, il mese scorso, un hacker conosciuto come rez0 è stato in grado di rivelare 80 “plugin segreti” per l’API ChatGPT, add-on ancora non rilasciati o sperimentali per il chatbot dell’azienda. (Rez0 ha segnalato che la vulnerabilità è stata risolta entro un giorno dopo che l’ha segnalata su Twitter).