Il CEO di OpenAI, Sam Altman, è comparso davanti a una sottocommissione del Comitato Giudiziario del Senato degli USA, insieme al responsabile della privacy di IBM, Christian Montgomery, e al professore dell’Università di New York, Gary Marcus, per testimoniare sui pericoli rappresentati dall’intelligenza artificiale generativa. Altman ha affermato di accogliere favorevolmente una legislazione in questo settore e ha esortato il Congresso a collaborare con OpenAI e altre aziende del settore per definire regole e linee guida.
Ad ogni modo, Altman avrebbe più volte sostenuto che l’intelligenza artificiale generativa, come ChatGPT, è un caso a sé che richiede una risposta politica separata. «Stiamo parlando – ha detto – di uno strumento che può svolgere attività specifiche e ha bisogno di istruzioni da parte dell’utente, non può svolgere interi compiti da solo». Insomma, non saranno ChatGPT o Bard a distruggere l’umanità.
Nel corso della sua deposizione, Altman ha paragonato le IA avanzate alle armi nucleari, sostenendo che debbano essere regolate con criteri simili. Inoltre, il CEO di OpenAI ha anche proposto la creazione di un’agenzia governativa incaricata di creare e assicurarsi il rispetto di regole per la concessione di licenze necessarie per creare sistemi di intelligenza artificiale di “livello avanzato e, dunque, al di sopra di una soglia cruciale di capacità”. “Il mio peggiore timore? Che il mio lavoro possa causare danni significativi al mondo”, ha detto.
Il senatore Dick Durbin (D-Ill.) ha definito “storico” il fatto che un’azienda si sia presentata davanti al Congresso implorando una regolamentazione. Montgomery di IBM ha affermato che è importante regolamentare i rischi, non la tecnologia stessa. “Questa non può essere l’era del procedere velocemente e rompere le cose”, ha detto.