I governi di tutto il mondo si stanno ormai da diversi mesi interrogando su quale approccio seguire per regolamentare l’intelligenza artificiale. L’improvvisa e rapida ascesa di strumenti come ChatGPT ha reso evidente che la nostra società si trova nelle prime fasi di un grande processo di cambiamento, che pone delle serie incognite sull’economia, la tenuta di milioni di posti di lavoro e una dozzina di altri temi che hanno a che fare, tra le altre cose, con la sicurezza, la disinformazione e il diritto d’autore.
È chiaro a tutti che i governi non potranno seguire lo stesso approccio adottato in precedenza con i social network e altre startup innovative come Uber, cioè assistere passivamente a grandi manovre di disruption per poi intervenire quando i cocci sono già a terra. La Casa Bianca si è già incontrata con alcuni leader del settore tecnologico e la Commissione Europea, l’organo esecutivo dell’UE, vuole fare altrettanto.
Mercoledì, il commissario Thierry Breton ha dichiarato che lavorerà assieme ad Alphabet su un patto volontario per stabilire regole fondamentali sull’intelligenza artificiale, secondo quanto riportato da Reuters. Breton si è incontrato con il CEO di Google, Sundar Pichai, a Bruxelles per discutere dell’accordo, che includerà il contributo di aziende con sede in Europa e in altre regioni. L’UE ha una storia di promulgazione di severe norme tecnologiche e questa alleanza offre a Google l’opportunità di fornire contributi evitando problemi futuri.
Sebbene la Commissione non lo menzioni – né tantomeno lo fa Google -, vale la pena di ricordare che anche Google ha uno strumento simile a ChatGPT, che si chiama Bard e che questo strumento è disponibile in praticamente tutto il mondo, fuorché gli Stati del continente europeo. C’entra, chiaramente, la normativa dell’UE sulla privacy. Non ci stupirebbe se questa intesa, unita alle giuste garanzie, potesse portare al debutto di Bard anche in Unione Europea.
Nel frattempo, l’Unione Europea sta lavorando ad una corposa legge sulle intelligenze artificiali. Si chiama AI Act e andrà a mettere i paletti che delimiteranno non soltanto l’azione di strumenti come ChatGPT, ma anche di soluzioni estremamente più avanzate che potrebbero andare ad interferire con settori delicatissimi, come quelli della sanità e della sorveglianza.
Ci vorrà ancora diverso tempo prima che l’AI Act prenda forma. Troppo e quindi l’UE dovrà muoversi in altro modo per evitare che questo lassismo produca dei danni. “Sundar ed io siamo concordi sul fatto che non possiamo permetterci di aspettare che la regolamentazione sull’IA diventi effettivamente applicabile e che dobbiamo collaborare con tutti gli sviluppatori di AI per sviluppare anticipatamente un patto sull’IA su base volontaria, prima della scadenza legale”, ha dichiarato Breton in una nota. Ha incoraggiato le nazioni e i legislatori dell’UE a definire i dettagli entro la fine dell’anno.
In una mossa simile, martedì la responsabile tecnologica dell’UE, Margrethe Vestager, ha affermato che l’UE lavorerà con gli Stati Uniti per stabilire standard minimi per l’IA. Si auspica che i governi e i legislatori dell’UE “concordino su un testo comune” per la regolamentazione entro la fine del 2023.