ChatGPT, un programma di intelligenza artificiale che ha recentemente attirato l’attenzione del pubblico per la sua capacità di scrivere rapidamente risposte a un’ampia gamma di domande, ha in particolare attirato l’attenzione dei legislatori statunitensi in quanto è cresciuta fino a diventare l’applicazione per i consumatori con la crescita più rapida della storia, con oltre 100 milioni di utenti attivi mensili. Secondo Reuters, la National Telecommunications and Information Administration, un’agenzia del Dipartimento del Commercio che consiglia la Casa Bianca in materia di telecomunicazioni e politica dell’informazione, vuole avere un contributo in quanto vi è un “crescente interesse normativo” per un “meccanismo di responsabilità” dell’IA. L’agenzia vuole sapere se esistono misure che potrebbero essere messe in atto per garantire “che i sistemi di IA siano legali, efficaci, etici, sicuri e comunque affidabili”. “I sistemi di IA responsabili potrebbero portare enormi benefici, ma solo se ne affrontiamo le potenziali conseguenze e i danni. Affinché questi sistemi raggiungano il loro pieno potenziale, le aziende e i consumatori devono potersi fidare di loro”, ha dichiarato l’amministratore dell’NTIA Alan Davidson. La scorsa settimana il presidente Joe Biden ha affermato che resta da vedere se l’IA sia pericolosa. “Le aziende tecnologiche hanno la responsabilità, a mio avviso, di assicurarsi che i loro prodotti siano sicuri prima di renderli pubblici”, ha dichiarato.

ChatGPT, che ha entusiasmato alcuni utenti con risposte rapide alle domande e ha causato disagio ad altri per le sue imprecisioni, è prodotto dalla californiana OpenAI e sostenuto da Microsoft Corp (MSFT.O). L’NTIA ha in programma di redigere un rapporto che esamini “gli sforzi per garantire che i sistemi di IA funzionino come dichiarato – e senza causare danni” e ha dichiarato che lo scopo di questo sforzo sarà quello di informare circa il lavoro dell’amministrazione Biden per “garantire un approccio coeso e completo del governo federale ai rischi e alle opportunità legati all’IA”. Un gruppo di etica tecnologica, il Center for Artificial Intelligence and Digital Policy, ha chiesto alla Federal Trade Commission degli Stati Uniti di impedire a OpenAI di rilasciare nuove versioni commerciali del GPT-4, affermando che si tratta di un progetto “parziale, ingannevole e a rischio per la privacy e la sicurezza pubblica”.