La Camera dei Rappresentanti degli Stati Uniti ha imposto limiti rigidi sull’uso di ChatGPT nei suoi uffici. Di fatto si tratta di un limite rivolto soprattutto allo staff, non soltanto dell’istituzione, ma anche degli stessi parlamentari. Le regole approvate riprendono simili limiti decisi da numerose aziende private, negli USA come nel resto del mondo, e poggiano sulla paura che le conversazioni con il chatbot possano non essere al sicuro: non soltanto perché l’azienda, almeno che non venga impostato diversamente, le usa per addestrare e migliorare la sua tecnologia, ma anche perché nulla vieta che aziende come OpenAI o Google siano esposte ad attacchi informatici, con il rischio che le informazioni fornite a ChatGPT finiscano nelle mani di malintenzionati.
Secondo una nota ottenuta da Axios, lo staff può utilizzare solo il servizio a pagamento ChatGPT Plus per “ricerca e valutazione”. Inoltre, lo staff dei parlamentari può fornire al chatbot esclusivamente dati accessibili al pubblico: ne consegue che è vietato fornire a ChatGPT input che includano informazioni riservate o confidenziali.
Attualmente non è consentito l’uso della versione gratuita di ChatGPT né di altri modelli di linguaggio di grandi dimensioni. Questa politica mira a evitare problemi come la creazione di leggi o discorsi generati dall’IA. Recentemente due avvocati e uno studio legale sono stati condannati a pagare una multa di 5mila dollari, dopo che avevano usato ChatGPT per generare un documento legale, che si era rivelato essere infarcito di informazioni inventate e citazioni a leggi e precedenti inesistenti. Entrambe le parti del Congresso stanno lavorando per regolamentare l’IA, con proposte di legge che richiedono avvertenze per l’uso dell’IA generativa e maggiori controlli per gli annunci politici.