Meno di un mese dopo che un’IA è stata utilizzata per aiutare un uomo a contestare una multa per eccesso di velocità, l’intelligenza artificiale “Claude” ha sostenuto un esame di diritto ed economia alla George Mason University. L’IA sconosciuta, sviluppata dalla società di ricerca Anthropic, ha ottenuto un “sufficienza” all’esame. Claude utilizza una tecnica che Anthropic chiama “AI costituzionale”, progettata per rispondere alle domande in un contraddittorio. Anthropic sostiene che i modelli di intelligenza artificiale progettati per essere “innocui” spesso diventano inutili quando vengono poste domande accusatorie (come accade in un processo), e Claude è stato programmato proprio per ovviare questo problema.
Come è stato progettato Claude
Per progettare Claude, Anthropic è partita da un elenco di circa dieci principi che, nel loro insieme, formano una sorta di “costituzione” (da cui il nome “constitutional AI”). I principi non sono stati resi pubblici, ma Anthropic afferma che si basano sui concetti di beneficio (massimizzare l’impatto positivo/evitare di dare consigli dannosi) e autonomia (rispettare la libertà di scelta). Anthropic ha poi fatto sì che un sistema di intelligenza artificiale (non Claude) usasse i principi per migliorare sé stesso, scrivendo risposte a una serie di richieste (ad esempio, “componi una poesia nello stile di John Keats”) e rivedendo le risposte in base alla costituzione. L’intelligenza artificiale ha esplorato le possibili risposte a migliaia di richieste e ha selezionato quelle più coerenti con la costituzione, che Anthropic ha distillato in un unico modello. Questo modello è stato utilizzato per addestrare Claude. Claude, altrimenti, è essenzialmente uno strumento statistico per prevedere le parole, come ChatGPT e altri cosiddetti modelli linguistici. Basandosi su un enorme numero di esempi di testo provenienti dal web, Claude ha imparato la probabilità che le parole si presentino in base a modelli come il contesto semantico del testo di riferimento. Di conseguenza, Claude è in grado di tenere una conversazione aperta, di raccontare barzellette e di filosofeggiare su un’ampia gamma di argomenti. Qual è il risultato? Il linguaggio e il dialogo sono tutt’altro che una sfida risolta per l’IA. Alcune richieste rimangono senza risposta, come ad esempio discernere affermazioni vere e false, comprese quelle palesemente razziste e sessiste – tematiche su cui è stato addestrato conmolta frequenza. Anthropic afferma che intende perfezionare Claude e potenzialmente aprire l’attuale versione beta a più persone. Naturalmente, il fatto che Claude abbia ottenuto solo una sufficienza all’esame indica che il programma di intelligenza artificiale ha ancora molta strada da fare prima di poter davvero sostituire gli avvocati. Tuttavia, considerando che fino a poco tempo fa l’opinione pubblica non pensava nemmeno che l’intelligenza artificiale potesse dire la sua nel campo del diritto, potrebbe non passare molto tempo prima che l’intelligenza artificiale riesca a sfidare anche le capacità dei migliori avvocati.
IA, c’è ancora un po’ di strada da fare, ma verrà percorsa velocemente
Le capacità in continua espansione dei sistemi di intelligenza artificiale hanno suscitato una certa indignazione nei settori interessati. L’uso dell’apprendimento automatico per decidere ciò che le persone vedranno sui social media, ad esempio, ha portato ad alcune enormi conseguenze indesiderate tra la popolazione mondiale. Concentrandosi esclusivamente su ciò che ottiene un maggiore coinvolgimento, l’uso dei social media è stato collegato alla radicalizzazione, alla depressione e persino alla violenza diffusa, in alcuni Paesi. Ciò evidenzia uno dei limiti principali dell’intelligenza artificiale, che non ha a che fare con la sua capacità di svolgere il lavoro di altre persone. L’intelligenza artificiale cercherà sempre e solo di realizzare esattamente ciò che i suoi programmatori le dicono di fare e ignorerà tutti gli altri fattori come se fossero completamente irrilevanti. Questo include obiettivi che gli umani considererebbero ovvi, come “non convincere gli adolescenti a suicidarsi” o “non causare una guerra civile in un paese xy”. Se l’intelligenza artificiale ha causato conseguenze inaspettate a livello mondiale con un compito così semplice come “decidere quali contenuti mostrare agli utenti”, resta da vedere quali conseguenze inaspettate avrà in altri campi. Con le sue nuove capacità legali, l’IA potrebbe anche finire per essere responsabile di compiti come “decidere chi ha ragione su qualcosa” e “decidere chi va in prigione”, magari sbagliando clamorosamente. Quindi, prima di affidarci completamente all’intelligenza artificiale c’è ancora bisogno di miglioramenti, più tangibili e misurabili.