Il 28 Marzo 2023 è uno di quei giorni che probabilmente verranno segnalati sui libri di storia, gli stessi libri di storia che riporteranno tutte le date salienti della grande ascesa del fenomeno tecnologico del Terzo millennio, cioè l’Intelligenza Artificiale, e nei quali, girata la pagina, ci sarà un paragrafo titolato: “Interrompete il gioco, fermate tutto. Attenti con l’AI”. Nel paragrafo ci sarà scritto che proprio i fautori, investitori, promotori, teorici dell’Intelligenza Artificiale, hanno fatto un enorme passo indietro, pubblicando e firmando una lettera aperta intitolata: “Pause Giant AI Experiments: An Open Letter” (Sospendere i giganteschi esperimenti di intelligenza artificiale: Una lettera aperta). In questa storia dai risvolti (quasi) inaspettati ogni dettaglio è importante.

La lettera è stata pubblicata su Future of Life, organizzazione senza scopo di lucro che lavora per “Orientare la tecnologia trasformativa verso i benefici per la vita e lontano da rischi estremi su larga scala”, ridurre i rischi catastrofici ed esistenziali globali che l’umanità deve affrontare, in particolare il rischio esistenziale derivante dall’intelligenza artificiale avanzata (AI). L’attività dell’Istituto si articola in tre filoni principali: sovvenzioni per la riduzione del rischio, attività educative e attività di advocacy presso le Nazioni Unite, il governo degli Stati Uniti e le istituzioni dell’Unione Europea. Tra i suoi fondatori figurano il cosmologo Max Tegmark del MIT e il cofondatore di Skype Jaan Tallinn, mentre, tra i suoi consulenti figura, l’imprenditore Elon Musk.

Tra i passaggi della lettera, che sono stati rilanciati velocissimamente sui media di tutto il mondo, questi sono alcuni fra i più significativi:

Sistemi di IA dotati di un’intelligenza competitiva con quella umana possono comportare rischi profondi per la società e l’umanità, come dimostrato da ricerche approfondite. L’IA avanzata potrebbe rappresentare un cambiamento profondo nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cura e risorse adeguate. Purtroppo, questo livello di pianificazione e gestione non sta avvenendo, anche se negli ultimi mesi i laboratori di IA si sono impegnati in una corsa fuori controllo per sviluppare e impiegare menti digitali sempre più potenti che nessuno – nemmeno i loro creatori – è in grado di comprendere, prevedere o controllare in modo affidabile. Dobbiamo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità? Dovremmo sviluppare menti non umane che alla fine potrebbero superarci di numero, essere più intelligenti, obsolete e sostituirci? Dobbiamo rischiare di perdere il controllo della nostra civiltà? Queste decisioni non devono essere delegate a leader tecnologici non eletti. I potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo sicuri che i loro effetti saranno positivi e i loro rischi gestibili. La recente dichiarazione di OpenAI sull’intelligenza artificiale generale afferma che “a un certo punto, potrebbe essere importante ottenere una revisione indipendente prima di iniziare ad addestrare i sistemi futuri, e per gli sforzi più avanzati concordare di limitare il tasso di crescita del calcolo utilizzato per creare nuovi modelli”. Siamo d’accordo. Questo punto è ora. Pertanto, chiediamo a tutti i laboratori di IA di sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di IA più potenti del GPT-4. Questa pausa dovrebbe essere pubblica e verificabile. Se tale pausa non potesse essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria. I laboratori di IA e gli esperti indipendenti dovrebbero utilizzare questa pausa per sviluppare e attuare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo di IA avanzate, rigorosamente controllati e supervisionati da esperti esterni indipendenti. Ciò non significa una pausa nello sviluppo dell’IA in generale, ma solo un passo indietro rispetto alla pericolosa corsa verso modelli black-box sempre più grandi e imprevedibili con capacità emergenti.

Parallelamente, gli sviluppatori di IA devono lavorare con i politici per accelerare drasticamente lo sviluppo di solidi sistemi di governance dell’IA. Questi dovrebbero come minimo includere: autorità di regolamentazione nuove e capaci dedicate all’IA; sistemi di provenienza e watermarking per aiutare a distinguere i modelli reali da quelli sintetici e per tracciare le fughe di notizie; un robusto ecosistema di auditing e certificazione; responsabilità per i danni causati dall’IA; solidi finanziamenti pubblici per la ricerca tecnica sulla sicurezza dell’IA; istituzioni ben finanziate per affrontare i drammatici sconvolgimenti economici e politici (soprattutto per la democrazia) che l’IA causerà. L’umanità può godere di un futuro fiorente con l’IA. Essendo riusciti a creare potenti sistemi di IA, possiamo ora goderci una “estate dell’IA” in cui raccogliere i frutti, progettare questi sistemi per il chiaro beneficio di tutti e dare alla società la possibilità di adattarsi. La società ha messo in pausa altre tecnologie con effetti potenzialmente catastrofici per la società e possiamo farlo anche in questo caso. Godiamoci una lunga estate dell’IA, non precipitiamoci impreparati in un autunno.

I 1100 della Silicon Valley

Diciamo che i toni sono leggermente allarmisti, probabilmente a ragione. Ciò che è rimarchevole in questa lettera però non sono i toni, bensì il microcosmo che c’è dietro. Partendo dai 1859 firmatari (numero aggiornato al 31 Marzo). O meglio, i primi 1000 firmatari, già ribattezzati “I 1100 della Silicon Valley”, epiteto che va ad indicare che il monito riportato nella lettera non è stato scritto da un gruppo nutrito di facenti parte di un comitato di bioetica o un esercito di detrattori della AI. Al contrario, tra i mille firmatari rimbombano i nomi di personalità come Elon Musk appunto, lo stesso che nel dicembre del 2015, annunciava la fondazione di OpenAI, la compagnia di ricerca dell’intelligenza artificiale incriminata che mira allo sviluppo di un’intelligenza artificiale forte e amichevole (friendly AI), la stessa che ha generato modelli linguistici di grandi dimensioni, come la chatbot GPT-4.  Va ricordato che secondo le versioni ufficiali, nel febbraio 2018, Musk ha lasciato la presidenza della società per evitare conflitti d’interesse con il suo ruolo presso Tesla (Tesla sta attualmente sviluppando sistemi basati sull’intelligenza artificiale per aiutare a implementare la tecnologia di guida autonoma), pur rimanendo un donatore. Tra gli altri firmatari, Steve Wozniak, fondatore di Apple insieme a Steve Jobs, alcuni ingegneri di Meta e Google, il fondatore e CEO di Stability AI, Emad Mostaque, l’azienda che nel suo sito web viene definita come “l’azienda di IA generativa open source leader nel mondo” e che ha contribuito a creare il famoso modello di generazione di testo-immagine Stable Diffusion e Connor Leahy, CEO di Conjecture, un altro laboratorio di IA. Hanno firmato anche Evan Sharp, cofondatore di Pinterest, e Chris Larson, cofondatore della società di criptovalute Ripple. Anche il pioniere del deep learning Yoshua Bengio  è un signatario. Ad onor del vero, va detto che tra i firmatari ci sono anche persone fuori dai fortissimi giochi di potere della Silicon Valley, persone che non lavorano nel settore tecnologico, tra cui un elettricista e un’estetista. Non solo, pare che chiunque possa firmare con l’apposito form dedicato.  

La lettera è molto interessante anche per il rumore che fanno gli assenteisti, ovvero le persone che non hanno firmato. Nessuno di OpenAI lo ha fatto, per esempio. E nemmeno nessuno di Anthropic, società di ricerca e sicurezza sull’IA che lavora per costruire sistemi di IA affidabili, interpretabili e guidabili, il cui team è nato da OpenAI per costruire un chatbot AI “più sicuro”. Tra i non presenti all’appello c’è anche Sam Altman, il fondatore insieme a Elon Musk di OpenAi del quale adesso è amministratore delegato, che non solo non ha firmato, ma ha dichiarato al Wall Street Journal che OpenAI non ha nemmeno iniziato l’addestramento del GPT-5. Altman ha anche sottolineato che l’azienda ha da tempo dato priorità alla sicurezza nello sviluppo e ha trascorso più di sei mesi a eseguire test di sicurezza su GPT-4 prima del suo lancio. “This is preaching to the choir “, ha commentato al Journal, che tradotto letteralmente vuol dire “è una predica al coro”, ma che è un idioma inglese che significa che una persona sta cercando di convincere o persuadere persone che sono già d’accordo con chi sta predicando. È un idioma che deriva dalla chiesa in cui il “coro” sta dietro al predicatore che canta inni che esprimono la propria confessione di fede mentre il predicatore pronuncia un sermone, sperando di raggiungere i non credenti nella congregazione. Usando questa espressione, la posizione di Altman sulla vicenda è piuttosto chiara. Altman sottolinea la sua buona ricordando che “Abbiamo (quelli di OpenAi) parlato di questi problemi a voce alta, con la massima intensità, per più tempo“. In effetti, L’AD ha avuto un colloquio con l’editore di TEC CRUNCH, in cui ha sostenuto che “Iniziare i rilasci di prodotti ha senso, adesso che la posta in gioco è ancora relativamente bassa, piuttosto che rilasciare ciò che l’intero settore avrà tra qualche anno senza che la società abbia il tempo di aggiornarsi”. E in dichiarazione fatte in tempi non sospetti ha dichiarato che “Vogliamo affrontare con successo i grandi rischi. Nell’affrontare questi rischi, riconosciamo che ciò che sembra giusto in teoria spesso si rivela più strano del previsto nella pratica. Crediamo di dover imparare e adattarci continuamente, impiegando versioni meno potenti della tecnologia per ridurre al minimo gli scenari anche se questo si allontana dallo scenario “buona alla prima”. In altre parole, secondo il suo AD, OpenAI sta perseguendo il normale percorso umano per acquisire nuove conoscenze e sviluppare nuove tecnologie, ovvero l’apprendimento per tentativi ed errori, e non il “colpo di fortuna”.

Un Posto al Sole alla Silicon Valley

Visto che tra i firmatari c’è Musk e tra i non firmatari c’è Altman, è bene ricordare che i due, secondo le cronache statunitensi, spesso si lanciano frecciatine. Musk e Altman hanno co-fondato OpenAI, nel 2015, insieme ad altre figure della Silicon Valley, tra cui Peter Thiel (cofondatore di PayPal), il co-fondatore di LinkedIn Reid Hoffman e la co-fondatrice di YCombinator Jessica Livingston. Elon Musk negli ultimi anni si è espresso contro l’azienda. All’inizio di questo mese, l’amministratore delegato di OpenAI ha definito “non vere” alcune affermazioni del miliardario. Musk si è dimesso dal consiglio di amministrazione di OpenAI nel 2018. “Poiché Tesla continua a concentrarsi sull’IA, questo eliminerà un potenziale conflitto futuro per Elon”, ha dichiarato OpenAI in un post sul blog, aggiungendo che Musk avrebbe continuato a fornire indicazioni e donazioni.

All’inizio di Marzo 2023, invece, voci di corridoio dicevano che Sam Altman e altri cofondatori di OpenAI avevano rifiutato la proposta di Musk di dirigere l’azienda nel 2018. Semafor ha riferito che Musk voleva gestire l’azienda da solo nel tentativo di battere Google. Ma quando la sua offerta di gestire l’azienda è stata rifiutata, ha ritirato il suo finanziamento e ha lasciato il consiglio di amministrazione di OpenAI. Nel 2019, Musk ha condiviso alcune informazioni sulla sua decisione di lasciare, affermando che una delle ragioni era che “non era d’accordo” con la direzione che OpenAI stava prendendo.

Riassumendo, l’organizzazione no profit è stata lanciata nel 2015 con grande clamore e con il sostegno di luminari miliardari del settore tecnologico come Musk e Reid Hoffman, che si sono impegnati per un miliardo di dollari.  Ma all’inizio del 2018 Musk ha detto a Sam Altman che riteneva che l’impresa fosse rimasta fatalmente indietro rispetto a Google. Musk ha proposto una possibile soluzione: avrebbe preso il controllo di OpenAI e l’avrebbe gestita lui stesso. Altman e gli altri fondatori di OpenAI hanno rifiutato la proposta di Musk. Musk, a sua volta, si è allontanato dalla società e ha rinunciato a dare un’ingente donazione già prevista. Le conseguenze di questo conflitto, culminate con l’annuncio della partenza di Musk il 20 febbraio 2018, avrebbero plasmato l’industria che sta cambiando il mondo e l’azienda che ne è al centro. Il conflitto avrebbe creato anche una spaccatura pubblica tra i due attori più importanti della tecnologia di oggi, Musk e Altman. Anche Greg Brockman, cofondatore di OpenAI e all’epoca Chief Technology Officer, si oppose all’acquisizione di Musk, così come altri membri di OpenAI. Secondo persone che hanno familiarità con la questione, ne è seguita una lotta di potere.

Altman, che gestiva anche il potente acceleratore di startup YCombinator, è intervenuto. Secondo i documenti fiscali, nel 2018 ha aggiunto al suo titolo quello di presidente, oltre a quello di direttore. Musk si è poi dimesso dal consiglio di amministrazione di OpenAI. Pubblicamente, lui e OpenAI hanno dichiarato che il motivo della sua uscita era un conflitto di interessi. Tesla, che stava sviluppando la propria intelligenza artificiale per la guida autonoma, sarebbe stata in competizione con OpenAI per la ricerca del personale e ovviamente, Musk voleva tra i più talentuosi tra i giovani ingegneri, fisici e matematici. Non a caso Tesla aveva già sottratto una delle migliori menti di OpenAI, Andrej Karpathy, che è diventato l’architetto del programma di guida autonoma di Tesla.

Ma pochi in OpenAI credevano che Musk se ne sarebbe andato per questo motivo e un discorso tenuto negli uffici di OpenAI al momento della sua partenza, incentrato principalmente sul potenziale conflitto di interessi, non è stato accolto bene dalla maggior parte dei dipendenti, che non hanno creduto del tutto alla storia. Un annuncio di OpenAI diceva che Musk avrebbe continuato a finanziare l’organizzazione, ma Musk non l’ha fatto, secondo quanto riferito da persone che hanno familiarità con la questione. Musk aveva promesso di donare circa 1 miliardo di dollari in un periodo di anni (aveva già contribuito con 100 milioni di dollari), ma i suoi pagamenti si sono interrotti dopo il suo “divorzio”. In questo modo l’organizzazione no profit non è stata in grado di pagare le spese astronomiche associate all’addestramento dei modelli di intelligenza artificiale sui supercomputer. OpenAi, orgogliosamente, non si è data per vinta e ha continuato con i suoi progetti ambiziosi, come per esempio il “transformer” di Google Brain per far migliorare all’infinito OpenAi, progetti tutti molto costosi perché la tecnologia avrebbe avuto bisogno di un’infinità di dati per essere addestrata. L’11 marzo 2019, OpenAI ha annunciato la creazione di un’entità a scopo di lucro per raccogliere fondi sufficienti a pagare la potenza di calcolo necessaria a perseguire i modelli di IA più ambiziosi dichiarando di voler limitare i profitti per gli investitori e che l’eventuale eccedenza sarebbe stata devoluta all’organizzazione non profit originaria. Altman ha anche preso una decisione insolita per un boss del settore tecnologico: secondo gli informati sui fatti, non avrebbe preso alcuna partecipazione nella nuova entità a scopo di lucro. Altman era già estremamente ricco, avendo investito in diverse startup tecnologiche di grande successo, e non aveva bisogno di denaro. Riteneva inoltre che l’azienda dovesse diventare un’impresa per continuare il suo lavoro, ma aveva detto che il progetto non era stato concepito per fare soldi. Rinunciare a qualsiasi partecipazione azionaria lo avrebbe aiutato a rimanere in linea con la missione originale.  Ma questa decisione ha di fatto scoraggiato alcuni potenziali investitori di OpenAI, che temevano che Altman non vedesse un guadagno nel progetto. Meno di sei mesi dopo, OpenAI ha ottenuto un miliardo di dollari da Microsoft, che ha potuto fornire non solo finanziamenti ma anche il know-how dell’infrastruttura. Insieme hanno costruito un supercomputer per addestrare modelli massicci che alla fine hanno creato ChatGPT e il generatore di immagini DALL-E. L’ultimo modello linguistico, GPT-4, ha mille miliardi di parametri. Quando ChatGPT è stato lanciato a novembre, OpenAI è diventata immediatamente la nuova startup tecnologica più in voga, costringendo Google a fare i salti mortali per recuperare il ritardo. Musk dal canto suo, era furioso. A dicembre, un mese dopo il lancio di ChatGPT, Musk ha tolto a OpenAI l’accesso ai dati di Twitter, social media di cui adesso è proprietario e che spesso usa per pubblicare le sue riflessioni. Il 17 febbraio ha twittato: “OpenAI è stata creata come una società open source (per questo l’ho chiamata “Open” AI), senza scopo di lucro, per fare da contrappeso a Google, ma ora è diventata una società closed source, a massimo profitto, controllata di fatto da Microsoft“. Il 15 marzo ha twittato: “Sono ancora confuso su come un’azienda no-profit a cui ho donato circa 100 milioni di dollari sia in qualche modo diventata un’azienda a scopo di lucro con una capitalizzazione di mercato di 30 miliardi di dollari. Se è legale, perché non lo fanno tutti?”. OpenAI ha rifiutato di commentare. Musk ha twittato “Mi rendo conto che l’IA, lo strumento più potente che l’umanità abbia mai creato, è ora nelle mani di uno spietato monopolio aziendale“. Musk punta ora a lanciare la propria startup di intelligenza artificiale.

Chi negli Stati Uniti analizza la disputa, è convinto che la maggior parte delle controversie tra i fondatori ruoti attorno al denaro e al riconoscimento di un’idea. Per Musk, che è una delle persone più ricche al mondo, sembra che si tratti più di ego, potere più che il suo genuino desiderio di inaugurare con sicurezza l’era dell’intelligenza artificiale. Anche per Altman sembra non trattarsi di soldi. Praticamente non possiede nemmeno una piccola quota capitale di OpenAI, il che evidenzia la natura insolita di questa azienda e dell’intero settore dell’intelligenza artificiale, azienda che ha un potere enorme ma che rischia di essere gestita da persone che litigano come in una sceneggiatura da soap opera.

Sicuramente, ciò che è certo è che molti hanno commentato questa lettera aperta, che rimarrà una pietra miliare nella narrativa delle Intelligenza artificiale. Certo, la storia d’amore e odio tra Musk e Altman offre un po’ di terreno fertile a chi pensa che dietro la missiva ci siano solo scaramucce tra le persone più influenti al mondo. Musk è forse il firmatario meno sorprendente di questa lettera aperta, dato che da anni parla di sicurezza dell’IA e ultimamente ha preso di mira OpenAI in modo specifico, suggerendo che l’azienda è tutta chiacchiere e niente fatti. Altman ha detto: “Elon ci sta ovviamente attaccando su Twitter in questo momento su diversi vettori, e io provo empatia perché credo che sia – comprensibilmente – molto stressato. Sono sicuro che ci sono anche altre motivazioni, ma questa è sicuramente una di quelle“. Detto questo, Altman ha aggiunto di trovare offensivo il comportamento di Musk. “Sono sicuramente cresciuto con Elon come un mio eroe. Nonostante sia un idiota su Twitter o altro, sono felice che esista al mondo. Ma vorrei che guardasse di più al duro lavoro che stiamo facendo per mettere a posto queste cose“.

Si sta superando il limite?

Nonostante questo, l’open letter  ha creato un clamore incredibile e senza neanche dare il tempo di leggerla, in molti l’hanno commentata e altri hanno detto la loro in modo ancor più categorico ed incisivo. Uno tra questi è Eliezer Yudkowsky, uno scrittore, teorico dell’intelligenza artificiale e teorico delle decisioni statunitense, famoso per aver divulgato l’idea dell’intelligenza artificiale amichevole, rendendola popolare. Dirige la ricerca presso il Machine Intelligence Research Institute. Dal 2001 lavora all’allineamento dell’Intelligenza Artificiale Generale ed è ampiamente considerato un fondatore del settore e, spesso, anche uno tra quelli che più di tutti ha criticato le AI. In passato, infatti, è stato anche rimproverato dall’opinione pubblica per non aver mai esplicitamente invocato soluzioni incisive e aggressive ai problemi dello sviluppo dell’intelligenza artificiale. Evidentemente quel passato è finito.

In una lettera pubblicata sul Time, nella sezione del giornale “IDEAS” il giorno dopo la pubblicazione di “Pause Giant AI Experiments: An Open Letter”, Yudkoswsky commenta l’accaduto affermando che la richiesta di pausa di 6 mesi sarebbe meglio di nessuna sospensione. Ha aggiunto che lui non è tra i firmatari della lettera, anche se rispetta chiunque lo abbia fatto ma spiega che la lettera sottovaluta la gravità della situazione e chiede troppo poco per risolverla. E poi rincara, scrivendo:

“Molti ricercatori che si occupano di questi temi, me compreso, ritengono che il risultato più probabile della costruzione di un’intelligenza artificiale sovrumana, in circostanze lontanamente simili a quelle attuali, sia la morte di tutti gli abitanti della Terra. Non nel senso di “forse, forse, forse qualche remota possibilità”, ma nel senso di “questa è la cosa più ovvia che accadrebbe”. Non si può sopravvivere alla creazione di qualcosa di molto più intelligente di noi; è che ciò richiederebbe precisione e preparazione e nuove intuizioni scientifiche, e probabilmente non sistemi di IA composti da gigantesche matrici imperscrutabili di numeri frazionari. Senza questa precisione e preparazione, il risultato più probabile è un’IA che non fa ciò che vogliamo e non si preoccupa di noi né della vita senziente in generale. Questo tipo di attenzione è qualcosa che in linea di principio potrebbe essere incorporato in un’IA, ma non siamo pronti e non sappiamo come farlo.”

Yudkowsky spiega che si astiene dal firmare la lettera quindi, ma non perché non abbia preoccupazioni in materia di sicurezza. Tutt’altro, lui cerca di rimanere piuttosto fuori dal merito e, al contrario di Musk, che comunque non demonizza totalmente l’Intelligenza Artificiale, parla di avvento di “intere civiltà aliene” e scrive:

Per visualizzare un’IA sovrumana ostile, non immaginatevi un pensatore senza vita che abita in Internet e invia e-mail malintenzionate. Immaginate un’intera civiltà aliena, che pensa a velocità milioni di volte superiori a quelle umane, inizialmente confinata nei computer, in un mondo di creature che, dal suo punto di vista, sono molto stupide e molto lente. Un’IA sufficientemente intelligente non rimarrà a lungo confinata nei computer. Nel mondo di oggi è possibile inviare per e-mail stringhe di DNA a laboratori che produrranno proteine su richiesta, consentendo a un’IA inizialmente confinata in Internet di costruire forme di vita artificiali o di avviarsi direttamente alla produzione molecolare postbiologica. Se qualcuno costruisce un’IA troppo potente, nelle condizioni attuali, mi aspetto che ogni singolo membro della specie umana e tutta la vita biologica sulla Terra muoia poco dopo.”

La preoccupazione di Yudkowsky è data dal fatto che chi si occupa d’AI ha creato qualcosa di per cui non ha armi pe difendersi ma che dà la responsabilità di farlo alla IA stessa e questo dovrebbe allarmare tutti quanti: “L’intenzione dichiarata apertamente da OpenAI è quella di far sì che una futura IA faccia i nostri compiti di allineamento dell’IA. Il solo sentire che questo è il piano, dovrebbe essere sufficiente per gettare nel panico qualsiasi persona sensata.”. Così descrive la situazione secondo il suo punto di vista nella sua lettera sul Time, però ci tiene a fare un’importante precisazione:

Nessuno di questi pericoli dipende dal fatto che le IA siano o possano essere coscienti; è intrinseco alla nozione di sistemi cognitivi potenti che ottimizzano e calcolano risultati che soddisfano criteri di esito sufficientemente complicati. Detto questo, sarei negligente nei miei doveri morali di essere umano se non menzionassi anche il fatto che non abbiamo idea di come determinare se i sistemi di IA siano consapevoli di sé stessi – dal momento che non abbiamo idea di come decodificare tutto ciò che accade nelle gigantesche e imperscrutabili matrici – e quindi potremmo, a un certo punto, creare inavvertitamente delle menti digitali che sono veramente coscienti e che dovrebbero avere dei diritti e non dovrebbero essere possedute. […] Penso che non saremo più in grado di dire in modo giustificato “probabilmente non sono autocoscienti” se lasciamo che la gente crei dei GPT-5. Sarà solo “non so cosa dire”. Sarà solo “non lo so, nessuno lo sa”. Se non si può essere sicuri di creare un’IA autocosciente, questo è allarmante non solo per le implicazioni morali della parte “autocosciente”, ma anche perché l’incertezza significa che non si ha idea di ciò che si sta facendo e questo è pericoloso e si dovrebbe smettere.

“Spegnete tutto altrimenti moriremo tutti”

Un altro punto saliente dell’altra lettera infuocata sul tema AI scritta da Yudkowsky, è il fatto che 6 mesi di stop non servono a niente. Lui è determinato e convinto nel dire che bisogna “SPEGNERE TUTTO” perché l’umanità non impara dagli errori, mandando a farsi benedire tutte le teorie di Darwin e colleghi. Così motiva la sua opinione:

Ci sono voluti più di 60 anni tra quando è stata proposta e studiata per la prima volta la nozione di intelligenza artificiale e quando abbiamo raggiunto le capacità odierne. Risolvere il problema della sicurezza di un’intelligenza sovrumana potrebbe ragionevolmente richiedere almeno la metà del tempo. E il problema di provare a farlo con un’intelligenza sovrumana è che se si sbaglia al primo tentativo, non si impara dai propri errori, perché si è morti. L’umanità non impara dall’errore, non si spolvera e non ci riprova, come in altre sfide che abbiamo superato nella nostra storia, perché siamo tutti morti. […] Non siamo preparati. Non siamo sulla buona strada per esserlo in un arco di tempo ragionevole. Non c’è un piano. Il progresso nelle capacità dell’intelligenza artificiale è molto, molto più avanti del progresso nell’allineamento dell’intelligenza artificiale o anche del progresso nel capire cosa diavolo sta succedendo all’interno di quei sistemi.”

Quello che fa il decisionista statunitense è, oltre a porre l’accento sul fatto che nessuno è preparato per il futuro delle AI, scoperchiare una specie di vaso di Pandora fatto di non detto da parte dei professionisti del settore, soprattutto in pubblico:

Molti ricercatori che lavorano su questi sistemi pensano che stiamo precipitando verso una catastrofe, e sono più quelli che osano dirlo in privato che in pubblico; ma pensano di non poter fermare unilateralmente la caduta in avanti, che gli altri andranno avanti anche se loro stessi lasceranno il lavoro. E così tutti pensano che tanto valga andare avanti. È uno stato di cose stupido e un modo indegno di morire per la Terra, e il resto dell’umanità dovrebbe intervenire a questo punto per aiutare l’industria a risolvere il suo problema di azione collettiva. Alcuni miei amici mi hanno recentemente riferito che quando le persone al di fuori dell’industria dell’IA sentono parlare per la prima volta del rischio di estinzione derivante dall’Intelligenza Artificiale, la loro reazione è “forse non dovremmo costruire l’IA, allora“. Sentirlo mi ha dato un piccolo lampo di speranza, perché è una reazione più semplice, più sensata e francamente più sana di quella che ho sentito negli ultimi 20 anni, quando ho cercato di convincere gli operatori del settore a prendere le cose sul serio. Chiunque parli in modo così sensato merita di sentire quanto sia effettivamente grave la situazione, e non di sentirsi dire che una moratoria di sei mesi la risolverà. […] Se ci fosse un piano per la sopravvivenza della Terra, se solo approvassimo una moratoria di sei mesi, lo sosterrei. Ma questo piano non esiste.”

Per tutti questi motivi, Yudkoswky stila una serie di azioni da dover perseguire per riparare i danni. Secondo lui, la moratoria sull’addestramento deve essere indefinita e mondiale senza fare eccezioni tra i paesi, nemmeno per i governi o le forze armate. Se la politica di moratoria inizia con gli Stati Uniti, allora la Cina deve capire che gli Stati Uniti non stanno cercando un vantaggio, ma piuttosto di impedire una tecnologia terribilmente pericolosa che non può avere un vero proprietario e che ucciderà tutti negli Stati Uniti, in Cina e sulla Terra. E poi si immedesima in chi ha il potere di legiferare e afferma che se avesse libertà infinita di scrivere leggi, potrebbe fare una piccola eccezione per le IA addestrate esclusivamente a risolvere problemi di biologia e biotecnologia, non per quelle addestrate su testi provenienti da Internet e non al livello in cui iniziano a parlare o a pianificare. Al netto di queste, chiuderebbe tutto. Chiuderebbe tutti i grandi cluster di GPU (le grandi fattorie di computer dove vengono perfezionate le IA più potenti), e chiuderebbe tutti i grandi cicli di formazione. Metterebbe un tetto massimo alla potenza di calcolo che chiunque può usare per addestrare un sistema di intelligenza artificiale e abbassarlo negli anni a venire per compensare algoritmi di addestramento più efficienti. Inoltre, renderebbe esplicito nella diplomazia internazionale che la prevenzione di scenari di estinzione dell’IA è considerata prioritaria rispetto alla prevenzione di uno scambio nucleare completo. Praticamente, secondo lo scrittore, è più pericolosa l’IA che il possibile lanci di una bomba nucleare. Eliezer Shlomo Yudkowsky, conclude la lettera riflettendo sulla politica e sull’importanza di essere più preparati in futuro per non rischiare di morire tutti, soprattutto i bambini che non hanno colpe: “Le persone sane di mente che sentono parlare di questo per la prima volta e che dicono “forse non dovremmo farlo” meritano di sentire, onestamente, cosa ci vorrebbe per far sì che questo accada. E quando la richiesta politica è così grande, l’unico modo per farla passare è che i responsabili politici si rendano conto che se continuano a fare come al solito, e fanno ciò che è politicamente facile, significa che anche i loro figli moriranno. Chiudete tutto. Non siamo pronti. Non siamo sulla buona strada per essere significativamente più pronti nel prossimo futuro. Se andiamo avanti su questa strada, moriranno tutti, compresi i bambini che non l’hanno scelto e non hanno fatto nulla di male.”

A questo punto, è chiaro che non si tratta solo di questione di torto o ragione. Non siamo pronti, è vero. Ma probabilmente non siamo pronti a digerire tutte queste opinioni contrastanti e dai toni sensazionalistici.  Tra chi è totalmente pro, chi è totalmente contro, chi prevede l’estinzione umana, non siamo pronti a farci un’idea chiara se chi si occupa da più vicino di questa tecnologia si contraddice e litiga. Ovviamente, bisogna rimanere allerta, bisogna imparare dai propri errori, ma le AI sono qualcosa che l’uomo stesso ha creato e che l’uomo può e deve imparare a governare al meglio. Questo probabilmente richiede del tempo, ma soprattutto richiede delle regolamentazioni e onestà rispetto ai temi come soldi e investimenti che interessano questa parte di mercato. Rimane però il fatto che esiste una buona fetta di popolazione spaventata e un’altra parte che si sente molto vulnerabile quando legge “moriremo tutti”. Per questo non è del tutto “sano di mente” (per citare Yudkowsky) gridare alla catastrofe: questo significa guadagnare consensi facendo leva sulle paure e le conoscenze limitate degli altri. Sebbene i giochi di potere siano riservati solo a chi il potere lo detiene, gli esseri umani non sono del tutto incapaci di reagire o prepararsi, lo dimostrano 6milioni di anni di evoluzione ed è su questo che probabilmente bisogna basarsi per cercare di avere un’opinione sulle AI. Bisogna ricordarsi che il nuovo che avanza può essere spaventoso ma che il complottismo lo è molto di più. L’ innovazione tecnologica ha permesso di godere della maggior parte dei benefici di cui disponiamo. Quindi, alcune soluzioni potrebbero essere quella rimanere informati-  ascoltando tutte le versioni disponibili- essere coscienti del potere che si sta dando a queste macchine e smettere di usarle quando non è più il caso. Sono soprattutto l’idiozia e l’avidità umana che superano qualsiasi tipo di IA. Magari, sì, ci estingueremo prima del previsto. Ma non è (ancora) questo il giorno.