L’Intelligenza Artificiale (IA) è una nuova ed entusiasmante tecnologia che spinge le persone di tutto il mondo a chiedersi come influenzerà il mondo in cui viviamo. Alcuni pensano che migliorerà la sicurezza e il benessere degli esseri umani, mentre altri pensano che causerà un’apocalisse. Eliezer Yudkowsky, il noto e controverso teorico dell’intelligenza artificiale, ha recentemente condiviso l’opinione che la tecnologia distruggerà l’umanità, secondo quanto riportato da Futurism.

“Fermate completamente lo sviluppo dell’IA”

Se da decenni Eliezer Yudkowsky dice al mondo che dobbiamo stare attenti all’IA, ora dice: “Penso che non siamo pronti, penso che non sappiamo cosa stiamo facendo e penso che moriremo tutti“. All’inizio di quest’anno, al Time, il ricercatore di intelligenza artificiale ha suggerito di fermare completamente lo sviluppo dell’IA e di distruggere un centro di dati disonesto. Gli esperti di IA vogliono creare protocolli di sicurezza che saranno monitorati da esperti esterni per garantire che la tecnologia non vada fuori controllo. L’obiettivo è quello di creare una tecnologia AI sicura, affidabile, accurata e, soprattutto, leale.  Purtroppo, non tutti sono dello stesso parere. Attualmente i laboratori di intelligenza artificiale lavorano duramente per creare la tecnologia AI più potente, in grado di offrire prestazioni migliori rispetto alla concorrenza. Al ritmo che stanno seguendo, potrebbero creare qualcosa di troppo potente da non poter nemmeno prevedere o capire, il che potrebbe portare a qualche problema.

Gli altri rischi imminenti associati all’IA sono le possibilità di plagio di massa, il suo impatto sull‘impronta ambientale e la sua capacità di sottrarre posti di lavoro. Recentemente, attori e scrittori di Hollywood hanno scioperato per cercare di proteggere il proprio lavoro dalla minaccia dell’IA. Se da un lato è divertente chiedersi come potrebbe essere l’apocalisse dell’IA, dall’altro è altrettanto importante ascoltare alcuni dei sostenitori dell’apocalisse come Yudkowsky, perché potrebbero avere ragione.

Più esperti preoccupati per l’IA

La preoccupazione maggiore di Yudkowsky è che non comprendiamo completamente la tecnologia che abbiamo creato. Prendendo come esempio ChatGPT-4, di OpenAI, non possiamo davvero entrare nella tecnologia per vedere il tipo di matematica che avviene dietro le quinte. Possiamo invece solo teorizzare su ciò che accade. Yudkowsky non è il solo a nutrire questa preoccupazione. Infatti, oltre 1.100 esperti di intelligenza artificiale, amministratori delegati e ricercatori, tra cui Elon Musk e il “padrino dell’IA” Yoshua Bengio, chiedono una moratoria temporanea sui progressi dell’IA. In questo modo si avrà il tempo di valutare quanto l’IA possa diventare potente e decidere se sia necessario iniziare a porre dei limiti alla tecnologia.