La stanza cinese e l'intelligenza artificiale #LegaNerd
di
Laido Laido
8

La Stanza cinese è un esperimento mentale ideato da John Searle… un controesempio della teoria dell’intelligenza artificiale forte. Alla base del ragionamento di Searle è che la sintassi (grammatica) non è equivalente alla semantica (significato).


I sostenitori dell’ intelligenza artificiale forte sostengono che un computer opportunamente programmato non sia solo la simulazione o un modello della mente, ma che esso possa essere una mente. Esso cioè capisce, ha condizioni conoscitive e può pensare. L’argomento di Searle (o meglio, l’esperimento mentale) si oppone a questa posizione. L’argomentazione della stanza cinese è la seguente:
Si supponga che, nel futuro, si possa costruire un computer che si comporti come se capisse il cinese. In altre parole, il computer prenderebbe dei simboli cinesi in ingresso, consulterebbe una grande tabella che gli consenta di produrre altri simboli cinesi in uscita. Si supponga che il comportamento di questo computer sia così convincente da poter facilmente superare il test di Turing. In altre parole, il computer possa convincere un uomo che parla correttamente cinese (per esempio un cinese) di parlare con un altro uomo che parla correttamente cinese, mentre in realtà sta parlando con un calcolatore. A tutte le domande dell’umano il computer risponderebbe appropriatamente, in modo che l’umano si convinca di parlare con un altro umano che parla correttamente cinese. I sostenitori dell’intelligenza artificiale forte concludono che il computer capisce la lingua cinese, come farebbe una persona, in quanto non c’è nessuna differenza tra il comportamento della macchina e di un uomo che conosce il cinese.
Ora, Searle chiede di supporre che lui si sieda all’interno del calcolatore. In altre parole, egli si immagina in una piccola stanza (la stanza cinese) dalla quale riceva dei simboli cinesi, e una tabella che gli consenta di produrre dei simboli cinesi in uscita in modo identico a quanto faceva il programma seguìto dal calcolatore. Searle fa notare che egli non capisce i simboli cinesi. Quindi la sua mancanza di comprensione dimostra che il calcolatore non può comprendere il cinese, poiché esso è nella sua stessa situazione. Il calcolatore è un semplice manipolatore di simboli, esattamente come lo è lui nella stanza cinese – e quindi i calcolatori non capiscono quello che stanno dicendo tanto quanto lui.

Nel 1980, John Searle pubblicò “Minds, Brains and Programs” (Menti, Cervelli e Programmi) nella rivista The Behavioral and Brain Sciences. In questo articolo, Searle espose la sua argomentazione e di seguito rispose alle principali obiezioni che erano state sollevate durante le sue presentazioni a diversi campus universitari (vedi la prossima sezione). Inoltre, l’articolo di Searle fu pubblicato nella rivista insieme ai commenti ed alle critiche di 27 ricercatori di scienze cognitive. Questi 27 commenti furono seguiti dalle risposte di Searle ai suoi critici.

Negli ultimi due decenni del ventesimo secolo, l’argomentazione della Stanza cinese fu oggetto di moltissime discussioni. Nel 1984, Searle presentò l’argomentazione della Stanza cinese in un libro (Minds, Brains and Science). Nel gennaio 1990, il popolare periodico Scientific American portò il dibattito all’attenzione del mondo scientifico: Searle incluse l’argomentazione della Stanza cinese nel suo articolo “Is the Brain’s Mind a Computer Program?”. Il suo pezzo era seguito da un articolo di risposta, “Could a Machine Think?”, scritto da Paul e Patricia Churchland. Poco tempo dopo, fu pubblicato un confronto sulla Stanza cinese tra Searle ed un altro eminente filosofo, Jerry Fodor (in Rosenthal (ed.) 1991).

Il cuore dell’argomentazione è una teorica simulazione umana di un computer simile alla Macchina di Turing. L’essere umano nella Stanza cinese segue istruzioni in inglese per manipolare simboli cinesi, mentre un computer esegue un programma scritto in un linguaggio di programmazione. L’uomo crea l’apparenza della comprensione del cinese seguendo le istruzioni di manipolazione dei simboli, ma non giunge per questo a capire il cinese. Poiché un computer non fa altro che ciò che fa l’uomo – manipolare simboli in base alla loro sola sintassi – nessun computer, semplicemente eseguendo un programma, giunge a comprendere realmente il cinese.

Questa argomentazione, basata strettamente sulla Stanza Cinese, è rivolta contro la teoria che Searle chiama intelligenza artificiale forte. Secondo tale teoria, un computer adeguatamente programmato (o lo stesso programma) può comprendere il linguaggio naturale e possedere effettivamente altre capacità mentali simili a quelle degli uomini che imita. Secondo l’intelligenza artificiale forte, un computer può giocare a scacchi in modo intelligente, fare una mossa astuta, o capire il linguaggio. Per contro, l’intelligenza artificiale debole è la teoria secondo la quale i computer sono semplicemente utili nella psicologia, nella linguistica ed in altre aree di studio, in parte perché possono simulare capacità mentali. Ma l’intelligenza artificiale debole non afferma che i computer possano effettivamente capire o che siano intelligenti. L’argomentazione della Stanza cinese non è rivolta all’intelligenza artificiale debole, né ha lo scopo di dimostrare che le macchine non possono pensare – per Searle i cervelli sono proprio macchine in grado di pensare. È volta a confutare la teoria che calcoli formali svolti su simboli possano generare il pensiero.
Potremmo riassumere l’argomentazione più ristretta come una reductio ad absurdum contro l’intelligenza artificiale forte nel modo seguente. Sia L un linguaggio naturale e chiamiamo un “programma per L” un programma per conversare correntemente in L. Un sistema computazionale è qualsiasi sistema, umano o meno, che può eseguire un programma.

1. Se l’intelligenza artificiale forte è vera, allora esiste un programma per il cinese tale che se un qualsiasi sistema computazionale esegue quel programma, il sistema arriva in tal modo a capire il cinese.
2. Potrei eseguire un programma per il cinese senza con questo arrivare a capire il cinese.
3. Pertanto l’intelligenza artificiale forte è falsa.

La seconda premessa è sostenuta dall’esperimento mentale della Stanza cinese. La conclusione di questa argomentazione è che eseguire un programma non può generare comprensione. L’argomentazione più ampia include la tesi che l’esperimento mentale dimostra più in generale che non si può ottenere semantica (significato) dalla sintassi (manipolazione di simboli formali).
Il punto centrale dell’argomento di Searle è la distinzione tra sintassi e semantica. La stanza è in grado di combinare i caratteri secondo le regole, cioè si può dire che la stanza si comporta come se seguisse regole sintattiche. Ma, secondo Searle, essa non conosce il significato di ciò che ha fatto, cioè non ha contenuto semantico. I caratteri non rappresentano neppure simboli perché non sono interpretati in nessuna fase del processo.

Esistono molte critiche all’argomentazione di Searle. La maggioranza di esse rientra nella ‘risposta del sistema’ o nella ‘risposta del ‘robot’:

La risposta del sistema
Sebbene l’individuo nella Stanza cinese non comprenda il cinese, forse lo capiscono la persona e la stanza considerati insieme come sistema. La persona sarebbe proprio come un singolo neurone del cervello, e, come un singolo neurone da solo non può capire, ma può contribuire alla comprensione del sistema complessivo, così la persona non capisce, ma il sistema complessivo sì.
La risposta di Searle è che qualcuno potrebbe teoricamente memorizzare il libro delle regole e che lavori all’aperto; ciò lo renderebbe capace di interagire come se capisse il cinese, ma ciononostante continuerebbe a seguire un insieme di regole, senza comprendere il significato dei simboli che sta utilizzando, infatti in questo caso non c’è nulla nel sistema che non sia anche nella persone e poiché la persona non capisce il cinese, non lo capisce neanche il sistema. Questo conduce all’interessante problema di una persona capace di conversare correntemente in cinese senza “sapere” il cinese, e secondo il controargomento tale persona capisce effettivamente il cinese anche se questi sosterrebbe il contrario. Un argomento simile è che la persona non sa il cinese, ma lo sa il sistema che comprende sia la persona che il libro delle regole.

La risposta del robot
Supponiamo che, invece che in una stanza, il programma sia collocato in un robot che possa muoversi ed interagire con il suo ambiente. Allora capirà certamente ciò che sta facendo? La risposta di Searle è di supporre che, senza che l’individuo nella Stanza cinese ne sia a conoscenza, alcuni segnali in ingresso che sta ricevendo provengano direttamente da una telecamera montata su un robot, e alcuni dei segnali in uscita siano utilizzati per muovere le braccia e le gambe del robot. Ciononostante, la persona nella stanza sta sempre seguendo le regole e non sa che cosa significhino i simboli.
Supponiamo che il programma corrispondente al libro delle regole simuli in estremo dettaglio l’interazione dei neuroni nel cervello di un parlante cinese. Allora si dovrà dire che il programma capisce sicuramente il cinese? Searle replica che tale simulazione non avrà riprodotto le caratteristiche importanti del cervello – i suoi stati causali ed intenzionali.
Ma cosa accadrebbe se una simulazione del cervello fosse connessa al mondo in modo tale da possedere il potere causale di un vero cervello – forse collegata ad un robot del tipo descritto prima? Allora sarebbe certamente capace di pensare. Searle concorda che è teoricamente possibile creare un’intelligenza artificiale, ma puntualizza che tale macchina dovrebbe avere gli stessi poteri causali di un cervello. Essa sarebbe più di un semplice programma per calcolatore.

Fonte Wiki

Aree Tematiche
Idee Scienze Tecnologie
Tag
domenica 1 agosto 2010 - 14:00
Edit
LN Panic Mode - Premi "P" per tornare a Lega Nerd