Marvin MinskyRimini, 18/10/1999Le frontiere dell'intelligenza artificiale INTERVISTA:Vorrei
cominciare col chiederle di definire l’intelligenza artificiale e
l’ambito degli studi che se ne occupano. Risposta
Premesso
che non credo alle definizioni, direi che l’intelligenza
artificiale è rappresentata da una gran quantità di persone che
cercano di realizzare macchine più intelligenti e di formulare
teorie sul funzionamento della mente umana. Si avvicina molto alla
psicologia, solo che impiega i computer per la sperimentazione. Lei
è senza dubbio un’autorità in fatto di storia
dell’intelligenza artificiale; può farci una ricostruzione del
suo sviluppo e dei suoi protagonisti? Risposta
È
una storia lunga. La prima teoria sul funzionamento della mente
comparve nel 1895 con il libro di Freud sui sogni e il successivo
studio sui motti di spirito e il pensiero. Poi non è successo nulla
di importante fino agli anni ’40, con il movimento cibernetico, e
le prime macchine automatiche. Verso il 1950 alcuni ricercatori, fra
cui Alan Turing, tentarono di immaginare una macchina pensante. A
quel tempo ero giovane, ma cercai anch’io di costruire una
macchina in grado di apprendere. Fu soltanto verso il 1960 con
l'avvento del computer che iniziarono i grandi esperimenti. Che
rapporto c’è fra l’intelligenza artificiale e il cognitivismo?
La prima fa parte del secondo, oppure si sviluppa e sussiste
autonomamente? Risposta
Non
credo ci sia un confine ben demarcato. Ad ogni modo, credo che i
moderni studi sulla cognizione non abbiano cominciato a evolversi
che dopo l’avvento dell’intelligenza artificiale, visto che solo
negli anni ‘50 e primi ‘60 gli specialisti di intelligenza
artificiale hanno cominciato a inventare teorie capaci di
configurare la conoscenza all’interno di una macchina, a creare
procedure che svolgano tipi diversi di ragionamento, e a realizzare
macchine ragionanti per analogia. A mio modo di vedere, le scienze
cognitive cominciarono a svilupparsi in quello stesso momento e
sugli stessi presupposti. Non c’è dunque differenza fra i due
ambiti, a parte il fatto che l’intelligenza artificiale contempla
qualunque tipologia di macchina pensante, mentre il cognitivismo si
concentra piuttosto sul funzionamento del pensiero umano.
L’intelligenza artificiale è perciò un campo più vasto. Molti
filosofi si sono interessati agli studi sull’intelligenza
artificiale negli ultimi 30 anni. Che relazione c’è fra
intelligenza artificiale e filosofia della mente? Risposta
Generalmente
la filosofia consiste in teorie che non possono venir confermate
sperimentalmente. La mia sensazione è che essa debba perciò
precedere la scienza. Man mano che l’intelligenza artificiale si
sviluppa, alcune questioni vengono desunte dalla speculazione
filosofica, mentre la filosofia da parte sua mette a fuoco sempre
nuove problematiche. D’altra parte, molte idee valide della
filosofia moderna provengono dalla scienza del computer e viceversa. Ci
può spiegare la differenza fra l’approccio simbolico
all’intelligenza artificiale e quello connettivista? Risposta
Io
non li considererei come approcci, ma piuttosto come questioni
situate a livelli diversi. Per elaborare stimoli semplici inviati da
occhi o orecchie, è necessario analizzare numerosi piccoli segnali:
i meccanismi connettivi sono a volte adatti a tale scopo. Allo
stesso modo, si possono costruire macchine con tante piccole parti
che interagiscono per riconoscere uno schema. D’altra parte
occorre dare di tale schema una qualche descrizione, così che lo si
possa manipolare, ed è qui che subentrano i processi simbolici.
Qualunque sistema sia in relazione con il mondo, ha bisogno di un
livello connettivistico di elaborazioni parallele estremamente
rapide e semplici, cui fa seguito qualcosa di più simile al
pensiero e al ragionamento, dove si fa uso di rappresentazioni
simboliche. È una linea continua, non ci sono demarcazioni precise.
Non considero il connettivismo come una premessa dell’intelligenza
artificiale, ma come un lavoro preparatorio ad altri processi.
Infatti, per ragionare, pensare e comprendere, servono
rappresentazioni minori che si possano ristrutturare e combinare in
vari modi. A
cosa allude quando parla di società della mente? Risposta È
il titolo di un libro. L’idea che vi sottende è che per ottenere
un sistema reattivo, pieno di risorse e intelligente, bisogna
combinare insieme diversi metodi, i quali devono svilupparsi
separatamente e poi interagire fra loro. La mia concezione del
funzionamento del pensiero è perciò che esistono tanti processi
differenti, dei quali alcuni sono in grado di comunicare con gli
altri, mentre non c’è un’unica struttura centrale responsabile
del pensiero. Questo principio vale per qualunque macchina e per
qualunque valido sistema. Il cervello, però, non è come la società
umana, perché in quest’ultima gli individui sono tutti abbastanza
simili fra loro, e ognuno può svolgere più o meno gli stessi
compiti di un altro. Nel cervello, invece, c’è una regione che sa
soltanto riconoscere i colori, un’altra specializzata nella
manipolazione di sequenze e strutture come la grammatica. Ci sono
sistemi per elaborare piani a largo raggio, e sistemi per imparare a
raggiungere determinati obiettivi. Nella mente coesistono insomma
diversi specialisti. Cosa
pensa dell’organizzazione a strati dell’intelligenza? Risposta
Questa
credo sia una teoria per bambini, ormai alquanto datata. Sono state
sviluppate idee molto valide a proposito dei sistemi di
organizzazione, nonché del modo di risolvere problemi senza
ricorrere alle rappresentazioni simboliche. Non credo però sia un
percorso fruttuoso. Qual
è attualmente la sua posizione rispetto all’approccio
connettivista? Risposta Il
connettivismo è utile per ricostruire modelli e altri elementi
simili. Ma se il numero di connessioni è eccessivo, il sistema
smette di funzionare. Bisogna perciò imparare a limitare l’uso di
schemi numerici. Credo si possa dire che il connettivismo sia un
sistema che rappresenta gli oggetti tramite numeri, coefficienti e
via dicendo. Alcune cose sono effettivamente rappresentabili in tal
modo, ma la maggior parte non sono poi utilizzabili per finalità
intellettuali. È perciò solo uno dei vari metodi necessari per
ricostruire la fisionomia del cervello. Non è un’alternativa,
bensì uno dei componenti. Cosa
pensa del test di Turing 15 anni dopo? Crede sia ancora il modo
migliore per identificare e definire l’intelligenza? Risposta
No,
il test di Turing è soltanto una riflessione del suo ideatore sul
fatto che solitamente si usa la parola “intelligenza” per
indicare realtà molto diverse fra loro. Turing analizza le
condizioni di un essere umano che tratti una macchina come un suo
simile. Ma non credo sia un aspetto rilevante; si possono ottenere
macchine estremamente intelligenti ma che non hanno nulla in comune
con le persone. Non è poi così importante definire
l’intelligenza, non si dovrebbero cercare definizioni senza prima
conoscerne l’oggetto per ciò che è. Così si perde solo tempo;
se ne può parlare e discutere, ma una definizione solitamente segna
la fine di un cammino, non l’inizio, è come la morte. Ci
può parlare delle questioni principali affrontate dagli studi
sull’intelligenza artificiale? Risposta
C’è
stato un progresso nella ricognizione di elementi di natura fisica,
ma ritengo che il problema centrale sia ora costruire una macchina
capace di ragionare come un qualunque bambino di 2 o 3 o 4 anni. A
mio avviso questa è la difficoltà maggiore perché non riusciremo
a realizzare dispositivi che capiscano le storie raccontate o il
linguaggio fino a quando non avremo insegnato loro il modo di
comprendere le parole e acquisire una conoscenza generale della
realtà. Tutti gli altri settori dell’intelligenza artificiale
sono adeguatamente sviluppati. Possiamo costruire macchine in grado
di pianificare e risolvere diversi tipi di problemi, ma siamo ancora
lontani dal riprodurre il ragionamento ordinario e la comprensione
degli oggetti esterni per analogia, e tutte quelle attività di cui
ogni bambino è capace. E
cosa pensa del linguaggio naturale? Come si rapporta agli studi
sull’intelligenza artificiale? Risposta
È
esattamente lo stesso problema. Noi conosciamo molte più regole di
grammatica di quante siano necessarie, ma non sappiamo come
rappresentare l’effetto di una parola. Il linguaggio naturale non
ha progredito granché dalla fine degli anni ’70 o dai primi anni
’80, perché ci si è dedicati ben poco alla rappresentazione
delle idee associate alle parole. Il linguaggio naturale, pertanto,
si muove molto lentamente. Molti tentano di aggirare l’ostacolo
ricorrendo alle statistiche e all’approccio connettivista, ma non
funziona. C’è bisogno di approfondire la comprensione di tutte, o
almeno di gran parte delle numerose funzioni proprie di ciascuna
parola; occorre compilare una sorta di programma-dizionario che
sappia come utilizzare i singoli lessemi, e probabilmente a tale
scopo si dovrà ricorrere alla semantica. Non ci serve la sintassi,
ma nuove idee di semantica e semiotica. Pochissimi ci stanno
lavorando, e tutti gli altri aspettano. Lei
è il padre del concetto di frame. In che cosa consiste, e perché
ha svolto un ruolo fondamentale nella storia dell’intelligenza
artificiale? Risposta
Se
si vuole una macchina che rifletta su determinati oggetti, bisogna
che abbia modo di rappresentarli. Se a tale scopo si impiegano
soltanto dei simboli collegati fra loro in maniera disordinata, ogni
volta che si rappresenta un dato inedito sarà necessario un nuovo
tipo di programma che lo interpreti. È perciò indispensabile,
credo, sia per il cervello che per i computer, sviluppare modi
diversi di rappresentare la conoscenza, e disporre di un certo
numero di programmi o processi che siano in grado di selezionare due
elementi di conoscenza e “cucinarli” per ottenerne un terzo.
Questo è ciò che chiamiamo ragionamento o inferenza. Bisogna
disporre di un sistema funzionale a questo scopo. Per i calcolatori
si adottano generalmente delle specie di banche dati gestite secondo
il metodo connettivista, ossia con collegamenti fra le varie
informazioni. Per acquisire abilità in un particolare ambito, è
necessario incrementare i collegamenti cognitivi, e realizzare un
nucleo dalla struttura estremamente articolata e al contempo molto
simile alle altre, così che si possa imparare a usarla. Il frame è
un metodo abbastanza semplice di rappresentare le caratteristiche di
un oggetto. Se si collegano insieme diversi frame, sarà possibile
sviluppare modalità di sistema per mutare punto di osservazione,
guardare a un oggetto da una certa prospettiva e poi passare a
un’altra inquadratura della stessa famiglia cambiando punto di
osservazione. È perciò solo un passo avanti verso una migliore
organizzazione della conoscenza. Ci sono almeno una decina di altri
modi di organizzazione messi a punto da chi si occupa di computer
science, basati sulla scrittura, sulle reti semantiche, sul
linguaggio naturale, ovviamente, e su una sorta di immagini. Credo
che uno dei problemi centrali che riguardano l’intelligenza
artificiale sia riuscire a realizzare un ragionamento impiegando
diversi tipi di rappresentazione contemporaneamente. La mente umana,
invece, è capace di passare continuamente da un modo di
rappresentazione all’altro. Che
rapporto c’è fra intelligenza artificiale e neurologia? La
configurazione fisiologica del cervello ha un ruolo essenziale nello
studio dell’intelligenza? Risposta
Non
c’è dubbio che finiranno per essere strettamente legate l’una
all’altra, perché quando sapremo come funzionano le diverse parti
del cervello, potremo utilizzarle per costruire macchine
intelligenti. Viceversa, se sappiamo costruire macchine
intelligenti, possiamo verificare se anche il cervello utilizzi gli
stessi meccanismi. In futuro ci sarà pertanto una stretta
connessione fra neurologia e intelligenza artificiale. Attualmente
sono ambiti piuttosto separati, poiché i neurologi conoscono
benissimo come funzionano determinate cellule nervose, ma non hanno
le idee chiare. Gli altri, invece, sanno quale sia la funzione
psicologica di vaste aree cerebrali, ma non conoscono il modo in cui
queste funzionano. C’è troppa distanza fra scienziati, e manca
uno scambio di informazioni. Per esempio, nell’intelligenza
artificiale si configurano diversi tipi di memoria. Può darsi che
diverse parti del cervello usino diverse rappresentazioni e
procedure di apprendimento, ma nessuno ha informazioni approfondite
sulla fisiologia dell’apprendimento ad alto livello. Lei
ha accennato alla memoria. Può parlarci ancora degli studi
sull’intelligenza artificiale e la memoria umana? Risposta
Conosciamo
molti tipi diversi di memoria, e alcuni sono individuati dal loro
contenuto. La computer science ha realizzato numerosi sistemi per
rappresentare l’informazione, ma nessuno ha nozioni precise sul
modo in cui ciò avvenga nel cervello. Ad esempio, in un moderno
computer esistono solitamente diverse memorie, ciascuna con una
propria velocità di funzionamento; la più estesa è la memoria
lenta, costituita da nastri magnetici o CD-ROM o supporti simili,
che contengono un grandissimo numero di dati e richiedono spesso
molto tempo per renderli accessibili. Poi c’è la RAM, una memoria
molto più veloce; quasi tutti i computer di oggi hanno poi la
cosiddetta “cache”, una memoria ridotta ed estremamente veloce
destinata a ricevere depositi temporanei, a evitare perdite di tempo
e a riversare dati nella memoria a lungo termine. A quanto pare, gli
uomini hanno una memoria ridotta, veloce e a breve termine, ne hanno
una intermedia attiva in cui si conservano descrizioni di ciò a cui
si sta pensando, e infine una a lungo termine, che richiede a volte
un’ora o due per immagazzinare informazioni, se non un giorno
intero. Ma nessuno sa come tutto questo funzioni. Io ho la
sensazione che in certe zone del cervello ci sia qualcosa di simile
alla memoria “cache” del computer, che conserva dati
temporaneamente, mentre un altro processo li trascrive nella memoria
a lungo termine. Questo è un caso in cui la scienza del computer è
più avanti rispetto alla neurologia cerebrale. Il problema è far
capire ai neurologi che studiano il cervello cosa siano la memoria
“cache” e la memoria attiva, e vedere se riescono a scoprire in
che modo il cervello svolga quelle funzioni. Può darsi che il
cervello sia molto simile al computer, oppure che funzioni in modo
del tutto differente. Prima però serve una teoria, e poi bisogna
verificare se corrisponde al vero. Crede
ci siano limiti nell’approccio computazionale allo studio
dell’intelligenza artificiale? Risposta
No,
non vedo limiti rilevanti anche se alcuni filosofi ritengono che i
computer presentino limiti che non compaiono negli esseri umani, ma
credo che si sbaglino, che la loro filosofia sia mal formulata. Ad
esempio, Gödel e Lucas hanno affermato che dal momento che le
macchine sono sistemi coerenti di logica formale, non saranno mai in
grado di dedurre certe verità. Questo credo sia errato. In realtà
non c’è motivo perché un computer debba basarsi su una logica
coerente. Alla gente piace molto credere alle contraddizioni, e
quando arrivano a un paradosso, e lo riconoscono per tale, se lo
fissano in mente, ed è come smantellare un programma. Così capita
di sentire persone rispettabilissime affermare che i computer sono
logicamente incompleti e non sanno risolvere molti problemi. Ma non
c’è ragione per pensare che i computer siano poi così diversi
dal cervello, il quale ha anch’esso i suoi limiti matematici. A
mio avviso, tutto questo è irrilevante e non fa differenza che si
tratti di un calcolatore o di un essere umano, ma piuttosto ha a che
fare con la matematica e l’irrisolvibilità. I computer non hanno
limiti particolari in quanto contrapposti agli animali. È
importante, secondo me, tenere a mente che c’è stata
un’evoluzione, la quale ha riguardato anche il cervello, ma noi
non viviamo un momento speciale della storia. Nulla fa pensare che
gli uomini rappresentino il limite ultimo di alcunché, tanto meno
dei computer. Col tempo possono sorgere nuovi tipi di intelligenza,
e noi non siamo certo un buon esempio di esseri perfetti. Siamo
soltanto una fase del divenire storico. Perché
crede che la gente sia convinta che i computer non saranno mai in
grado di pensare? Risposta
Io
mi attengo sempre alla seguente regola: se molte persone credono a
una determinata cosa, probabilmente questa è sbagliata, è soltanto
un mito che si diffonde. Perciò, l’idea che le macchine non
riusciranno mai a fare una certa cosa è con ogni probabilità una
sciocca diceria trasmessa da una persona all’altra. Non ha
importanza quale ne sia la fonte: una volta messa in circolo la
nozione vive di vita propria, sebbene sia infondata. Agli uomini
piace pensare di essere migliori di ogni altra cosa. È ben vero che
fino a poco tempo fa le macchine di cui disponevamo erano abbastanza
stupide: un aspirapolvere, un tostapane o un’automobile non
possono pensare troppo bene, evidentemente, e così l’uomo della
strada finisce per generalizzare e attribuire a tutte le macchine
l’incapacità di ragionare bene. Ma l’uomo della strada sbaglia
sempre, mentre dovrebbe affidarsi agli scienziati per conoscere la
verità. Ieri
lei ha detto di aver speranza di arrivare un giorno a vedere
macchine intelligenti. Lei è dunque ottimista, ci crede davvero? Risposta
17 Certo,
perché no? Pensare che le macchine si fermeranno al punto in cui
sono adesso è arbitrario, e non ce n’è ragione. Non parlerei di
ottimismo o pessimismo; ritengo che le persone che affermano di
conoscere un limite invalicabile non ragionino. È questione di
intelligenza o stupidità, non di ottimismo o pessimismo. La
maggioranza delle persone pensa che qualunque cosa debba
necessariamente avere un limite. Credo
sia importante che i giovani si rendano conto che quando gli
osservatori considerano l’intelligenza artificiale, per lo più
tendono a fare classificazioni in base ad approcci o mode
prevalenti. Così si è parlato di connettivismo, di logica, di
algoritmi genetici e via discorrendo, come se fossero modi separati
e indipendenti di realizzare macchine pensanti. È bene che le nuove
generazioni comprendano la situazione in cui siamo oggi: esistono
200.000 o 300.000 ricercatori impegnati in quel ramo della computer
science chiamato intelligenza artificiale, e di questi 50.000 circa
tentano di fare in modo che le reti connettivistiche riconoscano
determinati modelli. Ciò è utile a decifrare il suono di una
parola o a identificare una bottiglia di Coca Cola difettosa sul
nastro scorrevole. Il metodo cognitivo proprio della rete nervosa è
ottimo per riconoscere modelli, ma funziona malissimo se vogliamo
trovare il verbo in una frase perché tale rete non conosce la
sintassi, non è adatta a procedimenti complessi. Ci sono poi
all’incirca altre 50.000 persone che studiano gli algoritmi
genetici quali sistemi di soluzione di problemi. In alcuni casi essi
funzionano a meraviglia, in altri non producono alcun risultato.
Altri 50.000 cercano di rappresentare la conoscenza in termini di
logica, e ricorrono al procedimento logico classico per risolvere
problemi per via deduttiva. Anche in questo caso, tale metodo è
applicabile a certi casi, ma per lo più non funziona, perché credo
che nella vita reale i problemi vadano affrontati in base
all’analogia, non alla logica. E così via. In complesso, dunque,
ci sono 50.000 studiosi impegnati in ciascuno di questi settori oggi
tanto popolari; per quanto ne so, invece, soltanto sei persone si
stanno occupando con profitto del meccanismo del ragionamento
comune, vale a dire di come comporre tutte queste diverse
rappresentazioni e ragionare per analogia all’interno di un unico
sistema. Il vero problema dell’intelligenza artificiale sta nel
fatto che moltissimi di noi sono come pecore che vanno appresso al
gregge e a chi li conduce. Si impongono regole del tipo: “Sono un
connettivista, e non userò mai i simboli”, oppure: “Sono un
logico, e non userò mai coefficienti numerici”. Perciò, sebbene
le persone attive in questo campo siano invero numerose, quasi tutte
hanno l’una o l’altra “malattia”. È come una città in
preda a sei epidemie. Questo è ciò che direi a un giovane: se
guardi alla scuola connettivista, ci troverai 50.000 ricercatori;
nei prossimi dieci anni si faranno probabilmente dieci scoperte
importanti, il che vuol dire che se entrerai in questo ramo avrai
una possibilità su 5.000 di fare carriera e ottenere risultati di
rilievo, mentre in 4.999 casi su 5.000 alla fine il tuo lavoro non
sarà servito a nulla. Ugualmente, nel campo degli algoritmi
genetici, nei prossimi dieci anni ci saranno all’incirca una
decina di innovazioni interessanti. Il connettivismo, si potrebbe
dire, è meraviglioso, farà dieci scoperte in una sola decade, e lo
stesso vale per gli algoritmi genetici, la logica, eccetera. Ma se
ci si dedica al ragionamento comune, che è un settore nuovo e poco
affollato, in dieci anni ci potranno essere trenta scoperte, e ci
lavorano solo sei persone: ognuna di loro farà centro cinque volte
e il suo contributo sarà fondamentale. Perciò, studenti e ragazzi
dovrebbero capire che più un’area di studi è affollata, meno è
opportuno dedicarcisi. Mi sorprende sempre notare, ogni volta che
parlo agli studenti, come nessuno di loro abbia compreso
l’economia della ricerca, il cui principio basilare è il
seguente: se sei giovane, non devi occuparti di argomenti largamente
diffusi. Parliamo
ora di coscienza. Come giudica l’opinione di molti, secondo cui il
computer non può pensare perché non ha una coscienza? Risposta
18 Molti
pensano che la coscienza sia qualcosa di talmente diverso da tutto
il resto che non la si possa spiegare. Ma quando ci si trova dinanzi
a un mistero e non si riesce a spiegarlo, le ragioni possono essere
diverse. Un bambino dirà che quella è una cosa completamente
differente, e infatti la prima cosa che molti bambini fanno è
distinguere tra esseri animati e oggetti inanimati. Fra le prime
parole che imparano, ce n’è solitamente una che indica sia cani
che gatti e uccelli, ed è diversa da bambino a bambino non
esistendo uno standard nella loro lingua. Questo avviene quando si
ha a disposizione soltanto una parola alla volta. Che senso ha per
il bambino questa distinzione? Secondo me, significa che si è reso
conto che esistono oggetti come questo, che non fanno nulla se non
li si sospinge, e dunque sono inanimati, morti. Poi ci sono oggetti
come gli uccellini, che se ne stanno lì e all’improvviso volano
via ed infine le persone. La differenza è enorme. Anche se non
esistono termini nel nostro linguaggio per indicarla, il bambino ne
inventerà uno nuovo, perché capisce che non serve a nulla
considerare l’uccellino come un oggetto fisico: tutto verrebbe
falsato. Ad esempio, in fisica è nozione comune che si possa
trascinare un oggetto mediante una cordicella, ma non spingerlo.
Nella realtà sociale, si può lasciare che una persona venga a
dirci una parola, ma se la si forza si otterrà soltanto un rifiuto.
Le leggi della fisica e delle relazioni sociali sono dunque diverse
a seconda che si tratti di soggetti vivi o morti? Gli scienziati
hanno creduto in questo principio fino al 1850, quando Luigi Pasteur
e altri cominciarono a comprendere che gli esseri viventi non sono
poi tanto diversi dalle cose inanimate. Sono solo più complicati e
sottostanno a un maggior numero di processi. Pasteur scoprì che
negli organismi viventi la chimica funziona sempre allo stesso modo.
Intorno al 1900 si arrivò a stabilire che buona parte del
comportamento di una persona dipende da centri di stimolazione
situati nel cervello. Tra il 1950 e il 1960 si chiarì il grande
mistero: si diceva che la vita non si può spiegare, che una
macchina non potrà mai riprodursi da sé. Ma dopo aver studiato il
DNA, si è compreso che esso è un codice che regola una sequenza di
proteine che poi si trasforma in RNA, e che c’è un agente, il
ribosoma, il quale legge l’RNA e sintetizza le proteine. Oggi, nel
2000, nessun biologo sosterrebbe che esiste una cosa chiamata vita.
La parola “vita” è morta, perché sappiamo che gli esseri
viventi sono solo macchine estremamente complesse. Questa è la
lezione della scienza. Se qualcuno afferma che una macchina non può
essere cosciente e non fa parte del mondo, questo qualcuno è
rimasto a 150 anni fa. Se la maggioranza delle persone, compresi i
filosofi, esclude che una macchina possa essere cosciente, ciò
dipende dal fatto che costoro non possiedono una teoria sul
funzionamento della coscienza. Alcuni pensano: “Non riesco a
immaginare come la coscienza funzioni, e siccome sono molto
intelligente nessun altro ci può riuscire.” Io invece ho una
teoria su come funzioni la coscienza: quando si considera la
coscienza bisogna tener conto di centinaia di aspetti diversi. Uno
di questi è dato dalla capacità di ricordare ciò che stavo
pensando un minuto fa. Ma la cosa più sorprendente della coscienza
è la sua incredibile stupidità. Se io mi chiedo: “Come si muove
un braccio?”, la mia coscienza non avrà niente da dire. Dunque,
non sono cosciente di come si muove un braccio. Se domando: “Perché
hai detto ‘parecchi’ invece di ‘molti’? Come scegli le
parole? Ne sei cosciente?” La risposta è No. Non ne ho idea. La
coscienza ci racconta soltanto storie inesatte relative a ciò che
stavamo pensando in precedenza. Occorre perciò chiarire due cose:
la prima, la coscienza è costituita da venti aspetti diversi
vagamente collegati fra loro, la seconda è che noi abbiamo
racchiuso questi aspetti in un’unica parola, mentre è il termine
“coscienza” che non dovrebbe esistere. Bisognerebbe distinguere
fra “reattivo”, “riflessivo”, e “autoriflessivo”, e
parlare di cancellazione dei contenuti della memoria a breve termine
nel momento in cui si inseriscono nuovi dati. Nel mio libro analizzo
venti diversi gruppi di processi per i quali si usa generalmente
un’unica parola. Per questo non la si comprende: è vuota. Un
altro aspetto della questione è che molti si chiedono: “Come può
una macchina ‘sapere’ quel che esiste nel mondo?” Così,
quando parlano di “coscienza”, immaginano qualcosa di magico
dentro di sé che si collega direttamente al mondo. In realtà ci
sono una ventina di strati diversi. Non bisognerebbe domandarsi come
funziona la coscienza, ma in che modo il cervello costruisce una
rappresentazione di se stesso, in che modo il processo successivo
confronta le diverse rappresentazioni e identifica le differenze.
Quando si divide la coscienza in venti sezioni, già si comincia a
comprenderla e a porre le domande giuste. Qual
è, nell’ambito degli studi sull’intelligenza, il ruolo dei
rapporti fisico-percettivi fra il soggetto e il mondo esterno? Risposta
19 La
realtà esterna si può apprendere soltanto in due modi: uno è
l’esperienza diretta, l’altro un messaggio astratto e simbolico
inerente la realtà fornito da una terza persona. Per esempio, io
non ho mai visto le cascate di Iguazu dalle parti dell’Argentina,
ma le conosco abbastanza avendo letto molti libri che le descrivono.
Sono perciò in grado di imparare anche senza un contatto diretto
con il mondo fisico. In ogni caso, una volta che l’apprendimento
si è compiuto e nel mio cervello si è formata una rappresentazione
dell’oggetto, non ha importanza il modo in cui l’ho acquisita.
Purtroppo, nel campo dell’intelligenza artificiale, molti parlano
di azione localizzata, ossia sostengono che il dato più importante
è il collegamento con il mondo esterno, e che non si può imparare
nulla senza toccare o sentire l’oggetto. Secondo loro, perciò,
nessuno può mai conservare ricordi nel proprio cervello, e se
qualcuno spiega loro un fatto, se lo devono scrivere per poterlo
inserire nel mondo fenomenico. Ci sono molte persone che danno
ascolto a queste teorie, e così nasce la moda della cosiddetta
azione localizzata, come già era avvenuto per il connettivismo. A
mio avviso, si tratta di un insieme di idee sbagliate, e chi vi
attribuisce importanza è senza dubbio fuori strada. Tuttavia è una
scuola estremamente popolare, e non capisco proprio perché lo sia.
È evidente che ognuno di noi è stato bambino e ha appreso molte
cose direttamente dal mondo esterno, ma questo non era strettamente
necessario, potevano esserci altri modi di imparare. Un paraplegico,
poniamo, che non è in grado di muovere alcun muscolo a eccezione di
quelli della testa, pensa esattamente come le persone che possono
scrivere. C’è qualcosa di sbagliato nell’idea che il corpo e il
mondo siano essenziali per il pensiero; sono utili, ma non
indispensabili. Può
illustrarci le applicazioni più interessanti dell’intelligenza
artificiale? Risposta
20 L’interesse
è maggiore o minore a seconda dei propri obiettivi. Per esempio,
esiste un programma che ha battuto il campione mondiale di scacchi,
ma a me non sembra poi così rilevante. Ci sono programmi che
trascrivono la voce nel computer, così che è possibile dettare
alla macchina; mi sembra molto interessante il fatto che funzionino
abbastanza bene pur non conoscendo il significato delle parole. In
generale, però, non credo che le applicazioni realizzate fino a
oggi siano davvero significative. Lo saranno, a mio avviso, quando
potranno risolvere problemi che gli esseri umani non sanno come
affrontare. Ma questo accadrà in futuro. Perché
lei studia l’intelligenza artificiale? Cosa trova di affascinante
in questo campo? Risposta
21 |