INTERVISTA:
Domanda 1
Lei ha lavorato per tanti anni alla Ibm. Ha seguito levoluzione e il passaggio dalle
grandi macchine a quelle più piccole. Ci può raccontare quali sono stati i passaggi
attraverso i quali si è passati da macchine molto ingombranti a macchine sempre più
potenti ma di dimensioni sempre più piccole?
Risposta
Per affrontare in maniera corretta questo argomento, occorrerebbe definire con molta
chiarezza cosa si intende per macchina grande. Cè infatti un po di confusione
o di ambiguità dovuta al fatto che trentanni fa le macchine grandi erano veramente
grandi come dimensioni.
Oggi le cosiddette macchine grandi sono ancora grandi in un certo senso ma non perché sia
grande la parte elettronica. La parte elettronica si è ridotta in maniera massiccia.
Quella che noi definiamo come grande macchina è la macchina che viene costruita con la
tecnologia di punta di quel momento. La grande macchina di oggi non è qualcosa che
è grande fisicamente: è grande nelle prestazioni. Venti, trentanni fa essere
grandi nelle prestazioni voleva anche dire essere grandi come dimensioni.
Levoluzione per così dire dal "grande" al piccolo è passata attraverso
un certo numero di fasi nel corso degli ultimi 40-50 anni, molto ben identificate.
Inizialmente al computer serviva uno strumento in grado di commutare i segnali e questo è
stato per molto tempo la valvola. Se si pensa che un computer di media taglia doveva
essere fatto con qualche decina di migliaia di valvole, si può facilmente immaginare
quale colossale dimensione può assumere un computer. La svolta radicale è avvenuta con
lavvento del transistor a cavallo degli anni 50. Il transistor è stato
identificato come dispositivo operante nel Natale del 1947 da Bardeen, Brattain e Shockley
ed è entrato più o meno in produzione allinizio degli anni 50.
Per quanto riguarda i computer cè voluto più tempo. Nella seconda metà anni
50 abbiamo assistito alla prima apparizione dei transistor allinterno dei
computer. Il transistor veniva utilizzato come componente circuitale molto evoluta, ma
resistenze, induttanze, capacità venivano ancora costruite con metodologie classiche
quindi i computer erano tecnologicamente ibridi e ancora grandi come dimensioni.
Domanda 2
Qual è stato il secondo grande passo verso la miniaturizzazione delle macchine?
Risposta
Il secondo grande passo verso la miniaturizzazione è avvenuto a metà degli anni 60
con lavvento dei circuiti integrati. Vale a dire la capacità di costruire sul
silicio non solo il componente attivo, il transistor, ma anche i cosiddetti componenti
passivi. Questo, da metà degli anni 60 fino allinizio degli anni 70, è
stato lelemento centrale della miniaturizzazione: utilizzare la sabbia, cioè il
silicio, per costruire tutta la parte logica del computer, non la memoria. La memoria
ancora per molti anni è rimasta al di là delle possibilità di costruzione definibile
come "transistorica". Veniva costruita con degli anellini piccoli di ferrite che
venivano magnetizzati. Era un lavoro molto complesso e i costi della memoria erano
assolutamente esorbitanti. Una macchina che aveva una potenza di calcolo di 1/10 di
milioni di istruzioni, con una capacità esecutiva di 10.000 istruzioni al secondo, con
32.000 posizioni di memoria, costava allepoca in Italia, cioè nel 1966-67, qualche
cosa come 8-900 milioni. La stessa macchina, identica, con un raddoppio di memoria, da
32.000 posizioni a 64.000 posizioni, superava il miliardo e sei. Questo per dirle che
32.000 posizioni di memoria a nuclei di ferrite costavano centinaia e centinaia di
milioni. Dunque uno dei vincoli fondamentali dellinformatica degli anni 60 era
non solo miniaturizzare i circuiti ma soprattutto miniaturizzare i programmi, farli più
brevi, più corti possibili perché occupassero meno memoria possibile. Da questo discende
il cosiddetto problema dellanno 2000 legato al fatto che nel corso degli anni
60 moltissimi programmatori per risparmiare hanno utilizzato solo 2 byte e invece di
scrivere 1999, hanno scritto 99. E chiaro che il passaggio a 00 potrebbe comportare
il passaggio a 1900 così come a 2000. Ed era legato alla tecnologia utilizzabile, che era
a nuclei di ferrite. La memoria a nuclei di ferrite non si prestava a miniaturizzazioni e
quindi non consentiva di costruire macchine particolarmente piccole, anche se, di
converso, la parte attiva della macchina, cioè la parte circuitazione, veniva
miniaturizzata molto più rapidamente. Daltro canto non bisogna nemmeno immaginare
che la memoria a nuclei di ferrite sia stata abbandonata così rapidamente a favore dei
transistor anche quando questi sono apparsi utilizzabili per la parte memoria della
macchina. Pochi lo sanno ma i primi shuttle che sono stati messi in orbita avevano dei
computer di bordo molto sofisticati, che però non utilizzavano memorie a transistor, ma
memorie a nuclei di ferrite. Questo perché? Perché la radiazione Alfa e in generale il
processo delle particelle cosmiche è così elevato a quelle quote, che la schermatura
delle memorie a transistor, richiedeva delle tecniche molto sofisticate e dei pesi
piuttosto elevati. Quindi si è arrivati al paradosso che alcuni dei computer più
evoluti, più raffinati alla fine degli anni 70, inizio anni 80, continuavano
comunque a mantenere questa tecnologia a nuclei di ferrite che sembrava totalmente desueta
per lepoca.
Domanda 3
In che periodo possiamo allora situare la fase successiva?
Risposta
Direi che a metà degli anni 70 cè stato il terzo grande passaggio:
lunificazione delle memorie e dei circuiti integrati in un'unica strutturazione,
sempre il silicio, che consentisse di costruire tutto partendo dalla sabbia. A quel punto
lì il processo di miniaturizzazione ha preso il largo con un impeto formidabile e si è
poi tradotto in quella che viene chiamata la legge di Moore, di Gordon Moore, che è stato
uno dei primi ricercatori e progettisti dei circuiti integrati. Questa legge che non è
una legge matematica ma è piuttosto il riconoscimento di un fenomeno statistico, sostiene
che ogni 18 mesi, a parità di costo, la potenza del computer e la sua memoria di fatto
raddoppiano. In altri termini questo vuol dire che ogni 10 anni il computer migliora, a
parità di costo, di 100 volte la sua capacità elaborativa, sia essa capacità di
esecuzione di istruzioni o capacità di memorizzazione. Questo significa anche che, nel
corso degli ultimi trentanni, i computer, a parità di costo, hanno migliorato
enormemente il loro rapporto prezzo-prestazioni. Le loro prestazioni sono migliorate di un
milione di volte. Ecco perché noi vediamo apparire sul tavolo di tutti quanti macchine
molto piccole in grado di fare cose meravigliose. Questa tecnologia consente anche di
creare microprocessori ancora più complessi per le cosiddette macchine grandi, che pur
non essendo enormi come quelle di un tempo mantengono comunque certe dimensioni dovute
soprattutto ai gruppi di alimentazione e ai gruppi di raffreddamento. Se si concentra un
numero sempre maggiore di circuiti in uno spazio di dimensioni sempre più piccole, è
chiaro che il problema dellalimentazione e della dissipazione del calore diventa
esplosivo. Oggi si costruiscono microprocessori sempre più densi, i cui circuiti
impegnano sempre meno corrente ma il cui numero cresce così vertiginosamente che alla
fine il singolo chip produce più calore di un ferro da stiro. E bisogna alimentarlo e
raffreddarlo.
Quindi i gruppi di alimentazione diventano esorbitanti. Se cè un limite
nellinformatica dellavvenire, è proprio quello dellalimentazione. Tutti
coloro i quali usano pesantemente i personal computer sanno che lautonomia di un PC
non è molto elevata. No si può pensare di prendere un computer, fare un viaggio
transoceanico di 8 ore con le batterie che abbiamo oggi a disposizione che mi consentono
di lavorare unora, unora e mezza nella migliore delle ipotesi. Di conseguenza
si ha bisogno di un cavo che connetta il computer allalimentazione. Nel futuro le
cose non miglioreranno di molto. Ci saranno infatti miglioramenti nellalimentazione
a batteria, ma non pari al livello di miniaturizzazione. Questo perché nel corso dei
prossimi 10-15 anni si manterrà più o meno il ritmo attuale, cioè si dimezzerà o si
aumenterà la quantità di circuiti ai ritmi precedenti. A 15 anni da oggi immaginiamoci
macchine, a parità di costo, 5000 volte più potenti di quelle attuali. Questo a grandi
linee lo scenario. Possiamo dire che il processo di miniaturizzazione è ancora in atto, e
che la distinzione macchina grande macchina piccola non è tanto nella dimensione
della macchina, ma piuttosto nella complessità. Il disegno delle macchine di oggi è
molto più complesso e sempre maggiore il numero di utenti che queste macchine devono
gestire.
Domanda 4
Un altro problema da risolvere è quindi quello dellalimentazione di queste
macchine?
Risposta
Lalimentazione è un po il nodo gordiano da sciogliere se si vuole fare del
computer uno strumento veramente diffuso. Per questo si può immaginare il computer del
futuro come una scheda con un microprocessore come una carta di credito, o come le smart
card.
La cosa interessante è che questo microprocessore di potenza crescente può essere la
chiave di volta dellinformatica del futuro perché rende il computer veramente
trasportabile. Posso inoltre averne più di uno in tasca, posso prenderlo, posso entrare
in un albergo, utilizzarlo in telefoni speciali. Per esempio al Cebit di Amburgo, nel
corso dellultima mostra del maggio-giugno 98 sono stati presentati dei
telefoni particolari. Sono simili a quelli a tastiera attuali ma cè lo spazio per
far scorrere il microprocessore. Questo trasferisce le informazioni a un grande computer
connesso alla Rete che riconosce lutente, le sue caratteristiche, i suoi file. Con
questa carta nel portafoglio posso lavorare senza trascinarmi dietro un accumulatore che
pesa 3-4 chili.
Si può controbattere che questa carta sia facile da perdere. Ma se la perdo, come per una
carta di credito, basta telefonare e farla annullare e probabilmente me ne daranno una di
riserva che ricostruisce tutta la mia situazione. Quindi io credo profondamente che stiamo
andando, come è stato anche detto da unindagine svolta dallEconomist,
verso una nuova forma di "pervasive computing", ovvero verso un tipo di
elaborazione dati utilizzata da tutti in qualunque punto del globo attraverso i telefoni
cellulari, le smart card, i personal computer, i giocattoli, la televisione dotata di
"set-top box", insomma attraverso tutta una serie di dispositivi che mi
consentono di connettermi a dei poli molto più intelligenti, che sono in grado di
trasmettere le informazioni. Si può parlare di una generale forma di intelligenza
collettiva. Questo secondo me è il limite della miniaturizzazione le cui conseguenze nel
futuro prossimo sono facilmente immaginabili. Si arriverà a "wearable
computer", a microprocessori indossabili. Oppure si può anche immaginare che un
domani il microprocessore sia collegato a una zona del cervello. Mi sembra che dal punto
di vista sensoriale questo sia già un buon limite da raggiungere.
Domanda 5
Quindi è grazie, per esempio, a carte di questo tipo e a questi sistemi che lei ha appena
descritto, che si realizza veramente una convergenza al digitale di tutti i diversi media
?
Risposta
Io stesso ho scritto, e me ne dolgo, di una convergenza telefono-televisione-computer
in un unico dispositivo. Qualche anno fa lo credevo, oggi non lo credo più. Oggi credo
che di aver commesso proprio un errore logico-strutturale. Non ho timore ad affermare che
tutto sommato mi sento anche io un darwinista, almeno culturalmente. Penso che il
Darwinismo abbia spiegato molte cose nellevoluzione di sistemi biologici e che abbia
dato una chiave di lettura di fenomeni che altrimenti, secondo me, sarebbero
incomprensibili. Inoltre penso che il Darwinismo spieghi molto bene fenomeni analoghi alla
biologia: ad esempio la fenomenologia dellinformatica o della tecnologia in
generale, ricorda molto la fenomenologia della biologia. La tecnologia e la biologia hanno
infatti aspetti simili. Però nella biologia difficilmente due entità biologiche
convergono verso ununica entità. E difficile trovare un cane che vola o, che
so io, un gatto che nuota come un pesce. Queste convergenze la biologia non le consente.
La biologia infatti secondo i concetti fondamentali darwiniani, procede per occupazione di
nicchia disponibile da parte di quello che Darwin definisce "the fittest", il
più adatto. Ecco, io credo che nellinformatica e nella tecnologia esista un
concetto analogo. A mio avviso è corretto pensare che così come esistono diverse nicchie
biologiche esistono anche diverse nicchie informatiche, nel mondo dellinformazione,
ciascuna delle quali è popolabile da un certo tipo di dispositivi che sono
particolarmente idonei a occupare quella nicchia. E inoltre corretto dire che tutte
le nicchie concorrono a definire lo scenario generale, come un ecosistema biologico.
Prevedo che in futuro la realtà dellinformatica o dellinformazione sia una
sorta di ecosistema informativo, una forma di intelligenza collettiva, nella quale
soprattutto le reti, le memorie, i microprocessori coesistono su dispositivi differenziati
ma che, in maniera complementare, forniscano allindividuo le risorse di cui ha
bisogno. Nel mondo del media-testo, cè il giornale, cè la rivista, cè
lopuscolo, cè il depliant, cè il libro, cè lenciclopedia.
Queste sono forme differenziate che dimostrano che non esiste soltanto un unico elemento
testuale. Allo stesso modo io credo che nel mondo della intelligenza tele-elettrica
esisteranno dispositivi differenziati e lutilizzo delle smart card è uno di questi.
Domanda 6
Questa sorta di dialogo fra i vari mezzi di comunicazione, questo "ecosistema
informativo" implica per lutente singolo un aumento delle possibilità di
connessione e di comunicazione. Tutto questo però che cosa comporta rispetto alla
gestione dellinformazione?
Risposta
Per il singolo così come per lorganizzazione medio-grande, significa la
possibilità di attingere a quella che io ho chiamato una forma di "intelligenza
collettiva". Lho chiamata così perché quando ho cominciato a lavorare sui
computer nel 1965 cera il mito dellintelligenza artificiale. Il computer era
considerato il cervello elettronico. Con entusiasmo sui giornali di allora si parlava di
questa nuova forma di intelligenza. Oggi pochi credono che lintelligenza artificiale
sia alla nostra portata. Non si sa bene quello che succederà però pochi credono che il
computer possa a breve o a medio termine diventare unentità creativa. Quello,
però, che si sta concretizzando è unaltra forma di intelligenza a cui nessuno
aveva pensato, una forma di intelligenza collettiva, non creativa o autonoma, ma comunque
così ricca, così variegata, così efficiente che ci ricorda, in un certo senso, quanto
è avvenuto nel Rinascimento con lavvento della stampa e, direi, nellAtene di
Pericle, con lavvento della scrittura. Questi furono momenti fondamentali di
passaggio della cultura umana da un mezzo di comunicazione a un altro infinitamente più
ricco che non uccide il precedente ma che in un certo senso lo ingloba, lo trasforma, lo
adegua ad un nuovo scenario, e che richiede da parte della società un periodo di
transizione e di adattamento.
Oggi noi ci accorgiamo immediatamente di un fatto: la massa di informazioni che sono a
nostra disposizione cresce vertiginosamente. Linformazione oggi assume delle
caratteristiche, oserei dire, virali. Si distribuisce con una rapidità fenomenale. Gli
Americani per questo usano unespressione, "Information Glut" che significa
"sovraccarico di informazione" A causa di questo sovraccarico lindividuo
non riesce ad accedere a ulteriore informazione perché fa già molta fatica a filtrare
quella giusta fra quella che gli arriva. Va detto però che questo non è un fenomeno
nuovo. Tutte le volte che lumanità ha affrontato delle rivoluzioni comunicative
profonde come quando si passò dal parlato allo scritto e dallo scritto allo stampato, è
stato necessario un lungo periodo di adattamento. Il passaggio dal parlato allo scritto è
durato diversi secoli nel corso dei quali tutta la società si è trasformata nel
profondo. Noi non sappiamo molto bene come questo processo sia avvenuto, abbiamo dei punti
di riferimento ma non ci è tutto chiarissimo. Per capire bene quello che è successo nel
passaggio dal parlato allo scritto è necessario arrivare quasi al Medio Evo, a
Cassiodoro. Siamo in grado di capire meglio cosa sia successo nel passaggio dallo scritto
allo stampato. Anche a questo riguardo si studia levento con una notevole dose di
ingenuità; si tende a far coincidere Gutemberg, le sue Bibbie a 36 linee con l'esplosione
della stampa: questo non è vero.
Domanda 7
Cosa manca a questa analisi dellera tele-elettrica?
Risposta
Il fenomeno della stampa è assolutamente sottovalutato e, in generale, non viene
esaminato nella sua totale complessità. Ha richiesto non pochi anni, ma diversi secoli
per essere assorbito. Per utilizzare la stampa serviva la carta. La carta non poteva
essere costruita nel 1500, nel 1600 a costi modici per larghi consumi come accade oggi,
perché veniva fatta con degli stracci ed era costosissima. Era addirittura considerato
reato distruggere il libro o una qualunque cosa fatta con carta. Solo nel 1800, con
lavvento della pompa di legno, si riuscì a costruire la carta con criteri
industriali e da lì ci fu lesplosione della carta. Cera però un problema
più grave: il livello di alfabetizzazione. Chi sapeva leggere? Nel 1400-1500 forse il 3%
della popolazione era in grado di leggere un testo. E la lingua ufficiale era il latino,
non erano nemmeno le lingue nazionali. La stampa ha costretto lumanità a
riorganizzarsi inventando, in sostanza, la scuola come la conosciamo oggi, con i criteri
della scuola attuale. Cioè una scuola lineare, testuale, con prove, con ragazzi tutti
della stessa età, che fanno gli stessi studi organizzati in una certa maniera, con dei
criteri di organizzazione simbolico-ricostruttiva - da un simbolo devo ricostruire
mentalmente il concetto - su cui abbiamo basato lessere della nostra cultura nel
corso degli ultimi 3-4 secoli. Un dato di riferimento: lInghilterra di Gutemberg
aveva 30 scuole, lInghilterra di Shakespeare ne aveva quasi mille. Questa esplosione
di scuole era legata a un fatto ben preciso: lapparizione della stampa. Cito
Shakespeare perché anche qui è interessante fare unosservazione: tutti guardiamo a
Shakespeare come al massimo scrittore del mondo occidentale. Di solito, quando si fa il
cosiddetto canone della letteratura occidentale, al centro cè Shakespeare e accanto
cè Darwin. Ma la maggior parte della gente dimentica che Shakespeare non era uno
scrittore, era soprattutto un drammaturgo, un autore di testi teatrali, un attore egli
stesso. La stampa si è impadronita dei suoi testi e ha fatto di Shakespeare quello che
Shakespeare era, ma non bisogna dimenticare che Shakespeare sostanzialmente recitava,
tanto per capire quale ruolo avesse ancora il parlato in una cultura di questo genere. Se
ci sono voluti secoli di alfabetizzazione, se cè voluta la costruzione di una
scuola simbolico-ricostruttiva, di cosa cè bisogno oggi in un mondo come quello di
Internet, in cui il profano che entra dentro al Ciberspazio trova di fronte a sé miliardi
di informazioni apparentemente scollegate tra loro, ma potenzialmente fruibili
istantaneamente? La fruizione non può essere istantanea, non esiste nemmeno un concetto
di prospettiva che possa aiutare a guardare attraverso linformazione.
Allenorme esplosione di informazioni del 1500, non soltanto dal punto di vista
testuale ma anche architettonico e pittorico, ha corrisposto una scoperta fondamentale:
quella della prospettiva. Oggi non vedo un Leon Battista Alberti che sia in grado di
scrivere un volume che definisca i criteri della prospettiva dellinformazione
allinterno del Ciberspazio. Si sa che nel Ciberspazio si naviga, ma non se ne ha
percezione della profondità. E questo è qualcosa che sconcerta la persona intelligente,
che ci riflette. Non a caso, e cito questo dato perché è veramente interessante, la
persona che prima di altri ha intuito che questo sarebbe successo è James Joyce. Nel
"Finnegans wake" descrive proprio questo mondo tele-elettrico e conia una
parola, "Chaosmos", che è la sintesi di Chaos e Cosmos, un mondo, che è il
mondo di Internet, che lui non conosceva, ma un mondo in cui tutte le entità vengono a
concorrere. Una delle cose che mi fa maggiormente riflettere in questi anni, è che i
tecnologi mettono a disposizione un mondo fantastico, costituito da una grandissima
quantità di dispositivi, però poi non ne hanno quella di visione di sintesi che hanno
gli artisti. Se oggi dovessi chiedere a qualcuno: "ma che cosa cè veramente
lì dentro?", lo dovrei chiedere a Umberto Eco, lo dovrei chiedere a Thomas Pynchon,
lo dovrei chiedere a James Joyce. Questi sono i giganti che sono in grado di dare la
visione istantanea di quello che sta succedendo, anche se, per il momento, non riescono
nemmeno loro a fare quello che ha fatto Leon Battista Alberti: un manuale della
prospettiva dellinformazione nel ciberspazio.
Domanda 8
Come si trasforma il processo formativo delle conoscenze con lutilizzo delle nuove
tecnologie come Internet?
Risposta
Oggi tutti sono convinti che si debba prendere Internet, con la sua straordinaria
ricchezza, e metterla in mano a un bambino perché il bambino così, come in un
videogioco, impara a correre attraverso Internet, navigando a destra e a sinistra, e
simulando le più diverse realtà. Questo potrebbe essere anche affascinante, però è
assolutamente contraddittorio, se non fatto bene, con un sistema scolastico intellettuale
educativo che è del tutto opposto. Il sistema di Internet è un sistema
percettivo-motorio, consentitemi di chiamarlo così, assolutamente antitetico a un sistema
simbolico-ricostruttivo basato sulla parola come quello della scuola. Quando io ero
bambino, mi ricordo, linsegnante delle elementari diceva a mia madre: "Signora,
lo faccia leggere, perché lui deve ricostruire mentalmente le immagini. Suo figlio deve
leggere, perché solo attraverso la lettura sarà in grado di ricostruire con la sua
fantasia quello che legge e quindi riproporre a se stesso questo mondo". Ed è questa
la grande forza del sistema concettuale che noi abbiamo costruito nel corso degli ultimi
7-800 anni. Noi produciamo manuali di istruzioni, che diamo a migliaia di ragazzi. Da
questi essi evincono linformazione e la ricostruiscono simbolicamente per loro
stessi.
Adesso questo sistema non può essere preso, buttato via, alienato, e sostituito da un
sistema che, per quanto raffinato, interattivo, è antitetico ad esso. Ma è anche vero
che noi non possiamo ignorare il contributo straordinario che Internet, il computer, la
televisione, diciamo, in generale, questa lingua tele-elettrica ci consente di avere per
vedere un mondo che altrimenti non vedremmo perché, ahimè, noi siamo vincolati a due
realtà: il troppo grande e il troppo piccolo. Il troppo piccolo e il troppo grande non
possiamo vederli e come riusciamo a fantasticarli? Abbiamo una specie di
telescopio-microsocopio che ci consente di entrare in questi mondi. Questo è il computer,
la realtà virtuale, la simulazione, la matematica, ovvero quel complesso di discipline
che dovrebbero consentire un ulteriore salto di quantità e di qualità alla nostra
capacità di apprendimento che sembra essere pressoché infinita, e che si sposa con un
evento straordinariamente bello: la comprensibilità del mondo. Il mondo nella sua
assurdità in realtà è comprensibile. Einstein diceva che molto spesso gli facevano la
stessa domanda su quale era la cosa che maggiormente lo aveva stupito nel corso della sua
carriera e lui regolarmente rispondeva: "Il fatto che luniverso sia
comprensibile". Immaginate un universo non descrivibile, un universo che non abbia
regole, un universo che io non riesco a descrivere. Il mondo deve avere una logica perché
altrimenti non è trattabile. Ecco, questa logica però è molto complessa. Attualmente il
computer ci consente di fare un passo avanti e allora la mia idea è la seguente: Internet
e tutto quello che vi è intorno, è qualcosa di straordinariamente bello e complesso. Sta
però a noi riuscire a dotarci di un corretto livello di alfabetizzazione per poter
integrare tutto ciò nel solco di una tradizione intellettuale e culturale che sposi
quanto di bene cè stato con quanto ci sarà. Quindi non alienare i sistemi
educativi tradizionali ma integrarli, complementarli. Recentemente sono stati pubblicati
dalla rivista "Telema", come su altri testi, i dati relativi alle prove fatte in
Inghilterra, negli ultimi anni, sullutilizzo di Internet nelle scuole. A distanza di
10-12 anni indicano con chiarezza che la penetrazione di Internet e del computer nelle
scuole elementari non è stata un successo. Viceversa è stata un grandissimo successo nel
liceo. Daltro canto è stato un ottimo strumento per gli insegnanti. Quindi su
queste cose bisogna ragionare con estrema cautela per vederne le potenzialità, capirne i
rischi, vederne i limiti e lavorare con grande capacità critica. Io credo che noi siamo
di fronte a qualcosa di straordinariamente bello, ma anche di straordinariamente complesso
e quindi come tale di pericoloso. Si aprono davanti a noi delle possibilità formidabili e
dobbiamo rivedere profondamente i nostri schemi educativi, il che comporterà un periodo
di transizione, non so se lungo come quello del libro, ma che sicuramente non si esaurirà
nel giro di qualche anno.
Domanda 9
Lei crede che la straordinaria capacità che il computer ha di gestire i dati rispecchi la
capacità del cervello umano. Si può considerare il computer unestensione del
cervello umano o cè una differenza strutturale per cui nel passaggio al computer si
deve rivedere la capacità organizzativa della propria mente?
Risposta
Innanzitutto non cè dubbio che la struttura mnemonica del computer è costruita
dallindividuo. Quindi rispetta certe regole algoritmiche che luomo ha
costruito. Sta di fatto che linfrastruttura mnemonica che luomo ha costruito
per il computer non riflette integralmente la infrastruttura mnemonica dellindividuo
perché quella ci è ignota. Noi non sappiamo come memorizziamo, è un processo
straordinariamente complesso e il suo modo di funzionare sostanzialmente ci sfugge. Non
sappiamo dove è localizzata la memoria, intuiamo che è distribuita, non sappiamo come si
distribuisce, in parte sembra elettrica, in parte sembra chimica, in parte sembra emotiva,
in certe cose sembra distribuita sulla zona destra, in altre sulla zona sinistra, la sua
mappatura oggi ci sfugge completamente e potrebbe anche essere che ci sfugga per sempre
perché non è detto che il cervello sia in grado di conoscere sé stesso.
Ricordo che quando studiavo Meccanica Quantistica e dovevo studiare il comportamento degli
elettroni facevo unenorme fatica a studiare i teoremi di Meccanica Quantistica per
la loro eccessiva astrattezza. Dicevo a me stesso: "Ma tu guarda che cosa strana che
è la vita. Io ho un cervello che funziona sulla base degli elettroni, che si muovono nel
mio cervello, e in questo momento stanno lavorando freneticamente per farmi capire come
essi stessi funzionano". E questa specie di serpente che si mordeva la coda, mi
lasciava totalmente sorpreso. Pensavo che fosse quasi impossibile che un elettrone capisse
il suo stesso funzionamento. Oggi che la nostra mente sia in grado di capire come essa
stessa funzioni al completo, mi sembra anche abbastanza azzardato. Speriamo che una mente
collettiva sia in grado di farlo. In ogni caso, la possibilità di avere una memoria molto
raffinata, costruita da noi, è sicuramente alla nostra portata.
In secondo luogo attualmente noi riusciamo con il computer a fare soltanto una cosa
veramente originale che è quella di gestire enormi quantità di dati quasi
istantaneamente per estrarre da questi dati delle forme o, come dire, delle
sottoaggregazioni che possono semanticamente risultare significative se riconosciute.
Adesso si può dire a un computer: "Questo è lelenco telefonico, dimmi tutti
quelli che si chiamano Paolo e il cui numero comincia per 3 ?" E una ricerca
noiosissima che un uomo porta a termine dopo 20-25 giorni. E chiaro che il computer
una ricerca di questo genere la fa nel giro di pochi secondi perché ha una tale velocità
circuitale - semantica non ce nè per cui prende i Paoli, prende i
3, li mette insieme e mi dà la risposta.
Oggi ci sono poi altri tipi di problemi che stanno emergendo. La domanda è: come questo
tipo di struttura può integrare la mente umana ? Lintelligenza collettiva che noi
stiamo costruendo gioca essenzialmente su un concetto di connettibilità reciproca. La
grande difficoltà dellintelligenza collettiva è che noi ci connettiamo con tanti.
Apro una parentesi - non voglio assolutamente essere in questo né darwinistico né
riduttivo nei confronti delluomo - dicendo che sostanzialmente siamo scimmie.
Fisicamente non siamo poi tanto diversi da una scimmia. Se io guardo uno scimpanzé e
guardo un essere umano, posso fare delle associazioni. Certo la scimmia non sa parlare,
però se guardo con attenzione il comportamento di una scimmia, mi accorgo che le scimmie
hanno dei comportamenti realmente interessanti dal punto di vista sociale. Le scimmie
evolute, passano unenorme quantità di tempo a spulciarsi reciprocamente.
Qualè la finalità di unattività di questo genere? Ovviamente la
socializzazione. Noi non ci spulciamo, ma abbiamo un attività più o meno simile: è
quella della conversazione così, basata su niente, il conversare fine a sé stesso. Noi
conversiamo per il puro piacere di conversare. Il racconto è ciò che ci interessa, i
dettagli della vita giorno per giorno. Se si scolta la conversazione di persone non
conosciute ci si accorge che parlano di niente, ma solo apparentemente perché in realtà
socializzano. Questa socializzazione è basata su connessioni, connessioni reciproche, che
nelle scimmie portano a dei gruppi di 20-30-40 individui e il cervello è strutturato per
gestire 20-30-40 individui. Nellessere umano la neocorteccia cerebrale è
strutturata, e questo sembra dimostrato scientificamente, per un numero limitato di
connessioni, alto sì, ma non oltre alle 150-200 persone. Non è casuale che nessuna
unità bellica superi le 150-200 unità. Poi certo cè tutto lesercito ma
lunità bellica fondamentale è sempre fatta di 150-200 persone. Lazienda
senza gerarchia, lazienda cosiddetta totalmente piatta, è fatta di
150-200 persone. Quella sembra essere la comunità elementare umana perché sembra che non
siamo in grado di tenere più connessioni, globalmente, di 150-200, che sono tantissime
nel numero di casi possibili. Allora, se oggi noi ci troviamo di fronte a una società con
una connettibilità di 200.000.000 di persone, tutte raggiungibili via Internet, si pone
un problema di gestione di questa connettibilità molto diverso: è difficile che io vada
a fare certi tipi di analisi mentalmente, perché non è proprio possibile. Non si tratta
di trovare in un elenco tutti quelli che si chiamano Paolo, il cui numero comincia per 3,
ma bisogna affrontare ben altri problemi.
Domanda 10
Può farci altri esempi riguardo ciò che la memoria computer consente di fare?
Risposta
Prendiamo la Telecom, tanto per fare un esempio. La Telecom che gestisce le reti, ha
tantissimi utenti che hanno il telefono e una frazione di utenti che hanno il Fax. Adesso
la Telecom decide di fare una campagna pubblicitaria di questo tipo: "Se tu usi tanto
il Fax, comprati una seconda linea". Alcuni utenti ne fanno uso, altri no. La Telecom
possiede i tabulati di tutte le telefonate, da A a B, da C a D, da 1 a 3, da 7 a 21
milioni di incroci di telefonate: come fare da questo a evincere chi sono quelli che hanno
il fax e quelli che non lo hanno? Però questi dati li ha in un archivio. Questa memoria
esiste, tutte le informazioni sono state memorizzate e si può ottenere la capacità di
estrarre dallarchivio questa informazione significativa. A mano è impossibile,
mentalmente altrettanto. In un mondo di estesa connettività come quello che ci propone
lintelligenza connettiva, i link fra le persone e le loro attività sono tantissimi.
Luomo non potrà gestirli. Allora, i sistemi mnemonici dei computer, che devono
essere dotati di due elementi, uno passivo, il deposito delle informazioni, organizzato in
un certo modo, e quello attivo, lalgoritmo che estrae le informazioni, possono
diventare così sofisticati da comunicarmi il dato che mi interessa. E in America il
business se ne è accorto. Un caso per tutti, che ormai è conclamato su tutti i libri, è
lassociazione birra-pannolini. Hanno fatto questa scoperta qualche anno fa quelli
della Warmard. Hanno fatto una ricerca nellarchivio per sapere quali prodotti si
vendono contemporaneamente e hanno scoperto che, chi compra il giovedì sera, compra
stranamente birra e pannolini. Per un supermercato con 40.000 prodotti, questo è un dato
significativo.
Quale prodotto va con quale? Giovedì sera a casa con un bambino piccolo: pannolini e
birra. Perché? Perché il giovedì sera la moglie va dal parrucchiere o perché il
venerdì sera esce. E chi va a fare la spesa ? Il marito. E il marito che fa? Compra i
pannolini! Come pensa ai pannolini, dice: "Sì, ma sabato sono a casa e guarderò lo
sport, quindi mi serve anche la birra". Che hanno fatto quelli della Warmard? Hanno
messo pannolini e birra proprio attaccati alle casse.
Lasciate perdere il supermercato, prendete una struttura genetica e immaginate quale gene
va con quale in quale malattia e vi accorgete che tipo di scenario molto più interessante
si può aprire.
I 66.000 geni che compongono il corpo umano non sono mica mappabili così facilmente.
Provate a porvi questa domanda: quale associazione di quale gene con quale altro gene in
quale ambiente chimico dà luogo a questo rischio di malattia? Non dimentichiamoci che la
cosa straordinaria di questo secolo, la più straordinaria di tutte, è il raddoppiamento
della vita umana. Il 1900 è cominciato con unetà media di 45 anni e termina con
unetà media di 90 anni passando attraverso due fasi fondamentali: il controllo
delle malattie infettive, 1900-1950, il controllo delle malattie degenerative fatto con
chimica e chirurgia fra il 1950 e il 2000. E si assiste adesso allesplosione della
chimica in tutti i generi: mal di testa, felicità, desiderio, assenza di desiderio, noia,
Prozac, piuttosto che altri prodotti.
Ma qual è il futuro della medicina? E lo sposalizio col computer. Per avere queste
memorie che mi consentono di mappare il mio genoma, vederlo e consentire un nuovo tipo di
aggressione alle malattie degenerative: unaggressione rigenerativa. Credo che forse
il contributo più fantastico che il computer poteva dare, ma anche il più dirompente, è
una sorprendente estensione della vita umana che valuto di almeno 50 anni. Per cui,
intorno al 2030-2040, non sarei stupito se la vita umana arrivasse a 140-150 anni, con
delle conseguenze che non oso nemmeno immaginare, tanto non mi toccano perché io non ci
sarò purtroppo. La memoria del computer è un grande deposito, su cui stiamo inserendo
algoritmi estremamente significativi estremamente sofisticati, per riconoscere
combinazioni complesse che altrimenti ci sfuggirebbero e da cui potremo fare delle
scoperte semantiche straordinarie.
Domanda 11
Rispetto allarrivo dellanno 2000: qual è veramente il rischio che corre
lItalia visto che finora non sono stati presi dei provvedimenti seri?
Risposta
Il problema dellanno 2000 è sicuramente un problema serio. E un problema
reale che va affrontato. Con una punta di vanità, devo dirlo, circa 10 anni fa scrissi un
articolo sul problema dellanno 2000. Questo perché ho lavorato molto presso in
centri di una certa dimensione. Ricordo che allinizio degli anni 70, in una
grossa banca a Roma, ebbi un problema di un sistema che si era bloccato e non si riusciva
a capirne il perché. Si scoprì poi che un programmatore non aveva tenuto conto che
Febbraio era un mese bisestile e quindi comprendeva pure il 29 febbraio. Adesso la cosa
potrà far sorridere, però laveva programmato come se il Febbraio fosse di 28
giorni. Per due anni è andato bene, il terzo anno è capitato un 29 febbraio che non
essendo previsto ha fatto fermare il programma. Così si è fermata tutta la procedura e
abbiamo dovuto fermare tutta lapplicazione, con conseguenze che, lo ammetto, furono
abbastanza antipatiche. Questa esperienza mi lasciò un tarlo che per anni mi ha roso e di
tanto in tanto la vedevo riaffiorare qua e là su qualche rivista specializzata, oppure in
qualche articolo: "Un giorno arriverà lanno 2000". Poiché io ho
cominciato a programmare e ho programmato seriamente, nel senso che ero analista di
sistema e quindi ho scritto programmi abbastanza complicati già a partire della metà
degli anni 60, sapevo che uno dei vincoli fondamentali degli anni 60 era
scrivere programmi estremamente piccoli, compatti; la bravura del programmatore era quella
di fare il programma più corto possibile e anzi, era una forma di virtuosismo. Tra di noi
si scherzava, nel settore in cui lavoravo io, su chi una certa routine la faceva più
corta agli altri.
Questo virtuosismo che sembrava allora una cosa bellissima, col tempo è diventato
veramente una cosa molto pericolosa. Il contrarre la data finale da quattro posizioni xxxx
in yy, scrivendo non 1999 ma 99, alla fine degli anni 60 non venne neppure
considerato un problema tanto era lontano il 2000. Ma il 99 è venuto. E adesso che
cosa potrebbe succedere, tanto per spiegarlo al profano. Tante procedure ma anche tanti
pezzi di software di sistema trovano 00 invece di 90. Il computer che vede 00, non avendo
capacità semantica, come interpreta 00 ? Potrebbe essere che per lui 00 voglia dire 1900.
In realtà, per essere maliziosi e rendere lo scenario ancora più terrificante possiamo
fare un altro esempio: tutti parlano del famigerato anno 2000 ma ben pochi pensano che
cè una data che precede lanno 2000, che in piccola misura è altrettanto
critica, ed è il 9 settembre del 1999, che si presenta quasi tre mesi prima. In un
programma viene scritto 9-9-99. Per molti programmatori 9-9-99 "fa tappo", come
"fa tappo" 0-0-00. Quindi delle belle potremmo vederle anche il 9-9-99.
Sono diversi anni che si sta lavorando, non soltanto a livello di applicazioni, ma anche a
livello di software di sistema, per individuare dove questi problemi siano avvenuti.
Alcuni sono avvenuti anche in software di macchina, e sono stati costruiti dei supporti
atti a individuarli quasi automaticamente. In alcuni paesi che sono più avanzati per
tradizione cè labitudine a fare le cose in maniera preventiva. LItalia,
per sua tradizione, tende a fare le cose allultimo momento. Però io mantengo un
sostanziale ottimismo italiano, una certa fiducia italiana. Ci sarà pure qualche
sbavatura, qualche intoppo, però non prevedo che sarà lavvenimento drammatico che
tutti si immaginano.
Ci saranno certo 2-3 settimane veramente infernali per chi dovrà fare le ultime
correzioni. Ci sarà un po di sofferenza, ci troveremo di fronte a qualche
situazione anomala, ma credo che globalmente si troverà una sistemazione. Certo che una
situazione del genere non va sottovalutata e nessuno la sta sottovalutando. Io vedo che i
gruppi, soprattutto finanziari e assicurativi, stanno ponendo a questo problema ormai
unattenzione semplicemente frenetica. Non dimentichiamoci che cè anche un
aspetto giuridico oltre che economico da considerare e che può avere conseguenze negative
su molte persone. Quindi io sono sostanzialmente ottimista e ritengo che, in extremis, il
problema dellanno 2000 verrà risolto.
|
|