INTERVISTA:
Domanda 1
Lei ha lavorato per tanti anni alla Ibm. Ha seguito l'evoluzione e il passaggio dalle
grandi macchine a quelle più piccole. Ci può raccontare quali sono stati i passaggi
attraverso i quali si è passati da macchine molto ingombranti a macchine sempre più
potenti ma di dimensioni sempre più piccole?
Risposta
Per affrontare in maniera corretta questo argomento, occorrerebbe definire con molta
chiarezza cosa si intende per macchina grande. C'è infatti un po' di confusione o di
ambiguità dovuta al fatto che trent'anni fa le macchine grandi erano veramente grandi
come dimensioni.
Oggi le cosiddette macchine grandi sono ancora grandi in un certo senso ma non perché sia
grande la parte elettronica. La parte elettronica si è ridotta in maniera massiccia.
Quella che noi definiamo come grande macchina è la macchina che viene costruita con la
tecnologia di punta di quel momento. La grande macchina di oggi non è qualcosa che
è grande fisicamente: è grande nelle prestazioni. Venti, trent'anni fa essere grandi
nelle prestazioni voleva anche dire essere grandi come dimensioni.
L'evoluzione per così dire dal "grande" al piccolo è passata attraverso un
certo numero di fasi nel corso degli ultimi 40-50 anni, molto ben identificate.
Inizialmente al computer serviva uno strumento in grado di commutare i segnali e questo è
stato per molto tempo la valvola. Se si pensa che un computer di media taglia doveva
essere fatto con qualche decina di migliaia di valvole, si può facilmente immaginare
quale colossale dimensione può assumere un computer. La svolta radicale è avvenuta con
l'avvento del transistor a cavallo degli anni '50. Il transistor è stato
identificato come dispositivo operante nel Natale del 1947 da Bardeen, Brattain e Shockley
ed è entrato più o meno in produzione all'inizio degli anni '50.
Per quanto riguarda i computer c'è voluto più tempo. Nella seconda metà anni '50
abbiamo assistito alla prima apparizione dei transistor all'interno dei computer. Il
transistor veniva utilizzato come componente circuitale molto evoluta, ma resistenze,
induttanze, capacità venivano ancora costruite con metodologie classiche quindi i
computer erano tecnologicamente ibridi e ancora grandi come dimensioni.
Domanda 2
Qual è stato il secondo grande passo verso la miniaturizzazione delle macchine?
Risposta
Il secondo grande passo verso la miniaturizzazione è avvenuto a metà degli anni '60 con
l'avvento dei circuiti integrati. Vale a dire la capacità di costruire sul silicio non
solo il componente attivo, il transistor, ma anche i cosiddetti componenti passivi.
Questo, da metà degli anni '60 fino all'inizio degli anni '70, è stato l'elemento
centrale della miniaturizzazione: utilizzare la sabbia, cioè il silicio, per costruire
tutta la parte logica del computer, non la memoria. La memoria ancora per molti anni è
rimasta al di là delle possibilità di costruzione definibile come
"transistorica". Veniva costruita con degli anellini piccoli di ferrite che
venivano magnetizzati. Era un lavoro molto complesso e i costi della memoria erano
assolutamente esorbitanti. Una macchina che aveva una potenza di calcolo di 1/10 di
milioni di istruzioni, con una capacità esecutiva di 10.000 istruzioni al secondo, con
32.000 posizioni di memoria, costava all'epoca in Italia, cioè nel 1966-67, qualche cosa
come 8-900 milioni. La stessa macchina, identica, con un raddoppio di memoria, da 32.000
posizioni a 64.000 posizioni, superava il miliardo e sei. Questo per dirle che 32.000
posizioni di memoria a nuclei di ferrite costavano centinaia e centinaia di milioni.
Dunque uno dei vincoli fondamentali dell'informatica degli anni '60 era non solo
miniaturizzare i circuiti ma soprattutto miniaturizzare i programmi, farli più brevi,
più corti possibili perché occupassero meno memoria possibile. Da questo discende il
cosiddetto problema dell'anno 2000 legato al fatto che nel corso degli anni '60 moltissimi
programmatori per risparmiare hanno utilizzato solo 2 byte e invece di scrivere 1999,
hanno scritto 99. E' chiaro che il passaggio a 00 potrebbe comportare il passaggio a 1900
così come a 2000. Ed era legato alla tecnologia utilizzabile, che era a nuclei di
ferrite. La memoria a nuclei di ferrite non si prestava a miniaturizzazioni e quindi non
consentiva di costruire macchine particolarmente piccole, anche se, di converso, la parte
attiva della macchina, cioè la parte circuitazione, veniva miniaturizzata molto più
rapidamente. D'altro canto non bisogna nemmeno immaginare che la memoria a nuclei di
ferrite sia stata abbandonata così rapidamente a favore dei transistor anche quando
questi sono apparsi utilizzabili per la parte memoria della macchina. Pochi lo sanno ma i
primi shuttle che sono stati messi in orbita avevano dei computer di bordo molto
sofisticati, che però non utilizzavano memorie a transistor, ma memorie a nuclei di
ferrite. Questo perché? Perché la radiazione Alfa e in generale il processo delle
particelle cosmiche è così elevato a quelle quote, che la schermatura delle memorie a
transistor, richiedeva delle tecniche molto sofisticate e dei pesi piuttosto elevati.
Quindi si è arrivati al paradosso che alcuni dei computer più evoluti, più raffinati
alla fine degli anni '70, inizio anni '80, continuavano comunque a mantenere questa
tecnologia a nuclei di ferrite che sembrava totalmente desueta per l'epoca.
Domanda 3
In che periodo possiamo allora situare la fase successiva?
Risposta
Direi che a metà degli anni '70 c'è stato il terzo grande passaggio: l'unificazione
delle memorie e dei circuiti integrati in un'unica strutturazione, sempre il silicio, che
consentisse di costruire tutto partendo dalla sabbia. A quel punto lì il processo di
miniaturizzazione ha preso il largo con un impeto formidabile e si è poi tradotto in
quella che viene chiamata la legge di Moore, di Gordon Moore, che è stato uno dei primi
ricercatori e progettisti dei circuiti integrati. Questa legge che non è una legge
matematica ma è piuttosto il riconoscimento di un fenomeno statistico, sostiene che ogni
18 mesi, a parità di costo, la potenza del computer e la sua memoria di fatto
raddoppiano. In altri termini questo vuol dire che ogni 10 anni il computer migliora, a
parità di costo, di 100 volte la sua capacità elaborativa, sia essa capacità di
esecuzione di istruzioni o capacità di memorizzazione. Questo significa anche che, nel
corso degli ultimi trent'anni, i computer, a parità di costo, hanno migliorato
enormemente il loro rapporto prezzo-prestazioni. Le loro prestazioni sono migliorate di un
milione di volte. Ecco perché noi vediamo apparire sul tavolo di tutti quanti macchine
molto piccole in grado di fare cose meravigliose. Questa tecnologia consente anche di
creare microprocessori ancora più complessi per le cosiddette macchine grandi, che pur
non essendo enormi come quelle di un tempo mantengono comunque certe dimensioni dovute
soprattutto ai gruppi di alimentazione e ai gruppi di raffreddamento. Se si concentra un
numero sempre maggiore di circuiti in uno spazio di dimensioni sempre più piccole, è
chiaro che il problema dell'alimentazione e della dissipazione del calore diventa
esplosivo. Oggi si costruiscono microprocessori sempre più densi, i cui circuiti
impegnano sempre meno corrente ma il cui numero cresce così vertiginosamente che alla
fine il singolo chip produce più calore di un ferro da stiro. E bisogna alimentarlo e
raffreddarlo.
Quindi i gruppi di alimentazione diventano esorbitanti. Se c'è un limite nell'informatica
dell'avvenire, è proprio quello dell'alimentazione. Tutti coloro i quali usano
pesantemente i personal computer sanno che l'autonomia di un PC non è molto elevata. No
si può pensare di prendere un computer, fare un viaggio transoceanico di 8 ore con le
batterie che abbiamo oggi a disposizione che mi consentono di lavorare un'ora, un'ora e
mezza nella migliore delle ipotesi. Di conseguenza si ha bisogno di un cavo che connetta
il computer all'alimentazione. Nel futuro le cose non miglioreranno di molto. Ci saranno
infatti miglioramenti nell'alimentazione a batteria, ma non pari al livello di
miniaturizzazione. Questo perché nel corso dei prossimi 10-15 anni si manterrà più o
meno il ritmo attuale, cioè si dimezzerà o si aumenterà la quantità di circuiti ai
ritmi precedenti. A 15 anni da oggi immaginiamoci macchine, a parità di costo, 5000 volte
più potenti di quelle attuali. Questo a grandi linee lo scenario. Possiamo dire che il
processo di miniaturizzazione è ancora in atto, e che la distinzione macchina grande
macchina piccola non è tanto nella dimensione della macchina, ma piuttosto nella
complessità. Il disegno delle macchine di oggi è molto più complesso e sempre maggiore
il numero di utenti che queste macchine devono gestire.
Domanda 4
Un altro problema da risolvere è quindi quello dell'alimentazione di queste macchine?
Risposta
L'alimentazione è un po' il nodo gordiano da sciogliere se si vuole fare del computer uno
strumento veramente diffuso. Per questo si può immaginare il computer del futuro come una
scheda con un microprocessore come una carta di credito, o come le smart card.
La cosa interessante è che questo microprocessore di potenza crescente può essere la
chiave di volta dell'informatica del futuro perché rende il computer veramente
trasportabile. Posso inoltre averne più di uno in tasca, posso prenderlo, posso entrare
in un albergo, utilizzarlo in telefoni speciali. Per esempio al Cebit di Amburgo, nel
corso dell'ultima mostra del maggio-giugno '98 sono stati presentati dei telefoni
particolari. Sono simili a quelli a tastiera attuali ma c'è lo spazio per far scorrere il
microprocessore. Questo trasferisce le informazioni a un grande computer connesso alla
Rete che riconosce l'utente, le sue caratteristiche, i suoi file. Con questa carta nel
portafoglio posso lavorare senza trascinarmi dietro un accumulatore che pesa 3-4 chili.
Si può controbattere che questa carta sia facile da perdere. Ma se la perdo, come per una
carta di credito, basta telefonare e farla annullare e probabilmente me ne daranno una di
riserva che ricostruisce tutta la mia situazione. Quindi io credo profondamente che stiamo
andando, come è stato anche detto da un'indagine svolta dall'Economist, verso una
nuova forma di "pervasive computing", ovvero verso un tipo di elaborazione dati
utilizzata da tutti in qualunque punto del globo attraverso i telefoni cellulari, le smart
card, i personal computer, i giocattoli, la televisione dotata di "set-top box",
insomma attraverso tutta una serie di dispositivi che mi consentono di connettermi a dei
poli molto più intelligenti, che sono in grado di trasmettere le informazioni. Si può
parlare di una generale forma di intelligenza collettiva. Questo secondo me è il limite
della miniaturizzazione le cui conseguenze nel futuro prossimo sono facilmente
immaginabili. Si arriverà a "wearable computer", a microprocessori indossabili.
Oppure si può anche immaginare che un domani il microprocessore sia collegato a una zona
del cervello. Mi sembra che dal punto di vista sensoriale questo sia già un buon limite
da raggiungere.
Domanda 5
Quindi è grazie, per esempio, a carte di questo tipo e a questi sistemi che lei ha appena
descritto, che si realizza veramente una convergenza al digitale di tutti i diversi media
?
Risposta
Io stesso ho scritto, e me ne dolgo, di una convergenza telefono-televisione-computer
in un unico dispositivo. Qualche anno fa lo credevo, oggi non lo credo più. Oggi credo
che di aver commesso proprio un errore logico-strutturale. Non ho timore ad affermare che
tutto sommato mi sento anche io un darwinista, almeno culturalmente. Penso che il
Darwinismo abbia spiegato molte cose nell'evoluzione di sistemi biologici e che abbia dato
una chiave di lettura di fenomeni che altrimenti, secondo me, sarebbero incomprensibili.
Inoltre penso che il Darwinismo spieghi molto bene fenomeni analoghi alla biologia: ad
esempio la fenomenologia dell'informatica o della tecnologia in generale, ricorda molto la
fenomenologia della biologia. La tecnologia e la biologia hanno infatti aspetti simili.
Però nella biologia difficilmente due entità biologiche convergono verso un'unica
entità. E' difficile trovare un cane che vola o, che so io, un gatto che nuota come un
pesce. Queste convergenze la biologia non le consente. La biologia infatti secondo i
concetti fondamentali darwiniani, procede per occupazione di nicchia disponibile da parte
di quello che Darwin definisce "the fittest", il più adatto. Ecco, io credo che
nell'informatica e nella tecnologia esista un concetto analogo. A mio avviso è corretto
pensare che così come esistono diverse nicchie biologiche esistono anche diverse nicchie
informatiche, nel mondo dell'informazione, ciascuna delle quali è popolabile da un certo
tipo di dispositivi che sono particolarmente idonei a occupare quella nicchia. E' inoltre
corretto dire che tutte le nicchie concorrono a definire lo scenario generale, come un
ecosistema biologico. Prevedo che in futuro la realtà dell'informatica o
dell'informazione sia una sorta di ecosistema informativo, una forma di intelligenza
collettiva, nella quale soprattutto le reti, le memorie, i microprocessori coesistono su
dispositivi differenziati ma che, in maniera complementare, forniscano all'individuo le
risorse di cui ha bisogno. Nel mondo del media-testo, c'è il giornale, c'è la rivista,
c'è l'opuscolo, c'è il depliant, c'è il libro, c'è l'enciclopedia. Queste sono forme
differenziate che dimostrano che non esiste soltanto un unico elemento testuale. Allo
stesso modo io credo che nel mondo della intelligenza tele-elettrica esisteranno
dispositivi differenziati e l'utilizzo delle smart card è uno di questi.
Domanda 6
Questa sorta di dialogo fra i vari mezzi di comunicazione, questo "ecosistema
informativo" implica per l'utente singolo un aumento delle possibilità di
connessione e di comunicazione. Tutto questo però che cosa comporta rispetto alla
gestione dell'informazione?
Risposta
Per il singolo così come per l'organizzazione medio-grande, significa la possibilità di
attingere a quella che io ho chiamato una forma di "intelligenza collettiva".
L'ho chiamata così perché quando ho cominciato a lavorare sui computer nel 1965 c'era il
mito dell'intelligenza artificiale. Il computer era considerato il cervello elettronico.
Con entusiasmo sui giornali di allora si parlava di questa nuova forma di intelligenza.
Oggi pochi credono che l'intelligenza artificiale sia alla nostra portata. Non si sa bene
quello che succederà però pochi credono che il computer possa a breve o a medio termine
diventare un'entità creativa. Quello, però, che si sta concretizzando è un'altra forma
di intelligenza a cui nessuno aveva pensato, una forma di intelligenza collettiva, non
creativa o autonoma, ma comunque così ricca, così variegata, così efficiente che ci
ricorda, in un certo senso, quanto è avvenuto nel Rinascimento con l'avvento della stampa
e, direi, nell'Atene di Pericle, con l'avvento della scrittura. Questi furono momenti
fondamentali di passaggio della cultura umana da un mezzo di comunicazione a un altro
infinitamente più ricco che non uccide il precedente ma che in un certo senso lo ingloba,
lo trasforma, lo adegua ad un nuovo scenario, e che richiede da parte della società un
periodo di transizione e di adattamento.
Oggi noi ci accorgiamo immediatamente di un fatto: la massa di informazioni che sono a
nostra disposizione cresce vertiginosamente. L'informazione oggi assume delle
caratteristiche, oserei dire, virali. Si distribuisce con una rapidità fenomenale. Gli
Americani per questo usano un'espressione, "Information Glut" che significa
"sovraccarico di informazione" A causa di questo sovraccarico l'individuo non
riesce ad accedere a ulteriore informazione perché fa già molta fatica a filtrare quella
giusta fra quella che gli arriva. Va detto però che questo non è un fenomeno nuovo.
Tutte le volte che l'umanità ha affrontato delle rivoluzioni comunicative profonde come
quando si passò dal parlato allo scritto e dallo scritto allo stampato, è stato
necessario un lungo periodo di adattamento. Il passaggio dal parlato allo scritto è
durato diversi secoli nel corso dei quali tutta la società si è trasformata nel
profondo. Noi non sappiamo molto bene come questo processo sia avvenuto, abbiamo dei punti
di riferimento ma non ci è tutto chiarissimo. Per capire bene quello che è successo nel
passaggio dal parlato allo scritto è necessario arrivare quasi al Medio Evo, a
Cassiodoro. Siamo in grado di capire meglio cosa sia successo nel passaggio dallo scritto
allo stampato. Anche a questo riguardo si studia l'evento con una notevole dose di
ingenuità; si tende a far coincidere Gutemberg, le sue Bibbie a 36 linee con l'esplosione
della stampa: questo non è vero.
Domanda 7
Cosa manca a questa analisi dell'era tele-elettrica?
Risposta
Il fenomeno della stampa è assolutamente sottovalutato e, in generale, non viene
esaminato nella sua totale complessità. Ha richiesto non pochi anni, ma diversi secoli
per essere assorbito. Per utilizzare la stampa serviva la carta. La carta non poteva
essere costruita nel 1500, nel 1600 a costi modici per larghi consumi come accade oggi,
perché veniva fatta con degli stracci ed era costosissima. Era addirittura considerato
reato distruggere il libro o una qualunque cosa fatta con carta. Solo nel 1800, con
l'avvento della pompa di legno, si riuscì a costruire la carta con criteri industriali e
da lì ci fu l'esplosione della carta. C'era però un problema più grave: il livello di
alfabetizzazione. Chi sapeva leggere? Nel 1400-1500 forse il 3% della popolazione era in
grado di leggere un testo. E la lingua ufficiale era il latino, non erano nemmeno le
lingue nazionali. La stampa ha costretto l'umanità a riorganizzarsi inventando, in
sostanza, la scuola come la conosciamo oggi, con i criteri della scuola attuale. Cioè una
scuola lineare, testuale, con prove, con ragazzi tutti della stessa età, che fanno gli
stessi studi organizzati in una certa maniera, con dei criteri di organizzazione
simbolico-ricostruttiva - da un simbolo devo ricostruire mentalmente il concetto - su cui
abbiamo basato l'essere della nostra cultura nel corso degli ultimi 3-4 secoli. Un dato di
riferimento: l'Inghilterra di Gutemberg aveva 30 scuole, l'Inghilterra di Shakespeare ne
aveva quasi mille. Questa esplosione di scuole era legata a un fatto ben preciso:
l'apparizione della stampa. Cito Shakespeare perché anche qui è interessante fare
un'osservazione: tutti guardiamo a Shakespeare come al massimo scrittore del mondo
occidentale. Di solito, quando si fa il cosiddetto canone della letteratura occidentale,
al centro c'è Shakespeare e accanto c'è Darwin. Ma la maggior parte della gente
dimentica che Shakespeare non era uno scrittore, era soprattutto un drammaturgo, un autore
di testi teatrali, un attore egli stesso. La stampa si è impadronita dei suoi testi e ha
fatto di Shakespeare quello che Shakespeare era, ma non bisogna dimenticare che
Shakespeare sostanzialmente recitava, tanto per capire quale ruolo avesse ancora il
parlato in una cultura di questo genere. Se ci sono voluti secoli di alfabetizzazione, se
c'è voluta la costruzione di una scuola simbolico-ricostruttiva, di cosa c'è bisogno
oggi in un mondo come quello di Internet, in cui il profano che entra dentro al
Ciberspazio trova di fronte a sé miliardi di informazioni apparentemente scollegate tra
loro, ma potenzialmente fruibili istantaneamente? La fruizione non può essere istantanea,
non esiste nemmeno un concetto di prospettiva che possa aiutare a guardare attraverso
l'informazione. All'enorme esplosione di informazioni del 1500, non soltanto dal punto di
vista testuale ma anche architettonico e pittorico, ha corrisposto una scoperta
fondamentale: quella della prospettiva. Oggi non vedo un Leon Battista Alberti che sia in
grado di scrivere un volume che definisca i criteri della prospettiva dell'informazione
all'interno del Ciberspazio. Si sa che nel Ciberspazio si naviga, ma non se ne ha
percezione della profondità. E questo è qualcosa che sconcerta la persona intelligente,
che ci riflette. Non a caso, e cito questo dato perché è veramente interessante, la
persona che prima di altri ha intuito che questo sarebbe successo è James Joyce. Nel
"Finnegan's wake" descrive proprio questo mondo tele-elettrico e conia una
parola, "Chaosmos", che è la sintesi di Chaos e Cosmos, un mondo, che è il
mondo di Internet, che lui non conosceva, ma un mondo in cui tutte le entità vengono a
concorrere. Una delle cose che mi fa maggiormente riflettere in questi anni, è che i
tecnologi mettono a disposizione un mondo fantastico, costituito da una grandissima
quantità di dispositivi, però poi non ne hanno quella di visione di sintesi che hanno
gli artisti. Se oggi dovessi chiedere a qualcuno: "ma che cosa c'è veramente lì
dentro?", lo dovrei chiedere a Umberto Eco, lo dovrei chiedere a Thomas Pynchon, lo
dovrei chiedere a James Joyce. Questi sono i giganti che sono in grado di dare la visione
istantanea di quello che sta succedendo, anche se, per il momento, non riescono nemmeno
loro a fare quello che ha fatto Leon Battista Alberti: un manuale della prospettiva
dell'informazione nel ciberspazio.
Domanda 8
Come si trasforma il processo formativo delle conoscenze con l'utilizzo delle nuove
tecnologie come Internet?
Risposta
Oggi tutti sono convinti che si debba prendere Internet, con la sua straordinaria
ricchezza, e metterla in mano a un bambino perché il bambino così, come in un
videogioco, impara a correre attraverso Internet, navigando a destra e a sinistra, e
simulando le più diverse realtà. Questo potrebbe essere anche affascinante, però è
assolutamente contraddittorio, se non fatto bene, con un sistema scolastico intellettuale
educativo che è del tutto opposto. Il sistema di Internet è un sistema
percettivo-motorio, consentitemi di chiamarlo così, assolutamente antitetico a un sistema
simbolico-ricostruttivo basato sulla parola come quello della scuola. Quando io ero
bambino, mi ricordo, l'insegnante delle elementari diceva a mia madre: "Signora, lo
faccia leggere, perché lui deve ricostruire mentalmente le immagini. Suo figlio deve
leggere, perché solo attraverso la lettura sarà in grado di ricostruire con la sua
fantasia quello che legge e quindi riproporre a se stesso questo mondo". Ed è questa
la grande forza del sistema concettuale che noi abbiamo costruito nel corso degli ultimi
7-800 anni. Noi produciamo manuali di istruzioni, che diamo a migliaia di ragazzi. Da
questi essi evincono l'informazione e la ricostruiscono simbolicamente per loro stessi.
Adesso questo sistema non può essere preso, buttato via, alienato, e sostituito da un
sistema che, per quanto raffinato, interattivo, è antitetico ad esso. Ma è anche vero
che noi non possiamo ignorare il contributo straordinario che Internet, il computer, la
televisione, diciamo, in generale, questa lingua tele-elettrica ci consente di avere per
vedere un mondo che altrimenti non vedremmo perché, ahimè, noi siamo vincolati a due
realtà: il troppo grande e il troppo piccolo. Il troppo piccolo e il troppo grande non
possiamo vederli e come riusciamo a fantasticarli? Abbiamo una specie di
telescopio-microsocopio che ci consente di entrare in questi mondi. Questo è il computer,
la realtà virtuale, la simulazione, la matematica, ovvero quel complesso di discipline
che dovrebbero consentire un ulteriore salto di quantità e di qualità alla nostra
capacità di apprendimento che sembra essere pressoché infinita, e che si sposa con un
evento straordinariamente bello: la comprensibilità del mondo. Il mondo nella sua
assurdità in realtà è comprensibile. Einstein diceva che molto spesso gli facevano la
stessa domanda su quale era la cosa che maggiormente lo aveva stupito nel corso della sua
carriera e lui regolarmente rispondeva: "Il fatto che l'universo sia
comprensibile". Immaginate un universo non descrivibile, un universo che non abbia
regole, un universo che io non riesco a descrivere. Il mondo deve avere una logica perché
altrimenti non è trattabile. Ecco, questa logica però è molto complessa. Attualmente il
computer ci consente di fare un passo avanti e allora la mia idea è la seguente: Internet
e tutto quello che vi è intorno, è qualcosa di straordinariamente bello e complesso. Sta
però a noi riuscire a dotarci di un corretto livello di alfabetizzazione per poter
integrare tutto ciò nel solco di una tradizione intellettuale e culturale che sposi
quanto di bene c'è stato con quanto ci sarà. Quindi non alienare i sistemi educativi
tradizionali ma integrarli, complementarli. Recentemente sono stati pubblicati dalla
rivista "Telema", come su altri testi, i dati relativi alle prove fatte in
Inghilterra, negli ultimi anni, sull'utilizzo di Internet nelle scuole. A distanza di
10-12 anni indicano con chiarezza che la penetrazione di Internet e del computer nelle
scuole elementari non è stata un successo. Viceversa è stata un grandissimo successo nel
liceo. D'altro canto è stato un ottimo strumento per gli insegnanti. Quindi su queste
cose bisogna ragionare con estrema cautela per vederne le potenzialità, capirne i rischi,
vederne i limiti e lavorare con grande capacità critica. Io credo che noi siamo di fronte
a qualcosa di straordinariamente bello, ma anche di straordinariamente complesso e quindi
come tale di pericoloso. Si aprono davanti a noi delle possibilità formidabili e dobbiamo
rivedere profondamente i nostri schemi educativi, il che comporterà un periodo di
transizione, non so se lungo come quello del libro, ma che sicuramente non si esaurirà
nel giro di qualche anno.
Domanda 9
Lei crede che la straordinaria capacità che il computer ha di gestire i dati rispecchi la
capacità del cervello umano. Si può considerare il computer un'estensione del cervello
umano o c'è una differenza strutturale per cui nel passaggio al computer si deve rivedere
la capacità organizzativa della propria mente?
Risposta
Innanzitutto non c'è dubbio che la struttura mnemonica del computer è costruita
dall'individuo. Quindi rispetta certe regole algoritmiche che l'uomo ha costruito. Sta di
fatto che l'infrastruttura mnemonica che l'uomo ha costruito per il computer non riflette
integralmente la infrastruttura mnemonica dell'individuo perché quella ci è ignota. Noi
non sappiamo come memorizziamo, è un processo straordinariamente complesso e il suo modo
di funzionare sostanzialmente ci sfugge. Non sappiamo dove è localizzata la memoria,
intuiamo che è distribuita, non sappiamo come si distribuisce, in parte sembra elettrica,
in parte sembra chimica, in parte sembra emotiva, in certe cose sembra distribuita sulla
zona destra, in altre sulla zona sinistra, la sua mappatura oggi ci sfugge completamente e
potrebbe anche essere che ci sfugga per sempre perché non è detto che il cervello sia in
grado di conoscere sé stesso.
Ricordo che quando studiavo Meccanica Quantistica e dovevo studiare il comportamento degli
elettroni facevo un'enorme fatica a studiare i teoremi di Meccanica Quantistica per la
loro eccessiva astrattezza. Dicevo a me stesso: "Ma tu guarda che cosa strana che è
la vita. Io ho un cervello che funziona sulla base degli elettroni, che si muovono nel mio
cervello, e in questo momento stanno lavorando freneticamente per farmi capire come essi
stessi funzionano". E questa specie di serpente che si mordeva la coda, mi lasciava
totalmente sorpreso. Pensavo che fosse quasi impossibile che un elettrone capisse il suo
stesso funzionamento. Oggi che la nostra mente sia in grado di capire come essa stessa
funzioni al completo, mi sembra anche abbastanza azzardato. Speriamo che una mente
collettiva sia in grado di farlo. In ogni caso, la possibilità di avere una memoria molto
raffinata, costruita da noi, è sicuramente alla nostra portata.
In secondo luogo attualmente noi riusciamo con il computer a fare soltanto una cosa
veramente originale che è quella di gestire enormi quantità di dati quasi
istantaneamente per estrarre da questi dati delle forme o, come dire, delle
sottoaggregazioni che possono semanticamente risultare significative se riconosciute.
Adesso si può dire a un computer: "Questo è l'elenco telefonico, dimmi tutti quelli
che si chiamano Paolo e il cui numero comincia per 3 ?" E' una ricerca noiosissima
che un uomo porta a termine dopo 20-25 giorni. E' chiaro che il computer una ricerca di
questo genere la fa nel giro di pochi secondi perché ha una tale velocità circuitale -
semantica non ce n'è per cui prende i Paoli, prende i 3', li mette insieme e
mi dà la risposta.
Oggi ci sono poi altri tipi di problemi che stanno emergendo. La domanda è: come questo
tipo di struttura può integrare la mente umana ? L'intelligenza collettiva che noi stiamo
costruendo gioca essenzialmente su un concetto di connettibilità reciproca. La grande
difficoltà dell'intelligenza collettiva è che noi ci connettiamo con tanti. Apro una
parentesi - non voglio assolutamente essere in questo né darwinistico né riduttivo nei
confronti dell'uomo - dicendo che sostanzialmente siamo scimmie. Fisicamente non siamo poi
tanto diversi da una scimmia. Se io guardo uno scimpanzé e guardo un essere umano, posso
fare delle associazioni. Certo la scimmia non sa parlare, però se guardo con attenzione
il comportamento di una scimmia, mi accorgo che le scimmie hanno dei comportamenti
realmente interessanti dal punto di vista sociale. Le scimmie evolute, passano un'enorme
quantità di tempo a spulciarsi reciprocamente. Qual'è la finalità di un'attività di
questo genere? Ovviamente la socializzazione. Noi non ci spulciamo, ma abbiamo un
attività più o meno simile: è quella della conversazione così, basata su niente, il
conversare fine a sé stesso. Noi conversiamo per il puro piacere di conversare. Il
racconto è ciò che ci interessa, i dettagli della vita giorno per giorno. Se si scolta
la conversazione di persone non conosciute ci si accorge che parlano di niente, ma solo
apparentemente perché in realtà socializzano. Questa socializzazione è basata su
connessioni, connessioni reciproche, che nelle scimmie portano a dei gruppi di 20-30-40
individui e il cervello è strutturato per gestire 20-30-40 individui. Nell'essere umano
la neocorteccia cerebrale è strutturata, e questo sembra dimostrato scientificamente, per
un numero limitato di connessioni, alto sì, ma non oltre alle 150-200 persone. Non è
casuale che nessuna unità bellica superi le 150-200 unità. Poi certo c'è tutto
l'esercito ma l'unità bellica fondamentale è sempre fatta di 150-200 persone. L'azienda
senza gerarchia, l'azienda cosiddetta totalmente piatta', è fatta di 150-200
persone. Quella sembra essere la comunità elementare umana perché sembra che non siamo
in grado di tenere più connessioni, globalmente, di 150-200, che sono tantissime nel
numero di casi possibili. Allora, se oggi noi ci troviamo di fronte a una società con una
connettibilità di 200.000.000 di persone, tutte raggiungibili via Internet, si pone un
problema di gestione di questa connettibilità molto diverso: è difficile che io vada a
fare certi tipi di analisi mentalmente, perché non è proprio possibile. Non si tratta di
trovare in un elenco tutti quelli che si chiamano Paolo, il cui numero comincia per 3, ma
bisogna affrontare ben altri problemi.
Domanda 10
Può farci altri esempi riguardo ciò che la memoria computer consente di fare?
Risposta
Prendiamo la Telecom, tanto per fare un esempio. La Telecom che gestisce le reti, ha
tantissimi utenti che hanno il telefono e una frazione di utenti che hanno il Fax. Adesso
la Telecom decide di fare una campagna pubblicitaria di questo tipo: "Se tu usi tanto
il Fax, comprati una seconda linea". Alcuni utenti ne fanno uso, altri no. La Telecom
possiede i tabulati di tutte le telefonate, da A a B, da C a D, da 1 a 3, da 7 a 21
milioni di incroci di telefonate: come fare da questo a evincere chi sono quelli che hanno
il fax e quelli che non lo hanno? Però questi dati li ha in un archivio. Questa memoria
esiste, tutte le informazioni sono state memorizzate e si può ottenere la capacità di
estrarre dall'archivio questa informazione significativa. A mano è impossibile,
mentalmente altrettanto. In un mondo di estesa connettività come quello che ci propone
l'intelligenza connettiva, i link fra le persone e le loro attività sono tantissimi.
L'uomo non potrà gestirli. Allora, i sistemi mnemonici dei computer, che devono essere
dotati di due elementi, uno passivo, il deposito delle informazioni, organizzato in un
certo modo, e quello attivo, l'algoritmo che estrae le informazioni, possono diventare
così sofisticati da comunicarmi il dato che mi interessa. E in America il business se ne
è accorto. Un caso per tutti, che ormai è conclamato su tutti i libri, è l'associazione
birra-pannolini. Hanno fatto questa scoperta qualche anno fa quelli della Warmard. Hanno
fatto una ricerca nell'archivio per sapere quali prodotti si vendono contemporaneamente e
hanno scoperto che, chi compra il giovedì sera, compra stranamente birra e pannolini. Per
un supermercato con 40.000 prodotti, questo è un dato significativo.
Quale prodotto va con quale? Giovedì sera a casa con un bambino piccolo: pannolini e
birra. Perché? Perché il giovedì sera la moglie va dal parrucchiere o perché il
venerdì sera esce. E chi va a fare la spesa ? Il marito. E il marito che fa? Compra i
pannolini! Come pensa ai pannolini, dice: "Sì, ma sabato sono a casa e guarderò lo
sport, quindi mi serve anche la birra". Che hanno fatto quelli della Warmard? Hanno
messo pannolini e birra proprio attaccati alle casse.
Lasciate perdere il supermercato, prendete una struttura genetica e immaginate quale gene
va con quale in quale malattia e vi accorgete che tipo di scenario molto più interessante
si può aprire.
I 66.000 geni che compongono il corpo umano non sono mica mappabili così facilmente.
Provate a porvi questa domanda: quale associazione di quale gene con quale altro gene in
quale ambiente chimico dà luogo a questo rischio di malattia? Non dimentichiamoci che la
cosa straordinaria di questo secolo, la più straordinaria di tutte, è il raddoppiamento
della vita umana. Il 1900 è cominciato con un'età media di 45 anni e termina con un'età
media di 90 anni passando attraverso due fasi fondamentali: il controllo delle malattie
infettive, 1900-1950, il controllo delle malattie degenerative fatto con chimica e
chirurgia fra il 1950 e il 2000. E si assiste adesso all'esplosione della chimica in tutti
i generi: mal di testa, felicità, desiderio, assenza di desiderio, noia, Prozac,
piuttosto che altri prodotti.
Ma qual è il futuro della medicina? E' lo sposalizio col computer. Per avere queste
memorie che mi consentono di mappare il mio genoma, vederlo e consentire un nuovo tipo di
aggressione alle malattie degenerative: un'aggressione rigenerativa. Credo che forse il
contributo più fantastico che il computer poteva dare, ma anche il più dirompente, è
una sorprendente estensione della vita umana che valuto di almeno 50 anni. Per cui,
intorno al 2030-2040, non sarei stupito se la vita umana arrivasse a 140-150 anni, con
delle conseguenze che non oso nemmeno immaginare, tanto non mi toccano perché io non ci
sarò purtroppo. La memoria del computer è un grande deposito, su cui stiamo inserendo
algoritmi estremamente significativi estremamente sofisticati, per riconoscere
combinazioni complesse che altrimenti ci sfuggirebbero e da cui potremo fare delle
scoperte semantiche straordinarie.
Domanda 11
Rispetto all'arrivo dell'anno 2000: qual è veramente il rischio che corre l'Italia visto
che finora non sono stati presi dei provvedimenti seri?
Risposta
Il problema dell'anno 2000 è sicuramente un problema serio. E' un problema reale che va
affrontato. Con una punta di vanità, devo dirlo, circa 10 anni fa scrissi un articolo sul
problema dell'anno 2000. Questo perché ho lavorato molto presso in centri di una certa
dimensione. Ricordo che all'inizio degli anni '70, in una grossa banca a Roma, ebbi un
problema di un sistema che si era bloccato e non si riusciva a capirne il perché. Si
scoprì poi che un programmatore non aveva tenuto conto che Febbraio era un mese bisestile
e quindi comprendeva pure il 29 febbraio. Adesso la cosa potrà far sorridere, però
l'aveva programmato come se il Febbraio fosse di 28 giorni. Per due anni è andato bene,
il terzo anno è capitato un 29 febbraio che non essendo previsto ha fatto fermare il
programma. Così si è fermata tutta la procedura e abbiamo dovuto fermare tutta
l'applicazione, con conseguenze che, lo ammetto, furono abbastanza antipatiche. Questa
esperienza mi lasciò un tarlo che per anni mi ha roso e di tanto in tanto la vedevo
riaffiorare qua e là su qualche rivista specializzata, oppure in qualche articolo:
"Un giorno arriverà l'anno 2000". Poiché io ho cominciato a programmare e ho
programmato seriamente, nel senso che ero analista di sistema e quindi ho scritto
programmi abbastanza complicati già a partire della metà degli anni '60, sapevo che uno
dei vincoli fondamentali degli anni '60 era scrivere programmi estremamente piccoli,
compatti; la bravura del programmatore era quella di fare il programma più corto
possibile e anzi, era una forma di virtuosismo. Tra di noi si scherzava, nel settore in
cui lavoravo io, su chi una certa routine la faceva più corta agli altri.
Questo virtuosismo che sembrava allora una cosa bellissima, col tempo è diventato
veramente una cosa molto pericolosa. Il contrarre la data finale da quattro posizioni xxxx
in yy, scrivendo non 1999 ma 99, alla fine degli anni '60 non venne neppure considerato un
problema tanto era lontano il 2000. Ma il '99 è venuto. E adesso che cosa potrebbe
succedere, tanto per spiegarlo al profano. Tante procedure ma anche tanti pezzi di
software di sistema trovano 00 invece di 90. Il computer che vede 00, non avendo capacità
semantica, come interpreta 00 ? Potrebbe essere che per lui 00 voglia dire 1900.
In realtà, per essere maliziosi e rendere lo scenario ancora più terrificante possiamo
fare un altro esempio: tutti parlano del famigerato anno 2000 ma ben pochi pensano che
c'è una data che precede l'anno 2000, che in piccola misura è altrettanto critica, ed è
il 9 settembre del 1999, che si presenta quasi tre mesi prima. In un programma viene
scritto 9-9-99. Per molti programmatori 9-9-99 "fa tappo", come "fa
tappo" 0-0-00. Quindi delle belle potremmo vederle anche il 9-9-99.
Sono diversi anni che si sta lavorando, non soltanto a livello di applicazioni, ma anche a
livello di software di sistema, per individuare dove questi problemi siano avvenuti.
Alcuni sono avvenuti anche in software di macchina, e sono stati costruiti dei supporti
atti a individuarli quasi automaticamente. In alcuni paesi che sono più avanzati per
tradizione c'è l'abitudine a fare le cose in maniera preventiva. L'Italia, per sua
tradizione, tende a fare le cose all'ultimo momento. Però io mantengo un sostanziale
ottimismo italiano, una certa fiducia italiana. Ci sarà pure qualche sbavatura, qualche
intoppo, però non prevedo che sarà l'avvenimento drammatico che tutti si immaginano.
Ci saranno certo 2-3 settimane veramente infernali per chi dovrà fare le ultime
correzioni. Ci sarà un po' di sofferenza, ci troveremo di fronte a qualche situazione
anomala, ma credo che globalmente si troverà una sistemazione. Certo che una situazione
del genere non va sottovalutata e nessuno la sta sottovalutando. Io vedo che i gruppi,
soprattutto finanziari e assicurativi, stanno ponendo a questo problema ormai
un'attenzione semplicemente frenetica. Non dimentichiamoci che c'è anche un aspetto
giuridico oltre che economico da considerare e che può avere conseguenze negative su
molte persone. Quindi io sono sostanzialmente ottimista e ritengo che, in extremis, il
problema dell'anno 2000 verrà risolto.
|
|