Biblioteca digitale (intervista) RAI Educational

Ernesto Hofmann

Milano, SMAU 25-10-1998

"L’evoluzione informatica"

SOMMARIO:

  • Un tempo esisteva una diretta proporzione fra la dimensione delle macchine e la loro potenza. Più una macchina era grande più era potente. Oggi la dimensione fisica di una macchina non è più sinonimo di potenza. L’ingegnere Hofmann traccia la storia e le fasi essenziali dell’evoluzione tecnologica che ha portato al processo di miniaturizzazione delle macchine. Una lunga evoluzione che parte dall’avvento del transistor negli anni ’50, all’uso dei circuiti integrati negli anni ’60, fino all’unificazione delle memorie e dei circuiti integrati in un'unica strutturazione negli anni ’70 (1), (2), (3).
  • In futuro avremo computer sempre più evoluti ma che, per essere tali, avranno bisogno di essere alimentati da batterie sempre più potenti. Come possibile soluzione al problema dell’alimentazione delle macchine Hofmann vede un nuovo concetto di computer che sarà poco più di una carta di credito. Una carta con dei microprocessori è, al contrario di un computer, facilmente trasportabile, se ne può avere più di una con sé, non pesa e non ha problemi di batteria. Si andrà sempre più verso una forma di “pervasive computing”: con i cellulari, con dei telefoni dotati di schermo e accesso a Internet, con la televisione e una semplice carta potremo lavorare da ogni parte del mondo e accedere ai nostri documenti (4).
  • Un “ecosistema informativo” in cui diversi dispositivi si equilibreranno fra loro per rispondere alle nostre esigenze. L’intervistato spiega la sua visione “darwinista” dell’informatica del futuro (5).
  • Il passaggio dall’era della stampa a quello dell’elettronica è un passaggio epocale che fa parte delle grandi rivoluzioni comunicative della storia dell’uomo, come il passaggio dall’oralità alla scrittura. Ogni cambiamento di tale portata ha sempre richiesto lunghi periodi di adattamento per l’umanità. Hofmann ridimensiona in termini storici la paura e la sensazione diffusa nell’uomo contemporaneo di non essere in grado di controllare le informazioni e i nuovi mezzi di comunicazione (6).
  • Al ciberspazio manca la dimensione della profondità. Secondo Hofmann ancora non si è scoperta la “prospettiva” che consente di vedere attraverso lo spazio dell’informazione. Secondo l’intervistato l’era che lui definisce tele-elettrica avrebbe bisogno di un Leon Battista Alberti, di un architetto o un artista che ci dia i mezzi di guardare il ciberspazio da una prospettiva diversa. Finora la visione che ne abbiamo è sostanzialmente piatta (7).
  • Internet nelle scuole sì, ma non buttiamo via i sistemi educativi tradizionali. L’intervistato spiega perché sia necessario integrare l’uso delle nuove tecnologie con le forme di educazione tradizionali. (8).
  • Quale sarà la strada del futuro: un computer che pensa come l’uomo o un uomo che finirà per pensare come un computer? Hofmann descrive alcune delle differenze fondamentali fra uomo e computer per cui nessuna di queste due ipotesi si potrà di fatto realizzare completamente (9).
  • Il computer allungherà di almeno cinquant’anni la vita umana. Questo, secondo Hofmann, il più grande contributo del computer alla società del futuro. Algoritmi sempre più complessi permettono di interrogare gli archivi e la immensa memoria di un computer con infinite combinazioni. Questa rapidità di raccolta dei dati e la possibilità di fare diverse prove fra i dati tipica del computer ha un impatto straordinario sulla ricerca scientifica. L’intervistato cita vari esempi, dal marketing alla genetica, in cui l’utilizzazione della ricerca combinatoria del computer ha favorito alcune scoperte (10).
  • Dopo il ’99 scatterà per i computer l’anno 00. I programmi infatti hanno utilizzato finora solo le ultime due delle quattro cifre che compongono un anno. I computer potrebbero capire che si tratta del 1900 e non del 2000. Hofmann spiega i motivi per i quali i programmatori di computer negli anni ’60 utilizzarono solo due spazi per indicare l’anno e mette in guardia su altri problemi che si potrebbero verificare durante l’anno 1999 ma aggiunge che, benché il problema tecnico sia serio e come tale vada affrontato, difficilmente si verificheranno degli scenari catastrofici (11).

biblioteca
torna a personaggi
torna a tematiche
search

back

home page

INTERVISTA:

Domanda 1
Lei ha lavorato per tanti anni alla Ibm. Ha seguito l’evoluzione e il passaggio dalle grandi macchine a quelle più piccole. Ci può raccontare quali sono stati i passaggi attraverso i quali si è passati da macchine molto ingombranti a macchine sempre più potenti ma di dimensioni sempre più piccole?

Risposta
Per affrontare in maniera corretta questo argomento, occorrerebbe definire con molta chiarezza cosa si intende per macchina grande. C’è infatti un po’ di confusione o di ambiguità dovuta al fatto che trent’anni fa le macchine grandi erano veramente grandi come dimensioni.
Oggi le cosiddette macchine grandi sono ancora grandi in un certo senso ma non perché sia grande la parte elettronica. La parte elettronica si è ridotta in maniera massiccia. Quella che noi definiamo come grande macchina è la macchina che viene costruita con la tecnologia di punta di quel momento. La grande macchina di oggi non è qualcosa che è grande fisicamente: è grande nelle prestazioni. Venti, trent’anni fa essere grandi nelle prestazioni voleva anche dire essere grandi come dimensioni.
L’evoluzione per così dire dal "grande" al piccolo è passata attraverso un certo numero di fasi nel corso degli ultimi 40-50 anni, molto ben identificate. Inizialmente al computer serviva uno strumento in grado di commutare i segnali e questo è stato per molto tempo la valvola. Se si pensa che un computer di media taglia doveva essere fatto con qualche decina di migliaia di valvole, si può facilmente immaginare quale colossale dimensione può assumere un computer. La svolta radicale è avvenuta con l’avvento del transistor a cavallo degli anni ’50. Il transistor è stato identificato come dispositivo operante nel Natale del 1947 da Bardeen, Brattain e Shockley ed è entrato più o meno in produzione all’inizio degli anni ’50.
Per quanto riguarda i computer c’è voluto più tempo. Nella seconda metà anni ’50 abbiamo assistito alla prima apparizione dei transistor all’interno dei computer. Il transistor veniva utilizzato come componente circuitale molto evoluta, ma resistenze, induttanze, capacità venivano ancora costruite con metodologie classiche quindi i computer erano tecnologicamente ibridi e ancora grandi come dimensioni.

Back

Domanda 2
Qual è stato il secondo grande passo verso la miniaturizzazione delle macchine?

Risposta
Il secondo grande passo verso la miniaturizzazione è avvenuto a metà degli anni ’60 con l’avvento dei circuiti integrati. Vale a dire la capacità di costruire sul silicio non solo il componente attivo, il transistor, ma anche i cosiddetti componenti passivi. Questo, da metà degli anni ’60 fino all’inizio degli anni ’70, è stato l’elemento centrale della miniaturizzazione: utilizzare la sabbia, cioè il silicio, per costruire tutta la parte logica del computer, non la memoria. La memoria ancora per molti anni è rimasta al di là delle possibilità di costruzione definibile come "transistorica". Veniva costruita con degli anellini piccoli di ferrite che venivano magnetizzati. Era un lavoro molto complesso e i costi della memoria erano assolutamente esorbitanti. Una macchina che aveva una potenza di calcolo di 1/10 di milioni di istruzioni, con una capacità esecutiva di 10.000 istruzioni al secondo, con 32.000 posizioni di memoria, costava all’epoca in Italia, cioè nel 1966-67, qualche cosa come 8-900 milioni. La stessa macchina, identica, con un raddoppio di memoria, da 32.000 posizioni a 64.000 posizioni, superava il miliardo e sei. Questo per dirle che 32.000 posizioni di memoria a nuclei di ferrite costavano centinaia e centinaia di milioni. Dunque uno dei vincoli fondamentali dell’informatica degli anni ’60 era non solo miniaturizzare i circuiti ma soprattutto miniaturizzare i programmi, farli più brevi, più corti possibili perché occupassero meno memoria possibile. Da questo discende il cosiddetto problema dell’anno 2000 legato al fatto che nel corso degli anni ’60 moltissimi programmatori per risparmiare hanno utilizzato solo 2 byte e invece di scrivere 1999, hanno scritto 99. E’ chiaro che il passaggio a 00 potrebbe comportare il passaggio a 1900 così come a 2000. Ed era legato alla tecnologia utilizzabile, che era a nuclei di ferrite. La memoria a nuclei di ferrite non si prestava a miniaturizzazioni e quindi non consentiva di costruire macchine particolarmente piccole, anche se, di converso, la parte attiva della macchina, cioè la parte circuitazione, veniva miniaturizzata molto più rapidamente. D’altro canto non bisogna nemmeno immaginare che la memoria a nuclei di ferrite sia stata abbandonata così rapidamente a favore dei transistor anche quando questi sono apparsi utilizzabili per la parte memoria della macchina. Pochi lo sanno ma i primi shuttle che sono stati messi in orbita avevano dei computer di bordo molto sofisticati, che però non utilizzavano memorie a transistor, ma memorie a nuclei di ferrite. Questo perché? Perché la radiazione Alfa e in generale il processo delle particelle cosmiche è così elevato a quelle quote, che la schermatura delle memorie a transistor, richiedeva delle tecniche molto sofisticate e dei pesi piuttosto elevati. Quindi si è arrivati al paradosso che alcuni dei computer più evoluti, più raffinati alla fine degli anni ’70, inizio anni ’80, continuavano comunque a mantenere questa tecnologia a nuclei di ferrite che sembrava totalmente desueta per l’epoca.

Back

Domanda 3
In che periodo possiamo allora situare la fase successiva?

Risposta
Direi che a metà degli anni ’70 c’è stato il terzo grande passaggio: l’unificazione delle memorie e dei circuiti integrati in un'unica strutturazione, sempre il silicio, che consentisse di costruire tutto partendo dalla sabbia. A quel punto lì il processo di miniaturizzazione ha preso il largo con un impeto formidabile e si è poi tradotto in quella che viene chiamata la legge di Moore, di Gordon Moore, che è stato uno dei primi ricercatori e progettisti dei circuiti integrati. Questa legge che non è una legge matematica ma è piuttosto il riconoscimento di un fenomeno statistico, sostiene che ogni 18 mesi, a parità di costo, la potenza del computer e la sua memoria di fatto raddoppiano. In altri termini questo vuol dire che ogni 10 anni il computer migliora, a parità di costo, di 100 volte la sua capacità elaborativa, sia essa capacità di esecuzione di istruzioni o capacità di memorizzazione. Questo significa anche che, nel corso degli ultimi trent’anni, i computer, a parità di costo, hanno migliorato enormemente il loro rapporto prezzo-prestazioni. Le loro prestazioni sono migliorate di un milione di volte. Ecco perché noi vediamo apparire sul tavolo di tutti quanti macchine molto piccole in grado di fare cose meravigliose. Questa tecnologia consente anche di creare microprocessori ancora più complessi per le cosiddette macchine grandi, che pur non essendo enormi come quelle di un tempo mantengono comunque certe dimensioni dovute soprattutto ai gruppi di alimentazione e ai gruppi di raffreddamento. Se si concentra un numero sempre maggiore di circuiti in uno spazio di dimensioni sempre più piccole, è chiaro che il problema dell’alimentazione e della dissipazione del calore diventa esplosivo. Oggi si costruiscono microprocessori sempre più densi, i cui circuiti impegnano sempre meno corrente ma il cui numero cresce così vertiginosamente che alla fine il singolo chip produce più calore di un ferro da stiro. E bisogna alimentarlo e raffreddarlo.
Quindi i gruppi di alimentazione diventano esorbitanti. Se c’è un limite nell’informatica dell’avvenire, è proprio quello dell’alimentazione. Tutti coloro i quali usano pesantemente i personal computer sanno che l’autonomia di un PC non è molto elevata. No si può pensare di prendere un computer, fare un viaggio transoceanico di 8 ore con le batterie che abbiamo oggi a disposizione che mi consentono di lavorare un’ora, un’ora e mezza nella migliore delle ipotesi. Di conseguenza si ha bisogno di un cavo che connetta il computer all’alimentazione. Nel futuro le cose non miglioreranno di molto. Ci saranno infatti miglioramenti nell’alimentazione a batteria, ma non pari al livello di miniaturizzazione. Questo perché nel corso dei prossimi 10-15 anni si manterrà più o meno il ritmo attuale, cioè si dimezzerà o si aumenterà la quantità di circuiti ai ritmi precedenti. A 15 anni da oggi immaginiamoci macchine, a parità di costo, 5000 volte più potenti di quelle attuali. Questo a grandi linee lo scenario. Possiamo dire che il processo di miniaturizzazione è ancora in atto, e che la distinzione macchina grande – macchina piccola non è tanto nella dimensione della macchina, ma piuttosto nella complessità. Il disegno delle macchine di oggi è molto più complesso e sempre maggiore il numero di utenti che queste macchine devono gestire.

Back

Domanda 4
Un altro problema da risolvere è quindi quello dell’alimentazione di queste macchine?

Risposta
L’alimentazione è un po’ il nodo gordiano da sciogliere se si vuole fare del computer uno strumento veramente diffuso. Per questo si può immaginare il computer del futuro come una scheda con un microprocessore come una carta di credito, o come le smart card.
La cosa interessante è che questo microprocessore di potenza crescente può essere la chiave di volta dell’informatica del futuro perché rende il computer veramente trasportabile. Posso inoltre averne più di uno in tasca, posso prenderlo, posso entrare in un albergo, utilizzarlo in telefoni speciali. Per esempio al Cebit di Amburgo, nel corso dell’ultima mostra del maggio-giugno ’98 sono stati presentati dei telefoni particolari. Sono simili a quelli a tastiera attuali ma c’è lo spazio per far scorrere il microprocessore. Questo trasferisce le informazioni a un grande computer connesso alla Rete che riconosce l’utente, le sue caratteristiche, i suoi file. Con questa carta nel portafoglio posso lavorare senza trascinarmi dietro un accumulatore che pesa 3-4 chili.
Si può controbattere che questa carta sia facile da perdere. Ma se la perdo, come per una carta di credito, basta telefonare e farla annullare e probabilmente me ne daranno una di riserva che ricostruisce tutta la mia situazione. Quindi io credo profondamente che stiamo andando, come è stato anche detto da un’indagine svolta dall’Economist, verso una nuova forma di "pervasive computing", ovvero verso un tipo di elaborazione dati utilizzata da tutti in qualunque punto del globo attraverso i telefoni cellulari, le smart card, i personal computer, i giocattoli, la televisione dotata di "set-top box", insomma attraverso tutta una serie di dispositivi che mi consentono di connettermi a dei poli molto più intelligenti, che sono in grado di trasmettere le informazioni. Si può parlare di una generale forma di intelligenza collettiva. Questo secondo me è il limite della miniaturizzazione le cui conseguenze nel futuro prossimo sono facilmente immaginabili. Si arriverà a "wearable computer", a microprocessori indossabili. Oppure si può anche immaginare che un domani il microprocessore sia collegato a una zona del cervello. Mi sembra che dal punto di vista sensoriale questo sia già un buon limite da raggiungere.

Back

Domanda 5
Quindi è grazie, per esempio, a carte di questo tipo e a questi sistemi che lei ha appena descritto, che si realizza veramente una convergenza al digitale di tutti i diversi media ?

Risposta
Io stesso ho scritto, e me ne dolgo, di una convergenza telefono-televisione-computer in un unico dispositivo. Qualche anno fa lo credevo, oggi non lo credo più. Oggi credo che di aver commesso proprio un errore logico-strutturale. Non ho timore ad affermare che tutto sommato mi sento anche io un darwinista, almeno culturalmente. Penso che il Darwinismo abbia spiegato molte cose nell’evoluzione di sistemi biologici e che abbia dato una chiave di lettura di fenomeni che altrimenti, secondo me, sarebbero incomprensibili. Inoltre penso che il Darwinismo spieghi molto bene fenomeni analoghi alla biologia: ad esempio la fenomenologia dell’informatica o della tecnologia in generale, ricorda molto la fenomenologia della biologia. La tecnologia e la biologia hanno infatti aspetti simili. Però nella biologia difficilmente due entità biologiche convergono verso un’unica entità. E’ difficile trovare un cane che vola o, che so io, un gatto che nuota come un pesce. Queste convergenze la biologia non le consente. La biologia infatti secondo i concetti fondamentali darwiniani, procede per occupazione di nicchia disponibile da parte di quello che Darwin definisce "the fittest", il più adatto. Ecco, io credo che nell’informatica e nella tecnologia esista un concetto analogo. A mio avviso è corretto pensare che così come esistono diverse nicchie biologiche esistono anche diverse nicchie informatiche, nel mondo dell’informazione, ciascuna delle quali è popolabile da un certo tipo di dispositivi che sono particolarmente idonei a occupare quella nicchia. E’ inoltre corretto dire che tutte le nicchie concorrono a definire lo scenario generale, come un ecosistema biologico. Prevedo che in futuro la realtà dell’informatica o dell’informazione sia una sorta di ecosistema informativo, una forma di intelligenza collettiva, nella quale soprattutto le reti, le memorie, i microprocessori coesistono su dispositivi differenziati ma che, in maniera complementare, forniscano all’individuo le risorse di cui ha bisogno. Nel mondo del media-testo, c’è il giornale, c’è la rivista, c’è l’opuscolo, c’è il depliant, c’è il libro, c’è l’enciclopedia. Queste sono forme differenziate che dimostrano che non esiste soltanto un unico elemento testuale. Allo stesso modo io credo che nel mondo della intelligenza tele-elettrica esisteranno dispositivi differenziati e l’utilizzo delle smart card è uno di questi.

Back

Domanda 6
Questa sorta di dialogo fra i vari mezzi di comunicazione, questo "ecosistema informativo" implica per l’utente singolo un aumento delle possibilità di connessione e di comunicazione. Tutto questo però che cosa comporta rispetto alla gestione dell’informazione?

Risposta
Per il singolo così come per l’organizzazione medio-grande, significa la possibilità di attingere a quella che io ho chiamato una forma di "intelligenza collettiva". L’ho chiamata così perché quando ho cominciato a lavorare sui computer nel 1965 c’era il mito dell’intelligenza artificiale. Il computer era considerato il cervello elettronico. Con entusiasmo sui giornali di allora si parlava di questa nuova forma di intelligenza. Oggi pochi credono che l’intelligenza artificiale sia alla nostra portata. Non si sa bene quello che succederà però pochi credono che il computer possa a breve o a medio termine diventare un’entità creativa. Quello, però, che si sta concretizzando è un’altra forma di intelligenza a cui nessuno aveva pensato, una forma di intelligenza collettiva, non creativa o autonoma, ma comunque così ricca, così variegata, così efficiente che ci ricorda, in un certo senso, quanto è avvenuto nel Rinascimento con l’avvento della stampa e, direi, nell’Atene di Pericle, con l’avvento della scrittura. Questi furono momenti fondamentali di passaggio della cultura umana da un mezzo di comunicazione a un altro infinitamente più ricco che non uccide il precedente ma che in un certo senso lo ingloba, lo trasforma, lo adegua ad un nuovo scenario, e che richiede da parte della società un periodo di transizione e di adattamento.
Oggi noi ci accorgiamo immediatamente di un fatto: la massa di informazioni che sono a nostra disposizione cresce vertiginosamente. L’informazione oggi assume delle caratteristiche, oserei dire, virali. Si distribuisce con una rapidità fenomenale. Gli Americani per questo usano un’espressione, "Information Glut" che significa "sovraccarico di informazione" A causa di questo sovraccarico l’individuo non riesce ad accedere a ulteriore informazione perché fa già molta fatica a filtrare quella giusta fra quella che gli arriva. Va detto però che questo non è un fenomeno nuovo. Tutte le volte che l’umanità ha affrontato delle rivoluzioni comunicative profonde come quando si passò dal parlato allo scritto e dallo scritto allo stampato, è stato necessario un lungo periodo di adattamento. Il passaggio dal parlato allo scritto è durato diversi secoli nel corso dei quali tutta la società si è trasformata nel profondo. Noi non sappiamo molto bene come questo processo sia avvenuto, abbiamo dei punti di riferimento ma non ci è tutto chiarissimo. Per capire bene quello che è successo nel passaggio dal parlato allo scritto è necessario arrivare quasi al Medio Evo, a Cassiodoro. Siamo in grado di capire meglio cosa sia successo nel passaggio dallo scritto allo stampato. Anche a questo riguardo si studia l’evento con una notevole dose di ingenuità; si tende a far coincidere Gutemberg, le sue Bibbie a 36 linee con l'esplosione della stampa: questo non è vero.

Back

Domanda 7
Cosa manca a questa analisi dell’era tele-elettrica?

Risposta
Il fenomeno della stampa è assolutamente sottovalutato e, in generale, non viene esaminato nella sua totale complessità. Ha richiesto non pochi anni, ma diversi secoli per essere assorbito. Per utilizzare la stampa serviva la carta. La carta non poteva essere costruita nel 1500, nel 1600 a costi modici per larghi consumi come accade oggi, perché veniva fatta con degli stracci ed era costosissima. Era addirittura considerato reato distruggere il libro o una qualunque cosa fatta con carta. Solo nel 1800, con l’avvento della pompa di legno, si riuscì a costruire la carta con criteri industriali e da lì ci fu l’esplosione della carta. C’era però un problema più grave: il livello di alfabetizzazione. Chi sapeva leggere? Nel 1400-1500 forse il 3% della popolazione era in grado di leggere un testo. E la lingua ufficiale era il latino, non erano nemmeno le lingue nazionali. La stampa ha costretto l’umanità a riorganizzarsi inventando, in sostanza, la scuola come la conosciamo oggi, con i criteri della scuola attuale. Cioè una scuola lineare, testuale, con prove, con ragazzi tutti della stessa età, che fanno gli stessi studi organizzati in una certa maniera, con dei criteri di organizzazione simbolico-ricostruttiva - da un simbolo devo ricostruire mentalmente il concetto - su cui abbiamo basato l’essere della nostra cultura nel corso degli ultimi 3-4 secoli. Un dato di riferimento: l’Inghilterra di Gutemberg aveva 30 scuole, l’Inghilterra di Shakespeare ne aveva quasi mille. Questa esplosione di scuole era legata a un fatto ben preciso: l’apparizione della stampa. Cito Shakespeare perché anche qui è interessante fare un’osservazione: tutti guardiamo a Shakespeare come al massimo scrittore del mondo occidentale. Di solito, quando si fa il cosiddetto canone della letteratura occidentale, al centro c’è Shakespeare e accanto c’è Darwin. Ma la maggior parte della gente dimentica che Shakespeare non era uno scrittore, era soprattutto un drammaturgo, un autore di testi teatrali, un attore egli stesso. La stampa si è impadronita dei suoi testi e ha fatto di Shakespeare quello che Shakespeare era, ma non bisogna dimenticare che Shakespeare sostanzialmente recitava, tanto per capire quale ruolo avesse ancora il parlato in una cultura di questo genere. Se ci sono voluti secoli di alfabetizzazione, se c’è voluta la costruzione di una scuola simbolico-ricostruttiva, di cosa c’è bisogno oggi in un mondo come quello di Internet, in cui il profano che entra dentro al Ciberspazio trova di fronte a sé miliardi di informazioni apparentemente scollegate tra loro, ma potenzialmente fruibili istantaneamente? La fruizione non può essere istantanea, non esiste nemmeno un concetto di prospettiva che possa aiutare a guardare attraverso l’informazione. All’enorme esplosione di informazioni del 1500, non soltanto dal punto di vista testuale ma anche architettonico e pittorico, ha corrisposto una scoperta fondamentale: quella della prospettiva. Oggi non vedo un Leon Battista Alberti che sia in grado di scrivere un volume che definisca i criteri della prospettiva dell’informazione all’interno del Ciberspazio. Si sa che nel Ciberspazio si naviga, ma non se ne ha percezione della profondità. E questo è qualcosa che sconcerta la persona intelligente, che ci riflette. Non a caso, e cito questo dato perché è veramente interessante, la persona che prima di altri ha intuito che questo sarebbe successo è James Joyce. Nel "Finnegan’s wake" descrive proprio questo mondo tele-elettrico e conia una parola, "Chaosmos", che è la sintesi di Chaos e Cosmos, un mondo, che è il mondo di Internet, che lui non conosceva, ma un mondo in cui tutte le entità vengono a concorrere. Una delle cose che mi fa maggiormente riflettere in questi anni, è che i tecnologi mettono a disposizione un mondo fantastico, costituito da una grandissima quantità di dispositivi, però poi non ne hanno quella di visione di sintesi che hanno gli artisti. Se oggi dovessi chiedere a qualcuno: "ma che cosa c’è veramente lì dentro?", lo dovrei chiedere a Umberto Eco, lo dovrei chiedere a Thomas Pynchon, lo dovrei chiedere a James Joyce. Questi sono i giganti che sono in grado di dare la visione istantanea di quello che sta succedendo, anche se, per il momento, non riescono nemmeno loro a fare quello che ha fatto Leon Battista Alberti: un manuale della prospettiva dell’informazione nel ciberspazio.

Back

Domanda 8
Come si trasforma il processo formativo delle conoscenze con l’utilizzo delle nuove tecnologie come Internet?

Risposta
Oggi tutti sono convinti che si debba prendere Internet, con la sua straordinaria ricchezza, e metterla in mano a un bambino perché il bambino così, come in un videogioco, impara a correre attraverso Internet, navigando a destra e a sinistra, e simulando le più diverse realtà. Questo potrebbe essere anche affascinante, però è assolutamente contraddittorio, se non fatto bene, con un sistema scolastico intellettuale educativo che è del tutto opposto. Il sistema di Internet è un sistema percettivo-motorio, consentitemi di chiamarlo così, assolutamente antitetico a un sistema simbolico-ricostruttivo basato sulla parola come quello della scuola. Quando io ero bambino, mi ricordo, l’insegnante delle elementari diceva a mia madre: "Signora, lo faccia leggere, perché lui deve ricostruire mentalmente le immagini. Suo figlio deve leggere, perché solo attraverso la lettura sarà in grado di ricostruire con la sua fantasia quello che legge e quindi riproporre a se stesso questo mondo". Ed è questa la grande forza del sistema concettuale che noi abbiamo costruito nel corso degli ultimi 7-800 anni. Noi produciamo manuali di istruzioni, che diamo a migliaia di ragazzi. Da questi essi evincono l’informazione e la ricostruiscono simbolicamente per loro stessi.
Adesso questo sistema non può essere preso, buttato via, alienato, e sostituito da un sistema che, per quanto raffinato, interattivo, è antitetico ad esso. Ma è anche vero che noi non possiamo ignorare il contributo straordinario che Internet, il computer, la televisione, diciamo, in generale, questa lingua tele-elettrica ci consente di avere per vedere un mondo che altrimenti non vedremmo perché, ahimè, noi siamo vincolati a due realtà: il troppo grande e il troppo piccolo. Il troppo piccolo e il troppo grande non possiamo vederli e come riusciamo a fantasticarli? Abbiamo una specie di telescopio-microsocopio che ci consente di entrare in questi mondi. Questo è il computer, la realtà virtuale, la simulazione, la matematica, ovvero quel complesso di discipline che dovrebbero consentire un ulteriore salto di quantità e di qualità alla nostra capacità di apprendimento che sembra essere pressoché infinita, e che si sposa con un evento straordinariamente bello: la comprensibilità del mondo. Il mondo nella sua assurdità in realtà è comprensibile. Einstein diceva che molto spesso gli facevano la stessa domanda su quale era la cosa che maggiormente lo aveva stupito nel corso della sua carriera e lui regolarmente rispondeva: "Il fatto che l’universo sia comprensibile". Immaginate un universo non descrivibile, un universo che non abbia regole, un universo che io non riesco a descrivere. Il mondo deve avere una logica perché altrimenti non è trattabile. Ecco, questa logica però è molto complessa. Attualmente il computer ci consente di fare un passo avanti e allora la mia idea è la seguente: Internet e tutto quello che vi è intorno, è qualcosa di straordinariamente bello e complesso. Sta però a noi riuscire a dotarci di un corretto livello di alfabetizzazione per poter integrare tutto ciò nel solco di una tradizione intellettuale e culturale che sposi quanto di bene c’è stato con quanto ci sarà. Quindi non alienare i sistemi educativi tradizionali ma integrarli, complementarli. Recentemente sono stati pubblicati dalla rivista "Telema", come su altri testi, i dati relativi alle prove fatte in Inghilterra, negli ultimi anni, sull’utilizzo di Internet nelle scuole. A distanza di 10-12 anni indicano con chiarezza che la penetrazione di Internet e del computer nelle scuole elementari non è stata un successo. Viceversa è stata un grandissimo successo nel liceo. D’altro canto è stato un ottimo strumento per gli insegnanti. Quindi su queste cose bisogna ragionare con estrema cautela per vederne le potenzialità, capirne i rischi, vederne i limiti e lavorare con grande capacità critica. Io credo che noi siamo di fronte a qualcosa di straordinariamente bello, ma anche di straordinariamente complesso e quindi come tale di pericoloso. Si aprono davanti a noi delle possibilità formidabili e dobbiamo rivedere profondamente i nostri schemi educativi, il che comporterà un periodo di transizione, non so se lungo come quello del libro, ma che sicuramente non si esaurirà nel giro di qualche anno.

Back

Domanda 9
Lei crede che la straordinaria capacità che il computer ha di gestire i dati rispecchi la capacità del cervello umano. Si può considerare il computer un’estensione del cervello umano o c’è una differenza strutturale per cui nel passaggio al computer si deve rivedere la capacità organizzativa della propria mente?

Risposta
Innanzitutto non c’è dubbio che la struttura mnemonica del computer è costruita dall’individuo. Quindi rispetta certe regole algoritmiche che l’uomo ha costruito. Sta di fatto che l’infrastruttura mnemonica che l’uomo ha costruito per il computer non riflette integralmente la infrastruttura mnemonica dell’individuo perché quella ci è ignota. Noi non sappiamo come memorizziamo, è un processo straordinariamente complesso e il suo modo di funzionare sostanzialmente ci sfugge. Non sappiamo dove è localizzata la memoria, intuiamo che è distribuita, non sappiamo come si distribuisce, in parte sembra elettrica, in parte sembra chimica, in parte sembra emotiva, in certe cose sembra distribuita sulla zona destra, in altre sulla zona sinistra, la sua mappatura oggi ci sfugge completamente e potrebbe anche essere che ci sfugga per sempre perché non è detto che il cervello sia in grado di conoscere sé stesso.
Ricordo che quando studiavo Meccanica Quantistica e dovevo studiare il comportamento degli elettroni facevo un’enorme fatica a studiare i teoremi di Meccanica Quantistica per la loro eccessiva astrattezza. Dicevo a me stesso: "Ma tu guarda che cosa strana che è la vita. Io ho un cervello che funziona sulla base degli elettroni, che si muovono nel mio cervello, e in questo momento stanno lavorando freneticamente per farmi capire come essi stessi funzionano". E questa specie di serpente che si mordeva la coda, mi lasciava totalmente sorpreso. Pensavo che fosse quasi impossibile che un elettrone capisse il suo stesso funzionamento. Oggi che la nostra mente sia in grado di capire come essa stessa funzioni al completo, mi sembra anche abbastanza azzardato. Speriamo che una mente collettiva sia in grado di farlo. In ogni caso, la possibilità di avere una memoria molto raffinata, costruita da noi, è sicuramente alla nostra portata.
In secondo luogo attualmente noi riusciamo con il computer a fare soltanto una cosa veramente originale che è quella di gestire enormi quantità di dati quasi istantaneamente per estrarre da questi dati delle forme o, come dire, delle sottoaggregazioni che possono semanticamente risultare significative se riconosciute. Adesso si può dire a un computer: "Questo è l’elenco telefonico, dimmi tutti quelli che si chiamano Paolo e il cui numero comincia per 3 ?" E’ una ricerca noiosissima che un uomo porta a termine dopo 20-25 giorni. E’ chiaro che il computer una ricerca di questo genere la fa nel giro di pochi secondi perché ha una tale velocità circuitale - semantica non ce n’è – per cui prende i Paoli, prende i ‘3’, li mette insieme e mi dà la risposta.
Oggi ci sono poi altri tipi di problemi che stanno emergendo. La domanda è: come questo tipo di struttura può integrare la mente umana ? L’intelligenza collettiva che noi stiamo costruendo gioca essenzialmente su un concetto di connettibilità reciproca. La grande difficoltà dell’intelligenza collettiva è che noi ci connettiamo con tanti. Apro una parentesi - non voglio assolutamente essere in questo né darwinistico né riduttivo nei confronti dell’uomo - dicendo che sostanzialmente siamo scimmie. Fisicamente non siamo poi tanto diversi da una scimmia. Se io guardo uno scimpanzé e guardo un essere umano, posso fare delle associazioni. Certo la scimmia non sa parlare, però se guardo con attenzione il comportamento di una scimmia, mi accorgo che le scimmie hanno dei comportamenti realmente interessanti dal punto di vista sociale. Le scimmie evolute, passano un’enorme quantità di tempo a spulciarsi reciprocamente. Qual’è la finalità di un’attività di questo genere? Ovviamente la socializzazione. Noi non ci spulciamo, ma abbiamo un attività più o meno simile: è quella della conversazione così, basata su niente, il conversare fine a sé stesso. Noi conversiamo per il puro piacere di conversare. Il racconto è ciò che ci interessa, i dettagli della vita giorno per giorno. Se si scolta la conversazione di persone non conosciute ci si accorge che parlano di niente, ma solo apparentemente perché in realtà socializzano. Questa socializzazione è basata su connessioni, connessioni reciproche, che nelle scimmie portano a dei gruppi di 20-30-40 individui e il cervello è strutturato per gestire 20-30-40 individui. Nell’essere umano la neocorteccia cerebrale è strutturata, e questo sembra dimostrato scientificamente, per un numero limitato di connessioni, alto sì, ma non oltre alle 150-200 persone. Non è casuale che nessuna unità bellica superi le 150-200 unità. Poi certo c’è tutto l’esercito ma l’unità bellica fondamentale è sempre fatta di 150-200 persone. L’azienda senza gerarchia, l’azienda cosiddetta ‘totalmente piatta’, è fatta di 150-200 persone. Quella sembra essere la comunità elementare umana perché sembra che non siamo in grado di tenere più connessioni, globalmente, di 150-200, che sono tantissime nel numero di casi possibili. Allora, se oggi noi ci troviamo di fronte a una società con una connettibilità di 200.000.000 di persone, tutte raggiungibili via Internet, si pone un problema di gestione di questa connettibilità molto diverso: è difficile che io vada a fare certi tipi di analisi mentalmente, perché non è proprio possibile. Non si tratta di trovare in un elenco tutti quelli che si chiamano Paolo, il cui numero comincia per 3, ma bisogna affrontare ben altri problemi.

Back

Domanda 10
Può farci altri esempi riguardo ciò che la memoria computer consente di fare?

Risposta
Prendiamo la Telecom, tanto per fare un esempio. La Telecom che gestisce le reti, ha tantissimi utenti che hanno il telefono e una frazione di utenti che hanno il Fax. Adesso la Telecom decide di fare una campagna pubblicitaria di questo tipo: "Se tu usi tanto il Fax, comprati una seconda linea". Alcuni utenti ne fanno uso, altri no. La Telecom possiede i tabulati di tutte le telefonate, da A a B, da C a D, da 1 a 3, da 7 a 21 milioni di incroci di telefonate: come fare da questo a evincere chi sono quelli che hanno il fax e quelli che non lo hanno? Però questi dati li ha in un archivio. Questa memoria esiste, tutte le informazioni sono state memorizzate e si può ottenere la capacità di estrarre dall’archivio questa informazione significativa. A mano è impossibile, mentalmente altrettanto. In un mondo di estesa connettività come quello che ci propone l’intelligenza connettiva, i link fra le persone e le loro attività sono tantissimi. L’uomo non potrà gestirli. Allora, i sistemi mnemonici dei computer, che devono essere dotati di due elementi, uno passivo, il deposito delle informazioni, organizzato in un certo modo, e quello attivo, l’algoritmo che estrae le informazioni, possono diventare così sofisticati da comunicarmi il dato che mi interessa. E in America il business se ne è accorto. Un caso per tutti, che ormai è conclamato su tutti i libri, è l’associazione birra-pannolini. Hanno fatto questa scoperta qualche anno fa quelli della Warmard. Hanno fatto una ricerca nell’archivio per sapere quali prodotti si vendono contemporaneamente e hanno scoperto che, chi compra il giovedì sera, compra stranamente birra e pannolini. Per un supermercato con 40.000 prodotti, questo è un dato significativo.
Quale prodotto va con quale? Giovedì sera a casa con un bambino piccolo: pannolini e birra. Perché? Perché il giovedì sera la moglie va dal parrucchiere o perché il venerdì sera esce. E chi va a fare la spesa ? Il marito. E il marito che fa? Compra i pannolini! Come pensa ai pannolini, dice: "Sì, ma sabato sono a casa e guarderò lo sport, quindi mi serve anche la birra". Che hanno fatto quelli della Warmard? Hanno messo pannolini e birra proprio attaccati alle casse.
Lasciate perdere il supermercato, prendete una struttura genetica e immaginate quale gene va con quale in quale malattia e vi accorgete che tipo di scenario molto più interessante si può aprire.
I 66.000 geni che compongono il corpo umano non sono mica mappabili così facilmente. Provate a porvi questa domanda: quale associazione di quale gene con quale altro gene in quale ambiente chimico dà luogo a questo rischio di malattia? Non dimentichiamoci che la cosa straordinaria di questo secolo, la più straordinaria di tutte, è il raddoppiamento della vita umana. Il 1900 è cominciato con un’età media di 45 anni e termina con un’età media di 90 anni passando attraverso due fasi fondamentali: il controllo delle malattie infettive, 1900-1950, il controllo delle malattie degenerative fatto con chimica e chirurgia fra il 1950 e il 2000. E si assiste adesso all’esplosione della chimica in tutti i generi: mal di testa, felicità, desiderio, assenza di desiderio, noia, Prozac, piuttosto che altri prodotti.
Ma qual è il futuro della medicina? E’ lo sposalizio col computer. Per avere queste memorie che mi consentono di mappare il mio genoma, vederlo e consentire un nuovo tipo di aggressione alle malattie degenerative: un’aggressione rigenerativa. Credo che forse il contributo più fantastico che il computer poteva dare, ma anche il più dirompente, è una sorprendente estensione della vita umana che valuto di almeno 50 anni. Per cui, intorno al 2030-2040, non sarei stupito se la vita umana arrivasse a 140-150 anni, con delle conseguenze che non oso nemmeno immaginare, tanto non mi toccano perché io non ci sarò purtroppo. La memoria del computer è un grande deposito, su cui stiamo inserendo algoritmi estremamente significativi estremamente sofisticati, per riconoscere combinazioni complesse che altrimenti ci sfuggirebbero e da cui potremo fare delle scoperte semantiche straordinarie.

Back

Domanda 11
Rispetto all’arrivo dell’anno 2000: qual è veramente il rischio che corre l’Italia visto che finora non sono stati presi dei provvedimenti seri?

Risposta
Il problema dell’anno 2000 è sicuramente un problema serio. E’ un problema reale che va affrontato. Con una punta di vanità, devo dirlo, circa 10 anni fa scrissi un articolo sul problema dell’anno 2000. Questo perché ho lavorato molto presso in centri di una certa dimensione. Ricordo che all’inizio degli anni ’70, in una grossa banca a Roma, ebbi un problema di un sistema che si era bloccato e non si riusciva a capirne il perché. Si scoprì poi che un programmatore non aveva tenuto conto che Febbraio era un mese bisestile e quindi comprendeva pure il 29 febbraio. Adesso la cosa potrà far sorridere, però l’aveva programmato come se il Febbraio fosse di 28 giorni. Per due anni è andato bene, il terzo anno è capitato un 29 febbraio che non essendo previsto ha fatto fermare il programma. Così si è fermata tutta la procedura e abbiamo dovuto fermare tutta l’applicazione, con conseguenze che, lo ammetto, furono abbastanza antipatiche. Questa esperienza mi lasciò un tarlo che per anni mi ha roso e di tanto in tanto la vedevo riaffiorare qua e là su qualche rivista specializzata, oppure in qualche articolo: "Un giorno arriverà l’anno 2000". Poiché io ho cominciato a programmare e ho programmato seriamente, nel senso che ero analista di sistema e quindi ho scritto programmi abbastanza complicati già a partire della metà degli anni ’60, sapevo che uno dei vincoli fondamentali degli anni ’60 era scrivere programmi estremamente piccoli, compatti; la bravura del programmatore era quella di fare il programma più corto possibile e anzi, era una forma di virtuosismo. Tra di noi si scherzava, nel settore in cui lavoravo io, su chi una certa routine la faceva più corta agli altri.
Questo virtuosismo che sembrava allora una cosa bellissima, col tempo è diventato veramente una cosa molto pericolosa. Il contrarre la data finale da quattro posizioni xxxx in yy, scrivendo non 1999 ma 99, alla fine degli anni ’60 non venne neppure considerato un problema tanto era lontano il 2000. Ma il ’99 è venuto. E adesso che cosa potrebbe succedere, tanto per spiegarlo al profano. Tante procedure ma anche tanti pezzi di software di sistema trovano 00 invece di 90. Il computer che vede 00, non avendo capacità semantica, come interpreta 00 ? Potrebbe essere che per lui 00 voglia dire 1900.
In realtà, per essere maliziosi e rendere lo scenario ancora più terrificante possiamo fare un altro esempio: tutti parlano del famigerato anno 2000 ma ben pochi pensano che c’è una data che precede l’anno 2000, che in piccola misura è altrettanto critica, ed è il 9 settembre del 1999, che si presenta quasi tre mesi prima. In un programma viene scritto 9-9-99. Per molti programmatori 9-9-99 "fa tappo", come "fa tappo" 0-0-00. Quindi delle belle potremmo vederle anche il 9-9-99.
Sono diversi anni che si sta lavorando, non soltanto a livello di applicazioni, ma anche a livello di software di sistema, per individuare dove questi problemi siano avvenuti. Alcuni sono avvenuti anche in software di macchina, e sono stati costruiti dei supporti atti a individuarli quasi automaticamente. In alcuni paesi che sono più avanzati per tradizione c’è l’abitudine a fare le cose in maniera preventiva. L’Italia, per sua tradizione, tende a fare le cose all’ultimo momento. Però io mantengo un sostanziale ottimismo italiano, una certa fiducia italiana. Ci sarà pure qualche sbavatura, qualche intoppo, però non prevedo che sarà l’avvenimento drammatico che tutti si immaginano.
Ci saranno certo 2-3 settimane veramente infernali per chi dovrà fare le ultime correzioni. Ci sarà un po’ di sofferenza, ci troveremo di fronte a qualche situazione anomala, ma credo che globalmente si troverà una sistemazione. Certo che una situazione del genere non va sottovalutata e nessuno la sta sottovalutando. Io vedo che i gruppi, soprattutto finanziari e assicurativi, stanno ponendo a questo problema ormai un’attenzione semplicemente frenetica. Non dimentichiamoci che c’è anche un aspetto giuridico oltre che economico da considerare e che può avere conseguenze negative su molte persone. Quindi io sono sostanzialmente ottimista e ritengo che, in extremis, il problema dell’anno 2000 verrà risolto.

Back

torna a inizio pagina