Lezione n. 03
Reti e telecomunicazioni
di Fabio Ciotti
Argomenti associati:
Facendo
clic su questa icona si aprirà la scheda di
approfondimento |
|
Una breve storia delle
telecomunicazioni |
|
Il telefono digitale: ISDN
e oltre |
|
Il futuro di Internet |
|
Intranet ed Extranet |
|
Vinton Cerf |
|
Bob Metcalfe |
|
Argomenti trattati nella lezione 03:
La
"rivoluzione digitale", i cui contorni stiamo cercando di
delineare in questo corso, poggia su due pilastri ideali. Il primo
è costituito dal computer, ed in particolare dal personal computer,
di cui abbiamo parlato nelle dispense precedenti. Il secondo è
costituito dalle telecomunicazioni ed in particolare dalle
telecomunicazioni digitali, che saranno il tema di questa e della
prossima dispensa.
L'incontro tra telecomunicazioni e computer avviene piuttosto
tardi nella storia di entrambe le tecnologie (anche se i computer
esistevano da soli venti anni). I primi esperimenti in questo campo,
infatti, risalgono agli anni Sessanta. Ma questo incontro ha dato
luogo ad alcune delle innovazioni più importanti nella storia della
tecnologia, e specialmente negli ultimi venti anni ha impresso un
enorme impulso all'industria di entrambi i settori. Oggi la
convergenza tra questi due mondi è un dato acquisito, tanto che si
parla comunemente di Information and Communication Technology
(tecnologie dell'informazione e della comunicazione) come di un
tutto unico.
Un'area di particolare interesse in questo ambito è quella che
si occupa dell'interconnessione tra computer, che spesso viene
indicata con il termine telematica. Il termine deriva dalla
composizione del prefisso "tele-" con "(infor)matica",
informatica a distanza. La telematica, infatti, si occupa della
trasmissione di informazione a distanza tra sistemi informatici,
mediante reti di computer.
Una delle caratteristiche più notevoli di cui gode
l'informazione archiviata in formato digitale è la grande facilità
di movimento. Un insieme di bit, infatti, può essere spostato con
pochissimo dispendio di energia, a differenza di quanto avviene con
l'informazione archiviata su uno dei tradizionali supporti
materiali. Sfruttando questa grande mobilità dei bit, una rete
telematica ci consente di trasmettere e ricevere dati da un computer
ad un altro, posto che essi siano stati opportunamente collegati.
Questa capacità produce delle conseguenze molto interessanti. In
primo luogo i computer, una volta collegati, possono scambiarsi dati
e condividere risorse, distribuendo così il carico
dell'elaborazione e dell'archiviazione delle informazioni. In
secondo luogo essi, da puri strumenti di elaborazione dei dati,
diventano veri e propri strumenti di comunicazione tra esseri umani.
Proprio in questa capacità di comunicare informazioni in formato
digitale mediante i computer risiede il cuore dell'attuale
rivoluzione tecnologica.
Come di consueto, iniziamo fissando il significato dei termini
che stiamo utilizzando. Del computer e della digitalizzazione
abbiamo parlato ampiamente nelle lezioni precedenti. La nuova
espressione che incontriamo nella nostra trattazione è
"telecomunicazione".
Una semplice analisi etimologica di questo termine ci consegna un
primo significato. Il prefisso tele- (che viene dal greco têle,
lontano) viene usato nel linguaggio scientifico tecnologico con il
significato di "a distanza". Dunque telecomunicazione
significa "comunicazione (di informazioni) a distanza".
Tuttavia, questa definizione è alquanto generica. Da una parte, a
ben vedere, ogni comunicazione implica una distanza (Sul concetto di
comunicazione torneremo nella dispensa 6,
dove cercheremo di darne una definizione un po' più rigorosa).
Dall'altra, se per distanza intendiamo uno spazio tale che sia al di
fuori della nostra percezione immediata, dovremmo includere anche la
posta dall'ambito della telecomunicazione e, perché no, i libri:
non ci permettono forse di mandare informazioni a distanza?
L'introduzione di un nuovo concetto in una disciplina ha senso se
esso permette di individuare con precisione una classe di oggetti o
di concetti dotati di particolari caratteristiche. Dobbiamo dunque
raffinare la nostra definizione.
Diciamo allora che siamo in presenza di un sistema di
telecomunicazione se il trasferimento di informazioni nello spazio
avviene mediante il trasporto di energia e non di materia.
Questa precisazione ci consente di delimitare e descrivere in modo
unitario un insieme di tecnologie (sviluppatesi a partire dalla fine
del Settecento) che vanno dal telegrafo e, passando per il telefono,
giungono fino alle comunicazioni satellitari.
In tutti questi sistemi di comunicazione a distanza, infatti, il
trasferimento di informazione avviene attraverso il trasporto di
flussi di energia come la corrente elettrica o le radiazioni
elettromagnetiche di varia frequenza, attraverso un mezzo che può
essere fisico (un cavo) o immateriale (lo spazio in cui si propagano
le onde radio). Al contrario la posta richiede il trasporto fisico
di "piccole porzioni di materia", le lettere.
I sistemi di telecomunicazione presentano molti vantaggi rispetto
alle altre tecnologie di trasferimento delle informazioni sub
specie materiale. Pur avendo una portata molto ampia (pensiamo
alle comunicazioni con le lontanissime sonde in giro per il nostro
sistema solare), sono molto veloci: l'energia, infatti, viaggia
molto più rapidamente della materia, ed in alcune forme è in grado
di superare molti ostacoli (in particolare le onde radio a bassa
frequenza). Queste caratteristiche li rendono atti alla
comunicazione a distanza in tempo reale, sia in modalità
unidirezionale (come la radio e la televisione) che bidirezionale
(come il telefono). Nella dispensa
6 torneremo ad occuparci di comunicazione unidirezionale e
bidirezionale.
La telecomunicazione, abbiamo detto, consiste nella trasmissione
di informazione da una fonte A ad una destinazione B,
mediante il trasporto di energia elettrica o elettromagnetica.
Affinché questo trasporto abbia luogo sono necessarie alcune
condizioni.
In primo luogo dovremo avere un apparato di trasmissione da
una parte e uno di ricezione dall'altra. Il primo avrà la
funzione di inviare il flusso o gli impulsi di energia, il vettore
dell'informazione, ed il secondo quello di riceverli. Poi avremo
bisogno di un canale attraverso il quale il flusso o gli
impulsi di energia possano viaggiare senza subire attenuazioni o
distorsioni eccessive. Il principio è simile a quello dei canali
idrici, che hanno la funzione di indirizzare il flusso di acqua e di
impedire che si disperda sul territorio. Le telecomunicazioni sono
un caso particolare del fenomeno della comunicazione. Nella sesta
dispensa approfondiremo questo tema e vedremo i modelli teorici
che individuano i fattori della comunicazione.
Ma queste condizioni non sono sufficienti. Infatti, affinché
avvenga un trasferimento di informazione dobbiamo fare in modo che
l'energia trasportata lungo il canale rappresenti
l'informazione alla fonte. Abbiamo imparato che esistono due
modalità di rappresentazione dell'informazione: analogica
e digitale. Dunque, anche nella telecomunicazione la
trasmissione di informazioni può avvenire può assumere un di
queste due forme. Si noti che non esiste un vincolo obbligatorio tra
la forma di rappresentazione dell'informazione alla fonte e la
modalità di trasmissione: è possibile, infatti, usare un sistema
di trasmissione digitale per inviare informazione analogica alla
fonte e viceversa.
Alla base del concetto di analogico, come sappiamo, c'è l'idea
di somiglianza e di continuità. Una rappresentazione analogica
insomma, cerca di riprodurre alcune caratteristiche del fenomeno
rappresentato segnalando ogni loro minima variazione. Lo stesso
avviene nella trasmissione analogica di informazioni.
In modo un po' più formale (ogni tanto è necessario usare un
linguaggio preciso e tecnico!) possiamo dire che nella
trasmissione analogica si stabilisce un rapporto continuo tra il
fenomeno rappresentato ed il suo vettore, tale che per ogni
variazione di stato nella fonte si ha una variazione di stato nel
vettore.
Cosa intendiamo? Prendiamo un caso concreto, ad esempio il
telefono. Come saprete il suono è una vibrazione, che genera
nell'aria dei movimenti ondulatori in qualche modo simili a quelli
della superficie marina. Quando parliamo al telefono queste
vibrazioni, o onde sonore arrivano al microfono della cornetta, che
è in grado di convertirle in variazioni di potenziale elettrico;
queste generano a loro volta una corrente variabile lungo il filo,
che giunge fino all'altro apparecchio, dove avviene il processo
inverso. Si noti che ogni variazione di frequenza delle onde sonore
è direttamente proporzionale ad una variazione di potenziale
elettrico: esattamente come vogliono i principi della trasmissione
analogica.
|
Figura 1 - La trasmissione analogica |
Anche la radio e la televisione tradizionale usano un sistema di
trasmissione analogica, che mette in corrispondenza diretta i suoni
e la luce catturati da microfono e telecamere con le onde
elettromagnetiche inviate dalle antenne. Naturalmente il processo di
conversione è molto più complicato. Infatti, in questi casi
bisogna trasmettere contemporaneamente nello stesso canale di
trasmissione elettromagnetico vibrazioni sonore o emissioni di luce
che hanno diverse frequenze ed intensità. Si fa ricorso dunque a
tecniche come la modulazione di ampiezza e la modulazione di
frequenza, che consentono di trasmettere una maggiore quantità di
segnali su un singolo canale di trasmissione.
Sappiamo bene che cosa è la codifica
digitale. Ebbene, come possiamo facilmente immaginarci, la
trasmissione digitale consiste proprio nella trasmissione di
informazioni in formato digitale, nella trasmissione di bit.
In questo caso, dunque, le informazioni della fonte, che possono
essere già in formato digitale, oppure che vanno digitalizzate al
momento della trasmissione, sono veicolate in forma di bit. Ogni bit
viene codificato mediante uno o più impulsi discreti e discontinui
del vettore, che sono denominati elementi del segnale.
Naturalmente allo zero corrisponde una codifica ed all'uno ne
corrisponde un'altra. Dal punto di vista pratico si possono
utilizzare diversi generi di segnali: due livelli distinti di
tensione elettrica, ad esempio, oppure due frequenze di emissione
elettromagnetica, o ancora due impulsi luminosi emessi da un laser.
Dipende ovviamente dal sistema di trasmissione che viene utilizzato.
Esistono diversi modi in cui viene effettuata la codifica dei bit
alla fonte mediante gli elementi del segnale. Nel caso più
semplice, ad ogni bit corrisponde un singolo segnale: allo zero
corrisponde un livello basso di tensione elettrica, e all'uno un
livello alto. Una codifica come questa, però può facilmente
generare errori, dovuti ad esempio ad interferenze elettriche che
trasformano i segnali corrispondenti a uno in segnali zero e
viceversa. Per questa ragione nei sistemi di telecomunicazione
digitale reali, si usano schemi più complessi, che associano coppie
o triple di elementi del segnale ad ogni bit. Questi sistemi di
codifica più complessi presentano infatti dei vantaggi in termini
di capacità di ricostruzione del segnale e di individuazione e
controllo degli errori di trasmissione. Se vi interessa approfondire
l'argomento, potete leggere il capitolo 4 del libro Comunicazioni
tra computer che vi segnaliamo in bibliografia. Attenzione
però: si tratta di un libro piuttosto difficile, e dunque va
studiato con molta buona volontà.
Una delle caratteristiche più rilevanti di un sistema di
trasmissione digitale è la velocità di trasmissione, ovvero
la quantità di informazione digitale che un canale è in grado di
trasmettere nell'unità di tempo. Come sapete, l'unità di misura
dell'informazione in formato
digitale è il bit. Conseguentemente, la grandezza della
velocità di trasmissione si misura in bit al secondo
(abbreviato in bps). La velocità di trasmissione di un
canale digitale è proporzionale all'ampiezza dell'intervallo di
frequenze elettriche o elettromagnetiche che vi possono essere
veicolate, detta larghezza di banda. Per questo spesso i due
termini sono usati in modo intercambiabile.
I sistemi di trasmissione digitale hanno iniziato a diffondersi
solo negli ultimi tre decenni, ma oggi stanno progressivamente
sostituendo i tradizionali canali analogici in tutte le aree delle
telecomunicazioni.
Le ragioni di questa "migrazione" sono molteplici. In
primo luogo i costi delle tecnologie digitali sono diminuiti con un
ritmo assai sostenuto, rendendo economicamente appetibile la
conversione dei vecchi impianti. In secondo luogo l'enorme
diffusione dei computer prima nelle tradizionali aree commerciali e
scientifiche, e poi nel mercato di massa, ha posto all'ordine del
giorno l'integrazione di tutte le tecnologie in un'unica piattaforma
digitale, in grado di offrire servizi interattivi e ogni sorta di
altro "ben di Dio" digitale (torneremo su queste tematiche
nella settima dispensa). In terzo
luogo la trasmissione digitale delle informazioni consente una
maggiore efficienza e qualità nella comunicazione, poiché è meno
soggetta ai disturbi che si possono verificare lungo il canale di
trasmissione, e soprattutto perché consente di utilizzare una serie
di tecniche per la correzione degli errori. Infine la trasmissione
digitale garantisce una sicurezza ed una riservatezza quasi assoluta
della comunicazione, poiché le informazioni digitali possono essere
facilmente sottoposte a processi di cifratura che ne impediscono
l'intercettazione.
Abbiamo già rilevato come sia possibile utilizzare un sistema di
trasmissione digitale per inviare informazione analogica alla fonte
e viceversa. In effetti, questo tipo di transizioni avviene assai
spesso nelle attuali reti di telecomunicazione. Ad esempio, la linea
telefonica adotta in gran parte un sistema di trasmissione misto,
digitale tra le centrali e analogico da queste all'utenza. Ma anche
la televisione digitale trasmette spesso immagini che sono riprese e
che viaggiano fino alle antenne di trasmissione satellitare mediante
apparati analogici (così come i segnali digitali sono riconvertiti
in immagini analogiche per essere visualizzate sui comuni
televisori).
Questo avviene per diversi motivi. In primo luogo le tecnologie
digitali nell'ambito delle telecomunicazioni sono state introdotte
solo negli ultimi tre decenni; in secondo luogo la loro
utilizzazione richiede investimenti notevoli, i cui oneri vengono
distribuiti nel tempo dalle industrie del settore; ed infine bisogna
ricordare che la maggior parte delle fonti di informazione sono
analogiche (ad esempio la nostra voce) e quindi vanno digitalizzate,
almeno nel momento in cui entrano per la prima volta in un processo
di telecomunicazione.
Naturalmente, per rendere possibile il passaggio da informazioni
analogiche a digitali, o viceversa, è necessario eseguire una
conversione dei segnali. La conversione da digitale ad analogico si
chiama modulazione/demodulazione. In sostanza si
tratta di modificare (o modulare) alcuni parametri del segnale che
trasporta l'informazione (detto portante) in modo tale da
codificare opportunamente gli 1 e 0 della fonte; in particolare i
parametri che possono essere modulati sono frequenza, ampiezza o
fase del segnale analogico. Alla destinazione avviene il processo
inverso, che permette di estrarre dal segnale modulato la codifica
binaria originale. Purtroppo un segnale modulato che viaggia lungo
una linea è soggetto a notevoli interferenze. Questo limita la
banda passante effettivamente utilizzabile, ovvero la quantità di
bit che può essere trasmessa nell'unità di tempo lungo il canale.
I primi apparecchi in grado di svolgere l'operazione di
modulazione e demodulazione risalgono ai primordi della telematica,
intorno alla fine degli anni cinquanta. Essi furono battezzati modem
(contraendo i due termini) e non superavano i 300 bps. I modem
attuali più veloci sono riusciti a raggiungere la velocità di 56
Kbps, anche se tale velocità è teorica, e soprattutto può essere
raggiunta solo in un verso di trasmissione. Siamo infatti ai limiti
fisici che questa tecnologia è in grado di conseguire.
Il processo inverso di conversione, la codifica da
analogico a digitale, lo conosciamo già. Nell'ambito delle
telecomunicazioni il sistema di codifica più utilizzato si chiama Pulse
Coded Modulation (PCM), modulazione a codifica di impulsi. Si
tratta di un sistema di "campionamento" del segnale
analogico: l'onda che lo rappresenta viene segmentata e per ogni
segmento si calcola l'ampiezza media del segnale. Questa sequenza di
numeri viene poi codificata con il sistema binario e dunque
trasformata in impulsi digitali. Parallelamente al modem, l'apparato
che effettua questa codifica/decodifica si chiama codec.
L'incontro tra il mondo dei computer e quello delle
telecomunicazioni risale alla prima metà degli anni sessanta. In
quel periodo, infatti, comincia a diffondersi l'esigenza di
condividere le risorse informatiche. Occorre dire che in quegli anni
i computer erano affatto diversi dai nostri piccoli e comodi
personal da scrivania. Il microchip era stato appena inventato e non
era ancora utilizzato per costruire computer, che invece si basavano
su transistor o perfino su valvole. Ne risultavano oggetti che
andavano dalle dimensioni di un armadio a quattro ante a quelle di
un intero appartamento, e che costavano una quantità di dollari di
pari volume! La condivisione delle risorse informatiche si
presentava dunque come una questione assai pressante, specialmente
per gli enti di ricerca ed i laboratori universitari che non
ricevevano finanziamenti governativi diretti.
Un primo passo in questa direzione era stata la diffusione dei
terminali remoti, collegati ad un computer centrale attraverso dei
cavi. Talvolta questi collegamenti coprivano grandi distanze. Era
questo il caso del sistema SAGE, il cuore del sistema di difesa
antimissilistica degli Stati Uniti all'epoca della Guerra Fredda.
SAGE era costituito da 24 centri radar sparsi in tutto il territorio
del paese, collegati ad un gigantesco elaboratore collocato nel New
Jersey. Ma in questo caso non si trattava di condivisione. I
terminali erano infatti delle semplici unità di input e output
(monitor e tastiera), che non avevano nulla da condividere: tutto il
carico di elaborazione e di archiviazione dei dati gravava
sull'elaboratore centrale.
Per ottenere una vera e propria condivisione era necessario far
comunicare tra loro un insieme di computer, e fare in modo che i
dati potessero viaggiare da uno all'altro, ed essere elaborati. Si
trattava insomma di realizzare una sorta di rete, ai cui nodi
fossero collocati degli elaboratori elettronici autonomi.
Un computer, come sappiamo dalla seconda
lezione, è una macchina in grado di manipolare informazione
rappresentata in forma digitale. Durante il normale funzionamento, i
bit viaggiano incessantemente e velocemente tra le varie componenti
interne di un computer, attraverso dei canali detti bus:
dalla memoria alla CPU; dalla CPU alla scheda grafica; dalla scheda
grafica, trasformati in segnali analogici, fuori, verso il monitor.
Una rete di computer estende questa "capacità di
circolazione" dei bit per consentire la trasmissione di
informazione in formato digitale tra diversi computer, e distribuire
così il compito della sua elaborazione. I vantaggi apportati da
questo collegamento sono molteplici. Un computer che fa parte di una
rete può accedere alle risorse informative (programmi o dati)
residenti su altri computer, oppure utilizzare alcune periferiche
(stampanti, fax) ad essi collegate. È persino possibile realizzare
dei "programmi modulari", i cui componenti
"girano" su computer diversi collegati mediante una rete
(in genere ci si riferisce a questo tipo di programmi con il termine
di "applicazioni distribuite"). In genere questo tipo di
applicazioni distribuite si basano su una cosiddetta architettura client-server.
Che cosa significa?
In modo intuitivo possiamo dire che in questo tipo di
applicazioni i compiti di elaborazione dei dati sono distribuiti tra
i due moduli del programma in modo non simmetrico: il server
gestisce l'archiviazione definitiva dei dati, le funzioni relative
alla ricerca di particolari dati nell'archivio e l'invio dei dati
richiesti al client; questo invece controlla la rappresentazione dei
dati all'utente ed eventualmente la loro modifica e manipolazione interattiva:
si tratta insomma del modulo di interfaccia con l'utente (per il
concetto di interfaccia rimandiamo alla quinta
dispensa).
Come avviene per il singolo computer, anche una rete telematica
ha componenti fisiche, l'hardware, e componenti logiche, il
software. Le componenti hardware di una rete sono costituite (oltre
che dai computer, ovviamente) dai canali e dagli apparati di
trasmissione mediante i quali i computer vengono fisicamente
collegati, e lungo i quali viaggiano i segnali della comunicazione.
Tali canali possono essere cavi di varia natura (cavi metallici,
fibre ottiche) o sistemi di radiocomunicazione (ponti radio a
microonde, antenne e satelliti). In genere una rete di computer vera
e propria adotta dei sistemi di comunicazione integralmente
digitali. Non di rado, tuttavia, vengono usate anche infrastrutture
analogiche, come la rete telefonica, associate a dispositivi di
modulazione e demodulazione (modem).
Le componenti logiche di una rete telematica sono invece i
programmi di gestione del collegamento e del traffico dei dati,
tecnicamente denominati protocolli.
Essi svolgono diverse funzioni, che vanno dall'instradamento dei
dati tra i vari nodi di una rete, alla correzione degli errori di
trasmissione, fino alla coordinazione dei rapporti tra i moduli di
una "applicazione distribuita".
Nel corso degli anni sono stati sviluppati diversi sistemi per
realizzare e gestire la comunicazione tra computer. Di conseguenza
esistono diversi tipi di rete, ognuna con i suoi protocolli e le sue
infrastrutture hardware. Si parla dunque di rete Ethernet, di
rete Token Ring, di rete ATM, di rete FDDI, e
così via siglando. Ma nell'ambito della telematica vengono adottati
anche dei criteri più generali per classificare le reti di
computer.
Una delle distinzioni più comuni è basata sull'estensione
fisica della rete. Da questo punto di vista si distinguono due
classi: rete locale o LAN (da Local Area Network) e rete
geografica, o WAN (da Wide Area Network).
Una rete locale, è una rete dall'estensione limitata (che
non supera le poche centinaia di metri) e che in genere è collocata
interamente dentro un solo edificio. Si tratta delle reti che
vengono utilizzate negli uffici, nelle aule attrezzate delle scuole,
nei centri di ricerca e nelle università al fine di condividere
risorse e di scambiarsi messaggi. Talvolta una rete locale si
estende su aree più vaste, spesso collegandosi ad altre reti
locali: in questo caso si parla di reti dipartimentali.
La tecnologia più diffusa per realizzare LAN si chiama Ethernet,
una delle tante meraviglie uscite da quella fucina di creatori
dell'informatica contemporanea che si concentrò all'inizio degli
anni 70 al centro di ricerca PARC della Xerox, nella città di Palo
Alto. Essa fu sviluppata da un allora giovane ricercatore, Bob
Metcalfe, che aveva ricevuto il compito di trovare un modo per
collegare tra loro le stazioni di lavoro ALTO, i primi computer
basati su un sistema
operativo a icone e finestre (altra geniale invenzione nata al
PARC e diffusasi solo dieci anni più tardi con la
commercializzazione del primo Macintosh da parte della Apple).
Una rete geografica, o rete estesa, invece, è una rete
distribuita su distanze molto grandi. Queste reti connettono
computer, o più spesso intere reti locali, collocati ad esempio
nelle varie filiali di una banca, o nelle differenti sedi di
un'azienda. Possono coprire aree che vanno dai pochi chilometri di
un'area metropolitana (in questo caso sono dette MAN, Metropolitan
Area Network) fino alle distanze intercontinentali delle grandi
reti aziendali e finanziarie e di Internet,
la rete geografica per eccellenza.
Un altro criterio di classificazione delle reti di computer
riguarda la forma o "topologia" delle reti. L'immagine
più comune che abbiamo di una rete è quella di un insieme di fili
che si intrecciano a formare maglie. Ogni punto di intersezione
forma un nodo dal quale partono più segmenti di filo. La più
comune forma definita da questo intreccio è quella di una serie di
maglie quadrate o romboidali, come quella delle reti metalliche di
recinzione. Le reti di computer condividono con il concetto comune
di rete molti aspetti: abbiamo anche qui dei nodi, dai quali si
dipartono segmenti di cavi che vanno ad altri nodi. Ma la
configurazione di questi elementi può variare molto. In effetti le
reti di computer vengono suddivise in varie classi proprio in
relazione alla loro "topologia", ovvero alla forma della
rete. Da questa forma dipende anche il modo in cui i bit viaggiano
da un nodo all'altro.
Da questo punto di vista si distinguono generalmente le seguenti
categorie di rete: reti a maglie o reti distribuite, reti
a stella, reti a bus, reti gerarchiche, reti ad
anello.
|
Figura 2 - Diverse topologie di rete
telematica |
Le reti a maglie o reti distribuite sono reti in
cui ogni singolo nodo è collegato con molti altri nodi, al limite
con tutti (quest'ultima topologia fornisce la massima efficienza, ma
rende estremamente complicata e costosa l'aggiunta di nuovi nodi
alla rete). In una rete distribuita i messaggi vengono inoltrati da
un nodo all'altro scegliendo uno dei molti percorsi disponibili. La
scelta del percorso può avvenire in modo dinamico, secondo le
condizioni di traffico della rete. Si noti che in ogni caso il
percorso di un messaggio impegna solo un sottoinsieme dei nodi
disponibili, e ciascuno per un tempo limitato. Inoltre, le reti
distribuite, grazie alla ridondanza dei collegamenti tra i nodi,
offrono un alto livello di affidabilità. Infatti l'interruzione di
un collegamento o la rottura di un nodo non pregiudica la
funzionalità complessiva del sistema. Per queste la topologia
distribuita si presta alla costruzione di grandi reti geografiche
con moltissime nodi.
Le reti a stella, come la definizione lascia supporre,
sono basate su un nodo centrale (detto hub) al quale sono
connessi tutti gli altri nodi periferici. La comunicazione tra due
nodi viene mediata sempre dal nodo centrale. Questo tipo di
configurazione è utilizzato spesso nelle reti locali. Una topologia
ibrida tra rete a stella e rete distribuita (detta anche rete a
stella interconnessa) caratterizza invece la rete telefonica: essa
infatti è costituita da una costellazione di centrali locali, alle
quali afferiscono le linee degli utenti, a loro volta collegate tra
loro.
Nelle reti a bus tutti i nodi sono collegati a un cavo
lineare (bus), come gli affluenti di un fiume, mediante delle
diramazioni cui sono collegati i computer. In alcuni casi le reti a
bus possono avere come diramazioni dei bus secondari, assumendo una
topologia ad albero. In questo tipo di rete tutti i nodi condividono
un medesimo canale di trasmissione, ed inoltre ogni messaggio
viaggia sempre in tutte le direzioni. Questo comporta dei notevoli
problemi di controllo della trasmissione, e comunque limita l'uso
della topologia alla realizzazione di reti locali, dove il numero di
nodi è limitato. Una dei sistemi migliori per gestire questi
problemi è alla base della tecnologia Ethernet sviluppata da Metcalfe.
Le reti ad anello infine, sono costituite da una serie di
nodi interconnessi in modo da formare un anello chiuso. A differenza
delle precedenti reti a bus, in queste reti i dati viaggiano sempre
nella stessa direzione da un nodo all'altro finché non giungono al
nodo destinazione. Questo limita i problemi di congestione ma rende
meno efficiente l'utilizzo della rete (ogni nodo rifiuta nuovi
messaggi finché non ha terminato di ritrasmettere il precedente) e
soprattutto può generare dei dati che circolano indefinitamente
lungo l'anello. Per evitare queste evenienze sono state sviluppate
diverse tecnologie, delle quali la più efficiente è la rete token
ring, che ha avuto una discreta diffusione nell'ambito delle
reti locali.
Affinché le informazioni codificate possano viaggiare lungo una
rete telematica, o più in generale lungo un qualsiasi sistema di
telecomunicazione, è necessario un mezzo di trasmissione che
colleghi il trasmettitore ed il ricevitore. Tale mezzo può essere
un cavo metallico (normalmente in rame), su cui viaggia una corrente
elettrica, una fibra ottica che conduce un impulso luminoso, o
un'onda elettromagnetica che viaggia attraverso l'etere. Ciascuna di
queste soluzioni presenta vantaggi e svantaggi, sia dal punto di
vista tecnico (larghezza di banda, resistenza ai disturbi, distanza
massima raggiungibile) sia in termini di costi e manutenzione.
Il più diffuso mezzo di trasmissione è la coppia intrecciata
di cavi, o doppino ritorto. Si tratta di una coppia di fili in
materiale conduttore di elettricità (in genere il rame) intrecciati
l'uno con l'altro, in modo tale da ridurre gli effetti delle
interferenze. Questa soluzione è adottata sia in applicazioni
telematiche, sia soprattutto nei tratti delle reti telefoniche
pubbliche che arrivano fino all'utente, il cosiddetto "ultimo
miglio".
|
Figura 3 - Schema di una coppia
intrecciata |
|
Figura 4 - Un cavo a coppia
intrecciata per reti Ethernet e Fast Ethernet |
Purtroppo la coppia intrecciata, rispetto ad altri mezzi, è
molto sensibile al rumore. Questo ne limita sia la banda passante,
che la lunghezza massima oltre la quale il segnale diventa
inutilizzabile. Per distanze di poche centinaia di metri, ed usando
cavi schermati, si possono raggiungere velocità massime di 10 Mbps.
Su distanze maggiori le prestazioni diminuiscono notevolmente: i
cavi della rete telefonica che collegano le utenze alle centraline
con tratti non superiori al paio di chilometri possono arrivare fino
a 8 Mbps, ma solo in una direzione, e solo grazie allo sfruttamento
intensivo delle tecniche di compressione dei dati. Naturalmente
prestazioni migliori possono essere ottenute unendo in un unico cavo
una serie di doppini: ad esempio la rete Fast Ethernet,
un'evoluzione della tradizionale rete Ethernet, usa un cavo composto
da 4 coppie su cui riesce sviluppare una banda passante di 100Mbit.
Un altro mezzo di trasmissione molto diffuso sia nelle reti
locali di computer sia nella televisione via cavo, è il cavo
coassiale. Si tratta di un cavo rotondo composta da vari strati:
al centro c'è un di un filo di rame (di diametro variabile),
ricoperto da uno strato di materiale isolante, a sua volta rivestito
da un conduttore a maglia, il tutto all'interno di una guaina
isolante. Rispetto al doppino, questo tipo di cavo presenta una
maggiore resistenza al rumore, ed offre un'ampiezza di banda più
elevata: si va dai 140 Mbps su distanze brevi ai 20 o 30 Mbps per
tratti di alcune centinaia di metri.
|
Figura 5 - Schema di un cavo coassiale |
|
Figura 6 - I connettori BNC di un cavo
coassiale per reti Ethernet |
I mezzi di trasmissione che abbiamo visto finora veicolano i
segnali sotto forma di una piccola corrente elettrica. Ma
l'elettricità non è il solo veicolo possibile per il trasferimento
di segnali. Sotto molti punti di vista sono assai più efficienti le
radiazioni elettromagnetiche. In particolare due sono i tipi di
radiazioni elettromagnetiche usate nei sistemi di comunicazione
telematica.
La prima è la luce visibile, che viene utilizzata nelle fibre
ottiche. Come il termine lascia immaginare, le fibre ottiche si
basano sulla conduzione di impulsi di luce. Possiamo immaginare una
fibra ottica come un sottilissimo tunnel (della dimensione di un
capello!) rivestito di specchi, in grado di intrappolare un fascio
di luce e di condurlo, attraverso una sequenza di riflessioni, da un
capo ad un altro.
Per essere più precisi, la trasmissione di un impulso luminoso
all'interno attraverso un conduttore si basa su un particolare tipo
di rifrazione (anche se viene denominato "riflessione interna
totale"). Come forse saprete, la rifrazione è la deviazione
subita da un raggio di luce nell'attraversare il confine tra due
mezzi trasparenti diversi. Un classico effetto di questo fenomeno,
che compare in tutti i libri scolastici di fisica, è l'illusione
che una matita immersa in un bicchiere d'acqua si spezzi proprio in
corrispondenza della superficie del liquido. L'angolo di questa
deviazione si chiama indice di rifrazione. Ora, se un raggio
proviene da un mezzo con l'indice di rifrazione maggiore, e se il
suo l'angolo di incidenza (ovvero l'angolo con cui il raggio di luce
incontra il confine tra i due mezzi) è minore di un certa
grandezza, esso non riesce più ad attraversare il confine tra i due
mezzi e viene riflesso totalmente. In questo modo è possibile
intrappolare un raggio luce dentro un cavo.
Un fibra ottica infatti è composta da un nucleo in vetro o
plastica con un alto indice di rifrazione (detto core)
rivestito da un materiale con un indice di rifrazione leggermente
minore (detto cladding), il tutto ricoperto da un materiale
opaco che isola la fibra dalla luce esterna. In queste condizioni
tutti i raggi di luce che colpiscono il confine tra i due mezzi con
un angolo inferire ad un certo valore vengono riflessi. Gli impulsi
luminosi, emessi da un laser, viaggiano dunque dentro la fibra a
"zigzag" fino al capo opposto dove sono raccolti da un
sensore detto fotodiodo (una specie di cellula fotoelettrica)
e trasformati in impulsi elettrici.
|
Figura 7 - Schema del funzionamento di
una fibra ottica |
I vantaggi apportati da questa tecnologia, messa a punto solo
negli anni 70 (sebbene i principi fossero già noti sin dagli anni
50), sono enormi. A differenza dei cavi metallici, una fibra ottica
può trasportare enormi quantità di informazioni codificate
mediante impulsi di luce per lunghissime distanze. Oggi la banda
passante di una singola fibra (un capello!) arriva fino a 2 ,5
miliardi di bit (il prefisso per indicare valori dell'ordine del
miliardo è "giga", abbreviato "G") al secondo!
E naturalmente i cavi in fibra ottica che vengono posati
effettivamente sono composti da un fascio di fibre. Per farci
un'idea della quantità di informazioni che possono passare
attraverso tali canali di telecomunicazione, pensate che una banda
passante di 1,7 Gbps permette di trasmettere un milione di
conversazioni telefoniche contemporanee. E in sede sperimentale sono
state sviluppate delle fibre che arrivano alla velocità
stratosferiche di 100 Gbps!
Con questi numeri la fibra ottica si candida ad essere il mezzo
di trasmissione ideale per il villaggio elettronico digitale, in cui
video
a richiesta e commercio
elettronico dovrebbero essere all'ordine del giorno. Ma ci sono
delle controindicazioni: i costi di installazione. Il passaggio ad
un sistema di comunicazione capillare interamente in fibra ottica
comporterebbe la sostituzione di tutti i preesistenti cavi in
metallo. Se per le lunghe distanze e per i collegamenti
transoceanici questa sostituzione ha un rapporto costi/benefici
vantaggioso, questo non è più vero per il collegamento degli
utenti finali. La transizione dell'ultimo miglio alla fibra ottica
ha dei costi così alti che poche compagnie telefoniche sono
disposte ad affrontare, specialmente in vista di guadagni incerti
(il caso italiano, con la chiusura del progetto di cablatura
nazionale "Socrate" da parte della Telecom Italia è un
esempio di questa difficoltà).
Una possibile soluzione potrebbe venire da un mezzo di
trasmissione già ampiamente adottato nell'ambito delle
telecomunicazioni: le onde radio. A differenza della luce e
dell'elettricità, le onde radio non hanno bisogno di essere
trasmesse all'interno di cavi, poiché possono viaggiare per lunghe
distanze attraverso lo spazio. Grazie a questa caratteristica le
onde radio rappresentano oggi il veicolo preferenziale del sistema
delle telecomunicazioni mondiali: radio, telefonia mobile e in parte
anche telefonia fissa si basano appunto sulla trasmissione di onde
radio a varia frequenza. Non deve stupire dunque che esse possano
essere usate anche per collegare tra loro computer.
I sistemi di telecomunicazione a onde radio sono basati su
diverse tecnologie, a seconda delle esigenze che debbono soddisfare.
I collegamenti terrestri per distanze non molto elevate (ad esempio
tra due edifici non distanti) adottano antenne paraboliche a
microonde di bassa potenza, in grado di creare un cosiddetto
"ponte radio". Per distanze geografiche invece sono
necessari apparati di trasmissione assai più potenti e costosi.
La necessità di impianti molto potenti è determinata anche dai
forti disturbi cui sono soggetti i segnali radio che viaggiano lungo
la superficie terrestre. Un problema di cui non soffrono le
trasmissioni radio satellitari. Un satellite artificiale per
telecomunicazioni è in effetti una stazione ripetitrice a
microonde, in grado di ricevere e trasmettere verso molte stazioni
sulla superficie. In genere tali satelliti sono posti su un'orbita
detta "geostazionaria", a circa 36.000 Km di altezza. Tale
orbita consente di assumere la medesima velocità angolare di
rotazione della terra e al contempo di bilanciare l'attrazione
gravitazionale: ne consegue che il satellite rimane
"parcheggiato" su una perpendicolare, ed è in grado di
funzionare da ripetitore per una determinata area del pianeta.
|
Figura 8 - La comunicazione
satellitare |
I satelliti geostazionari vengono utilizzati nell'ambito delle
telecomunicazioni con tecnologie analogiche sin dagli anni 60. Da
circa dieci anni è in atto una
massiccia transizione verso le comunicazioni satellitari
digitali, che coinvolge in primo luogo la televisione, e che
potrebbe in futuro costituire la base per una infrastruttura
telematica planetaria. Già oggi è possibile la ricezione di dati
mediante una semplice antenna parabolica (identica a quelle
adoperata per la televisione satellitare) con una velocità di 400 o
500 Kbps. Tuttavia il processo inverso è ancora impossibile.
Infatti per inviare un segnale a microonde verso un satellite
geostazionario è necessario sviluppare una notevole potenza (e di
conseguenza utilizzare un'antenna parabolica con un diametro
dell'ordine delle decine di metri).
Una soluzione potrebbe venire dall'uso di una rete di satelliti a
bassa quota (inferiore ai 50 Km). In primo luogo i costi di lancio
per questi satelliti sono assai minori rispetti a quelli richiesti
per mandare qualcosa a migliaia di chilometri di altezza. Inoltre la
loro vicinanza alla superficie permette di ridurre notevolmente la
potenza necessaria per l'invio di segnali, e dunque consentirebbe la
diffusione di apparati ricetrasmittenti "domestici".
L'unica difficoltà posta da questa tecnologia è costituita
dalla necessità di cambiare satellite appena il precedente esce
dallo specchio di visibilità, poiché le basse orbite non sono
geostazionarie. Tuttavia, tecnologie di sincronizzazione simili sono
oggi ampiamente utilizzate nelle radiocomunicazioni terrestri (ad
esempio nelle reti telefoniche cellulari) e non dovrebbero esserci
difficoltà eccessive ad estenderle alla comunicazione satellitare.
Molti operatori nell'industria delle informazione e delle
telecomunicazioni hanno mostrato un notevole interesse verso questo
sistema di trasmissione, e diversi progetti (più o meno
sperimentali ed avveniristici) sono stati avviati in questa
direzione.
Abbiamo detto che una rete telematica è fisicamente costituita
da un insieme di computer e da una determinata infrastruttura di
comunicazione. Ma per far funzionare il tutto c'è bisogno di un
terzo elemento: dei dispositivi di interfaccia che consentano la
connessione di ciascun computer ai corrispondenti terminali della
rete. Sul concetto di interfaccia ci soffermeremo nella dispensa
5. Le interfacce di rete variano in relazione al
particolare tipo di mezzo di trasmissione che si sta utilizzando.
La più semplice interfaccia di rete è il modem. Come
abbiamo già avuto modo di vedere, il modem è un dispositivo che
permette di collegare due computer mediante una normale linea
analogica, come quelle della tradizionale telefonia. Poiché i
computer rappresentano l'informazione in formato digitale, essi non
possono utilizzare direttamente una linea analogica come canale di
trasmissione.
|
Figura 9 - La vista anteriore di un
modem esterno |
Il modem rende possibile questa comunicazione trasformando il
flusso di segnali digitali in un flusso di segnali analogici e
viceversa mediante i processi di "modulazione" e
"demodulazione". Ovviamente, per collegare in questo modo
due computer occorre dotarli entrambi di un modem. Il flusso di bit
in uscita dal computer trasmittente passa attraverso il modem, dove
viene trasformato in un segnale analogico. Quando arriva al modem
del computer ricevente, il segnale analogico subisce il trattamento
inverso, ritrasformandosi in una catena di bit, che il computer può
tranquillamente manipolare.
I modem possono essere collegati al computer in vari modi. I modem
esterni, i più diffusi, si presentano come piccole scatole di
plastica, dotate di una presa telefonica e di una presa di tipo
seriale. Questa si collega al computer mediante un apposito cavo che
si inserisce nella porta seriale, in dotazione su tutti i moderni
personal computer. Di recente sono comparsi modem che adottano un
nuovo tipo di porta presente nei computer più evoluti, la porta USB
(Universal Serial Bus), che ha delle caratteristiche di
velocità ed efficienza maggiori rispetto alla tradizionale seriale.
Infine esistono anche dei modem interni, che possono essere
inseriti direttamente in uno degli slot di espansione presenti sulla
piastra madre del computer (di piastra
madre e schede di espansione abbia già parlato nella seconda
dispensa).
|
Figura 10 - La parte posteriore di
un modem esterno con porta seriale e ingresso per cavo
telefonico |
D'altra parte, la scarsa velocità della porta seriale non è
certo un grande problema per i modem. A causa dei limiti intrinseci
alla comunicazione analogica su doppino ritorto (che è il tipo di
cavo, lo ricordiamo, usato dalla rete telefonica) la velocità di
trasmissione di un modem non può essere troppo alta. Attualmente i
migliori permettono di ricevere dati con una banda passante teorica
di 56 Kbps, e di inviare a 32 Kbps.
I limiti di velocità dei modem sono bilanciati dalla
opportunità che essi offrono di collegare un computer ad una rete
sfruttando l'infrastruttura telefonica, l'unica rete ad avere una
diffusione capillare, fino alle abitazioni private. In genere si
tratta di connessioni temporanee, che si prolungano fintanto che
l'utente ha necessità dei servizi di rete (anche perché in molti
paesi la tariffa per l'impiego delle linee telefoniche è calcolata
in base al trascorrere del tempo).
Per raggiungere velocità più elevate è necessario utilizzare
una sistema interamente digitale, come ISDN (che arriva fino
a 128 Kbps). Le interfacce per l'accesso ISDN si chiamano Terminal
Adapter, ma poiché il loro aspetto esterno è simile a quello
dei modem analogici, nel linguaggio comune ci si riferisce loro come
"modem ISDN".
|
Figura 11 - Terminale ISDN |
Se invece si deve collegare un computer in modo permanente ad una
rete digitale ad alta velocità (locale o geografica) è necessario
utilizzare una scheda di rete. Si tratta di una scheda,
contenente i microprocessori che gestiscono l'accesso alla rete, che
va inserita in uno degli slot
di espansione della piastra madre, in modo simile alle schede
che controllano il video o lo scanner, o altri dispositivi di input
ed output. Sulla parte esterna è dotata di speciali prese, nelle
quali vanno inserite le spine (o plug) dei cavi di
collegamento. In genere si tratta di prese per cavi coassiali (dette
prese BNC) o di prese per cavi ritorti (dette prese RJ45),
che sono molti simili alle prese usate negli impianti telefonici
più recenti (RJ11).
|
Figura 12 - Scheda di rete dotata di
vari tipi di porte |
Fino ad ora abbiamo parlato delle tecnologie hardware che
costituiscono una rete. Ma, come abbiamo detto, esse non sono
sufficienti al suo funzionamento: sono infatti necessari anche degli
appositi software che consentano ai computer di utilizzare
adeguatamente queste infrastrutture hardware, e che soprattutto li
mettano in grado di comunicare.
Una rete telematica infatti è uno strumento di comunicazione.
Uno strumento di comunicazione tra computer, in primo luogo, e tra
gli uomini che usano i computer in secondo. Naturalmente i due
soggetti in campo, computer e uomini, hanno esigenze diverse, spesso
contrastanti, che occorre tenere presenti per fare in modo che la
comunicazione vada a buon fine. Le tecnologie software su cui si
basa un rete di computer devono rispondere con la massima efficienza
a queste esigenze.
Il problema principale in un processo di comunicazione è la
definizione di un linguaggio comune ai diversi attori in gioco, che,
nel nostro caso, sono in primo luogo i computer. E i computer, come
ben si sa, pur usando tutti lo stesso alfabeto - il codice binario -
'parlano' spesso linguaggi differenti e incompatibili. Fuori di
metafora, computer diversi usano sistemi operativi, codici di
caratteri, strutture di dati, che possono essere anche molto
diversi. Per permettere la comunicazione tra l'uno e l'altro è
necessario definire delle regole condivise da tutti. Questa
funzione, nell'ambito della telematica, viene svolta dai protocolli.
L'adozione di questo termine nel gergo informatico risale alle
origini delle rete Internet (tema su cui torneremo).
Nel mondo diplomatico per "protocollo" si intende una
serie di regole di comportamento e di etichetta rigidamente
codificate, che permettono a persone provenienti da diversi universi
culturali di interagire senza creare pericolose incomprensioni.
Protocolli sono detti anche gli accordi o i trattati internazionali.
Ebbene, i protocolli di comunicazione definiscono le regole comuni
per manipolare e inviare i bit tra i computer collegati in una rete,
in modo indipendente da ambienti operativi ed architetture hardware
di tali computer. In particolare essi devono svolgere le seguenti
funzioni:
- utilizzare in modo efficiente il mezzo di trasmissione della
rete
- gestire l'istradamento (routing), ovvero l'invio dei
dati da un computer all'altro
- garantire con la massima sicurezza il buon fine della
comunicazione ed effettuare il controllo e la soluzione di
eventuali errori
- permettere il funzionamento di servizi di rete di alto
livello, utilizzabili dall'utente (ad esempio lo scambio file, o
l'invio e la ricezione di messaggi di posta elettronica)
Come si vede si tratta di funzioni diverse che si collocano su
vari livelli gerarchici: per instradare i dati occorre sapere
inviare segnali codificati attraverso i cavi; per controllare che un
certo messaggio sia arrivato a destinazione integro, ed
eventualmente correggere gli errori, bisogna prima far viaggiare il
messaggio da un nodo all'atro. Per questa ragione i protocolli
telematici sono spesso suddivisi in vari livelli operativi, a
formare una sorta di pila di servizi. Ogni strato si occupa delle
sua mansione (ovvero elabora i dati in entrata o in uscita) e poi li
passa allo strato seguente nella gerarchia. Naturalmente, questo
"passamano" procede in un verso al momento dell'invio, e
nell'altro al momento della ricezione.
Ad ogni strato di servizi di rete corrisponde un determinato
software che deve essere installato su ogni computer interconnesso.
Naturalmente non tutti gli strati devono essere presenti su tutti i
computer: alcune funzioni possono essere delegate interamente ad un
singolo nodo, o alcuni servizi di alto livello possono essere
assenti da uno o più nodi.
Come abbiamo già detto, oggi esistono diversi tipi di rete, che
adottano protocolli diversi. Spesso è possibile far comunicare reti
diverse usando dei sistemi di contatto (gateway), in grado di
"parlare" entrambi i protocolli, oppure costruendo sopra i
protocolli originari degli ulteriori protocolli di interconnessione.
È quanto avviene nel caso della più famosa rete di computer oggi
esistente la rete Internet.
Nelle
pagine precedenti abbiamo affrontato vari aspetti teorici della
telematica, imparando cosa è e come funziona un rete di computer.
Fino a pochi anni fa, le reti di computer erano argomento
specialistico per studenti e cultori di informatica, e la loro
trattazione non compariva nemmeno nei manuali di informatica
generale universitari. Ma oggi proprio intorno alla prodigiosa
espansione di una rete telematica ruota gran parte della rivoluzione
digitale, sia nei suoi aspetti tecnologici sia in quelli simbolici e
pubblicistici. Questa rete si chiama Internet.
È alquanto difficile riuscire a dare una definizione esaustiva e
chiara di Internet in poche parole. Nel fenomeno Internet infatti
convergono aspetti tecnologici, comunicativi e socioculturali.
Secondo il livello di astrazione che scegliamo, possiamo dare alla
rete una diversa definizione. In questa dispensa, in cui ci
occupiamo di tecnologie telematiche, ci soffermeremo soprattutto sul
primo livello, rimandando alla successiva un ulteriore
approfondimento.
Dal punto di vista tecnico, dunque Internet è un rete di reti
telematiche (una inter-rete, in inglese inter-net),
che collega in tutto il mondo migliaia di reti, basate su tecnologie
ed infrastrutture diverse, grazie ad un
insieme di protocolli comune denominato TCP/IP.
I computer collegati ad Internet in modo permanente ed attraverso
delle linee di trasmissione dedicate vengono detti host.
Oltre agli host veri e propri, moltissimi computer si collegano alla
rete in modo temporaneo. Si tratta di collegamenti che vengono
effettuati mediante linee telefoniche commutate (sia analogiche sia
digitali). Gran parte di questi collegamenti temporanei sono
effettuati da utenti domestici, utenti cioè che si collegano alla
rete Internet dalle loro abitazioni private.
I principi teorici e le tecnologie con cui Internet funziona, ma
anche le norme e i valori a cui si sono ispirati i suoi creatori, ne
hanno permesso uno sviluppo decentrato e periferico che ha portato
alla creazione di uno spazio di comunicazione planetario, variegato
ed orizzontale. Oggi la rete collega milioni di computer distribuiti
su tutto il pianeta, che quotidianamente si scambiano miliardi di
bit di informazioni, e che vengono utilizzati da decine di milioni
di persone per lavorare, studiare, fare acquisiti, giocare. Le stime
numeriche relative alla diffusione della rete vanno prese con
estrema cautela. Ma, anche se accogliessimo le ipotesi più
riduttive, Internet è il mezzo di comunicazione che si è diffuso
più rapidamente nella storia dell'umanità. Grazie alla sua
diffusione ed alle sue caratteristiche comunicative la rete potrebbe
cambiare radicalmente i modi e le forme della comunicazione sociale
a tutti i livelli.
La successione di eventi, progetti, idee e protagonisti che, nel
corso di trenta anni, hanno portato allo sviluppo di Internet nella
sua forma attuale, rappresenta uno dei capitoli più affascinanti
nella storia della tecnologia. Come gran parte delle innovazioni
tecnologiche nel settore delle telecomunicazioni e dell'informatica,
anche le origini di Internet si collocano nel terreno della ricerca
militare.
Tutto ebbe inizio a Washington nel 1966, quando Bob Taylor,
allora dirigente di un ufficio della Advanced Research Projects
Agency (ARPA), propose al suo direttore il finanziamento di un
progetto volto a consentire la comunicazione e lo scambio di risorse
tra i computer dei vari laboratori universitari finanziati
dall'agenzia. L'ARPA, voluta dal presidente Eisenhower, era
un'agenzia del Dipartimento della Difesa americano, che aveva lo
scopo di finanziare la ricerca di base nel campo delle tecnologie
innovative. Siamo in piena Guerra Fredda, e l'amministrazione
americana, dopo lo shock causato dal lancio del primo Sputnik, si
era resa conto che la competizione con l'Unione Sovietica, sia sul
piano militare sia su quello civile, passava anche e soprattutto
attraverso lo sviluppo tecnologico.
Tuttavia, se è vero che il progetto della rete ARPA nacque in
questo contesto storico, la diffusa opinione che essa dovesse
fungere da strumento di comunicazione sicuro tra i centri di comando
militari nell'evenienza di una guerra nucleare è frutto di equivoci
ed esagerazioni. In realtà l'obiettivo perseguito da Bob Taylor era
di aumentare la produttività e la qualità del lavoro scientifico,
permettendo ai ricercatori universitari di comunicare e di
condividere le risorse, in particolare quelle informatiche, a quei
tempi costosissime e di difficile manutenzione.
Parte dell'equivoco circa le origini belliche della rete deriva
dal fatto che nella stesura delle specifiche Larry Roberts, un
giovane e brillante informatico chiamato da Taylor per sovrintendere
all'esecuzione dell'iniziativa, riprese una serie di idee elaborate
da Paul Baran all'inizio degli anni 60.
In quel periodo Baran, ingegnere ed esperto in telecomunicazioni,
lavorava presso la Rand Corporation, un'azienda californiana che
vendeva tecnologie ai militari sin dalla seconda guerra mondiale.
Tra i vari progetti di cui si occupò alla Rand, ve ne fu uno
dedicato alla progettazione di un sistema di telecomunicazione in
grado di resistere ad un eventuale attacco nucleare. Lavorando su
questo problema, Baran si persuase che la migliore soluzione era una
rete distribuita. In particolare il modello di Baran prevedeva che
ciascun nodo fosse collegato ad almeno altri quattro nodi, e che
nessun nodo avesse la funzione di concentratore, come avveniva per
la rete telefonica. In questo modo ogni nodo poteva continuare a
lavorare, ricevendo, elaborando e trasmettendo informazioni, anche
nel caso in cui alcuni fra i nodi vicini fossero stati danneggiati.
L'assenza di un nodo centrale inoltre eliminava ogni possibile
obiettivo strategico, la cui distruzione avrebbe compromesso il
funzionamento dell'intera rete. Per fare in modo che il sistema
potesse individuare immediatamente un collegamento alternativo, era
necessario utilizzare uno strumento più intelligente di una
semplice centrale di commutazione telefonica; Baran pensò che gli
elaboratori digitali erano i migliori candidati a tale scopo.
Oltre alla idea di una rete decentrata e ridondante, Baran ebbe
anche un'altra intuizione geniale: piuttosto che inviare un
messaggio da un nodo all'altro come un unico blocco di bit, è
meglio dividerlo in molte parti che possono viaggiare attraverso
più percorsi verso la destinazione, dove vengono ricomposti. Una
idea simile era stata elaborata in Inghilterra da Donald Davies, che
aveva pensato di chiamare le parti di messaggio
"pacchetti" (packet). Tutte queste idee e
intuizioni teoriche, rimaste inascoltate per molti anni, furono
riprese da Larry Roberts e costituirono le linee guida del progetto Arpanet.
La fase esecutiva del progetto Arpanet prese il via nel 1969.
Dopo una gara di appalto alla quale parteciparono i grandi colossi
dell'industria informatica del tempo, la realizzazione della
infrastrutture hardware e software venne assegnato alla Bolt Beranek
and Newman (BBN), una piccola ma innovativa azienda molto nota in
quegli anni. Nell'autunno di quello stesso anno vennero attivati i
primi due nodi della rete, che collegavano i due computer dello Stanford
Research Center e della University of California (UCLA).
Se la BBN si occupava delle infrastrutture hardware, lo sviluppo
dei protocolli per far funzionare effettivamente la rete venne
invece delegato ad un gruppo di specializzandi e giovani ricercatori
delle prime università coinvolte nel progetto. Essi costituirono il
Network Working Group (NWG).
La giovane età dei protagonisti e lo spirito dell'epoca fece sì
che il lavoro del NWG assumesse un tono informale e collaborativo.
In ossequio a questo spirito, i primi documenti ufficiali del gruppo
furono battezzati Request for Comment (RFC), richiesta di
commenti, denominazione che è rimasta ancora oggi ad indicare le
specifiche tecniche della rete. Ma soprattutto ogni idea, risorsa e
strumento che veniva elaborato dai primi "utenti-creatori"
della rete entrava subito in circolo e diveniva una ricchezza
comune. Questo spirito collaborativo e aperto ha determinato lo
sviluppo della rete negli anni successivi e ha favorito la libera
circolazione delle innovazioni.
Nel 1972 Arpanet contava già trentasette nodi, e la crescita
negli anni seguenti la rete seguì un ritmo impetuoso,
parallelamente allo sviluppo di nuovi protocolli. Il primo,
rudimentale, protocollo di comunicazione tra host fu battezzato NCP
(Network Control Protocol); sulla sua base vennero sviluppati
il File Transfer Protocol (il protocollo per il trasferimento
di file), il protocollo Telnet (per l'emulazione di
terminale), e soprattutto i primi rudimentali sistemi di posta
elettronica.
La prima grande svolta nella storia della rete Arpanet avvenne
nel 1973, quando Vinton Cerf e Bob Kahn sviluppano un nuovo
protocollo per la comunicazione di base tra gli host: il TCP/IP (Transmission
Control Protocol/Internet Protocol). TCP/IP implementava in modo
semplice ed efficiente le idee di trasmissione a pacchetti in una
rete decentrata, ma soprattutto permetteva facilmente di integrare
in un unico ambiente comunicativo reti e mezzi di comunicazione
diversi. Grazie al TCP/IP (la cui adozione su Arpanet venne
completata ufficialmente nel 1984) l'originario sistema telematico
progettato da Taylor e Roberts si andava trasformando in una
inter-rete, una internet.
Infatti, dall'inizio degli anni 80 la National Science
Foundation (NSF), un ente governativo preposto al finanziamento
della ricerca di base, iniziò a sponsorizzare la costruzione di
reti tra le università americane, e la loro connessione alla
Arpanet. Nacquero così Csnet (Computer Science Network),
BitNet (Because It's Time Network), Usenet. Nel
1983 l'amministrazione militare, per motivi di sicurezza, decise di
dividere l'originaria Arpanet in due tronconi, uno militare (Milnet)
e uno di ricerca. Nel 1985 la NSF, consapevole dei vantaggi per la
ricerca scientifica portati dalla interconnessione, decise di
costruire una nuova rete veloce che potesse fungere da backbone
(spina dorsale) per l'intero sistema di internetworking
accademico americano (che nel frattempo si era esteso anche verso
l'Europa) e di darne accesso gratuito ai consorzi di università che
a loro volta si fossero dotati di reti localizzate: nacque così Nsfnet.
Essa costituì la infrastruttura portante di quell'insieme di reti
che era divenuto Internet a tutti gli effetti. La "vecchia
Arpanet", la cui gestione era divenuta troppo onerosa per
l'Arpa, divenne così inutile: nel 1989, dopo venti anni di
servizio, venne chiusa definitivamente.
Ma ormai anche la Internet accademica degli anni ottanta stava
per lasciare il campo ad una nuova Internet, globale e trasversale.
Le aziende private infatti cominciarono a mostrare interesse verso
questo sistema comunicazione che ormai si estendeva in tutti i paesi
occidentali e che iniziava a penetrare persino nel terzo mondo.
Negli anni 90 questa transizione subì una accelerazione sempre
maggiore: una serie di gestori privati di reti di telecomunicazione
interessati a vendere ad altri privati l'accesso alla rete,
cominciarono a costruire le loro, sempre più veloci. Nel 1997 anche
la NSF decise di dismettere la gestione del suo backbone, che
venne ceduta a un privato.
Nel frattempo nei laboratori del CERN di Ginevra stava maturando
l'ennesima grande rivoluzione di Internet. Tim Berners Lee, con lo
scopo di facilitare la comunicazione tra la comunità scientifica
dei fisici, sviluppò un sistema per pubblicare sui nodi della rete
documenti testuali interconnessi, battezzato World
Wide Web. Agli inizi del 1993 Marc Andressen ed Eric Bina,
dottorandi al National Center for Supercomputing Applications
(NCSA) dell'Università dell'Illinois, svilupparono la prima
interfaccia grafica per l'accesso ai documenti presenti su World
Wide Web, il famoso Mosaic, e la distribuirono gratuitamente
a tutta la comunità di utenti della rete. Grazie a Web e Mosaic,
Internet, che per anni era stata uno strumento alquanto esoterico,
diventò utilizzabile anche da utenti non esperti: la rete dopo
esser arrivata negli uffici e nelle aziende, entrò finalmente anche
nelle case.
Il successo di Internet e la sua diffusione planetaria sono
dovuti in buona misura alle tecnologie su cui essa si basa. Poiché
si tratta di tecnologie molto importanti, che hanno profondamente
influenzato lo sviluppo delle telecomunicazioni, è importante
cercare di capirne i tratti fondamentali.
Cominciamo con il concetto di interconnessione tra reti fisiche
diverse. Abbiamo detto che Internet è una rete di reti telematiche.
Per capire meglio che cosa si intende con questa affermazione
utilizziamo una similitudine con una infrastruttura che ci è molto
più familiare: la rete ferroviaria (vedi
filmato). Possiamo dire che, in prima approssimazione, ciascuna
sottorete che è parte di Internet è assimilabile ad una rete
ferroviaria nazionale, e che Internet stessa può essere assimilata
al sistema ferroviario mondiale (in realtà parlare di sistema
ferroviario mondiale è una forzatura della realtà, ma stiamo
facendo una similitudine!). Si noti che affinché i treni possano
passare da una rete nazionale ad un'altra, è necessario che esse
condividano le norme di costruzione dei binari (ad esempio lo
scartamento, cioè la distanza tra i binari) e che gli enti
ferroviari si accordino sugli orari in cui far passare i treni e
così via: sono insomma necessarie delle norme comuni, dei
protocolli.
Un altro aspetto importante di Internet è la sua topologia
distribuita e la conseguente molteplicità di precorsi che i dati
possono fare per arrivare da un nodo "A" a un nodo
"B". Per afferrare questo aspetto, torniamo alla nostra
metafora ferroviaria. Diciamo che le stazioni corrispondono ai nodi
della rete. Ogni stazione di media grandezza è in genere collegata
a più di una stazione, come ogni host di Internet è connesso con
più host (naturalmente non tutti lo sono, come avviene per le
stazioni ferroviarie). In questo modo se un viaggiatore volesse
andare da Roma a Torino potrebbe prendere la linea che passa lungo
la costa Tirrenica attraverso le stazioni di Grosseto, Livorno, Pisa
e Genova; me se i posti sul treno fossero esauriti potrebbe passare
per Milano lungo la linea che passa per Firenze e Bologna, e di lì
andare a Torino. Potremmo complicare ulteriormente, se necessario,
l'articolazione del viaggio, sebbene la rete ferroviaria non ci
darebbe molte altre possibilità.
|
Figura 13 - I diversi percorsi
ferroviari da Roma a Torino |
Internet funziona sullo stesso principio ma ha una struttura
immensamente più complessa di quella di una rete ferroviaria e
decisamente molto più trafficata. Su Internet è come se i treni
transitassero senza soluzione di continuità, il che rende
estremamente probabile l'intasamento di una linea e la conseguente
ricerca di una strada alternativa per far giungere il passeggero a
destinazione. Quindi può capitare che un dato prima di arrivare al
destinatario faccia il giro di mezzo mondo!
Ma come fanno i computer delegati allo smistamento dei dati a
trovare le strada giusta per ogni messaggio? A questo fine viene
impiegato uno schema di indirizzamento dei computer collegati
in rete. Ogni host è dotato di un suo indirizzo univoco,
costituito da una sequenza di quattro numeri da 1 a 255; ad esempio
151.100.4. 2. La struttura di questo indirizzo viene usata per
trovare la strada giusta. Per capire meglio lo schema di
indirizzamento di Internet basta pensare alla struttura di un
normale indirizzo postale. Lo scriviamo come nei paesi anglosassoni,
con il numero civico prima: 2, Vicolo Stretto, Roma, Italia.
Pensiamo ora al sistema postale: quando imbuchiamo una lettera
questa arriva all'ufficio postale locale; se la lettera ha un
indirizzo di competenza di un altro ufficio postale cittadino, sarà
inviata a quell'ufficio postale, che si preoccuperà di recapitarla
al destinatario. Naturalmente l'ufficio postale locale non conosce
gli indirizzi di tutti gli altri uffici postali locali del mondo. Se
una lettera è indirizzata ad esempio in Francia, l'ufficio locale
la spedirà prima all'ufficio nazionale delle poste, che a sua volta
manderà tutta la corrispondenza indirizzata alla Francia al suo
omologo francese, il quale farà procedere la nostra lettera verso
l'ufficio postale locale, che infine la recapiterà al destinatario.
Anche su Internet esistono degli host particolari, detti router,
che fanno le veci degli uffici postali, e si preoccupano di smistare
i messaggi da un computer all'altro leggendo l'indirizzo di ciascun
messaggio.
Ma i messaggi su Internet, a differenza delle lettere postali,
non viaggiano tutti interi. Infatti, come sappiamo, essi vengono
divisi in pacchetti, i quali vengono spediti autonomamente sulla
rete. Ciascun pacchetto che fa parte di un determinato messaggio
viene segnato con un numero d'ordine. Così quando arriverà a
destinazione l'host potrà ricomporre il messaggio originario
rimettendo in ordine tutti i pacchetti. Si noti che i singoli
pacchetti possono anche prendere strade diverse, e che possono
arrivare in un ordine diverso da quello originario. A sovrintendere
alle operazione di indirizzamento dei computer e di istradamento e
segmentazione dei messaggi su Internet sono i protocolli TCP/IP,
sviluppati da Cerf e Kahn.
La modalità di invio dei messaggi in blocchi lungo una rete
telematica si chiama commutazione di pacchetto. Infatti,
"commutazione" è il termine tecnico usato per indicare il
trasferimento di informazioni lungo una rete da un nodo all'altro.
La commutazione di pacchetto si oppone ad un altro sistema di
trasmissione in un sistema di telecomunicazione: la commutazione
di circuito. Nella commutazione di circuito ogni volta che un
nodo A comunica con un nodo B, occupa interamente il tratto di linea
che lo collega ad esso finché l'intero messaggio non è passato. Il
sistema telefonico è un tipico esempio di rete a commutazione di
circuito: finché stiamo parlando con qualcuno nessuna altra
conversazione può passare per quel tratto di circuito.
La commutazione di pacchetto (utilizzata per la prima volta
proprio nella rete Arpanet, tra lo scetticismo degli allora esperti
di telecomunicazione) si adatta molto bene al traffico dei dati su
una rete con topologia distribuita. Essa infatti è molto efficiente
nella gestione delle infrastrutture della rete, poiché consente di
usare lo stesso tratto di cavo fisico per far passare molte
comunicazioni diverse contemporaneamente, sia che provengano da più
persone che operano sullo stesso computer, sia che provengano da
più computer collegati a quel tratto di rete. Mai nessuno occuperà
un certo tratto di rete fisica per intero, come invece avviene nella
commutazione di circuito. Naturalmente tale efficienza è dovuta
anche al fatto che nella comunicazione dati, normalmente, non è
necessario avere una comunicazione in tempo reale, e gli eventuali
ritardi di trasmissione non sono rilevanti.
Oggi i vantaggi di questo modo di commutazione per il
trasferimento di dati in formato digitale è universalmente
riconosciuto e tutte le tecnologie telematiche di recente concezione
lo hanno adottato in una forma o l'altra. Ma trenta anni fa, quando
i primi pionieri della telematica come Baran, Davies, Taylor e più
tardi Cerf e Kahn ne elaborarono i principi teorici e ne
implementarono su Arpanet il primo esempio funzionante, furono
trattati come visionari o incompetenti dal grande establishment
delle telecomunicazioni. Non sempre le innovazioni tecnologiche, per
quanto geniali e funzionali, riescono ad imporsi quando gli
interessi economici sono grandi e le attitudini culturali
preesistenti sono profondamente radicate. Solo la tenacia dei
pionieri della rete e una serie di fortunate condizioni storiche
hanno permesso a queste intuizioni di divenire realtà.
Conclusione: Il sistema nervoso del
villaggio globale
Con
questa dispensa, in cui ci siamo occupati dei sistemi di
telecomunicazione e delle reti telematiche, abbiamo ormai acquisito
un bagaglio di conoscenze tecniche e teoriche sufficiente per capire
le basi tecnologiche della rivoluzione digitale. Naturalmente non
possiamo certo dire di avere esaurito l'argomento. Ma andare oltre,
dare le conoscenze operative per diventare esperti informatici o
competenti ingeneri delle comunicazioni, non è lo scopo di questa
opera, e richiederebbe del resto un addestramento pratico all'uso
delle macchine. Se vorrete, potrete approfondire gli argomenti
trattati leggendo i libri che consigliamo nelle sezioni
bibliografiche, o magari decidendo di intraprendere un corso di
studi universitario.
In questa sede ci interessava fornire un retroterra minimo di
conoscenze tecniche che ci permettesse di proseguire il nostro
viaggio. E lo scopo del viaggio è capire come e perché le nuove
tecnologie, i computer e le reti abbiano assunto una importanza
così profonda nella nostra società, perché promettano (o
minaccino, dipende dai punti di vista!) di modificare radicalmente
la stessa vita quotidiana di ognuno di noi.
D'altra parte, il fenomeno che abbiamo di fronte non è
certamente inedito. Nella storia dell'umanità le rivoluzioni
tecnologiche hanno sempre avuto una funzione di cambiamento, anche
quelle che oggi, a distanza di secoli o decenni, ci possono sembrare
scontate. Per rimanere nell'ambito delle tecnologie della
comunicazione, basti pensare all'invenzione della stampa, che ha
contribuito a dare forma alla nostra cultura; o, arrivando a epoche
più vicine a noi, all'invenzione della televisione.
Oggi questa scatola che emette immagini e suoni collocata su un
mobile della cucina o del soggiorno ci appare come un naturale
arredamento delle nostre case; siamo tanto abituati ad entrare in
rapporto con essa, ci pare tanto naturale il fatto di arrivare a
casa la sera, premere un pulsante sul telecomando e metterci a
guardarla, che non riusciamo ad immaginare un mondo in cui la
televisione fosse assente. E, se qualche amico asserisce di non
vederla mai, o persino di non possedere un televisore per scelta,
ebbene, lo giudichiamo un po' strano e piuttosto snob.
Ma basta tornare indietro di appena quaranta anni, per trovare un
mondo in cui la televisione non esisteva, e la radio era diffusa
nelle case dei pochi fortunati appartenenti ai ceti alti. E in quel
mondo la vita passava veramente in modo diverso: il lavoro, il
divertimento, la conoscenza, l'informazione erano vissuti in modo
diverso. Sono bastati pochi anni per sconvolgere radicalmente quel
mondo.
Attualmente ci troviamo in una situazione simile, con la
differenza che la velocità del cambiamento è, se possibile, ancora
più accelerata. Solo dieci anni fa il personal computer era un
oggetto rarissimo persino negli uffici, mentre oggi la metà della
popolazione degli Stati Uniti ne possiede uno. Solo cinque anni fa
le reti di computer erano presenti in pochi dipartimenti
universitari e all'interno di poche grandi aziende. Oggi 100 milioni
di persone usano Internet, le reti di computer sono uno strumento di
lavoro indispensabile nelle aziende, e persino gli artigiani usano
Internet per promuovere le loro mercanzie o per venderle in ogni
angolo del pianeta.
Le reti telematiche sono divenute insomma una delle
infrastrutture fondamentali delle società avanzate, come le grandi
arterie stradali e ferroviarie lo sono state nel passato. Importanti
aspetti della vita economica, politica ed anche culturale si basano
sulle comunicazioni digitali. Le aspettative di crescita economica,
e dunque di occupazione e di benessere collettivo, per i prossimi
anni sono riposte nello sviluppo dell'industria delle
telecomunicazione e dell'informazione. Persino la comunicazione
individuale, i rapporti interpersonali, passano e passeranno sempre
più attraverso le reti.
Per queste ragioni è necessario sapere come funzionano le
tecnologie (ed è quanto abbiamo cercato di fare fino ad ora, nei
limiti che ci erano concessi); imparare ad usarle (ed è quanto
faremo nella prossima dispensa, dove
impareremo ad usare gli strumenti che Internet mette a disposizione
di ogni di noi); ma anche e soprattutto cercare di allargare lo
sguardo per capire dove e come stanno cambiando la società e la
cultura in cui viviamo, cercare di interpretare il cambiamento ed in
definitiva cercare di diventarne, per quanto possiamo, protagonisti.
E questo cercheremo di fare con il resto del nostro corso.
- Cercate di fare un elenco delle tecnologie di comunicazione
inventate ed utilizzate dall'umanità fino ad oggi. Quali di
esse vi sembrano rientrare nella definizione di
telecomunicazione che abbiamo fornito nel testo?
- Il concetto di rete, oltre che in ambito telematico, è
applicabile in molti altri contesti. Provate ad identificare
quali sono le altre infrastrutture tecniche della società che
sono descrivibili come reti. Cercate poi di individuare le
caratteristiche che hanno in comune con le reti di
telecomunicazione e quelle che invece le differenziano.
- Quali sono i motivi che hanno favorito la diffusione dei
sistemi di comunicazione digitale?
- Immaginate di dover realizzare un'aula attrezzata con una rete
di computer. Di che tipo di rete si tratta? Quali componenti
hardware dovrete acquistare?
- Provate ad immaginare le conseguenze nel funzionamento
complessivo delle rete causate dalla rottura di un nodo
rispettivamente in: una rete distribuita; una rete a stella; una
rete a bus; una rete ad albero; una rete ad anello. Quali sono i
punti critici di ogni tipo di rete ( se ve ne sono?)
- Se doveste collegare tra loro le reti locali di due edifici
posti a un chilometro di distanza l'uno dall'altro, quali mezzi
di trasmissione potreste utilizzare?
- Che cosa è un indirizzo di rete? Perché è necessario che
ogni computer ne abbia uno?
- Perché per far funzionare una rete sono necessari dei
protocolli?
- Quali sono le differenze tra la commutazione di circuito e la
commutazione di pacchetto? Perché questa ultima risulta più
efficiente per le applicazioni di trasmissione dati?
|
|