Gli
scienziati della Rutgers University in USA hanno da poco messo a
punto un sofisticato computer che riconosce la tua voce, capisce
cosa stai guardando nel monitor e ti permette di raggiungerlo e
coglierlo senza che sia tu a dover usare comandi attraverso
mouse e cursore. "La ragione è quella di creare un sistema
intelligente che si interfacci alle persone nello stesso modo in
cui essere si rapportano le une alle altre", ha detto
Edward J. Devinney, direttore associato del Rutgers' Center for
Advanced Information Processing. Infatti, quando vogliamo
comunicare con qualcuno, non abbiamo bisogno di cliccare con il
mouse. Usiamo, invece, stabilire un contatto visivo oltre che
verbale e, se necessario, a volte facciamo ricorso al tatto per
attirare l'attenzione dell'interlocutore.
Il progetto dal nome
curiosamente evocativo "STIMULATE" (Speech, Text,
Image, and Multimedia Advanced Technology Effort) è frutto della
mente di James Flanagan, il direttore del centro. Il progetto ha
tre anni di vita, si avvale di un finanziamento di circa 780.000
dollari e si basa su un lavoro precedente attuato (o fondato)
dalla DARPA, Pentagon's Defense Advanced Research Projects Agency
(DARPA). Il risultato immediato cui è tesa la ricerca è quello
di far si che questo tipo di computer serva per missioni ad alto
rischio e ad alta precisione come la chirurgia neurologica o le
azioni militari. Un pilota di aerei militari potrebbe eseguire
molto meglio i suoi compiti se potesse solo guardare al monitor,
anziché dover dare dei comandi di tipo manuale. Allo stesso
tempo un chirurgo del futuro sarebbe in grado di operare dal
video, a distanza rispetto al paziente, in modo più efficiente
attraverso l'uso di un guanto che di un mouse, effettuando così
azioni precise perché più naturali che non quelle connesse
all'uso del mouse.
A
questo stadio di sviluppo gli scienziati della Rutgers hanno
deciso di prendere in considerazione di integrare tre sistemi
percettivi, vista tatto e udito, per umanizzare le funzioni del
computer. L'importanza di sistemi intelligenti che simulino un
comportamento a base percettiva era comunque stata messa in
evidenza dal laboratorio di ricerca del Neuroscience Insittue a
La Jolla, in California, diretto dal neuroimmunologo Gerald
Edelman che da più di un decennio lavora su robot neurali dal
nome Darwin I, Darwin II e darwin III che, attraverso la
simulazione di una attività percettiva costante, riescono ad
orientarsi in una ambiente dato, apprendere dalle loro
esperienze percettive ed elaborare così nuovi schemi
comportamentali. Molti pensatori e ricercatori mettono l'accento
sul fatto che le capacità di elaborare schemi conoscitivi e di
attività nuovi ed adattivi dipende proprio dalle capacità
basse proprie di un dato organismo biologico quali, appunto, le
capacità percettive e sensomotorie. Sarebbero, secondo
l'ipotesi dei neurfisiologi Francisco Varela ed Humberto
Maturana, proprio i processi di livello basso, primitivo a
garantire lo sviluppo, sia filogentico che ontogenetico, delle
funzioni cognitive di alto livello come il linguaggio, il
pensiero logico deduttivo, la coscienza, che caratterizzano gli
esseri umani.
Un
sistema come quello di Devinney si inserisce nel solco della
ricerca sulle nuove frontiere dell'intelligenza artificiale che
mirano non solo a costruire computer sempre più "user
friendly" ma anche ad
elaborare sistemi che si avvicinino sempre più a simulare il
processo di evoluzione filogenetica nel cammino verso la
conoscenza del funzionamento di mente e cervello..
|