Tutta la musica che viene prodotta oggi
subisce qualche genere di trattamento digitale e quindi informatico. Dalla pubblicità
alla "rumoristica" dei film, passando per la registrazione di orchestre
sinfoniche o quella di uccelli tropicali, la registrazione ed il trattamento digitale sono
diventati lo standard.
Tra le applicazioni del computer, quelle dedicate alla produzione di suoni sono state
tra le prime, e non casualmente. Gli anni '50 sono stati infatti anni importantissimi per
la musica elettronica (che fa della ricerca sul timbro, sul suono stesso, una delle sue
ragioni di vita), e quindi apparve subito ovvia la ricerca di possibili impieghi di queste
nuove macchine per produrre nuovi suoni.
Una curiosità: nel film "2001 Odissea nello spazio", quando il calcolatore
Hal 9000 viene disattivato, regredisce ad uno stadio infantile e "muore"
cantando "Daisy", una popolare canzone americana. E' stata proprio quella la
prima canzone suonata da un computer, nel 1957, presso i laboratori Bell. Da allora, fino
alla fine degli anni '70, la musica col computer era detta musica di sintesi, e non
avveniva in tempo reale, bensì differito: le macchine venivano istruite, attraverso il
lentissimo procedimento della scrittura del codice, a sintetizzare e quindi produrre suoni
complessi. Di questa prima fase del rapporto tra scrittura musicale ed informatica ci
parla Nicola Sani, compositore e sperimentatore, che per molto tempo ha scritto musica per
computer.
"La computer music nasce alla fine
degli anni '50 negli Stati Uniti, ma era stata anticipata precedentemente dal sogno di Edgar Varese, che all'inizio del
'900 scrisse: "sogno strumenti che obbediscano al pensiero del compositore".
Ecco, sulla base di questo sogno, alla fine degli anni '50 si è cominciato, prima
nell'università dell'Illinois, a realizzare programmi che servissero al compositore per
scrivere la musica, quindi non per creare suoni, ma come aiuto alla composizione. In
particolare ricordo Lejaren Hiller,
che scrisse nel '57 la Iliac Suite, per quattro strumenti ad arco; il nome è legato al
fatto che era stata generata la partitura con un computer della famiglia Iliac. In seguito
sarà Max Mathews, nei laboratori Bell, a creare i i primi algoritmi per la sintesi del
suono. Il primo linguaggio si chiamava Music Five. Da allora molti altri ricercatori e
compositori hanno collaborato. John Chawning all'università di Stanford, ha creato il
metodo per la sintesi del suoni in modulazione di frequenza, nel '72.
John Cage lavorò con il computer
per la sua composizione "Harpsichord", una delle sue opere più straordinarie.
Oggi si lavora con il Live Electronics, ossia con l'impiego del computer in tempo reale;
questo ha creato una nuova figura, quella della regia del suono. Attraverso il L.E., il
suono entra nella sala da concerto, si modifica, si trasforma in tempo reale, passa da una
parte all'altra dello spazio, diventa parte di quell'universo sonoro che noi abbiamo
ereditato da tutta la storia della musica, da Bach fino ad oggi".
Alla fine degli anni '70 escono sul mercato i primi sequencer: sono piccole macchine,
collegabili a tastiere e batterie elettroniche, in grado di "ricordare" le parti
che vengono suonate per poi risuonarle. Non è quindi più il computer ad emettere suoni,
bensì gli strumenti elettronici che, sincronizzati insieme attraverso il linguaggio Midi
(acronimo di Musical Instruments Digital Interface) eseguono le parti memorizzate nel
sequencer. Diventa così finalmente possibile ad un solo musicista di suonare e - in tempo
reale - cambiare, cancellare e correggere all'infinito tutte le parti, mentre vengono
fedelmente risuonate dai diversi strumenti. Questo linguaggio si è rivelato così
efficace che ancora oggi, a quasi vent'anni dalla sua introduzione, è sostanzialmente lo
stesso, e resta il più utilizzato: è infatti normale integrare macchine costruite 15
anni fa in uno studio progettato oggi; in nessun altro campo dell'informatica questo è
pensabile.
Nella seconda metà della
decade si diffonde inoltre un nuovo strumento musicale Midi, che avrà un ruolo
fondamentale negli sviluppi futuri: il campionatore. Basato sulla tecnologia digitale, la
stessa dei compact disc, il campionatore registra un suono, proprio come un registratore e
poi lo rende disponibile su una tastiera musicale. Originariamente inventato per
riprodurre tutti gli strumenti musicali, cosa che in realtà il campionatore riesce a fare
solo in parte, questo strumento è stato rapidamente riprogettato da musicisti di tutto il
mondo per campionare musica esistente e incorporarla nella loro. Questo procedimento è
stato molto utilizzato negli ultimi dieci anni per produrre molta della musica pop ed ha
creato vari stili musicali quali ad esempio l'hip hop, la dance e la techno.
di Cristina Bigongiali |
Abbiamo quindi visto come si può creare
nuova musica a partire da quella vecchia, ma la facilità del procedimento e
l'accessibilità della tecnologia hanno creato molti problemi legali, e se all'inizio c'è
stata una certa anarchia (ma anche libertà creativa), da diversi anni la questione è
stata rigorosamente regolamentata. Solo negli anni '80 James Brown, uno degli artisti più
campionati della storia, ha agito legalmente contro 150 musicisti che avevano
illegittimamente usato porzioni più o meno significative della sua musica. Il mercato del
diritto d'autore nell'ambito musicale è alquanto complicato in quanto coinvolge varie
parti l'autore, l'editore, il produttore fonografico, come spiega Stefano Galli avvocato
specializzato in questo settore:
"Abitualmente si definisce "canzone" un'opera musicale, che è un'opera
dell'ingegno. Titolare della canzone nella sua fase creativa è l'autore. Per canzone si
intende altresì l'opera registrata che non necessariamente viene eseguita dall'autore,
quindi dal creatore dell'opera. In questo caso si parla di artista come
interprete-esecutore, che è un'altra figura giuridica disciplinata dalla legge sul
diritto d'autore. Per quanto attiene poi la sfera di utilizzazione dei diritti economici
derivanti dalla cessione dell'opera vi sono altre figure. L'editore, che è il cessionario
dell'opera nella sua parte immateriale, e il produttore fonografico, che è colui che poi
provvede alla duplicazione dell'opera e alla fabbricazione e alla distribuzione dell'opera
su disco, abitualmente. Generalmente, nella massima parte dei casi si ottiene
l'autorizzazione, dietro pagamento di un importo fisso e di una percentuale relativa ai
diritti di utilizzazione, che sono diritti di produzione meccanica e diritti di esecuzione
musicale in ambito di publishing, che significa l'editoria. Diversamente, se l'autore è
molto importante e non ha ceduto tutti i diritti all'editore, oppure se ne è riservati
alcuni a questi fini, diventa molto complicato e spesso viene negata
l'autorizzazione".
Dall'inizio degli anni '90, dopo un decennio di "silenzio", il computer ha
ripreso ad emettere suoni in proprio. Grazie alla diffusione delle schede audio, e alla
naturale crescita della memoria disponibile, si è diffusa la pratica della registrazione
su hard disk, che consente di integrare la tecnologia midi e quella della registrazione
sonora vera e propria. Oggi lo studio di registrazione (magari piccolo e limitato ma pur
sempre completo) è una qualsiasi delle funzioni dei computer: è possibile per chiunque produrre musica a costo zero, con una
qualità comunque semi-professionale e tutta la libertà creativa che l'industria non
avrebbe mai consentito. Si tratta di una rivoluzione che non potrà non incidere
moltissimo nella quantità e qualità della produzione musicale, esattamente come hanno
fatto, nel passato, la commercializzazione a basso costo prima di chitarre acustiche
(leggendaria la italiana Eko) e poi di tastiere.
|
|