Si può interpretare la musica elettroacustica?

Eric Maestri

1. Interpretare o presentare?

La musica strumentale e vocale è sempre presentata in scena. I musicisti sono davanti a un pubblico con i loro strumenti ed eseguono partiture o improvvisano. La relazione tra il suono e la sua causa è davanti agli occhi di tutti, permettendo così all’uditore di avere una porta d’ingresso in più al contenuto musicale, quella del gesto (cfr. Emmerson [1994]: 95-100). Il pubblico assiste così alla messa in opera della partitura, verificando visivamente la corretta esecuzione della catena causale che discende dalla partitura, apprezzando l’espressività dell’interprete e la sua abilità nel risolvere i problemi posti dall’opera[1].

Potremmo quindi affermare che l’interpretazione sia il frutto dell’azione diretta dell’interprete secondo la prescrizione della partitura; e che quest’azione, potremmo aggiungere, per essere apprezzata, deve essere vista. Infatti, lo spettacolo generato dalla performance consisterebbe nell’esecuzione, dal vivo, di una partitura.

Per fare in modo che l’interpretazione abbia luogo, abbiamo così bisogno di un testo che l’interprete esegue e di un pubblico che ne è testimone. La performance è una rappresentazione pubblica dell’opera musicale, in quanto il testo è rappresentato nella sua dimensione performativa. Tale performance si basa su una partitura, che è dunque un insieme di istruzioni che permettono all’interprete di istanziare l’opera. In questo modo, come osserva Stephen Davies, si può dire che certe opere musicali, quelle scritte sotto forma di notazione, sono composte per essere eseguite, mentre altre, non notate, ma per esempio registrate, non lo sono (Davies [2001]: 25).

Infatti la musica elettroacustica si presenta sotto forma di suono diffuso da altoparlanti. La musica è registrata in uno studio e proiettata all’identico in uno spazio diverso, rompendo così il legame tra gesto strumentale e segnale sonoro (cfr. Emmerson, Smalley [2013]). Anche per questa ragione, a volte, la musica elettronica è concepita come un film che per essere diffuso non viene ogni volta interpretato, ma semplicemente presentato.

I like to compare purely electronic musical works with films like Star Wars.[...] In any event, the typical Hollywood movie is the information encoded on film stock that is suitably related to a master, and, though acting might have gone into its creation, the movie is for screening not acting. (cfr. Davies [2001]: 26)

Se ascoltiamo De naturam sonorum di Bernard Parmegiani, non avremo la sensazione di assistere alla sua interpretazione ma piuttosto alla diffusione dell’opera stessa. Infatti, la musica elettroacustica, o sintetizzata, come sottolinea ancora Davies, può essere al massimo presentata e non eseguita:

 […] technology can be used to synthetize a piece that, when finished, requires presentation, not performance, and thereby is more like a novel that a play or a string quartet. It is to be appreciated as a stand-alone work that can be cloned but is not thereby performed or interprete. (cfr. Davies [2001]: 9)

Questa prospettiva è anche supportata dai compositori. In fondo, verrebbe da pensare leggendone i testi, i compositori non compongono le opere elettroacustiche per farle eseguire, ma semplicemente per presentarle in quanto tali. La musica elettroacustica è considerata come cinema per le orecchie (vedi Chion [1993]), come mezzo per svelare le funzioni del puro ascolto (vedi Bayle [1993]: 93-101) o come terreno di prova per nuove sperimentazioni e per un nuovo linguaggio basato sui suoni complessi (vedi Schaeffer [1966]).

Saremmo però tentati di sfumare la prospettiva dei compositori, così come quella di Davies. Pur essendo infatti d’accordo sul fatto che le opere elettroacustiche debbano essere presentate in quanto tali, riteniamo però che esse non siano state concepite per essere ascoltate privatamente, ma per animare una rappresentazione pubblica. Il passaggio rende l’atto musicale più complesso della semplice presentazione. Vi si aggiungono possibili imprevisti, che richiedono una comprensione preventiva del contenuto della musica da diffondere. A partire da questa osservazione, vorremmo sostenere che ci sia una sostanziale differenza tra l’azione del presentare e del rappresentare pubblicamente. Tale differenza si realizza nella messa in opera della serie causale richiesta dalla partitura. Crediamo infatti che Davies possa sostenere che la musica elettronica non sia fatta per essere suonata perché in fondo non prende in considerazione che tale opera, in un contesto pubblico, cambierebbe di statuto. La stessa opera, in un contesto privato o pubblico, richiederebbe infatti una serie di azioni differenti: il supporto è diverso e anche l'opera. Un disco dei Radiohead, per esempio, non è un supporto fatto per essere eseguito in concerto, mentre Turenas di John Chowning lo è. Ci sembra che Davies consideri la complessità e la visibilità della messa in opera come criteri che individuano l’interpretazione, intesa come frutto dell’intenzione del musicista: se tale intenzione non è visibile e l’istanziazione dell’opera non è sufficientemente creativa, direbbe Davies, non possiamo parlare di interpretazione. Infatti, sempre secondo Davies, per comprendere il senso di una musica, l’ascoltatore deve potere comprendere i limiti e i potenziali del mezzo utilizzato (Davies [2001]: 297); così, la differenza tra Cecile, che assiste al concerto e Ham che lo ascolta alla radio risiede nella piena comprensione del significato musicale al quale la prima ha accesso, a differenza di Ham (Davies [2001]: 299). Davies, ci sembra, ritiene che la catena causale alla base della messa in opera della musica elettroacustica non sia sufficientemente complessa per poterla chiamare interpretazione. Così, il fatto di non vedere la messa in opera e di non capire come tale musica sia fatta ne riduce l’impatto sull’ascoltatore e contemporaneamente riduce il musicista a un mero esecutore.

I would argue that following a composer’s instructions in order to instance his work is radically more creative that replaying a disc, and thereby different in kind, whether or not we apply the same word to both activities. (cfr. Davies [2001]: 9)

Diamo atto a Davies che diffondere un brano elettroacustico e suonare una Suite di Bach siano due cose profondamente diverse. Tuttavia riteniamo che non lo siano sufficientemente da giustificarne una radicale differenza ontologica. Probabilmente suonare è più creativo che diffondere. Crediamo però che un po’ di creatività ci voglia anche per riuscire a presentare adeguatamente una musica elettroacustica. Conseguen­temente, la nostra domanda è la seguente: possiamo parlare d’interpretazione per descrivere questo genere di attività?

Saremmo tentati di rispondere affermativamente. Cercheremo quindi di argomen­tare in favore di una prospettiva strumentale e interpretativa della diffusione della musica elettroacustica: le opere elettroacustiche sono composte per essere diffuse davanti a un pubblico e non per essere ascoltate privatamente.

1.1.Il concerto

Se pensiamo ai compact disc e a ciò che tutti i giorni concretamente facciamo per metterli in azione non penseremmo mai di doverli interpretare. Mentre se cerchiamo di suonare al pianoforte l’opera che abbiamo appena ascoltato su Youtube capiamo meglio che cosa interpretare un’opera pianistica possa significare, pur non sapendo sempre farlo. C’è quindi, chiaramente, una diversa concatenazione di azioni che definisce i due ambiti di diffusione. Lo stereo di casa è un dispositivo la cui utilizzazione è relativamente semplice, mentre lo strumento musicale richiede anni di studio per essere suonato correttamente.

Ci sarebbero però anche due diverse tipologie di messa in opera per il dispositivo elettronico. In sé, la serie causale che ci è richiesta da un supporto come il CD non è tale da farci pensare di essere interpreti di musica elettronica: prendiamo il compact disc, accendiamo lo stereo, mettiamo il disco nella sua sede e premiamo il tasto play. Tuttavia, se anche solo immaginiamo di doverlo diffondere in una sala con un pubblico venuto lì per ascoltarlo, possiamo capire che fra la riproduzione in privato e la presentazione in pubblico la differenza non è trascurabile.

Infatti, la serie causale di azioni da svolgere in concerto è più grande, le azioni sono più complesse e interdipendenti. Una cattiva messa in opera può compromettere la fruizione del contenuto del supporto e quindi impedire alla musica registrata di essere ascoltata come prescritto. Il fonico deve potere adattare il contenuto del supporto all’occasione del concerto e seguirne il divenire durante la rappresentazione. In questo senso egli utilizza il dispositivo di diffusione come mezzo di trasmissione e interazione, mediata, con il pubblico. Tale dispositivo necessita un controllo costante del flusso elettrico; per questo motivo, date la complessità del dispositivo e la possibilità di errori, colui che è alla testa della catena causale dev’essere pronto a intervenire. Tali com­petenze sono richieste dal contesto nel quale l’opera è diffusa. In fondo se il CD s’inter­rompe quando cuciniamo non è poi così terribile; lo sarebbe invece se si interrompesse alla cerimonia inaugurale dei Giochi olimpici.

1.1.1. Il fonico come pilota

La messa in azione del dispositivo ci permette di parlare di interpretazione? Non è così evidente. Per esempio, il fonico potrebbe benissimo azionare il sistema senza conoscere il contenuto del supporto. Tuttavia crediamo ragionevolmente che non lo farebbe mai nel caso in cui il pubblico fosse presente in sala, così come un pianista, in fondo, non si leggerebbe mai per la prima volta una partitura davanti a un teatro gremito. Quindi, attivare il dispositivo non implica necessariamente la sua interpretazione; tuttavia comprendere il contenuto di un supporto informatico e diffonderlo sono tappe strettamente legate di un unico processo di istanziazione. Infatti, il dispositivo di diffusione è un sistema complesso che il fonico deve potere controllare e adattare all’intenzione del compositore. In questo senso il fonico è al comando di un dispositivo la cui utilizzazione influisce profondamente sul risultato finale dell’opera registrata.

Potremmo dire che un interprete o un fonico sta allo strumento, o al sistema di diffusione, come un pilota alla sua vettura? Questo paragone sembra plausibile. Per esempio potremmo dire che a parità di strumento o di vettura ci sono interpreti o piloti che hanno risultati migliori di altri. In questo caso il buon interprete — così come il buon fonico — sarebbe come un buon pilota. Il pilota deve seguire un ordine ben preciso di procedure e deve conoscere e sapere ascoltare la vettura che conduce; lo stesso vale per l’interprete, che segue sempre la stessa procedura per montare un nuovo brano e che contemporaneamente deve sempre capire se, per esempio, il pianoforte che sta suonando è in buono stato o meno e se gli permetterebbe di ottenere il risultato voluto. Anche al fonico succedono cose simili: egli segue delle procedure chiare, con le varianti richieste da ciascun brano, e ascolta il sistema per impedire che errori o cattive scelte inconsapevoli pregiudichino il risultato finale. Il punto in comune tra fonico e pilota è che entrambi non producono direttamente l’energia che attiva il sistema o la vettura, contrariamente all'interprete che genera il suono con l’energia del proprio corpo. Ci sembra che Davies si appoggi su questa distinzione. Tuttavia tale differenza giustifica il fatto che il fonico sia un mero esecutore?

Ora, ci sembra che dal punto di vista della procedura di esecuzione delle catene causali, pilota e fonico non esercitino funzioni tanto diverse. Anche l’interprete segue algoritmi causali: l’interprete suona in concerto come il pilota interpreta la gara. Infatti, il pilota guida una vettura seguendo una certa procedura prescritta. La accende, ascolta se tutto vada bene e parte. Nel momento in cui il pilota sale in vettura la ingloba nel suo sistema motorio, potendone interpretare i segnali per comprendere come raggiungere i propri obiettivi, esattamente come facciamo regolarmente con gli arti del nostro corpo. Anche l’interprete ascolta la musica che esegue e lo strumento usato per eseguirla. Quante volte, infatti, suonando, ci rendiamo conto che una certa corda non suona come dovrebbe e continuiamo a suonare? Lo stesso ci sembra avvenire per il fonico: per esempio, deve sorvegliare il più possibile che tutto funzioni, fino a regolare i volumi in concerto evitando per esempio Larsen feedback o l'equalizzazione.

Il pilota, come il fonico, aziona un dispositivo meccanico atto a compiere un numero limitato di funzioni. Tuttavia, la complessità del dispositivo e l’azione richiesta per realizzare tale obiettivo necessitano un ascolto che inglobi il dispositivo e il suono prodotto dal dispositivo per adattarlo all’intenzione. Insomma, il fonico comanda la diffusione un po’ come il pilota comanda la vettura e anche come l’interprete comanda lo strumento. In fondo non è poi così strano che Stockhausen abbia pensato a un brano per quartetto d’archi ed elicotteri. Ci sembra che il problema compositivo e inter­pretativo non cambi di natura, bensì di complessità. Nel momento in cui il pilota deve eseguire le azioni date da una partitura, l’elicottero diventa il suo strumento. La velocità dei rotori dell’elicottero non cambia durante il tragitto. Ciò che modifica le variazioni del suono non è infatti la velocità delle pale, ma la direzione del velivolo e i cambiamenti di altezza. Giocando su queste caratteristiche, Stockhausen chiede ai piloti di suonare glissandi ai quali si sovrappongono i glissandi del quartetto d’archi, trasformando il pilota in un interprete della partitura.

Così intesa, la distinzione tra musica strumentale e musica elettroacustica, tra musica fatta per essere eseguita e musica che non lo è, suggerirebbe una equiparazione degli interpreti e dei piloti. Pensiamo che tale esempio ci permetta anche di capire che la differenza tra esecuzione e non-esecuzione non possa essere dedotta dal testo soltanto, ma provenga in larga parte dal tipo di catena causale che il supporto richiede per essere attivato. Insomma, la differenza sostanziale tra interpretare e presentare non sarebbe nell’opera, ma nella sua realizzazione pubblica, che chiameremmo, come per il teatro, rappresentazione.

1.1.2. La metafora del direttore d’orchestra

Il testo, per gli strumentisti stampato in partitura su carta, e per i fonici inciso sul metallo del disco rigido e visualizzato tramite un programma, costituisce il punto d’inizio della serie causale della messa in opera di un brano musicale (cfr. Gracyk [1996]). Il fonico, per poter adattare il sistema di diffusione alla musica registrata sul supporto, deve poterlo leggere e comprenderne il contenuto. Saremmo quindi di fronte a una relazione con il supporto-testo che non è dissimile da quella che il pianista ha con la partitura. L’opera, infatti, è codificata sul supporto e messa in azione da un interprete tramite l’utilizzo di un sistema complesso di produzione e diffusione del suono. Uno strumento possiede più o meno le stesse caratteristiche di un sistema di diffusione elettronico: una tastiera o alcune chiavi, un corpo risuonante e un foro, un’ala o un padiglione. Il sistema di diffusione non è dissimile: ha una tastiera di controllo, un transfert causale (il computer), un corpo risuonante (la membrana dell’altoparlante) e un cono. Dal punto di vista del testo, però, il supporto è di natura differente: la partitura è letta direttamente dall’interprete, mentre l’incisione è appresa mediatamente dal fonico tramite la visualiz­zazione: non è il fonico a leggere direttamente o a introdurre energia nel sistema per azionarlo. Il sistema è azionato elettricamente e la visualizzazione mette al corrente il fonico dello stato di avanzamento della lettura. Ci sembra quindi che la differenza tra l’interpretazione della musica scritta e della musica fonografica (a questo riguardo cfr. Arbo [2014]) consista in una sostanziale differenza nella relazione con una forma di testo; la prima sarebbe immediata, la seconda mediata. Tale relazione è sufficiente per includere senza ombra di dubbio l’esecuzione della musica elettroacustica tra le musiche composte per non essere eseguite?

Si pensi, per esempio, al tipo di causalità messa in atto da un direttore d’orchestra. Un po’ come il fonico, anche il direttore d’orchestra può essere visto come superfluo. Coloro che non sono addentro alla musica dicono, a volte, che il direttore d’orchestra non serve a granché o che serve solo a far spendere più soldi al teatro. Chi invece conosce la pratica musicale sa benissimo che il direttore, quando c’é, incide fortemente sulla riuscita dell’opera. Se il direttore è bravo, i musicisti suonano molto meglio. Eppure il direttore, come il fonico, non è necessario. Per esempio, una buona parte delle sinfonie di Mozart possono essere eseguite senza direttore; o addirittura, come l’orchestra Spira Mirabilis dimostra regolarmente, anche una sinfonia di Beethoven può essere suonata senza direttore, e addirittura a memoria. Il direttore, infatti, non produce direttamente il suono. Se eseguiamo la partitura in un contesto privato non ne abbiamo bisogno; se invece la eseguiamo in pubblico, allora siamo spesso obbligati a fare ricorso al suo operato. Davies sarebbe quindi d'accordo sul fatto che produrre direttamente, o mediatamente il suono, non sarebbe una caratteristica necessaria dell'interpretazione.

Il gesto e la consapevolezza musicale del direttore fanno sì che si possa instaurare una relazione diretta, e tuttavia mediata, tra gesto musicale e maestri d’orchestra. In quanto iniziatore della catena causale, il direttore si presenta allora come un interprete. Ora, nella musica elettroacustica a volte troviamo la stessa situazione. Benché il mixer sia uno strumento la cui ergonomia non permette una trasmissione gestuale dell’interpretazione, si tratta comunque di una interfaccia di controllo di una forma d'onda e di un sistema di diffusione che genera suono tramite energia. Anche se per la musica d’orchestra tale interfaccia è addirittura inesistente, basandosi la relazione non sul controllo fisico, ma sulla trasmissione del senso tramite la visione del gesto del direttore, non esitiamo a definire un direttore come un interprete. Perché dunque non includere il fonico tra gli interpreti? A sostegno di questa ipotesi facciamo notare il numero di interfacce sviluppate oggi che permettono al fonico, o ai compositori, di interpretare gestualmente la diffusione delle loro opere (vedi Cance, Genevois [2009]: 133-142). Se il fonico si agitasse in regia, potremmo più facilmente definirlo interprete? L'interpretazione è dunque il risultato della sola azione fisica?

1.1.3. Scrittura e suono

Ricapitoliamo quello che abbiamo osservato. La musica elettronica è una musica registrata; il supporto che ne veicola il contenuto non è leggibile direttamente da un interprete, ma può essere veicolato tramite la mediazione del computer e la diffusione degli altoparlanti. In questo modo il supporto è al centro di una catena causale che è iniziata, controllata e gestita da un musicista. Ora, troviamo lo stesso tipo di rapporto nell’interpretazione della partitura. Quest’ultima prescrive una serie di azioni all’interprete, che sono condizione necessaria per realizzare l’opera, senza esserne tuttavia condizione sufficiente. Infatti, l’interpretazione non appartiene alla stretta messa in opera del testo, ma alla comprensione del senso di tale testo. Una volta che il testo è compreso e rispettato, comincia il lavoro sul senso della musica. Questo passaggio dall’attivazione della partitura – lo studio digitale per i pianisti, la costruzione del dispositivo da parte del fonico –  all’interpretazione del suono che tale processo genera avviene in maniera analoga (anche se con qualche ovvia differenza) nei casi dello strumentista e del fonico.

1.2.Interpretare

Nello spiegare il modo in cui la musica viene presentata vorremmo tener salda una distinzione: quella tra performance e interpretazione. Potremmo dire che la perfor­mance è il risultato finale di un’interpretazione e contemporaneamente il passaggio obbligato di ogni rappresentazione pubblica di un brano musicale. Michel Imberty sostiene che l’interpretazione non ha mai a che fare con un’azione precisa, ma piuttosto con il senso e il valore dell’opera. In più, l’interpretazione evoca costante­mente un’alterità. L’interprete infatti non è solo, ma davanti a un pubblico. In questo modo il senso sarebbe, secondo Imberty, il frutto dell’interazione tra interprete e pubblico, in quanto metterebbe in gioco la condizione essenziale del fare musicale, ovvero il riconoscimento di un’opera tramite la restituzione del suo senso attraverso l’esecuzione pubblica (vedi Imberty [2005]: 142). L’interpretazione implica dunque un’azione con­forme a una comprensione: solo se il testo è compreso può essere interpretato. Tale comprensione, che avviene nell’esecuzione, è il passaggio che permette all’interprete di dare senso alla musica, sottolineando aspetti necessari perché possa essere compresa anche dal pubblico. Infatti l’esecuzione, necessaria per l'interpretazione, non la implica necessariamente (Arbo [2002], [2013]). Per questa ragione, per preparare un’esecuzione un pianista deve prima leggere la partitura, risolverne i problemi tecnici, fissarne le diteggiature e dopo di che lavorare sull’interpretazione: quando può concentrarsi sulla musica inizia a interpretare. Per lo stesso motivo, nel linguaggio comune, non è insolito sentir dire che tale pianista sarebbe un buon esecutore, ma un cattivo interprete, e a volte anche viceversa. C’è quindi una transizione tra eseguire e interpretare: eseguire equivarrebbe ad azionare lo strumento secondo la partitura, mentre interpretare corrisponderebbe a comprendere il senso della partitura in quanto suono. Si tratta di due momenti diversi della pratica esecutiva. Tale differenza deve essere compresa per poter considerare il lavoro del fonico come attività interpretativa. È quindi vero che la musica elettroacustica, dal punto di vista della forma d’onda incisa, non richiede ore di studio, ma domanda una semplice presentazione; tuttavia il concerto di opere elettroacustiche richiede un’interpretazione, ovvero il passaggio dal piano del testo al piano del senso. Tramite tale passaggio l'opera passa dal digitale all'analogico. Infatti, l'esecuzione avviene a livello digitale, mentre l'interpretazione è il risultato del senso, o della scelta dell'aspetto, che l'interprete decide di sottolineare nel brano.

2. Che cosa interpretiamo?

Secondo il nostro ragionamento, nel contesto della sua presentazione o rappresenta­zione in concerto, la musica elettroacustica può dunque essere interpretata. Tuttavia non è ancora chiaro che cosa sia interpretato e come.

Che cosa interpretiamo? Nella musica elettroacustica, come in genere nel caso delle opere fonografiche, interpretiamo il suono generato dalla macchina. Tale suono non è però pronto per essere ascoltato ovunque, deve essere compreso e adattato. Lo sviluppo della musica elettronica passa attraverso l’invenzione del convertitore analogico-digitale. In questo modo il codice che controlla gli impulsi elettrici del processore è trasformato in segnale analogico. Tale testo non può però essere letto, ma va tradotto automaticamente e amplificato. C’è quindi una forma di scrittura musicale che passa per diversi passaggi dal controllo visivo alla macchina, trasformando il linguaggio usato per programmare la macchina nello strumento stesso: la notazione, come indica Anne Veitl, si traduce in suono (Veitl [2006]: 235-251). Ciò che distingue­rebbe dunque la scrittura informatica e la notazione su carta sarebbe il passaggio dalla registrazione al suono: mentre la scrittura su carta prevede di essere suonata dall’interprete, la scrittura informatica ne realizzerebbe istantaneamente il risultato tramite l’energia elettrica. 

2.1. Il codice binario come partitura

Il supporto dove la traccia diffusa è memorizzata è oggi un supporto digitale. In questo modo il brano passa sempre attraverso un computer. Anne Veitl propone dei criteri per definire un sistema di scrittura coerente con gli sviluppi dell’informatica. Un tale sistema deve, in primo luogo, rappresentare per iscritto gli elementi della struttura musicale e potere produrre, a partire dalla notazione, dei suoni o dei procedimenti sonori: la notazione informatica rappresenta il suono, come la notazione su carta, ma contemporaneamente esegue. Questo carattere è definito da Veitl come performativo.

Il carattere performativo concerne il potenziale di azione, espressione e creazione di un sistema di scrittura. Veitl sottolinea che:

La notazione musicale convenzionale è un sistema performativo. Tuttavia la mediazione di un musicista interprete è necessaria. Il potenziale performativo delle tecnologie informatiche è ancora più grande nella misura in cui permettono di produrre suoni e musica senza la mediazione di strumenti convenzionali. (cfr. Veitl [2006]: 235-251)

Veitl propone altri quattro criteri che si aggiungono a quello appena enunciato: la materialità, la visibilità, la leggibilità e il carattere sistemico. La materialità concerne principalmente il supporto materiale di scrittura. Questa attenzione è a nostro avviso opportuna; perché anche se spesso si parla dell’immaterialità dei supporti informatici, si dimentica fino a che punto il supporto fisico sia via via più importante, sia dal punto di vista della performance che commercialmente (hard disk più performanti, nuove dimensioni di supporto come per esempio il supporto SSD). La visibilità: le tecnologie che non permettono alcuna visualizzazione della traccia scritta registrata nel processore non possono essere considerate sistemi di scrittura. Lo schermo è il supporto fisico che rende tecnologicamente possibile la visibilità e la sua leggibilità. Il codice deve potere essere visibile e leggibile grazie all’apprendimento delle formulazioni e dei codici del linguaggio. La scrittura coordina le azioni del processore e i processi generatori. Come nella scrittura convenzionale, la scrittura informatica dà indicazioni prescrittive al processore. Infatti, nella notazione diastematica le note sono segni performativi, nel senso che non rappresentano il suono, ma indicano come ottenerlo: si tratta di astrazioni qualitative che concernono le altezze e le durate. La tecnologia di scrittura non deve soltanto poter essere materiale, visibile, leggibile e performativa; deve anche avere un carattere sistemico che permetterebbe di creare relazioni tra gli elementi della notazione e di operare un lavoro di strutturazione. Il carattere sistemico di un modo di scrittura è legato ad altri due elementi essenziali: il livello di teorizzazione delle pratiche e l’esistenza di un linguaggio sul quale fondare la scrittura. In questo modo il sistema di scrittura cerca di rispecchiare il linguaggio rappresentato comportandone modificazioni sostanziali (cfr. Duchez [1983]: 22-65). La codificazione informatica sarebbe allora una scrittura musicale capace di inglobare la generazione elettrica del suono in un sistema simbolico.

2.1.1. Il programma come intavolatura

Il problema del carattere sistemico della notazione è evidente: i segni utilizzati dai compositori sono di un’enorme varietà tanto da non costituire più un sistema comune. La scrittura del suono si basa sull’esperienza soggettiva e non trova negli strumenti analitici un terreno comune. Nemmeno la rappresentazione visuale del sonogramma può costituire un sistema di notazione perché non è sufficientemente sintetico e manca completamente del carattere performativo. Per esempio in Dulle Griet, il compositore Giovanni Verrando pubblica gli spettrogrammi nella partitura; tuttavia quel suono non potrà mai essere messo in opera. Il nesso tra il suono e la sua messa in opera manca allo spettrogramma, che non indica il nesso causale tra il movimento del corpo e il suono prodotto. Dunque, la scrittura musicale definita tramite la notazione in partitura definisce i mezzi materiali che permettono di produrre il suono. I programmi in questo senso sarebbero partiture capaci di controllare il flusso di energia elettrica che passa per il processore e di trasformarlo in onde sonore convertendo il flusso elettrico. L’opzione scelta è così quella di partiture-intavolature come quelle che s’incontrano spesso nella musica di oggi. Il programma controlla il linguaggio macchina che a sua volta definisce l’azione del processore. In questo senso il programma definisce e descrive le azioni poi tradotte in linguaggio macchina.

2.2. Come interpretiamo la musica elettroacustica?

Lo abbiamo detto: quando leggiamo un supporto e lo ascoltiamo nel nostro contesto privato non ci troviamo di fronte a nessuna performance. La performance ha avuto luogo in un momento diverso, spesso in uno studio, ed è stata registrata su un supporto replicabile potenzialmente all’infinito. Assistiamo quindi a una esecuzione dilazionata nel tempo. Quando invece andiamo ad ascoltare un concerto di musica elettronica non siamo noi stessi ad azionare il dispositivo e cerchiamo di ascoltare i brani in quando opere che sono fatte per essere ascoltate pubblicamente.

2.2.1. Eseguire la musica elettroacustica

Molti compositori hanno cercato di spiegare come interpretare un nastro (cfr. Dahan, Laliberté [2008]) ed esistono corsi di studio che ne permettono l’apprendimento. Per eseguire un brano elettroacustico di solito vengono seguite le stesse procedure di un brano di musica da camera o d’orchestra: la scrittura dell’opera, le prove, le correzioni e il concerto. Spesso anche il pubblico si comporta in maniera simile: compra un biglietto, segue il concerto e applaude il compositore o gli interpreti che si alzano in piedi alla fine dell’esecuzione. Marco Stroppa ha parlato così della sua esperienza di interprete:

A few years ago the parisian Ensemble Intercontemporain invited me to conceive and perform the sound projection of Stockhausen’s Kontakte. Although I very well knew the piece from my student time, I had never played it in concert. (Stroppa [1999]: 42)

Kontakte è stata eseguita e suonata in concerto, sia la parte strumentale sia quella elettronica. Marco Stroppa non è stato invitato in quanto semplice azionatore del si­stema di diffusione, ma come interprete della musica tramite uno strumento complesso come un sistema di diffusione.

2.2.2. La partitura d’ascolto

Anche secondo Alvise Vidolin, musicista e assistente di importanti compositori come Luigi Nono e Salvatore Sciarrino, la messa in opera di un brano elettroacustico è una questione d’interpretazione. L’invenzione della musica elettronica aveva fatto sperare i compositori che l’interprete diventasse meno importante per l’esecuzione delle opere. Tuttavia ciò che sembrava fisso si è rivelato col tempo duttile e ha obbligato i musicisti a formalizzare procedure e acquisire nuove competenze che permettessero una corretta interpretazione del nastro: infatti il fonico, o regista del suono, scrive una sua partitura che è comunemente chiamata partitura d’ascolto. Nell’esecuzione di ...sofferte onde serene..., brano per pianoforte ed elettronica di Luigi Nono, Vidolin realizzò una tale partitura in cui la diffusione dell’opera è scritta: per diffondere l’elettronica monofonica del brano, Vidolin utilizzò tre altoparlanti, due ai lati del pianoforte e uno agganciato alla cassa armonica. I suoni diffusi dall’altoparlante centrale si fondono interamente con il suono del pianoforte mentre i suoni diffusi lateralmente ne creano un’immagine larga e stereofonica (vedi Vidolin [2012]: 5-12).

2.2.3.L’interpretazione come rappresentazione pubblica

Se in un senso generale Davies ha ragione nel dire che la musica elettronica è simile a un film proiettato in sala, tale confronto non va frainteso e in ogni caso non ci sembra implicare, in entrambi i casi, la soppressione del momento esecutivo. Nel cinema possiamo trovare molti esempi in cui la messa in opera è fondamentale: la qualità dei materiali, il tipo di cinema, la grandezza dello schermo. In più il master è spesso adattato per renderlo eseguibile in differenti formati. Il regista sa che il film sarà proiettato in una grande sala e non su un televisore, e dà per scontato che il personale tecnico del cinema saprà metterlo in opera. Probabilmente è vero, l’opera elettronica non è for acting, ma è comunque for performance. Abbiamo infatti mostrato che indubbiamente il master non è pensato per essere eseguito come una partitura, ma è comunque definito perché il suo ascolto pubblico sia possibile, e quindi perché coloro che si occupano di metterlo in opera possano capirne, comprenderne e azionarne il contenuto.

2.2.3.1.Performance pubblica

La performance si verifica nel momento in cui un interprete in scena entra in relazione con un pubblico. Nella musica classica tale performance si realizza tramite l’esecuzione di una partitura. La messa in opera è però indipendente dall'esecuzione sullo strumento. Per esempio 4’33’’ di John Cage è un’opera musicale in cui l’azione consiste proprio nell’assenza di azione strumentale. Non si tratta di una performance musicale conven­zionale, ma il brano funziona perché conserva comunque il suo statuto di opera musicale, performativa anche se il pianista non suona. Pur non riempiendo i criteri della performance musicale classica, non potremmo facilmente dire che non si tratti di una performance. In fondo il pianista esegue ciò che la partitura gli prescrive. 

3. Presentazione e rappresentazione

Dalla discussione precedentemente svolta possiamo dedurre due dimensioni di messa in opera di una musica elettroacustica:

1. messa in opera privata intesa come presentazione;

2. messa in opera pubblica intesa come rappresentazione.

All’ascolto privato non corrisponde una reale esecuzione: lo stereo è messo in moto e legge il contenuto del supporto. Nella condizione dell’ascolto privato siamo di fronte a un’effettiva presentazione di un’opera. Il fatto che non esista una scena e che l’ascolto sia pensato come un mezzo per condividere la musica con persone vicine, o per rilassarsi, o per studiare e ascoltare l’opera privatamente, ci fa ritenere che l’opera sia semplicemente presentata.

Nel momento in cui invece l’opera è portata in pubblico molte più variabili entrano in gioco. Per esempio, in un recente concerto, un’opera elettroacustica del compositore spagnolo Hector Parra ha dovuto subire diverse modificazioni. Il fonico ha dovuto filtrare i suoni, aggiungere riverberi, livellarne i picchi. La presenza degli ascoltatori in sala rende completamente diversa la presentazione del file e in più cambia, a volte profondamente, la reazione dello spazio al suono, obbligando il fonico a seguire l’esecuzione.  Diversamente dal cinema, la presenza del fonico e della sua azione è fondamentale. Non solo il fonico ha dovuto rispettare la corretta catena causale per attivare il supporto, ma ha dovuto introdurre lui stesso di sua volontà varianti alla catena causale che si aspettava. Interpretare la musica elettronica implica mettere in opera una certa registrazione e utilizzare gli strumenti richiesti per tale esecuzione. Probabilmente non c’è una esecuzione, ma le scelte fatte dal fonico si basano su un'innegabile scelta interpretativa, basata sul riconoscimento dell’oggetto musicale e sulla chiarificazione degli aspetti che di tale oggetto il fonico vuole mettere in risalto. Sarebbe quindi un’interpretazione senza esecuzione immediata.

Che legame ci sarebbe allora tra esecuzione e interpretazione? La serie causale richiesta dall’opera comporta l’attivazione di un sistema di diffusione, lo strumento, per il quale l’opera è scritta. L’interprete deve perciò conoscere lo strumento e saperlo suonare per poter realizzare l’opera davanti a un pubblico.

4. Lo strumento come medium trasparente

L’esecuzione pubblica implica un’alterità, sostiene Michel Imberty. Tale relazione con il pubblico vale anche per il fonico e implica l'interpretazione? Se tale relazione ha luogo, potremmo allora affermare con più chiarezza che il tipo di attività svolta dal fonico è interpretativa?

In genere un musicista, nel momento in cui è concentrato nell’esecuzione dell’opera, non ascolta direttamente lo strumento che sta suonando, ma il brano. In un certo senso egli “posiziona” l’ascolto dello strumento sullo sfondo della sua esecuzione. Cerchiamo di spiegarci meglio. Il buon interprete non ci fa pensare quanto sia difficile suonare il pianoforte, ma proprio il contrario. Per esempio se ascoltiamo la sonata per pianoforte op. 110 di Beethoven suonata da Wilhelm Backhaus ci rendiamo conto dell’estrema bellezza della musica senza minimamente renderci conto dell’enorme lavoro fatto dall’interprete. Lo strumentista è cosciente del suo strumento, ma tale coscienza viene inglobata nel suo sistema percettivo nel momento della performance pubblica (cfr. Nijs, Micheline, Leman [2009]). Lo strumento diventerebbe quindi un’estensione naturale del musicista. Un tale processo è in un certo senso simile a quello che tutti proviamo quando scriviamo al computer: gli arti continuano a percepire la tastiera, ma sono inglobati nell’intenzione dell’azione.

Ora, suonare uno strumento significa attivare una serie di azioni su un supporto, che ha un certo funzionamento, con l’obbiettivo di trasformare l’azione sul supporto in uno spettacolo. Lo strumento permette una relazione specifica tra causa ed effetto: la percussione, il soffio, lo sfregamento provocano diversi risultati in base al materiale, costruzione e tecnica di produzione del suono. Come sottolineato da Nijs-Lasaffre-Leman, l’integrazione dello strumento al corpo del musicista è accompagnata dalla trasparenza dello stesso che, come gli arti in azione, spariscono dalla coscienza nel momento dell’azione. Suonare uno strumento significa allora inglobarlo nel proprio sistema di orientamento e di relazione con il pubblico (cfr. Godoy [2010]: 103-125).

4.1. Il computer come strumento

Tuttavia questa ipotesi sembra resistere al tipo di strumenti utilizzati nell’esecuzione della musica elettroacustica: il mixer, gli amplificatori, il computer. In più, si potrebbe obiettare, ritenere che gli strumenti elettroacustici siano effettivamente strumenti sarebbe in contraddizione con un’intera branca dell’informatica che si occupa di trasformare il computer in uno strumento musicale: se lo fosse già, non varrebbe la pena dedicare così tante energie per trasformare un oggetto in ciò che è già (cfr. Cance, Genevois [2009]: 133-142). Purtroppo, invece, si tratta esattamente di questo. Non si tratta si trasformare il computer in uno strumento, ma di svilupparne le sue intrinseche potenzialità strumentali. La possibilità di trasformare i numeri in suono costituisce il passaggio tecnologico che ha permesso al computer di diventare strumento musicale. Max Mathews, nel 1963, parlava effettivamente di performance per quanto riguarda il computer, e più specificamente di digital performer:

Non ci sono limiti teorici alla performance del computer in quando sorgente di suoni musicali, diversamente dalla performance su strumenti tradizionali. (cfr. Mathews [1963]: 553-557)

Il computer era visto come uno strumento capace di spingersi al di là dal limite, umano, degli strumentisti classici.

4.2.Il transfert causale

Se in fondo è facile immaginare la relazione causale tra il corpo dell’interprete e il suono del pianoforte, lo è relativamente meno per un sistema di diffusione multicanale. Nella musica elettroacustica la relazione causale è complessa e passa attraverso un transfert informatico che rende irrelati causa e effetto: il soffio o la percussione possono essere programmati diversamente in modo da ottenere suoni e risultati diversi. Il programma sarebbe in questo senso una scrittura che definisce il transfert. Il computer è controllato tramite programmi che sono, come sottolinea Anne Veitl, debitori degli sviluppi fatti da Max Mathews con Music II (vedi Veitl [2006]: 235-251). In questo programma Mathews inventò il linguaggio di programmazione per oggetti, utilizzando oscillatori pre-program­mati e digitali. Il tipo di linguaggio di programmazione funziona allora come un’intavola­tura che controlla il processore a un livello più alto. Se dunque consideriamo gli sviluppi recenti dell’interattività informatica constateremo un’esplosione di software e interfac­ce che permettono all’utente di entrare in relazione con il suono causalmente.

Possiamo quindi provare a trovare diverse tipologie di strumenti informatici e possiamo anche catalogarli secondo il legame causale che instaurano tra movimento corporeo e suono, dal meno diretto al più diretto:

Il dispositivo classico: file audio, mixer, amplificatori;

Chitarra elettrica;

Joystick;

Tastiera elettronica;

Karlax

Pur ammettendo che la causalità tra azione dell’interprete e risultato sonoro non sia dello stesso grado nel caso di una tastiera elettronica, di una chitarra elettrica, di un Joystick, o di Karlax, riteniamo che il sistema di diffusione classico diventi trasparente e che per il fonico ci sia un’interazione immediata con il pubblico in sala. Ci sarebbe quindi una relazione diretta e il sistema percettivo del fonico sarebbe in contatto con il contenuto ricevuto dal pubblico: il fonico interagisce quindi tramite il suo strumento. La conoscenza profonda dello strumento fa sì che il musicista integri completamente l’og­getto esterno nel suo sistema di funzionamento, in modo da individuare immediata­mente il suono risultante. Suonare consiste dunque nello stabilire una relazione imme­diata tra il proprio corpo e il risultato in un contesto di comunicazione pubblica. Nel­l’articolo sopraccitato, Nijs Lasaffre e Leman analizzano il comportamento dell’interpre­te secondo uno schema che lega la percezione diretta non filtrata da un processo cognitivo (direct perception) che agisce direttamente con l’ambiente (body schematic acting) (cfr. Nijs, Micheline, Leman [2009]: 3).

L’interazione tra contenuto dell’opera, percezione diretta e azione corporea legata alla reazione tra pubblico, strumento e suono definiscono così l’ambito dell’interpreta­zione. Nel momento in cui il fonico si mette nella prospettiva dell'ascoltatore non si occupa più soltanto di controllare il dispositivo in quanto tale ma di dirigerlo in una certa direzione. L’opera agisce dunque come catalizzatore che induce, tramite lo strumento, la relazione tra musicista e pubblico. L’opera musicale, da questo punto di vista, sarebbe un dispositivo che prescrive il modo d’interazione, indicando contemporaneamente l’oggetto finale da raggiungere e il modo in cui raggiungerlo. Il brano sarebbe allora definito tramite l’interazione tra pubblico ed esecutori, come un oggetto che stabilisce, tramite la scrittura, il modo in cui avviene l’interazione e come oggetto intermedio tra interprete e ascoltatore. In questo senso, l’opera sarebbe l’oggetto della percezione diretta dell’ascoltatore e dell’intenzione dell’interprete, che ingloba nella sua azione la percezione di ciò che accade per poterla trasmettere al pubblico. In maniera simile, nell’interazione diretta, il fonico non media il contenuto dell’opera, ma lo vive direttamente entrando in relazione fisica con il suono dell’opera. In tal modo il sistema di diffusione potrebbe essere concepito come strumento in quanto tale, e quindi come mezzo capace di trasformare il supporto registrato in suono interpretabile dal fonico secondo i limiti che il suo strumento gli impone.

5. Conclusioni

Potremmo avanzare l’ipotesi che ci sia una sostanziale analogia tra partitura convenzio­nale e registrazione; la prima definisce le azioni per i musicisti, la seconda per il proces­sore. Si tratta di parallelismi tra fenomeno acustico e fenomeno elettrico che spiegano parzialmente la ragione per cui le prime applicazioni informatiche nei domini artistici siano nella musica. Nella performance della musica elettronica il tecnico del suono, il musicista o lo stesso compositore interpretano mediatamente il testo scritto sul supporto rigido messo in opera dalla macchina, tuttavia la dimensione sonora e inte­rat­tiva resta interamente nelle mani dei musicisti. Proprio la dimensione puramente sonora definisce l’ambito d’interpretazione. L’azione della macchina termina nel momento in cui il codice si trasforma in impulsi elettrici. A partire da quel momento, la macchina non interviene più sul risultato che è interamente nelle mani degli interpreti. L’interpre­ta­zio­ne della musica elettronica passa quindi attraverso il controllo diretto del suono con strumenti legati alla misurazione e alla pura esperienza dell’interprete. Il passaggio alla realizzazione mette così il fonico in una condizione simile a quella dello strumentista. Nel momento del concerto, l’interprete proietterebbe così le proprie rappresentazioni sonore oltre il proprio strumento, tanto da posizionarlo sullo sfondo della sua coscienza.

Abbiamo cercato così di argomentare in favore dell’ipotesi che, nel caso in cui la presentazione della musica elettroacustica sia pubblica, possiamo legittimamente parlare d’interpretazione. Siamo partiti da osservazioni empiriche della pratica musicale, basandoci su un’accezione d’“interpretazione” legata alla presenza del pubblico. L’ese­cuzione e l’interpretazione della musica elettronica sono dati di fatto che difficilmente non trovano d’accordo i musicisti che si occupano di elettronica. A partire dalle nostre osservazioni, abbiamo cercato di capire di che tipo d’interpretazione si tratti e che cosa abbia in comune, fondamentalmente, con l’interpretazione convenzionale. Ci siamo quindi chiesti in che cosa consista interpretare, per concludere che si tratta del risultato finale dell’esecuzione di un testo e del controllo del suono che la macchina produce tramite la comprensione del senso dell’opera. Non c'é quindi un passaggio necessario dall'esecuzione all'interpretazione. Un’opera può benissimo essere eseguita da una macchina e interpretata da un essere umano. Conseguentemente abbiamo cercato di vedere in che cosa consista suonare uno strumento concludendo che lo strumento possa essere considerato come mezzo dell'interazione attraverso l'opera. Basandoci su que­st’osservazione abbiamo potuto constatare la sostanziale omologia tra interpretazione convenzionale e interpretazione elettroacustica: l’interazione tra opera e pubblico passa, a un diverso grado di mediatezza, attraverso l’utilizzo di uno strumento. In segui­to abbiamo cercato di vedere come agisce in questo contesto la nozione di interpre­tazione e abbiamo cercato di mettere in risalto la sostanziale omologia tra partitura e registrazione in quanto frutto di un linguaggio di programmazione. L’interazione tra l’opera e il pubblico tramite l’interprete è quindi l’aspetto che anche nella musica elettronica resta al centro della messa in opera e intorno al quale si definiscono i dispositivi di scrittura, registrazione e diffusione.

La musica elettronica è messa in opera tramite un’interpretazione del suono generato dal dispositivo di diffusione; ciò significa che è realizzata tramite la lettura e la comprensione di un testo codificato su un supporto e diffuso dall’interprete durante un’esecuzione pubblica. Dunque gli elementi che entrano in gioco nell’esecuzione della musica elettronica sono: testo/registrazione, macchina, interprete, pubblico. Queste componenti definiscono un sistema complesso d’interazioni, costruito intorno alla possibilità di codificare l’energia sonora su dispositivi materiali. Mancando uno di questi elementi, in particolare la connessione tra contenuto dell’opera e ricezione dello stesso da parte del pubblico, non possiamo parlare d’interpretazione ma principalmente di presentazione. La riflessione sull’interpretazione ed esecuzione della musica elettronica apre dunque nuove possibilità di comprensione del fenomeno dell’interazione tra interprete e pubblico. L’interpretazione non ha, da questo punto di vista, a che fare con il testo, ma con il suono. L’interprete allora non sarebbe un lettore esperto di testi, ma un esecutore capace di suonare e di comunicare il contenuto della partitura tramite il suono e i limiti del suo strumento. L’interpretazione avrebbe allora a che fare con il suono di cui la partitura prescrive la realizzazione, o, come nel caso dei programmi, esegue istantaneamente, dovendo metterne in opera il contenuto strettamente ana­logico.

In conclusione ci sentiamo di poter emendare la distinzione che abbiamo sottolineato in Davies. Suddividere le opere musicali in opere per l’esecuzione e opere che non sono destinate all’esecuzione secondo il tipo di supporto, partitura o registrazione, non tiene conto del fatto che entrambe le categorie cambiano di segno se considerate in un contesto di lettura o di rappresentazione pubblica. L’azione diretta non è una condizione sufficiente per definire la performance. Nel momento in cui l’opera è istanziata pubblicamente allora entriamo in tale ambito, indipendentemente dal fatto che l’opera sia scritta in partitura o registrata su un supporto digitale. Riteniamo quindi che tale prospettiva mostri la complessità del problema dell’esecuzione dell’opera musicale, allargandolo all’interazione con il pubblico e alla questione della fonografia che spesso definisce i limiti delle opere musicali odierne.

Bibliografia

Arbo, A., 2002: Entendre comme. Réflexions sur un thème de Wittgenstein, “International Review of Aesthetics and Sociology of Music”, 33, 2, pp. 149-169.

Arbo, A., 2013: Entendre comme. Wittgenstein et l'esthétique musicale, Hermann, Paris.

Arbo, A., 2014: L’opera musicale tra scrittura, oralità e fonografia, “Aistheisis. Pratiche, linguaggi e saperi dell’estetico”, numero corrente, pp.

Bayle, F., 1993: L’image de son, ou “i-son” : métaphore/métaforme, in Musique acousmatique, propositions... positions, INA-GRM, Editions Buchet/Chastel, pp. 93–101.

Dahan, K., Laliberté M., 2008: Reflexions autour de la question d’interpretation de la musique électroacoustique, in Atti del convegno JIM08, Paris.

Darsel, S., 2009: Qu’est-ce qu’une oeuvre musicale?, “Klesis, Philosophie Analytique”, 13, pp. 147-185.

Davies, S, 2001: Musical Works and Performances, A Philosophical investigation, Oxford University Press, Oxford.

Davies, S., 2003: John Cage’s 4’33": Is It Music?, in Themes in the Philosophy of Music, Oxford University Press, New York.

Delalande, F., Vinet H., 1999: Interface homme-machine et création musicale, Hermes.

Delalande, F., 2003: Sense and Intersensoriality, Leonardo Music Journal, pp. 313-316.

Duchez, M.-E., 1979: La representation spatio-verticale du caractere musical grave-aigu et l’elaboration de la notion de hauteur de son dans la conscience musicale occidentale, “Acta musicologica”, 51, pp. 54-73.

Duchez, M.-E., 1983: Des neumes à la portée. Elaboration et organisation rationnelles de la discontinuité musicale et de sa représentation graphique, de la formule mélodique à l’échelle monocordale, “Revue de musique des universités canadiennes”, 4, pp. 22-64.

Duchez, M.-E., 1988: An historical and epistemological approach to the musical notion of “form-bearing element” , “Contemporary Music Review”, Vol. 4 n. 1, pp. 199-212.

Emmerson, S., 1998: Acoustic/Electroacoustic: The Relationship with Instruments, Journal of New Music Research.

Emmerson, S., 2000: Music, Electronic Media and Culture, Aldershot, Ashgate.

Gracyk, T., 1996: Rhythm and Noise. An aesthetic of Rock, Duke University Press, Durham.

Imberty, Michel, 2005: La musique creuse le temps: de Wagner à Boulez, L’Harmattan, Paris.

Leman, Marc, 2008: Embodied Music Cognition and Mediation Technology, MIT Press, Cambridge.

Mathews, M., 1963: The Digital Computer as a Musical Instrument, Science, 3591, pp. 553-557.

Nijs, L., Lesaffre M., Leman M. (a cura di), 2009: The musical instrument as a natural extension of the musicians, “Fifth Conference on Interdisciplinary Musicology”, Paris.

Pouivet, Roger, 2010: Philosophie du rock. L’interrogation philosophique, PUF, Paris.

Smalley, D., 2007: Space-form and the acousmatic image, “Organised Sound”, vol. 12, fasc. 01, pp. 35–58.

Stroppa, M., 1999: Live Electronics or ...Live Music? Towards a critic of interaction, Contemporary Music Review, vol. 18, part 3, pp. 44-71.

Veitl, A., 2003: De nouvelles formes de musiques orales ? Les technologies de la création musicale et le problème de l’écriture, “Ecrire, décrire le son, Domaine de Kerguéhennec”. Internet: http://www.tscimuse.org/biblios/veitl/ecritureoralite.pdf

Veitl, A., 2006: Musique, causalité et écriture : Mathews, Risset, Cadoz et les recherches en synthèse numérique des sons, “Musique, Instruments, Machines”, a cura di Bruno Bossis, Anne Veitl e Marc Battier, pp. 235-251, Paris, OMF-Paris IV Sorbonne.

Veitl, A., 2009: Le logiciel Music V, technologie d’écriture musicale : rappels historiques et éléments d’analyse. Internet:

http://www.tscimuse.org/biblios/veitl/music5ecriture.pdf

Vidolin, A., 2011: Editoriale (Scrivere il suono), Musica/Tecnologia, vol. 6, pp. 5-12.



[1] Questo lavoro rientra nel progetto di ricerca “La partition comme “protocole de communication”: les problématiques de la production et de la réception de la musique mixte” sostenuto  dal « Laboratoire d’Excellence GREAM » dell’Université de Strasbourg.



DOI: http://dx.doi.org/10.13128/Aisthesis-14101



Creative Commons License

This work is licensed under a Creative Commons Attribution 4.0 International License (CC-BY- 4.0)

 
Firenze University Press
Via Cittadella, 7 - 50144 Firenze
Tel. (0039) 055 2757700 Fax (0039) 055 2757712
E-mail: info@fupress.com