Speciale danza /2: Kinkaleri + Tempo Reale | prima parte

di Giulia Sarno

kinka-2

[Questo focus sul lavoro del collettivo Kinkaleri in collaborazione con Tempo Reale è il secondo capitolo di uno speciale su lavori di danza che utilizzano sensori di movimento associati all’elaborazione del suono in tempo reale. Il primo capitolo, dedicato al collettivo S’odinonsuonare, si può leggere QUI.]

Nel 2015, Kinkaleri e Tempo Reale hanno coprodotto uno spettacolo di danza dal titolo Real Good Time, che chiude il progetto All! di Kinkaleri. La collaborazione tra i due soggetti si è basata sulla scelta di utilizzare sensori di movimento per creare in tempo reale il suono dello spettacolo. Abbiamo intervistato Francesco Casciaro, compositore e musicista che ha curato il progetto per Tempo Reale, e Massimo Conti, Gina Monaco e Marco Mazzoni di Kinkaleri. Di seguito l’intervista a Francesco Casciaro.

Come è partita la collaborazione tra Tempo Reale e Kinkaleri su questo progetto?

La collaborazione con Kinkaleri è partita sulla base del fatto che c’era la volontà di far convergere la loro ricerca sulla danza (sul movimento) e sull’alfabeto con la nostra ricerca più prettamente audio (musicale) legata alla sonorizzazione del gesto in una nuova produzione. Come dicevano anche Alessio e Marco di S’odinonsuonare, sono d’accordo anch’io sul fatto che tutta una serie di lavori di scena fatti con la sensoristica sembrano fondamentalmente una demo dei prodotti, ovvero dei mezzi tecnologici, che vengono utilizzati. I lavori dove si utilizzano sistemi di visione come Kinect e simili, sensori di movimento come accelerometri e/o giroscopi, sembrano quasi tutti mostrare il prodotto, le potenzialità della tecnologia in sé, come funziona, cosa ci si può fare… C’è dunque quasi sempre una relazione diretta, 1:1, tra la gestualità e la generazione di un evento sonoro. Fin dall’inizio noi abbiamo voluto evitare questa cosa cercando di creare un sistema di mappatura gesto/suono più articolato e meno diretto. Se da una parte era in campo l’alfabeto ideato da Kinkaleri che rappresenta comunque un codice preciso, è anche vero che le modalità di esecuzione dello stesso possono variare molto; dunque la mia indagine si è rivolta più che altro verso l’analisi di queste qualità del movimento cercando di individuare elementi utili alla realizzazione di un sistema interattivo meno puntuale ma comunque legato ad esse. Devo dire che a volte mi è capitato che uno spettatore mi dicesse “Ah sì? Utilizzate dei sensori?” Beh, in questo senso, forse abbiamo toccato l’altro estremo… :-). Si voleva anche evitare di riempire i danzatori di tecnologie che avrebbero intralciato la fluidità e la spontaneità del movimento.

Quindi in pratica cosa avevano addosso Marco Mazzoni e Jacopo Jenna?

Avevano dei bracciali che indossavano semplicemente sul polso o sull’avambraccio. Questi bracciali hanno tre tipi di sensori al loro interno: degli accelerometri su tre assi, che sono dei sensori che misurano l’accelerazione o la decelerazione sulle tre direzioni x, y e z, nella tridimensionalità; dei giroscopi, che sempre sui tre assi x, y e z misurano la velocità di rotazione intorno ad essi; e dei compassi, che misurano la posizione assoluta in base al nord magnetico. I dati vengono inviati wireless al computer dove  un sistema creato in MAX for Live li raccoglie e li utilizza per due tipi di processi: uno di generazione sonora e uno di modifica di parametri di elaborazione del suono. A me interessava anche lavorare sulla sonorità delle parole, e quindi dell’alfabeto, e da qui quindi nasce la volontà di registrare dal vivo le loro voci – ecco il perché dei due microfoni davanti a ricreare la situazione “concerto” iniziale – che è un po’ una sorta di scansione dell’alfabeto, che viene eseguito principalmente all’inizio dello spettacolo.

22385854279_62bcb0e91c_h

I dati dell’audio raccolto dai microfoni e quelli raccolti dal movimento lavorano su due canali paralleli o si intrecciano?

Si intrecciano. C’è una prima parte del lavoro in cui io faccio del puro live electronics sulle loro voci in diretta. Nel frattempo registro le voci creando dei banchi di suoni che (vanno a formare) dei database di sonorità di ognuno dei due performer. Questi due database vengono prima analizzati in base alle loro caratteristiche acustiche e successivamente “messi a disposizione” dei due performer, diventando da subito degli elementi che loro possono gestire in base al movimento, attraverso una frammentazione puramente ritmica. Quindi loro sono in grado di lanciare questi materiali sonori, senza una corrispondenza precisa, nel senso di: “a questo gesto corrisponde questo suono”. Il performer non sa esattamente cosa sta lanciando, ma sa che la sua dinamica e/o tipologia di movimento permette al sistema di riconoscere un frammento di un certo tipo piuttosto che un altro, questo sì. Questo meccanismo può essere associato all’intensità sonora, quindi a quanto è forte un suono, e allora se il mio movimento è più forte (energico) il sistema va a pescare nel database un frammento nel quale io ho emesso una vocale o una consonante più forte e così via. Questo è ovviamente un semplice esempio, nella realtà il sistema interattivo realizzato crea dei rapporti gesto/suono meno lineari e si basa su parametri sonori più articolati e non immediatamente riconoscibili. Di base il sistema appena descritto lavora sempre, ciò che invece cambia è il modo in cui io modifico questo flusso di audio e di dati. Il mio intervento fin da subito è molteplice: da una parte modificando la sensibilità dei sensori vado a cambiare il modo in cui essi reagiscono al movimento e, di conseguenza, il loro modo di generare suono. Dall’altra c’è un costante intervento di instradamento del materiale sonoro prodotto dai performer verso altri processi di generazione e/o di elaborazione contemporaneamente. E’ chiaro che più questo processo diventa articolato e complesso, più ci si allontana da quel rapporto 1:1 gesto/suono di cui si parlava sopra. (Pensa ad esempio se il sistema diventasse ultra-sensibile per cui anche dei minuscoli movimenti generano un suono continuo che fa da bordone e contemporaneamente altri interventi più puntuali vi si innestano sopra. Tutto è generato dallo stesso sistema ma alcuni elementi sonori risultano più legati ad una gestualità, mentre altri perdono la loro relazione (almeno apparente) col gesto che li crea). Tutto questo intreccio in realtà non è così predeterminato, nel senso che si è sempre voluto lasciare una certa apertura, un certo margine di intervento. Sappiamo la direzione verso cui si deve andare ma ci viviamo il momento, ci si arriva sempre in maniera diversa…

22572587875_a1fe51f1bb_h

C’è dunque una componente improvvisativa non indifferente.

Sì, è qualcosa che indago da un po’ di tempo in tanti lavori e che mi interessa molto. Anche se non risulta così evidente considera che circa il 90% del materiale sonoro di questo lavoro è generato dai danzatori in tempo reale e proviene principalmente dalle registrazioni fatte all’inizio della performance, dunque, se loro smettessero di muoversi, il sonoro “crollerebbe” di conseguenza. E’ però anche vero che essendo una performance/concerto a tre, da musicista mi sono riservato la possibilità di ulteriori interventi, fatti sempre dal vivo, attraverso l’eventuale ri-registrazione e ri-manipolazione del materiale da loro generato. In questo modo acquista anche più senso lo scambio tra di noi che avviene nel qui e ora della performance. Si tratta di uno scambio continuo tra ciò che loro generano più o meno consapevolmente, la mia reazione sonora al loro intervento e la nuova situazione sonora che si viene a creare che, inevitabilmente li condizionerà, portandoli a muoversi con una determinata qualità. E’ in qualche modo una particolare modalità del “suonare” insieme nella quale è comunque vivo il reale processo improvvisativo basato sull’ascolto, sullo scambio e l’inevitabile reciproco condizionamento. Anche se risulta evidente un certo rischio in questo tipo di approccio, devo dire che la condizione di attenzione e vigilanza in cui ti pone mi affascina molto ed è per un musicista in generale, e forse per un musicista elettronico ancor di più, una bella sfida.

21951380673_5638a95d3f_h

Nel corso della performance si passa da una parte iniziale in cui appunto viene dichiarato l’alfabeto, per poi arrivare in fondo a una parte coreografata in cui il materiale si organizza ritmicamente…

In realtà lo è sempre, è che siccome la prima parte è un po’ più frammentata / dilatata da un punto di vista gestuale, si è preferito tenere questa relazione (questo atteggiamento) anche con il sonoro. La ritmicità è sempre presente, ma spesso è così pesantemente processata da non riuscire più a percepirla come tale.

La percezione è quella che ad un certo punto il materiale si ordini in una pulsazione più regolare, si compatti per acquisire una qualità più strutturata e più solida in quella parte che corrisponde al momento in cui anche i danzatori sono più “strutturati” a livello gestuale, cioè fanno una coreografia. Questa coreografia è nata prima della vostra collaborazione o contestualmente?

La coreografia è nata nel mentre, nel senso che si è strutturata man mano che la parte sonora si andava definendo. Ci piaceva comunque l’idea che lo spettatore si ritrovasse lì, in quel punto, chiedendosi eventualmente: “Oh, ma come ci sono arrivato qui? Perché è chiaro che fino a quel momento tutto il lavoro è difficilmente classificabile, catalogabile. Beh, in quel punto, in quel momento, ci si ricompatta e si va palesemente e prepotentemente verso un’unica direzione ben definita.

img: KINKALERI + TEMPO REALE Real Good Time | All! con Jacopo Jenna, Marco Mazzoni; suono Francesco Casciaro. Tempo Reale Festival @ Cango, Cantieri Goldonetta, 6-7 ottobre 2016 © Mario Carovani

Speciale danza /2: Kinkaleri + Tempo Reale | prima parte ultima modifica: 2016-09-20T10:00:09+02:00 da Giulia Sarno

Lascia una risposta