#livecoding | Intervista a Renick Bell / 1

di Giovanni Mori 

[Questa è la prima parte dell’intervista condotta in occasione dell’appuntamento organizzato dal collettivo Phase. Renick Bell è un musicista elettronico e live coder statunitense ma da molti anni stabile in Giappone, a Tokyo, dove si è recentemente addottorato presso la Tama Art University. Ha anche un master in tecnologie musicali presso l’Indiana University. Bell ha creato la libreria Conductive, un software per il live coding scritto in linguaggio Haskell che utilizza durante tutte le sue performance e per la creazione delle sue tracce. Per maggiori informazioni e per aggiornamenti sulle sue attività, si rimanda al suo sito ufficiale: http://www.renickbell.net/doku.php. Per maggiori informazioni sul live coding, si rimanda al nostro articolo precedente sul tema.]

Giovanni Mori: Vorrei iniziare domandandoti di parlarmi un po’ di te. Per esempio, domandandoti come hai iniziato la tua carriera.

Renick Bell: Intendi la mia carriera come live coder?

Sì, ma prima di tutto vorrei che tu parlassi della tua carriera come musicista in generale.

Ho praticamente sempre fatto musica. Ho cominciato sin da bambino, cantando all’interno di cori e prendendo lezioni di piano. La mia attività musicale è stata fin da subito piuttosto intensa, visto che facevo pratica diverse volte a settimana. Queste attività comprendevano lezioni e concerti. Durante tutta la mia infanzia e anche durante le scuole medie e superiori partecipavo alle attività musicali scolastiche.

In che modo è avvenuto il passaggio dagli “strumenti acustici” all’uso del computer come strumento musicale?

Ho suonato in varie band diversi anni fa, ma mi sentivo un po’ frustrato riguardo alla partecipazione a quei progetti. Non riuscivo a far in modo che funzionassero in maniera sufficientemente efficiente ed efficace. Inoltre, all’interno di una band non riuscivo a ottenere alcuni dei suoni che volevo. C’erano a disposizione soltanto la chitarra, il basso, la batteria, quindi le scelte erano piuttosto limitate. Durante i miei anni all’università mi sono formato all’interno di uno studio di musica elettronica e lì mi sono appassionato particolarmente a quei suoni. Volevo usarli. Inoltre, quando suonavo nelle band, registravamo i nostri pezzi, e anche questa attività prevedeva l’uso di un computer. La mia frequentazione dello studio di musica all’università ha contribuito notevolmente a farmi entrare in questo campo.

Come sei venuto in contatto con la pratica del live coding? Qual è stata la tua prima esperienza?

A partire dal 1999 ho cominciato gradualmente ad abbandonare il sistema Windows per passare a Linux, staccandomene definitivamente nel 2005. Come musicista informatico, mi sono messo a cercare quali fossero gli strumenti musicali in questo ambiente. Così, ho scoperto i programmi di David Griffiths. David ha creato molti differenti software che forse non possono essere categorizzati esattamente come live coding, ma ero comunque molto intrigato da questi piccoli synth e strumenti musicali. Inoltre, David usava questi programmi dal vivo, con la sua band SLUB, in cui c’era anche Alex McLean. Era la loro band. Attraverso la conoscenza dei programmi di David, arrivai alle registrazioni. A quel tempo non sapevo molto dei processi che usavano.

Alex e David improvvisavano usando strumenti sviluppati con il linguaggio PERL, giusto?

Sì. Alex ce li ha mostrati durante l’ultimo ICLC [International Conference on Live Coding che ha avuto luogo a Morelia, Messico, nel 2017, nda]. È stato molto interessante. Usava alcuni strumenti visuali e ci ha mostrato questi primi prototipi per il live coding. Molto, molto interessante! Quindi, a quel tempo ascoltavo le registrazioni di SLUB. Ero particolarmente interessato ai programmi di Dave e grazie a essi trovai l’articolo di Alex intitolato: Hacking PERL in Nightclubs. Questo accadde intorno al 2004, che mi sembra sia anche la data dell’articolo. Appena lo lessi pensai: “È divertente”! Mi sembrava uno scherzo quasi. Mi dissi: “Questo è pazzo. Perché lo fa”? Io giudico la programmazione come un processo lento, difficile e in cui bisogna pensare molto. Ero solito programmare pagine web e al tempo bisognava farlo pixel per pixel. Successivamente, mi misi a studiare SuperCollider senza pensare molto al live coding. Programmavo alcune applicazioni che producevano musica generativa. Essendo automatiche, potevano produrre molta musica. Tuttavia, l’interfaccia si poteva gestire soltanto con il mouse, quindi si poteva usare praticamente solo un dito. Conseguentemente, se è vero che suonare una chitarra con un dito solo non è molto soddisfacente, lo stesso vale anche per il computer. Voglio dire, i programmi erano generativi, quindi c’erano un sacco di processi attivi ma tuttavia non era soddisfacente come strumento. Pensai che il problema derivava probabilmente dalla GUI [Graphical User Interface, interfaccia utente grafica, nda]. Al tempo, su Linux esistevano soltanto due librerie, Swing o AC, che usavano un’interfaccia Java accessibile da SuperCollider. Quindi pensai che fosse questo il problema. E forse anche SuperCollider. Pensai che fosse necessario utilizzare un altro linguaggio e un’altra interfaccia e cominciai a svilupparla. Durante questa fase – diciamo abbastanza presto, prima che cominciassi a sviluppare la GUI – mi rivennero in mente le frasi scritte nell’articolo di Alex, Hacking PERL, e realizzai che Alex non stesse affatto scherzando, anzi era piuttosto serio. Quindi mi dissi: “Già adesso con un terminale e un editor di testo riesco a fare musica quasi bene come se usassi una GUI”. Così cominciai a imparare questa nuova tecnica e pensai che non mi serviva una GUI, andava benissimo il codice. Capii che realizzare un’interfaccia musicale comportava la scrittura di molto più codice rispetto a suonare direttamente con il codice stesso: questo mi consentiva di concentrarmi meglio sulla musica. Semplicemente non avevo bisogno della parte grafica dell’interfaccia. Così ho cominciato a fare live coding.Quindi trovi questo approccio più immediato?

Sì, il tempo di sviluppo era molto più breve. Inoltre, cominciai a capire che l’uso di simboli, frasi e pensiero astratto, invece dei gesti, era un approccio con molte potenzialità.

Quindi sei d’accordo con Thor Magnusson quando afferma che il live coding è una sorta di composizione in tempo reale?

Sì, è giusto. Sono sicuro che questo approccio non sia uno scherzo. È anzi molto serio e penso sia uno sviluppo nel campo della performance.

Bene. Utilizzi una tecnica performativa mista? Voglio dire, durante le tue performance utilizzi soltanto il live coding, oppure anche periferiche esterne come pad e simili?

Soltanto nell’ultimo periodo ho iniziato a utilizzare periferiche esterne. Diciamo che sto sperimentando l’utilizzo di nuovo software e nuovo hardware. Di solito il processo di sviluppo riguarda prima l’hardware, poi il software e infine l’implementazione tra i due, ma mi sembra di star seguendo il percorso opposto. Io voglio ottenere alcuni effetti, cambiare il suono interamente. Il modo classico di sviluppo non penso sia adatto ad affrontare alcuni problemi specifici. Quindi, per il momento sto utilizzando alcuni moduli di synth per effettuare delle prove e riuscire a cambiare il suono interamente. Questa sera ho suonato con questi moduli.

Infatti, avevo visto che sul palco non suonavi soltanto al computer, ma avevi anche alcuni dispositivi con potenziometri e cose simili.

In pratica sono solo degli effetti di riverbero. O meglio, uno è un modulo per il riverbero mentre un altro è un cross-fader per controllare il bilanciamento tra diversi effetti. Ho fatto un po’ di prove con questi moduli stasera.

Pensi che usare le mani invece del codice sia più efficace in alcuni casi?

Beh, in questo modo su alcune cose posso agire in maniera immediata e molto velocemente, mentre con il codice ci vuole un po’ di tempo per fare alcuni tipi di variazioni. Comunque, alla fine cercherò di ottenere tutto attraverso il codice. Vorrei creare un modulo che invia segnali, o meglio genera segnali all’interno del computer che poi vengono programmati dal vivo e inviati per controllare i parametri di alcune periferiche. Sto sviluppando questo processo. Per il momento ho usato periferiche comandate manualmente, ma presto le controllerò attraverso il computer. Questa almeno è la mia speranza. Una delle cose con cui ho suonato, ma che non ho usato stasera, è il feedback. Questo effetto può facilmente dar luogo a risultati indesiderati nel dominio digitale, oltre a richiedere un impiego di RAM e CPU molto elevato. Quindi, per il momento ho impiegato delle periferiche hardware. Mi chiedevi prima delle tecniche musicali che impiego, beh…

Si, ti avevo fatto questa domanda per capire meglio se sentissi la presenza di una sorta di dualità tra il live coding e l’utilizzo di interfacce fisiche o le loro riproduzioni grafiche virtuali.

Sì, la sento. Per esempio, con un potenziometro regolare i livelli è un’azione immediata. Non so se sia possibile fare lo stesso con il live coding. Forse potremmo sviluppare un processo algoritmico che lo faccia per noi in maniera “intelligente”. Forse dovremmo demandare il controllo a un processo esterno che lavori per noi.

Vorresti esternalizzare le tue idee a un processo informatizzato?

Sì, una sorta di trapianto di braccia addizionali.

Vorresti diventare un polipo!?

Sì, esattamente. Lo sto già facendo in qualche modo. Quando suono, ho circa dieci processi in esecuzione che svolgono compiti automaticamente, che quindi io non controllo. Io li imposto, li avvio e loro poi lavorano senza la mia diretta supervisione. Posso tornare indietro e reimpostarli. Ma, altrimenti, essi lavorano autonomamente.

Quindi, più che un polipo, sei una specie di direttore d’orchestra.

Sì, proprio così. Proprio per questo motivo la mia libreria si chiama “Conductive”, in riferimento al direttore d’orchestra [in inglese il direttore d’orchestra si chiama conductor, nda]. È un po’ come se conducessi un’orchestra di processi all’interno del mio computer.

Bene, adesso mi è più chiaro perché la tua libreria si chiama così. Quindi, il tuo software è meno immediato e interattivo di TIDAL o di altri software di live coding?

Sì, in un certo modo. Ma dipende da come TIDAL viene impiegato. Penso che Alex [McLean, lo sviluppatore principale del software TIDAL, nda] abbia incluso alcune funzioni che possono essere programmate. Comunque sì, penso che la parte fondamentale di TIDAL, il MIDI e altri processi, siano più immediati del mio software. In Conductive, alcune volte le variazioni avvengono con un piccolo ritardo, anche se non sempre. Ci sono pure modi per ottenere risultati immediati. In TIDAL, ci sono alcuni flussi di suono che producono un risultato. Il modo in cui suonano è controllato da alcune funzioni. Quindi si possono aggiungere queste funzioni e far in modo che lavorino più o meno intensamente. Io ho un altro processo che avvia e ferma questo tipo di funzioni. In TIDAL c’è la funzione “Silence”. Nel mio software è come se ci fosse una funzione che automaticamente richiama “Silence”, arrestando il flusso e avviandolo nuovamente. Quindi, nel mio sistema io posso utilizzare due processi. Inoltre, in TIDAL, la scansione dei campioni corrisponde a quella del ritmo. Sono collegati tra loro. Nel mio sistema, invece, queste funzioni sono completamente separate: posso lasciare i ritmi come sono e variare i campioni, o viceversa. Penso che ciò sia dovuto a come sono strutturati i dati.

Bene, cambiamo argomento. Qual è la situazione del live coding in Giappone?

In Giappone è rappresentato ogni genere: il country americano ha una scena, il rockabilly ha una scena. Ogni genere ha una scena perché il Giappone è un grande paese con una numerosa popolazione. Inoltre, a loro piacciono molto gli hobby. Molte persone li hanno e quindi è facile trovare qualcuno con interessi simili. Anche la musica elettronica ha una scena. Il Giappone ha una lunga tradizione nella musica elettronica. I costruttori di strumenti hanno sede lì: Yamaha, Roland, Korg, e così via. Penso sia importante. Riguardo la techno, ci sono alcune scene differenti. C’è una scena più storica che sta un po’ invecchiando. Il pubblico sta diventando progressivamente più vecchio. Le persone più giovani stanno andando più verso generi come l’IDM, una musica elettronica più di stile americano. A volte provano anche a farne di propria, originale, giapponese, in qualche modo simile alla techno classica con caratteristiche giapponesi, non so come spiegare…

Suona tipo una parodia?

A volte, ma ci sono anche alcuni sottogeneri. Ci sono persone che fanno una versione rumorosa, altre che ne fanno una pop, altre ancora dance, e così via. Ci sono sempre micro-scene. È piuttosto difficile farli unire insieme. Questo forse è vero per la musica elettronica in generale. Non solo per quanto riguarda la techno, ma anche la drum ‘n’ bass, il trip-hop, lausica elettronica sperimentale. Il campo della musica sperimentale è ovviamente diviso in stili diversi. Uno di questi si chiama Onkyo ed è caratterizzato da suoni molto delicati e sensibili suonati in maniera improvvisata. Ho ascoltato questa musica per un po’ di tempo, in particolare nel mio primo periodo in Giappone. Questo genere è suonato in stanze piccole, come questa dove ci troviamo, e il musicista è collegato a una cassa acustica molto piccola. Tutti ascoltano la musica attraverso questo piccolo speaker. Quindi, l’ambiente è molto silenzioso. Le auto che passano nella strada fuori si sentono distintamente. Tuttavia, il pubblico è focalizzato sul suono che viene da questa piccola cassa. A volte i musicisti suonano a frequenze molto elevate. Questo è un esempio, e di scene così ne esistono diverse in Giappone e sono interessanti. Forse non potrebbero esistere altrove.

Cosa puoi dirmi a proposito del live coding?

Quando ho iniziato a fare live coding, c’era Akihiro Kubota. C’è un CD edito da TOPLAP, chiamato “Preistoria del live coding” o qualcosa di simile [il titolo completo è TOPLAP001 – A prehistory of live coding] e Kubota mi disse che c’è una sua traccia in quel CD. Quindi lui è a conoscenza del live coding già da tempo. C’è poi un altro musicista, Atsushi Takodoro che portava avanti alcuni esperimenti con il live coding. Comunque non era soltanto musicista, ma aveva un ampio interesse per l’arte algoritmica in generale. Se ricordo bene, era particolarmente interessato a Open Framework. È un esperto di questa piattaforma e ha un ampio seguito in Giappone. Poi ci sono io, e poi basta! Siamo noi tre che facciamo live coding in Giappone e mi sembra che nessun altro lo utilizzi. Forse Kubota Sensei o qualche altro veterano del live coding conosce persone che portano avanti degli esperimenti che possono essere correlati o comunque in qualche modo simili al live coding.

Non c’è quindi una scena di live coding in Giappone?

No, e nemmeno viene riconosciuta come una disciplina a sé stante.

Io comunque ho visto che suoni molto in Giappone…

Sì, ci provo almeno! Ho anche organizzato il primo Algorave giapponese.

Ah, sì, l’ho visto. Ha avuto luogo alcuni mesi fa mi sembra, giusto?

Sì, giusto. Adesso ne stiamo organizzando parecchi. L’ultimo c’è stato qualche giorno fa, ma non hanno partecipato molte persone. Quello di dicembre invece è stato un tutto esaurito. Abbiamo dovuto mandare via la gente. Ha avuto un grande successo. Molte persone hanno suonato usando il live coding. Abbiamo capito che probabilmente c’è una scena nascente di live coder in Giappone. Negli ultimi due anni sempre più persone hanno aderito. C’è stato uno sviluppo molto positivo.

Potresti fare il nome di alcuni musicisti? Te lo chiedo per far in modo da dare degli spunti di ricerca ai lettori del blog.

Certo. Con uno dei primi abbiamo anche fatto un Algorave tour e abbiamo pubblicato dei CD. Si chiama Moxus. Inizialmente, suonava utilizzando SuperCollider e dopo ha iniziato a usare TIDAL e infine TIDAL per lanciare i synth in SuperCollider. Ha anche sviluppato un modulo in TIDAL per generare immagini creando una sorta di video-synth. Lui fa musica molto interessante, almeno secondo me. Un altro è Naoki Nomoto e lui utilizza TIDAL per controllare un sintetizzatore modulare. Genera dei segnali di controllo in SuperCollider e poi invia questi segnali al sintetizzatore modulare. Fa una musica decisamente molto rumorosa. Gli piace la sintesi in FM, quindi utilizza moduli che impiegano questa tecnica di sintesi.

Il Giappone è famoso per la musica estremamente rumorosa. Mi viene in mente Merzbow per esempio…

Sì, hai ragione. Ho anche suonato insieme a Merzbow durante un festival e ho anche suonato in eventi in cui si faceva musica noise. I giapponesi sono aperti alla musica rumorosa.

Hai qualche idea del perché ai giapponesi piaccia tanto il rumore?

È stato scritto molto su questo. Non so se sia il caso di ripeterlo. Comunque penso che, fondamentalmente, il Giappone sia una società piuttosto rigida e gerarchica. Sono molto stressati. Una delle band più famose si chiama The Incapacitants. È composta da due, adesso anziani, signori che fanno rumore. Hanno dei lavori normali, lavorano in banca mi sembra, quindi vivono all’interno di una gerarchia rigida. Sfogano lo stress andando all’interno di un club e montano in piedi sugli amplificatori mentre da essi esce un rumore assordante prodotto dai loro microfoni in feedback con l’aggiunta di qualche tipo di distorsione. Ci sono un sacco di modi strani di sfogare lo stress in Giappone. Uno è quello di andare ai Maid Café, un altro è di fare musica noise.

È una sorta di esperienza catartica…

Penso di sì.

 

Servizio fotografico © Phase, che ringraziamo per la disponibilità e la collaborazione.

#livecoding | Intervista a Renick Bell / 1 ultima modifica: 2018-05-11T09:42:58+02:00 da giovanni

Lascia una risposta