Archivi categoria: DIGITAL PERFORMANCE

KIDNAP@20: The Art of Incarceration A one-day performance symposium Friday 20th July from 12.30pm @ Martin Harris Centre, University of Manchester
992

In July 1998, the performance company BLAST THEORY did something a little different. Instead of making a theatre piece about a kidnapping, they actually kidnapped two unsuspecting victims – snatching them out of their daily lives and then imprisoning them, under constant webcam surveillance, for 48 hours. The abductees had made themselves available for kidnap by entering a lottery, which must have seemed like a fun idea at the time…

Widely covered in the press and media, KIDNAP caught the public imagination as an edgy example of what the internet was now making possible. A pivotal event in Blast Theory’s evolution as a company, the piece also anticipated all kinds of subsequent developments in the wider culture — from the round-the-clock surveillance of reality TV shows like Big Brother, to the 21st century vogue for audience participation in live art, and the contemporary ubiquity of ‘escape rooms’ (getting yourself locked up for kicks).

KIDNAP@20 is a one-day symposium marking the piece’s 20th anniversary, which will look back at where we were then, and ask where we are now. What has changed in the realms of digital art and technology, participatory performance, and the politics of consent? When, how and why do surveillance, imprisonment, and power games become art or entertainment?

To sign up for this FREE event, please visit our Eventbrite page: 

PARTICIPANTS INCLUDE:

Matt Adams, Ju Row Farr and Nick Tandavanitj  (Blast Theory core artists)

John McGrath (Artistic Director, Manchester International Festival; author of Loving Big Brother)

Saul Hewish (Artistic Director, Rideout: Creative Arts for Rehabilitation)

Ali Matthews and Niki Woods (University of Salford & Blast Theory)

Tamsin Drury (hAb) and Dave Carter (University of Manchester)

Matt Fenton (Artistic Director, Contact)

Petra Tauscher (Dramaturg and Producer, HOME Manchester)

Professor Stephen Coleman (University of Leeds)

… and further contributors to be confirmed.

The event includes a screening of the film document of KIDNAP (30 mins) and reflections on other relevant work, including Rideout’s Cell Project (2016) and Ali Matthews’ What the Money Meant (2014).
For further information please contact the organiser, Stephen Scott-Bottomsstephen.bottoms@manchester.ac.uk

Interview to SANTASANGRE+ video 6 gradi #liberiamogliarchivi
1373

Santasangre (Maria Carmela Milano, Luca Brinchi, Dario Salvagnini, Roberta Zanardo, Diana Arbib), the best research theater company using new technologies for sound and pictures, was born in Roma in 2001 and immediately showed they were bordering between body art, video language and mechanical / sound performances.

Their work, “SEIGRADI, concert for voice and synthetic music”, after preliminary works, has taken on stage – in its final version first showcased at the RomaEuropa festival – the beauty of technology, its potential expressiveness exalted at its highest level, with an almost embarrassing perfection. A style machine. A technology of the ideas, a system full of existential metaphors. The show, awesomely beautiful and intense, and with an incredible perceptive impact, doesn’t have a traditional plot. The concept is an apocalyptic vision of the world: what would happen of life on earth if the temperature would rise of 6°C ? A warning to humanity that burns and consumes relentlessly beyond any precaution, a pre-alert of disaster, a forecast of desertification.

Everything goes by as showcased  by sensations and suggestions carried by a technological mediation (the live-processed video, images in 3D graphics, projections with holographic effects) and by body pulsing with light, absorbed in the natural elements like in Videodrome by Cronemberg. Bubbles containing images, binding themselves to the human in order to give life to shapes apparently real, tri-dimensional, but whose consistency is instead impalpable and abstract. We are in a possible-future universe where, due to the high temperature of Earth, what is produced by sight is more and more an optical illusion, a mirage. The brilliant study on light allows Santasangre to dematerialize on the scene the dancer’s body as if it was literally swallowed by the earth, only to have her reappear as the product of a dream.

The theatrical form is that of the evanescent, ghostly, unnerving and scary apparition of a body, between transforming lights and objects which have the same consistency than air, thanks to the projection of reflections. Materic evolution, chromatic evolution which corresponds also to aural evolution, through the 4 stages of air-water-fire and earth with its respective corresponding colors going from white and black, to blue, to white, to red (corresponding to earth)..

In this balance, technology has become new flesh, dripping with blood and bio material: tangled in a svobodian weft, actress Roberta Zanardo – her body movements inspired by butoh – becomes herself light. During the show’s progress, a crescendo of de-materializations and births, of discovers (voice, singing), the theatrical form borrows the physical principle of mirage. When rays of light – due to the difference in temperature and air density – are completely diverted, it is possible to see images as if they were actually reflected on the ground. Technically, glass cages have been used to reflect the light coming from the video, and show them as an holographic mirage, capable of encrusting themselves onto the body and exchange their genetic material.

The musical score, divided into 4 parts  (from the four movements of classical opera, corresponding to the 4 phases of evolution) sets the pace of narration and choreography of the only woman on scene, who turns her back to the audience, a chameleon adapting to the mutant environment, almost motionless in the center of the scene, still in a muscular tension which also gives the proper emotional temperature.

We’ve had the pleasure to interview Santasangre, and we discuss their motivations, results and creative processes:.

Annamaria Monteverdi: What is the starting point of “SEIGRADI, concert for voice and synthetic music”?

Santasangre: The thematic is strongly linked to the environmental issue. What would happen to this earth landscape if the temperature would rise of 6°C ? What would be the changes? We then ran into some key-texts – Aristotle, the first book of Physics, the transformation of matter, the value of elements (air, water, fire, earth); then Huxley, Brave New World. The dramaturgical line is connected to the four musical movements created by Dario Salvagnini as a symphony. Structurally, it divides into a first part, corresponding to formation of matter, of Air, therefore no voice nor body yet is there. In the subsequent movements, appears Water, and thence comes the body, inside an impalpable sphere. There is absence of voice, then a phoneme, then a word, voice and singing. And at the end, earth and the destruction with fire, and again rebuilding: the cycle.

Annamaria Monteverdi: How would you define it?

Santasangre: An emotional performance, but not sensationalist. We wanted to observe matter like in a microscope, take the infinitesimal particles to light, to the public’s sight and perception. The effect we wanted to reach was a rarefied environment, containing body and video image together. It is a kind of a choreography-sound experiment, where light sources, holographic images, sampled sounds on scene and natural elements make of the place a very large “magical lantern”.


Annamaria Monteverdi
: The device is maybe the most spectacular aspect of “SEIGRADI”, allowing a video image to interact with the body. It is a trick coming from very far away, from the Pepper’s Ghost, where real actors, hidden, were projected with mirror effects on the stage. How were the video and concept of the device developed?.

Santasangre: Through the years, video has always been present as a language in our studies, but we wanted to find a way to go beyond pure scenographic idea and form, towards if possible a dramaturgical form. The system is simple: the projection of reflection, through inclination of the glasses, acts as a mirror. There are 4 video-projectors on stage which are also the only light source of the performance. It is handmade, between light/body/glass. The 3D animation video is about water. Choreography was created starting from these collectively conceived images. Video on scene has two distinct roles: the first is to be a video-projected setting; the second is connected to the holographic body which represents symbiosis. The trick with the holographic body is that matter is of biological nature, but is depicted through mathematical formulas.

Annamaria Monteverdi: What is the critical threshold?

Santasangre: The final effect must be a perfect mix of body and video, so light, distance and positioning of the actress and the audience, have to be taken into consideration.

Annamaria Monteverdi: What about the musical part?.

Santasangre: We widen the classical structure of symphony through which we create movements and timing of the performance. Music itself is a dramaturgical cycle, it sets the pace for the timing of the performer. It has 4 movements: an overture, an intro, a development and a final. The symphony represents the circle of life, and contains substantial changes between a movement and the next: it is a real score. In the first part, when life still doesn’t exist, voice is evidently missing, there is a sort of Big Bang: in the second movement there are only noises, singultuses, then the being comes to life and uses words and singing. It is a music written and fixed on the computer, but we didn’t use exclusively synthetic sounds, instead we also used classical instruments like cello and violin, wind instruments and especially natural sounds recorded and processed. Singing, when the voice arrives, was inspired by revised liturgical chants of 1200.

Kinkaleri & Jacopo Benassi, No title yet! Live shooting e performance. Intervista a Jacopo Benassi e Marco Mazzoni
1283

Il live shooting è una pratica recente ma non nuovissima nella performance: Jacopo Benassi i cui scatti accompagnano il libro di Paolo Sorrentino Gli aspetti irrilevanti, lo rigenera personalizzandolo con il suo particolare stile, in No title yet ideato e realizzato insieme con Kinkaleri, una delle principali compagnie di teatro-danza italiane nata a Firenze nel 1995.

L’ultimo numero della rivista Alphabeta dedica allo spettacolo un dossier fotografico proprio a 16 anni di distanza dallo storico spettacolo del 2002 di KINKALERI OTTO che li ha fatti conoscere internazionalmente e con il quale vincono il premio UBU per la ricerca teatrale.

Kinkaleri, Otto, 2018.

Il gruppo è attualmente formato da: Matteo Bambi, Massimo Conti, Marco Mazzoni, Gina Monaco.

Kinkaleri-2019, ph JACOPO BENASSI

Benassi si appropria degli sguardi e dei corpi degli spettatori che partecipano a una performance in forma di rave party dove nulla rimanda a uno spazio teatrale convenzionale, e gli scatti in B/N vengono proiettati live su due schermi. La fotografia diventa centrale in quest’operazione intermediale, il cui titolo potrebbe essere glance: lo sguardo dello spettatore (quello che a nessuno interessa) sull’opera che viene così, mascherata, e in parte, sottratta proprio all’occhio di chi guarda, o quanto meno, privata del suo ruolo centrale, focalizzante. Così il fotoreporter immortala non la scena ma il controcampo: puntando la macchina fotografica sulle persone che ballano, parlano, fanno video col cellulare, ridefinisce continuamente i confini della performance, offrendo un curioso effetto di straneamento.

Come spiega Marco Mazzoni, l’assenza di elementi determinanti la performance e la presenza invece di uno spazio vuoto, diventa il modo per inglobare lo spettatore dentro questa forma di teatro-display dove è la reazione inaspettata a diventare oggetto dello spettacolo, tra luci stroboscopiche e musica techno. Con il flash (tecnica che è un po’ il suo “marchio di fabbrica”) Benassi in parte disturba la scena e l’aggredisce, in parte accentua il senso di presenza fisica dello spettatore. Benassi nella sua “sadica” instant photo nega la scena e la trasforma in un set fotografico.

foto JACOPO BENASSI

I due performer inizialmente in disparte, diventano un corpo unico nello spazio: hanno una partitura coreografica all’unisono ed entrano da un punto di vista secondario, senza luce; la loro partitura è minimale, basata sul beat musicale del dj. I corpi si spostano, hanno delle traiettorie prestabilite, innescano ancora di più un coinvolgimento fisico ed emotivo; sono identificati da un costume con uno scheletro disegnato sulla parte frontale, segno di “leggerezza”, di gioco, di beffa.

No title yet segna contemporaneamente un nuovo approdo intermediale della compagnia Kinkaleri e un prolungamento dell’estetica fotografica di Benassi che ha sempre ritenuto le sue operazioni artistiche come delle vere e proprie performance, in cui prima dello scatto, diventa fondamentale condividere spazi e molto altro, e in cui il flash denuncia il temporaneo diventare “dominio altrui” del soggetto fotografato. Consenziente.

Intervista a MARCO MAZZONI di Anna Monteverdi

AMM Puoi raccontare come si organizzano tutti i materiali di questa performance tra fotografi, musica e performace?

Marco Mazzoni: No title yet riflette sull’idea del cortocircuito che avviene quando qualcuno entra in una sala e si aspetta di vedere un lavoro teatrale ma questo non si presenta; noi abbiamo messo in moto una sorta di display che ingloba il pubblico ma senza sottrarsi alla messa in scena che c’è, che avviene tra le pieghe di quel display, e si trova in un momento in cui il pubblico è coinvolto da una musica che lo fa entrare dentro la scena coinvolgendolo. Poi c’è l’inserimento e la responsabilità del pubblico che molte volte non vedendo niente, comincia a reagire; una delle reazioni è che loro stessi si muovono e stanno dentro lo spazio e a questo punto Jacopo con le foto, documenta quello che avviene. Si innesca nello spettatore uno sguardo circolare: loro capiscono di essere protagonisti, la traccia reale, e si innesca la consapevolezza reale di essere parte di qualcosa. Ma mentre si pensa che sia tutto qua, entrano in campo due performer che hanno una partitura coreografica all’unisono e entrano da un punto di vista secondario, senza luce, alla pari con tutto il resto. La partitura è minimal basata sul beat della musica, e si crea una situazione da rave party con luci strobo, e il flash del fotografo che continua a testimoniare lo sguardo delle persone, il loro autocompiacimento

No title yet, ph Valeria Palermo

AMMCome si sviluppa la performance?

Marco Mazzoni Questi due corpi che inizialmente sono in secondo piano ma sempre in scena, si spostano e sono evidenti, presenti e si capisce che la performance non è solo un display, non è solo l’azione, l’effetto sul pubblico ma include dei corpi che stanno sviluppando una traiettoria che insinua questo coinvolgimento e lo amplifica. I due performer agiscono all’unisono, dimostrando che c’è una coreografia, hanno una linea di azione precisa in crescend,o e da un punto esterno iniziale vanno a stare dentro lo spazio, occupandolo e poi a prendersi il loro ruolo nello spettacolo… stanno dentro la partitura. Come il pubblico ma a differenza di loro, i performer non possono uscire!

AMM C’è una regia che determina il movimento scenico?

Marco Mazzoni Tutto è stato messo sullo stesso piano: chi fa, chi osserva, chi interagisce e lui, Jacopo, fa esaltare la soggettività delle persone, alcuni stanno in posa e lo spettacolo si apre a una condizione sconosciuta.

Amm Dove vengono proiettate le immagini?

Marco Mazzoni La proiezione avviene su due lati in genere: idealmente c’è una proiezione molto larga su due lati e il banco del dj con una play list prestabilita e poi lo spazio vuoto dove andrà il pubblico: alla Spezia eravamo in un tunnel antiaereo della Seconda Guerra mondiale, a Prato in uno spazio completamente bianco, una specie di galleria d’arte, a Milano per la Triennale in un palco tutto racchiuso, perfetto, forse lo spazio migliore. Ci si fa un po’ beffa della frontalità unica, si disintegra continuamente il punto di vista tradizionale, il pubblico guarda facendo qualcosa.

No title yet, Valeria Palermo

AMM Qual è la motivazione per i costumi dei performer?

Marco Mazzoni Il costume che ha un disegno a scheletro nella parte frontale vuole riprendere la leggerezza, il gioco…il ritmo del corpo, un po’ come la danza degli scheletri del cartone della Walt Disney.

AMMCome è nata l’idea della collaborazione con Benassi per No title yet?

Marco Mazzoni La relazione con Jacopo è nata da un po’ di tempo per presentare un lavoro al Btomic (il locale gestito fino a poco tempo fa da Benassi alla Spezia, ndr); portammo un nostro lavoro e Jacopo iniziava a fotografare il pubblico e non la performance, sperimentava la foto in diretta. Noi già facevamo cose sul movimento all’unisono che ci interessava portare avanti; abbiamo integrato il percorso e cercato una nuova forma che andasse in una direzione di progetto comune. No title yet non ha una regia unica ma ci sono due percorsi che si integrano e si sviluppano insieme.

AMM Come si inserisce la fotografia nella performance live con Kinkaleri?

So solo che nel mio caso è stata un esigenza fisica ,  arrivavo da un esperienza nel mio locale il Btomic di La Spezia dove abbiamo fatto suonare molti musicisti che lavorano con la performance da Jochen Arbeit a Julia Kent e molti altri ; alla fine di questo percorso ho avuto l’esigenza fisica di  Trovare un modo  per entrare in scena  con la fotografia. Ho contattato i Kinkaleri che avevano già più volte collaborato con il btomic . Ho chiesto a loro se potevamo mettere  su uno spettacolo dove la fotografia fosse in scena non solo dal punto scenografico e della drammaturgia ma che catturasse nel pubblico l’azione dei performer  e ne diventasse allo stesso tempo la documentazione. Non c’è una scelta studiata a tavolino su che mezzo tecnologico potessimo usare: si vede anche il cavo hdmi volutamente!

Amm Come definiresti la tua fotografia in questo contesto plurimo? Un linguaggio tra i tanti dentro un evidente ambito performativo intermediale o un’espressione che fagocita le altre arti?

Benassi: La differenza che mi sento di dire è che io mi pongo sempre come fotografo che sta performando in maniera molto spontanea e naturale senza movimenti studiati, la fotografia non è un’espressione che fagocita le altri arti anche perché comunque, queste performance le vedo come processi che raccolgono anche suoni.

Anna Monteverdi. Lo sguardo del pubblico è protagonista. Come procedi a scegliere le situazioni e che relazione hanno con la performance?
Benassi
Il pubblico diventa parte dello spettacolo, nella reazione del pubblico sta l’azione dei performer, è come se in quel momento fossero gli artisti in scena. Le azioni  sono completamente improvvisate, aggredisco con il mio flash  quando meno se lo aspettano. Creando dei momenti di buio o di luce strobo si riporta l’attenzione sui performer in scena.

AMMCome ti inserisci nel processo creativo e come organizzi il tuo materiale artistico?

BENASSI Lo spettatore è l’unico ad essere fotografato in scena non ci sono mai i performer proiettati, come ripeto è nella reazione del pubblico che si vedono. Tutto il materiale oltre ad essere usato live diventa anche la documentazione di No title yet

NO TITLE YET
ideazione e realizzazione Jacopo Benassi, Kinkaleri/Massimo Conti, Marco Mazzoni, Gina Monaco
produzione Kinkaleri
con Jacopo Benassi, Jacopo Jenna, Marco Mazzoni.
Mix: Avenir & Restivo

“Light can be also choreographed. Light can be there like human body”. Interview to Hiroaki Umeda, Digitallive/RomaEuropa.
1282

Digitallive 2019 è arrivata alla sua seconda edizione con la direzione di Federica Patti e ha fatto il tutto esaurito con le performance tecnologiche e gli AV inseriti nella programmazione. Franz Rosati, Ultravioletto, Marco Donnarumma e Hiroaki Umeda

Il coreografo/performer giapponese HIROAKI UMEDA ideatore di questa straordinaria opera d’arte visuale oltre che di danza interattiva
Media+Intensional Particle ci racconta qualcosa del suo potente e immersivo “solo” per Digitallive dove la danza è guidata dalla luce e viceversa. Intervista “minimal” come lo stile delle sue performance 🙂

Anna Monteverdi I was impressed for the perfect balance between technologies and “performance text”, or coreography. A very direct and immersive experience for the audience. Can you describe how you have succeed in getting it?

Hiroaki Umeda: The every element of the piece is equivalent. Nothing is more important than other. So human body is not more important than other in the piece. And my artistic approach is how I can deal with all the elements of the pieces to create unity with them. That is like orchestra in the music. Each elements of the piece is one of instruments of orchestra. Also I believe that all things which have movement can be choreographed as the definition of the choreograph for me is the composition of movement. All the elements in the piece can be choreographed.

Anna Monteverdi: The content drives technology. I had a sensation that You wanted to comunicate the birth of the life thanks to intermolecular forces, the transformation of the life like as a phisical process, the destiny as a question of molecular aggregation, cluster and crystals of cluster.
Is it a way for describing life in a technological way?

https://www.youtube.com/watch?v=cP9q7SBmjGA

Hiroaki Umeda To be honest, I had some theme behind in the piece that I normally don’t say officially. I got inspired a lot by science story or knowledge. Thanks to you for pointing out that and reading my piece like that.

Anna Monteverdi: How does the interactive technology work?

Hiroaki Umeda:That is what I have been trying to use for 15 years. It is actually not easy to use interactive technology in my performance.
Because if you need precise time composition, the interactive tech is not really for that. But now I have found the way I use them for my performance. I will do that in my next solo.

Anna Monteverdi: I feel as it could be two parts of the performance as a sort of stoytelling or dramaturgy related to different technology.
Is it right?
Hiroaki Umeda: I would say that what I do in my art is to realise my artistic aesthetics. For that, I use some technology.
The theme of the performance is not about technology itself. But I use them as the way to approach to realise my art.

Anna Monteverdi: You are also a lighting designer: how all these tecnologies could unite together in a stage for expressing somthing deep, trasmitting something interior as you have made?

Hiroaki Umeda Light can be also choreographed. Light can be there like human body.

Anna Monteverdi How is nowaday the role of the technologies in the theatre? Does the spectator ready for accepting the new interactive media?I am asking this question because we can see your works in Electronic art festival but rarely in theatre.

Hiroaki Umeda: I have an impression that electronic art or music people are more open. Still many of the audience of theatre are expecting theatre performance. I can understand that. But it will be soon that technology performance become normal in theatre and people see them not as special thing.

Anna Monteverdi
. Which is to your opinion the best result/artist in the digital performance /network performance now?

Hiroaki Umeda: I think the most of the artist who are already successful in their field are great result in their way. My personal preference is artists who are focusing art instead of just focusing on using technology.



Affama l’algoritmo. Il teatro di ombre e di macchine di Kentridge e Lepage debutta a Roma e Québec.
1278

Due eventi teatrali di importanza internazionale di fine estate hanno rimesso al centro dell’attenzione la scena-immagine: il debutto all’Opera di Roma di Anatomy of a Sybil di William Kentridge (abbinato alla riproposta dello spettacolo Work in progress con le originarie scenografie di Calder) e quello rappresentato, a sei ore di fuso orario di distanza, a Québec per la regia di Robert Lepage, ovvero il remake de Les sept branches de la riviére Ota.

Se il primo era evidentemente un appuntamento mondano e di gala, il secondo pur nell’importanza doppia del debutto e dell’inaugurazione del nuovo Teatro Le Diamant di Lepage/Ex machina nel cuore della vecchia Québec, era stato promosso come un evento cittadino molto informale.

In entrambi gli spettacoli emerge una scena che, come da costante degli autori, per quanto spesso abbinati a un’idea tecnologica del palcoscenico, ha richiami espliciti più al teatro dell’origine che non a quello della videocultura contemporanea. Questi gli elementi che li contraddistinguono: le ombre (viventi e animate) e le macchine (dispositivi scenici o congegni macchinici). Lepage e Kentridge pur nella diversità delle proposte, rimettono in circolazione modalità artistiche rétro, tecniche inconsuete e obsolete, mostrando l’innovazione tecnologica come la naturale evoluzione di un sapere tecnico antico che appartiene “geneticamente” al teatro. Che lo sguardo à rebours evidenziato da questi due spettacoli possa essere interpretato come un’affermazione fortemente politica in epoca di dominio algoritmico, è molto più che un sospetto.

Calder e Kentridge

Kentridge e il suo music theatre commissionato dal Teatro dell’Opera, divideva la serata con uno dei più grandi scultori del ventesimo secolo, Alexander Calder e il suo storico Work in progress (1968) ricostruito filologicamente (immagini coordinate da Giovanni Carandente
e presentate da Filippo Crivelli su musiche elettroniche di Niccolò Castiglioni, Aldo Clementi, Bruno Maderna).

Untitled 1937 Alexander Calder 1898-1976 Accepted by HM Government in lieu of tax and allocated to Tate 2002 http://www.tate.org.uk/art/work/T07920

Una scena quella di Calder, arricchita dalle sue famose sculture cinetiche, oscillanti e sospese, fatte di fili metallici, e stoffe coloratissime dette mobiles e stabiles (così chiamate rispettivamente da Marcel Duchamp e Jean Arp) che diventano personaggi inanimati ma “mossi” (meccanicamente, o tramite soffi d’aria). Il teatro diventa volutamente un circo (forma di spettacolo popolare da lui ben conosciuta e amata) con gli attori come marionette, a volte ciclisti dentro un moto perpetuo, o ancora, ombre o perfino, all’occorrenza attrezzisti. Nella loro breve apparizione da sogno, forme astratte, sagome di animali ritagliati su carta e giochi di luci cangianti sono i veri protagonisti, rubando la scena letteralmente agli attori-manovratori, attori-oggetto.

Waiting for the Sybil

Nella seconda parte William Kentridge (presente in sala alla prima) firma la regia, la scenografia e l’intero concept di questo capolavoro di teatro musicale che è Waiting for the Sybil. In scena 5 danzatori 4 cantanti e vari coristi su musiche africane (in parte) registrate e composte per l’occasione da Nhalanhla Mahlangu e Kyle Shepherd, tutti di Johannesburg.

Il pubblico romano non è certamente nuovo alla visione delle sue creazioni (al Teatro dell’Opera era andata in scena la Lulu da Berg, il monumentale murale di 550 metri Triumphs and Laments è visibile sui muraglioni del Lungotevere; la mostra Vertical Thinking con l’installazione The Refusal of Time è stata presentata al Maxxi). Waiting for the Sybil è una specie di congiunzione tra quella potente installazione al Museo d’arte contemporanea di Roma in cui Kentridge aveva realizzato un ambiente a mo’ di collage dinamico con una proiezione sincronica a cinque canali, di film animati, ombre, sculture in movimento, e l’allestimento lirico di The nose da Shostakovich. Nel primo caso l’artista aveva usato l’intero armamentario del suo immaginario pre-tecnologico: megafoni di latta, vecchi orologi, macchine da scrivere, nel secondo invece aveva usato prevalentemente collage di carta, usando in particolare le pagine del giornale. Kentridge per Anatomy of a Sybil (35 minuti) ricorda la figura della Sibilla Cumana ritratta anche da Michelangelo nella Cappella Sistina, i cui responsi sul destino degli uomini erano scritti su foglie di quercia che il vento provvedeva a disperdere in modo che nessuno avrebbe trovato quello che lo riguardava.  Così Dante:

Così la neve al sol si disigilla;

così al vento ne le foglie levi

si perdea la sentenza di Sibilla.

(Dante Alighieri, Paradiso XXXIII, 64-66).

La Sibilla interpretata da una cantante africana al centro della scena, funge nello spettacolo da amplificatore dei dubbi, dei disagi dell’uomo: lei ingoia nelle proprie cavità, con una gestualità inequivocabile le domande, le paure che raccontano l’angoscia di esistere; divora tutto ciò che sfugge al controllo umano, i mostri che dominano la vita, il terrore dell’imponderabile. La verità è occultata perché il potere controlla ogni terrore, sottomette ogni mostruosità, delimita i confini dell’agire libero. Noi siamo responsabili della nostra distruzione, non forze sovrannaturali; ci consegniamo spontaneamente alle macchine, agli apparati, ai sistemi politici e burocratici, fino ad arrivare ai media che confondono le parole della Sibilla, le disarticolano e le rendono incomprensibili, vuote, irrisolvibili.  Si leva il disperato grido della Sibilla che è quello latente in tutti noi, ed è un’epifania necessaria: il futuro è già scritto dalle macchine ma solo per chi non ha fede nella propria forza.

https://vimeo.com/337293283

Nello spettacolo i fogli con le risposte che volano via, diventano dischi rotanti proiettati, fogli di giornale con disegni al carboncino animati e scritte che contengono parole che pesano e tra le tante, quella che ci è rimasta impressa è: “Affama l’algoritmo”. In questo senso lo spettacolo è anche una specie di manifesto della sua arte che più che guardare al passato guarda all’uomo. La menzogna, l’errore, sono scanditi proprio dai fogli di giornale che scivolano via, così come le gambe delle sedie che non reggono. In un mondo dove l’uomo non sa stare in piedi perché deve condividere lo spazio con la macchina, rimane solo una difesa, l’urlo. O il silenzio di una macchina interrotta.

In scena il coro e i cantanti indossano vestiti squadrati, geometrici che ricordano Leger, Schlemmer o la Popova e rendono gli interpreti, loro stessi sculture viventi “alla Calder”; ma poiché anche Kentridge ha composto sculture aeree mobili, l’omaggio all’artista degli anni Trenta diventa quasi un modo per citare sé stesso. In un’intervista l’artista sudafricano dice che le opere di Calder gli hanno sempre ricordato “qualcosa che si muove in circolo”, e questo circolo per lui erano le domande senza risposta alla Sibilla. Rimane in scena l’immaginario che arricchisce il repertorio di Kentridge: le ombre animate di figure umane in processione, simboli di riscatto nel Sudafrica post apartheid.

L’ombra del remake: Les sept branches de la riviére Ota di LEPAGE

Robert Lepage ha definitivamente abbandonato la vecchia sede della sua compagnia multidisciplicare Ex machina, la Caserne Dalhousie, a due passi dal fiume San Lorenzo, per trasferirsi in una struttura decisamente più moderna e appena inaugurata: il Teatro Le Diamant nel cuore della vecchia Québec. Per chi ha voglia di sentire la storia del cambiamento nei decenni della struttura che oggi accoglie Le diamant, ecco il racconto che ne fa Lepage con il supporto di immagini

Il primo spettacolo con cui ha aperto le porte al pubblico è una riproposta di un lavoro del 1995, Les sept branches de la riviére Ota, all’epoca commissionato dal governo del Giappone per i 50 anni dalla bomba atomica su Hiroshima.

Le modifiche dalla originaria versione non sono molte e la tecnologia più attuale fa fatica a rallentare il passo per assomigliare a quella video in voga in quegli anni; certamente le immagini digitali sono più pulite e fluide. Vale la pena ricordare che proprio questo fu il primo spettacolo su cui si misurò il talento di Carl Fillion, lo scenografo di Ex machina (oggi passato al Cirque du soleil), anche se nel riallestimento ha fatto solo da supervisore. In gergo tecnico la scena, nella sua assoluta semplicità, è costruita da sette “pannelli a coulisse” (pannelli armati) con movimento orizzontale a scomparsa; i pannelli sono guidati su binari che trascinano una o più porte trasparenti che rappresentano una tipica casa giapponese, permettendo svariati cambi di scena. Proprio questi cambi, effettuati a mano dai personaggi, determinano il lungo viaggio narrativo che va dal 1945 al 1995. La trasparenza della casa, la presenza di specchi permettono moltiplicazioni di figure, proiezioni di ombre, effetti visivi che si uniscono (oggi come ieri), alle videoproiezioni con un gioco di sovrapposizioni molto artigianale e efficace (l’attore incastrato in mezzo ai pannelli che viene colpito dalle luci sul fondale, diventando ombra, e come tale partecipa “qui e ora” all’azione video pre-registrata).

Il pastiche narrativo del “Project Hiroshima” assembla in una logica cinematografica “paratattica” già molto apprezzata all’epoca, l’occupazione americana del Giappone, Georges Feydeau, la danza Butoh, Madame Butterfly, i comici americani degli anni Cinquanta Abbott e Costello e il campo di concentramento di Terezin, raccontando l’unione (nel dolore della distruzione e nella speranza della ricostruzione) dell’Occidente e dell’Oriente ma anche del comico e del tragico. Il fotografo americano Luke O’Connor viene incaricato subito dopo la guerra, di fotografare i danni materiali della bomba atomica su Hiroshima e si innamora di una hibakusha (una “sopravvissuta”): questa semplice trama genera un fiume di storie che si intrecciano inaspettatamente, raccontando ciascuna, come anche dalle peggiori atrocità si possa generare una vita.

Lo spettacolo va oltre il 1995 e arriva, nella nuova versione, sino a noi, con i giovani artisti che si confrontano con la memoria di una storia che non hanno mai conosciuto. La tecnologia semplificata e ridotta a videoproiezioni che si alternano all’azione recitativa, con l’uso tradizionale delle ombre, rimane ancor oggi la cifra stilistica di questo lavoro; la scenografia trattiene i corpi in forma di ombre come davvero accadde nei muri di Hiroshima a causa dell’esplosione, diventando una lastra “fotosensibile” e una scrittura di luce, metafora di un percorso di memoria, di illuminazione e di conoscenza.

Oltre il realitysmo. Anche il teatro tecnologico affronta la Realtà (o la ricrea?)
1266

Le necessità reali, le vite e le morti reali, che non sopportano di essere ridotte a interpretazioni, sono tornate a far valere i loro diritti. Maurizio Ferraris, Manifesto del Nuovo Realismo

.Ha appassionato tutti gli studiosi e gli spettatori questo versante “iperreality” del teatro: stiamo parlando della nuova (ma non nuovissima) tendenza del teatro; come ben spiegato nel dossier di “Hystrio” (2/2019) sul Teatro della realtà curato da Roberto Rizzente e Corrado Rovida, specialmente nell’intervento di sintesi storica scritto da Renato Palazzi, questo filone di teatro-documento che ha il suo emblema in Milo Rau, recupererebbe forme e approcci teatrali degli anni Sessanta (dagli happeining a Peter Weiss a Carlo Cecchi). Si espande dalle biografie, all’analisi di fatti cronachistici agli spaccati socio-politici (She she pop), alle storie di emarginazione sociale (Pippo Del Bono) per giungere a veri e propri brandelli di realtà in scena. I famosi “quarti di bue sul palco” nel teatro-tranche de vie di Antoine citati da Palazzi sono tornati di moda?

Di fronte alla realtà -diremo filosoficamente- “evenemenziale”, “fattuale”, non c’è interpretazione che tenga. Serve un occhio critico che smascheri e ci faccia riconoscere ciò che è da ciò che è socialmente costruito. Un ritorno a una realtà –come dice il filosofo Maurizio Ferraris nel Manifesto del Nuovo Realismo– “non emendabile”, contro falsificazioni, mistificazioni mediatiche e omologazioni. Congedo dal realitysmo (la vita drammatizzata e fictionizzata) e approdo al Nuovo Realismo? -seguendo ancora Ferraris.

E cosa accade al teatro tecnologico?

A mio avviso il teatro tecnologizzato arriva a una medesima conclusione e a un medesimo approdo interrogandosi sulla realtà in un momento molto preciso: con l’Orfeo, opera lirica a firma di Romeo Castellucci. Non si tratta di usare semplicemente una semplice diretta video come già avevano fatto evidentemente in molti: è il concetto di “presenza” a pesare sulla bilancia del palcoscenico e a mostrare l’altro lato del teatro, ovvero la Realtà cos’ com’è, inesorabile e inequivocabile. Il mito greco si incarna nella figura di Else, una donna in coma vigile, ferma sulla soglia tra vita e morte e a cui il teatro concede un momento di sospensione dell’attesa, con l’ascolto celestiale della musica di Gluck/Berlioz. La donna che non si sarebbe congedata da noi, a meno che non fossimo noi stessi a staccare la spina del collegamento video, diventava -potenza del teatro- Euridice sulla soglia degli inferi, oppure Ofelia nella dimora del tempo sospeso dentro la macchina amletica di Heiner Muller. Else ci sbatte in faccia la realtà in un tempo-ora, ed è ancora Ferraris a darci la chiave per leggere la storia:
Non si può fare a meno del reale, del suo starci di fronte e non essere disponibile a negoziare. Sia quello che sia, ci renda felici o infelici, è qualcosa che resiste e che insiste, ora e sempre, come un fatto che non sopporta di essere ridotto a interpretazione, come un reale che non ha voglia di svaporare in reality.

1.Verso una Realtà proxy: la visione di Hyto Steyerl dell’Arte al tempo del “panico del dasein totale

Duty free art è il titolo del libro dell’artista e filosofa tedesca di origine giapponese Hyto Steyerl, nominata come la più influente artista contemporanea dalla rivista “Art review”; la Steyerl (che in questo periodo espone a Rivoli, alla Biennale di Venezia e alla Serpentine gallery di Londra) lavora sul tema della Intelligenza Artificiale (A.I.): crea opere di arte visiva con uso di AI e riflette attraverso l’arte, sulle trasformazioni e deformazioni della società e dell’arte stessa all’epoca di quello che lei definisce con un neologismo molto efficace il circolazionismo delle immagini. La Steyerl non fa teatro ma i suoi testi possono avere un riflesso anche nel teatro perché parla di presenza, tema evidentemente molto teatrale: mai come oggi, dice, il vero valore dell’arte dipende dalla presenza, citando la performance della Abramovic, The artist is present. Infatti oltre a produrre opere l’artista deve produrre presenza, deve essere presente in una delle molte declinazioni del tema, in un lavoro che diventa a sua volta una vera performance dell’esserci. Essere qua effettivamente ora. Qua o ovunque, noi o qualunque altra incarnazione del noi: una presenza sempre connessa, che moltiplica i nostri stati in una dimensione multipla in forma di proxy, controfigure, bot. Il corpo non è essenziale, è essenziale la presenza, la presenza è, secondo le parole della Steyerl una ” modalità di investimento”. Questa sorta di economia globale della presenza genererebbe di conseguenza il panico da dasein totale.

Ma che realtà producono queste appendici di noi stessi, queste informazioni automatiche gestite da nostri sostituti in forma di assistenti-software, che mandano tweet al posto nostro, che chattano usando il nostro gergo? Producono, appunto, dice la Steyerl una realtà proxy. In sostanza, per dirla con Johnny Stecchino, una realtà che “non ci somiglia per niente”.

2.Dall’illusione della realtà alla Realtà vista dalle macchine: il videomapping.

Verificando quale sia stata la tecnologia più usata negli ultimissimi anni, cioè il videomapping (tecnologia di Realtà aumentata) ci si può rendere conto che si è andati sempre più verso una richiesta di interazione, azione, presenza di una live technology.

Dalla scena urbana su enormi superfici addirittura media facade si è approdati a teatro: sempre di più le scenografie diventano ricoperte di questa illusoria e neobarocca “luce videomapping”. L’illusione della realtà ha però, un limite legato alla percezione.

La tecnica infatti, è quella del mapping and masking, che sfrutta la pre-distorsione dell’immagine o del filmato per farlo apparire non distorto sulla superficie da mappare. La proiezione deve essere prima di tutto perfettamente omografa: due piani risultano essere omografici quando gli elementi geometrici dell’uno corrispondono biunivocamente a quelli dell’altro. Qualunque alterazione della distanza e dell’angolo di incidenza del fascio luminoso implica modificazioni dimensionali e prospettiche dell’immagine, e conseguentemente irregolarità geometriche e defocalizzazioni più o meno estese dell’immagine proiettata. E’ necessario considerare inoltre, la posizione degli spettatori (max + o -15°) rispetto alla proiezione per ridurre gli effetti di percezione innaturale del 3D.
Siamo di fronte a una rinnovata “macchina di visione”: in fondo le video proiezioni in mapping si basano sullo stesso principio su cui erano fondate anche le “visioni ineffabili” del Cinquecento, quelle cioè, soggette all’anamorfosi, legate alla forzatura estrema della prospettiva lineare rinascimentale. Nelle opere anamorfiche, la realtà può essere percepita solo attraverso uno specchio deformante, mentre il mapping video non è che una maschera che deforma/crea una realtà inesistente.  Sul tema ho ampiamente scritto su varie antologie; qua segnalo il mio testo: Mediaturgia del videomapping.

URBAN SCREEN

3.Dall’illusione all’interazione: il videomapping e il motion tracking design

Il limite del videomapping, tecnica di proiezione di realtà aumentata applicata in scenografia che ormai sta cadendo in disuso, non era legato solo alla fragilità della percezione e dell’illusione, ma all’esigenza di avvicinarsi di più alla realtà: alla ricerca di ciò che determina l’esserci della tecnologia a teatro, gli artisti hanno incontrato l’attore, il performer, il danzatore.

Il limite del videomapping statico e “poco teatrale” viene ovviato con l’aggiunta di software che permettono la gestione live ma soprattutto dalla progettazione di un sistema di interazione della proiezione con la figura umana. Già introdotto nei primi anni 2000 con i progetti di Klaus Obermaier e di Art+Com (il loro progetto di teatro lirico The jew of Malta viene citato da Lev Manovich come esempio brillante di software culture a teatro) l’interazione del performer con la scena digitale diventa una sorta di soglia obbligata: dopo i tentativi di utilizzare l’armatura della MoCap (da Roberto Latini a Marcel,li Antunez Roca) e un arsenale di sensoristica, viene sperimentata la kinect per la motion capture live. La kinect è il controller cinetico di Xbox che entra in commercio nell’ambito dei videogame nel 2010. Ha una barra motorizzata in grado di seguire tramite video, i movimenti dei giocatori, orientandosi nella posizione migliore per il riconoscimento dei movimenti La periferica era in grado di rilevare e leggere fino a sei corpi in simultaneo. Adrian Mondot (del duo AM&CB) crea con la Kinect il prototipo di uno spettacolo ad alto tasso di interazione, pur con una tecnologia semplificata ma originaria: il primo spettacolo è Cinematique (a cui seguiranno altri) ed è sviluppato a partire dal software proprietario Emotion che integra dinamica di movimento, oggetti grafici e mapping grazie proprio alla Kinect.

4. Ma non è abbastanza reale! Il face mapping

La kinect nello spettacolo riconosceva le ombre, le forme, la luce e i movimenti ma non andava a identificare specificamente il soggetto, il quale poteva anche non essere reale ma una semplice marionetta. Occorreva mappare il volto per approdare a una “realtà” vera.

Il live face mapping è un formato che si è andato a perfezionare a partire da un prototipo di Nobumichi Asai del 2014 presentato ad Ars Electronica. Si chiamava OMOTE termine giapponese per indicare la maschera (proprio la maschera giapponese Nogaku, maschera come zona liminale tra esterno e interno). Venne usato un sistema integrato di face tracking (in particolare il sistema di motion capture Optitrack) e mapping (con il software Live mapper) usando sensori/marker per il rilevamento del volto, del movimento. dei muscoli facciali. Era tecnicamente molto difficile all’epoca tracciare e quindi proiettare immagini aderenti al volto in tempo reale. Nessuno lo ha fatto prima a quel livello di perfezione perché il processo è piuttosto complesso: bisognava rilevare i dati dei sensori, elaborare i dati, calcolare la posizione e l’orientamento del viso, far combaciare il modello in Computer Graphics del viso con la sua texture animata e infine inviare l’immagine sul volto tramite proiettore.


5. Ma non è ancora abbastanza reale! Verso il
Dynamic projection mapping

Il soggetto nel primo face tracking progettato per lo più doveva stare fermo o muoversi limitatamente per il problema della latency. Nel 2017 l sistema Dynamic projection mapping sviluppato dal Watanabe laboratory dell’University of Tokyo risolve il problema e sarà proprio Nabumichi Asai a mostrarlo al mondo il giorno dell’anniversario della bomba su Hiroshima con un video mapping live sul volto delle performer che diventavano maschere di morte.

Un proiettore ad alta velocità che può proiettare immagini a 1000 frame al secondo: unito a un sistema altrettanto veloce di rilevamento dati, dà effetto di una metamorfosi del viso in tempo reale. Le immagini virtuali proiettate sono connesse strettamente con il movimento reale del corpo: la maschera digitale aderisce perfettamente e l’illusione di realtà è completa. Anche nella scenografia si risolve il problema della latenza delle immagini del mapping su superfici mobili: queste diventano tutt’uno con la superficie restituendo un’effetto pitturato (come nel caso del Ring di Lepage).

A high-speed projection mapping system combined with a high-speed projector (circled in red)

6. La svolta algoritmica: la Realtà vista dalle macchine.

Nel teatro tecnologico tutto cambia con quella che è stata definita da Simone Arcagni “la svolta algoritmica” ovvero “il passaggio all’uso di software di computer vision in grado di trasformare in informazioni visive gli input di vari sensori, e dal machine learning che mette a disposizione delle macchine un’ampia autonomia decisionale“.

Nel 2017 la Kinect esce di produzione, gli analisti del mercato dicono che è dovuto al fatto che per i videogames oggi funziona di più la Realtà Virtuale. A mio avviso il tema invece, è quello del riconoscimento reale del corpo (e del volto soprattutto, perchè contiene la maggior parte delle nostre informazioni specifiche). Oggi qualunque dispositivo mobile ha la possibilità di questo riconoscimento come FACE ID dell’IPHONE. Come si legge dalle caratteristiche tecniche, la telecamera TRUE DEPTH utilizzata per l’autenticazione del cellulare con il volto, acquisisce con precisione i dati proiettando e analizzando più di 30.000 punti invisibili per creare una mappa di profondità del viso; inoltre cattura un’immagine a infrarossi. Una parte del motore neurale del chip A11, A12 Bionic e A12X Bionic (protetto all’interno di Secure Enclave) trasforma la mappa di profondità e l’immagine a infrarossi in una rappresentazione matematica che confronta con i dati facciali registrati.

Inoltre già da alcuni anni software liberi come Open CV di Intel riuscivano a fare un rilevamento facciale (facial detection). La community di OpenCV è molto attiva: il famoso algoritmo di Viola-Jones che vede la luce già nel 2001, apre le porte a molteplici sperimentazioni di Computer vision aumentando il raggio di applicazioni della Intelligenza Artificiale. Nel 2009 nasce IMageNet enorme database di immagini ideata dalla ingegnere cinese Fei-Fei-Li e dal suo staff : un tentativo di classificare ogni elemento della realtà con un nuovo glossario, attribuendo a ogni immagine non più solo parole chiave ma una serie di “synonym set” or “synset”, una sorta di rete di parole associate all’immagine.  Una nuova interpretazione del mondo a vantaggio delle macchine. La versione avanzata cioè il Large scale Visual recognition Challenge sviluppa un algoritmo che potrà far riconoscere, identificare e classificare gli oggetti con una precisione straordinaria. Si parla di una percentuale di errore del 5%. Che le macchine aggregando dati possano vedere meglio di noi è un dato di fatto: il problema è catalogarli. Dalla medicina alla sorveglianza, questi dispositivi di AI cambieranno ogni modalità di lavoro e di ricerca e avranno un impatto decisivo su tutta la nostra vita. Come ben ci illustra Lev Manovich nel suo recente libro AI ESTHETICS:
http://manovich.net/index.php/projects/ai-aesthetics

7.E A TEATRO?

Una nuova generazione di sistemi basati sul machine learning e sulle reti neurali sta rendendo possibile rilevare il linguaggio del corpo direttamente dalle immagini. Dopo venti anni di sperimentazioni con la motion capture per registrazione azioni e imprimerle a un personaggio virtuale oggi con un software come Openpose tutto è diventato semplicissimo: una telecamera rileva qualunque tipo di movimento e riconosce e classifica espressioni.


da https://medium.com/@samim/human-pose-detection-51268e95ddc2

La AI –processo in base al quale “una macchina si comporta in modi che sarebbero definiti intelligenti se fossero fatti da un uomo” – definizione del 1955 di Johm Mac Carthy- nasce originariamente per insegnare al computer una serie di cognitive task: dal risolvere problemi matematici al comprendere la scrittura e il linguaggio parlato, riconoscere le immagini. Con l’avvento di potenti processori in grado di archiviare e gestire big data, dati variabili, ed elaborarli con grande velocità, si passa da computer che fanno quello per cui sono programmati a computer che autoapprendono (da qui il tema del machine learning), cioè immagazzinano informazioni provenienti da miliardi di banche dati che sono la benzina di cui si alimentano continuamente per evolvere la loro analisi dei dati.

8.Cosa dice la vostra AI di voi?

Fece scalpore un post del grande teorico dei new media Lev Manovich che provò su di sé il test del Software Kairos e Clarafai consistente in un sistema di algoritmi di Computer vision ed è risultato un uomo di 38 anni di razza asiatica o sudamericana. Qualcosa non funziona nell’analisi dei dati: eppure questa funzione predittiva (predictive policing ) delle AI. è attualmente in uso dalla Agenzia nazionale per la sicurezza negli States.

Vogliamo lasciare alle macchine l’interpretazione dei nostri stati d’animo da un frame di un sopracciglio, la classificazione sociale in base alla presunzione di riconoscere la razza dagli zigomi? E chi gestirà questi dati? Nel simposio tenuto da Hyto Steyerl al Castello di Rivoli e in particolar nel suo speech (dal titolo impegnativo e che va a ritroso alle immagini del MedioEvo Quante intelligenze artificiali possono ballare sulla punta di uno spillo?) si è parlato delle conseguenze sociali e politiche derivata dall’uso sistematico degli automatismi delle AI per identificare sospetti e introdurre un sistema di controllo sociale. Siamo di fronte a un nuovo Lombrosismo digitale? Un esempio riportato da Hito Steyerl è questa ricerca dal titolo molto chiaro Automated Inference on Criminality using Face Images  https://www.semanticscholar.org/paper/Automated-Inference-on-Criminality-using-Face-Wu-Zhang/1cd357b675a659413e8abf2eafad2a463272a85f

E in direzione della Realtà va anche ADOBE che ha messo in commercio un nuovo strumento di AI per riconoscere foto “photoshoppate” con l’intento di dare una svolta “etica” all’azienda, riconoscendo la problematica dei contenuti “fake”.

L’artista che come la STEYERL sta smascherando il potenziale pericolo sulla riservatezza dei dati e sulla terrificante ipotesi di classificazione degli esseri umani viene svelato da Trevor Paglen, definito per il suo impegno attivista lo “Snowden dell’arte”. Nella serie Invisible Images è la stessa Steyerl a essere il soggetto dell’opera nelle “fotografie fatte dalle macchine per essere lette dalle macchine”.

9.Da Deafman glance a Sight machine-Una questione di sguardi

La stessa tecnologia di CV Computer Vision usata per le telecamere di sorveglianza, viene applicata a un concerto live con i Kronos quartet dal titolo significativo Sight machine che riconosce oggetti e soggetti, ha in memoria la loro attività e interpreta le espressioni dei performer da cui ne deduce orientamenti sessuali e politici. Le macchine ci osservano e vedono il nostro mondo attraverso le stesse deviazioni interpretative che imparano dalla quantità di dati prelevati dalle banche dati mondiali. Come difendersi? Diamo quindi per assodato il fatto che i computer siano in grado di imparare da noi, una volta che gli forniamo un numero sufficiente di esempi da studiare, diventa allora fondamentale concentrarsi proprio su quali informazioni stiamo passando all’Intelligenza Artificiale.

Qua Paglen nel finale dello spettacolo di musica SIGHT MACHINE mette lo spettatore in guardia di fronte a tecnologie non generiche ma che riguardano tutti noi: la stessa telecamera che riprendeva i musicisti ora riprende il pubblico che viene classificato in base ai dati in possesso della AI: uno scenario inquietante non più da 1984 ma da Black mirror. Il teatro, come ben auspicava Brecht, torna a essere luogo per una riflessione critica collettiva della società e della coscienza, di una necessaria riacquisizione della Realtà a cui rischiamo di non avere più accesso diretto.

DISCRETE FIGURES Realtime AR + AI Dance Performance by Daito Manabe/Rhizomatiks×ELEVENPLAY
1233

Manabe Daito

Manabe Daito (ph
Shizuo Takahashi. )

https://research.rhizomatiks.com/s/works/discrete_figures/credit.html

Tokyo-based artist, interaction designer, programmer, and DJ.
Launched Rhizomatiks in 2006. Since 2015, has served alongside Motoi Ishibashi as co-director of Rhizomatiks Research, the firm’s division dedicated to exploring new possibilities in the realms of technical and artistic expression with a focus on R&D-intensive projects. Specially-appointed professor at Keio University SFC.
Manabe’s work in design, art, and entertainment takes a new approach to everyday materials and phenomenon. However, his end goal is not simply rich, high-definition realism by recognizing and recombining these familiar elemental building blocks. Rather, his practice is informed by careful observation to discover and elucidate the essential potentialities inherent to the human body, data, programming, computers, and other phenomena, thus probing the interrelationships and boundaries delineating the analog and digital, real and virtual.
A prolific collaborator, he has worked closely with a diverse roster of artists, including Ryuichi Sakamoto, Björk,OK GO, Nosaj Thing, Squarepusher, Andrea Battistoni, Mansai Nomura, Perfume and  sakanaction. Further engagements include groundbreaking partnerships with the Jodrell Bank Center for Astrophysics in Manchester, and the European Organization for Nuclear Research (CERN), the world’s largest particle physics laboratory.
He is the recipient of numerous awards for his multidisciplinary contributions to advertising, design, and art. Notable recognitions include the Ars Electronica Distinction Award, Cannes Lions International Festival of Creativity Titanium Grand Prix, D&AD Black Pencil, and the Japan Media Arts Festival Grand Prize.

[ART ACTIVITIES]
Manabe is an innovator in data analysis and data visualization. Notable artist collaborations run the gamut from “Sensing Streams” installation created with Ryuichi Sakamoto; performances of the ancient Japanese dance “Sanbaso” with prominent actor Mansai Nomura; and Verdi’s opera “Othello” as conducted by Andrea Battistoni. As a recent example, Manabe was selected for a flagship commission and residency program in 2017 at the Jodrell Bank Center for Astrophysics, a national astronomy and astrophysics research center housed at the University of Manchester. His close partnership with researchers and scientists concretized in “Celestial Frequencies,” a groundbreaking data-driven audiovisual work projected onto the observatory itself.

[MUSIC/DJ ACTIVITIES]
In 2015, Manabe developed the imaging system for Björk’s music video “Mouth Mantra”, and oversaw the production of AR/VR live imaging for her “Quicksand” performance.
In performance with Nosaj Thing, Manabe has appeared at international music festivals including the Barcelona Sónar Festival 2017 and Coachella 2016. Having also directed a number of music videos for Nosaj Thing, his work on “Cold Stares ft. Chance the Rapper + The O’My’s” was recognized with an Award of Distinction in the Prix Ars Electronica’s Computer Animation/Film/VFX division. Further directorial work includes the music videos of artists such as Squarepusher, FaltyDL, and Timo Maas.
As a DJ with over two decades of experience, Manabe has opened for international artists such as Flying Lotus and Squarepusher during their Japan tours. His wide repertoire spans from hip-hop and IDM to juke, future bass, and trap. Manabe has also been invited to perform at numerous music festivals around the globe.

[PERFORMING ARTS ACTIVITIES]
Manabe’s collaborations on dance performances with MIKIKO and ELEVENPLAY have showcased a wide array of technology including drones, robotics, machine learning, and even volumetric projection to create 3D images in the air from a massive volume of rays. Additional data-driven performances have explored innovative applications of dance data and machine learning. These collaborations have been performed at major festivals including Ars Electronica, Sónar (Barcelona), Scopitone (Nantes), and MUTEK (Mexico City) to widespread media acclaim (WIRED, Discovery Channel, etc.)

[EDUCATION ACTIVITIES]
Manabe is actively involved in the development and implementation of media artist summits (notably, the Flying Tokyo lecture series) as well as other educational programs (media art workshops for high school students, etc.) designed to cultivate the next generation of creators.

GRAYAREA

discrete figures’ explores the interrelationships
between the performing arts and mathematics,
giving rise to mathematical entities
that engage with the bodies of human dancers onstage.
DAITO MANABE

Alan Turing applied mathematics to disembody the brain from its corporeal host. He sought to expand his body, transplanting his being into an external vessel. In a sense, he sought to replicate himself in mechanical form. Turing saw his computers as none other than bodies (albeit mechanical), irrevocably connected to his own flesh and blood. Although onlookers would see a sharp delineation between man and machine, in his eyes, this progeny did not constitute a distant Other. Rather, he was the father of a “living machine,” a veritable extension of his own body, and a mirror onto the act of performing living, breathing mathematics.

―Daito Manabe

Foto di TOMOYA YAKESHITA
GRAYAREA

Making of from the official site
https://research.rhizomatiks.com/s/works/discrete_figures/en/technology.html

History Scene

Music 01

Using Openpose, we analyzed publicly available stage footage and poses from movie scenes, collected pose data, and developed a neighborhood search system that analyzes that data and pose data obtained from analyzing the dancer’s movements. Drawing from the actual choreography footage for this piece, we attempted to create a production utilizing video material with the closest pose on a per-frame level.

1 audience scene

Music 09

We set up a booth in the venue lobby and filmed the audience. Analyzing the participants’ clothing characteristics and movements on multiple remote servers right until the performance, we managed to feature the audience as dancers using that analytical data and motion data from the ELEVENPLAY dancers.

2 dimentionality reduction scene

Music 09

Using dimension reduction techniques, we converted the motion data to two-dimensional and three-dimensional ones and visualized it.

AI Dancer scene

Music 10

We were interested in dance itself, on the different types of dancers and styles, or how the musical beats connect to improvizational dances. To explore further we worked together with Parag Mital to create a network called dance2dance:
https://github.com/pkmital/dance2dance

This network is based on Google’s seq2seq architecture. It is similar to char-rnn in that it is a neural network architecture that can be used for sequential modeling.https://google.github.io/seq2seq/https://github.com/karpathy/char-rnn

Using the motion capture system, approximately 2.5 hours worth of dance data was captured about 40 times at 60 fps. Each session involved the dancers improvizing under 11 themes including joyful, angry, sad, fun, robot, sexy, junkie, chilling, bouncy, wavy, swingy. To maintain a constant flow, the dancers were given a beat of 120 bpm.

Background movie

This time we generated the background movie with “StyleGAN”, which was introduced in the following paper “A Style-Based Generator Architecture for Generative Adversarial Networks” by NVIDIA Research.
http://stylegan.xyz/paper

“StyleGAN” became open source. The code is available on GitHub.
https://github.com/NVlabs/stylegan

We trained this “StyleGAN” on NVIDIA DGX Station using the data we had captured from dance performance.
https://www.nvidia.com/ja-jp/data-center/dgx-station/

Hardware

Drone

For hardware, we used five palm-sized microdrones. Due to its small size, it is safer and more mobile compared to older models. Because of its small body, it provides a visual effect as if a light ball is floating on stage. The drones’ positions are measured externally via motion capture system. They are controlled in real time by 2.4 GHz spectrum wireless communication. The drone movements are produced with motion capture data that has already been analyzed and generated.

Frame

The frame serves an important role in projection mapping onto the half screen and AR synthesis. It contains seven infra-red LEDs, built-in batteries, and the whole structure is recognized as a rigid body under the motion capture system. Visible to the naked eye, retroflective markers are usually not that suitable for stage props use. However, we designed and developed a system using infrared LEDs and diffusive reflectors that allow for stable tracking invisible to the naked eye.


https://www.youtube.com/watch?time_continue=38&v=mHpLOO

htiks Research
https://research.rhizomatiks.com/

LINO STRANGIS | PARTITURE SPAZIALI. Altre musiche per altri mondi a cura di Veronica D’Auria. MACRO ASILO-ROMA fino al 5 maggio
1230

La stanza diventa un ambiente sensibile che espone il mondo aperto dell’artista come opera totale, attraverso una installazione intermediale che va dalla videoarte, alla realtà virtuale, alla stampa 3D, alla performance multimediale e l’improvvisazione di musica elettronica sperimentale. 

Durante le giornate di permanenza al museo si svolgeranno performance, presentazioni, dialoghi con l’artista, la curatrice ed ospiti a sorpresa. ➜ fino al 5 maggio 2019 nella Project Room di MACRO ASILO 



Video Ⓒ Monkeys VideoLab

Progetto Tesla-Techno performance a cura di Igor Imhoff a Belgrado
1224

Giovedì 18 aprile alle ore 14.00 presso l’Aula Magna del Rettorato dell’Università delle Arti di Belgrado si è svolta una performance creata nell’ambito del progetto “Tesla” realizzato in collaborazione tra il Conservatorio “G. Tartini” di Trieste, l’Accademia di Belle Arti di Venezia e la Facoltà di Arti Applicate di Belgrado.

Raccontiamo l’evento attraverso un comunicato stampa scritto direttamente dal professore di animazione di illustrazione della Facoltà di Belle Arti di Belgrado Ratzo Ciric:

            Il progetto ha avuto tre fasi. Nel primo, gli studenti di animazione da Venezia ha creato un numero di segmenti animati dati ai nostri studenti sono stati poi invitati ad aggiungere la loro animazione sul tema della Tesla, nel contesto di diversi argomenti riportati cronologicamente seguire storia della vita di Tesla.

            Nella seconda fase tutti i segmenti sono stati collegati all’impianto prefabbricato a Venezia dal 9 al 10 aprile. e siamo stati invitati a parteciparvi. Con la nostra facoltà sul progetto Tesla hanno partecipato 8 studenti (Miljana Tesovic, Katarina Milin e Aleksandar Blagojevic IV anno, Dana Vukajlovic, Jana Popović Ksenija Stojanovic, Večerinović e Natasa Glisic il terzo anno), di cui i primi 6 ad associare Iva Ciric viaggiato a Venezia. Prof. Ciric inizialmente è stato invitato a viaggiare, ma ha dato il suo posto a uno degli studenti. Tutto stava accadendo nei locali per l’arte multimediale all’Accademia di Belle Arti, sull’isola di San Servolo. Il primo giorno l’assemblea fu terminata e il secondo giorno si tenne la prova generale del Progetto.

            La terza fase del progetto è stato quello di anteprima a Belgrado, che sarà eseguita il 18 aprile alle 14 del mattino presso la Sala Conferenze della University of Arts, per 29.

            Progetto Tesla performance audiovisiva per una durata di 25 minuti ed è progettato per essere implementato sotto forma di proiezioni animate interattive dal vivo accompagnati da performance dal vivo Dragan Gajic al violoncello. Durante la proiezione del professor Igor Imhof essere preparato il video fuga attraverso uno speciale software Resolume, che risponde alla musica e consente di applicare effetti in tempo reale mentre il video è proiettato per il pubblico. Sotto il suo comando, il software colorizza l’immagine in relazione alla frequenza dei toni, in modo che ogni visualizzazione sia diversa.

Questo il resoconto di IGOR IMHOFF:

La cosa più divertente del progetto è stata la gestione del gruppo. Non avendo la possibilità di lavorare durante le lezioni, ho creato un gruppo privato su Facebook con i vari elementi della squadra. Ho spiegato con una sceneggiatura (una serie di suggestioni) e fornito link riguardo aspetti salienti della personalità di Tesla. Il tutto è stato poi ordinato in vari capitoli. Man mano che arrivavano i vari pezzi, ho proceduto ad un montaggio a seconda delle varie situazioni. Fisicamente ho visto il gruppo una sola volta.

Il progetto tra spunto (con molta liberta) dal libro “Lampi” di Jean Echenoz che racconta in maniera romanzata la vita di Tesla.

L’idea era narrare la figura di uno scienziato geniale, ma anche un personaggio particolare e sicuramente fuori dal normale, vedi i rapporti umani, la sua “patologia”, la sinestesia. Suo malgrado, nonostante il suo grandissimo contributo  (basti pensa alla sola corrente alternata), ha sempre vissuto a metà strada tra la scienza e l’essere considerato un ciarlatano. Ha alimentato  tantissime riletture della sua figura. Insomma è una personaggio che da storico è diventato probabilmente un mito. Penso solo alle armi immaginarie o le invenzioni “aliene” che son a lui attribuite. Ecco il senso del progetto era raccontare un mito non lineare, sicuramente ambiguo, non catalogabile. Per questo perfetto per una ricostruzione non lineare e anti narrativa.

  1. Nascita di Tesla
  2. Le grandi invenzioni, La corrente alternata, Seconda rivoluzione industriale
  3. Il Conflitto con Edison
  4. Personalità eccentrica, megalomania, insofferenza alle relazioni umane
  5. Vita in costante bilico tra scienza e magia
  6. Declino, solitudine e fine inesorabile (la sua consapevolezza di diventare flusso)

Un lungo (e parziale) percorso storico sulla digital performance on line su OLATS
1203

Segnaliamo questo percorso con frammenti video e riferimenti di autori/opere significative on line da qualche anno e non più aggiornato sulla digital performance

I riferimenti storici sono forse l’aspetto più importante dello studio che riportiamo con il link alla pagina:

1. DEFINITION

En 2007, est paru à MIT Press un ouvrage intitulé Digital Performance: A History of New Media in Theater, Dance, Performance Art, and Installation. Cet ouvrage est aujourd’hui considéré comme la référence principale du domaine « arts de la scène et technologies numériques ». Les auteurs, Steve Dixon et Barry Smith, donnent la définition suivante :

|||||||||| « le terme « digital performance » comprend toutes les œuvres des arts de la scène où les technologies informatiques jouent un rôle clé en ce qui concerne le contenu, la technique, l’esthétique ou le résultat final ». [1]

Cette définition souligne un point important : ce n’est pas la présence sur scène d’un ordinateur qui permet de définir s’il y a ou non digital performance (sans caricaturer, avec l’essor des régies numériques, on pourrait alors dire qu’aujourd’hui toutes les formes de spectacle vivant sont des digital performances). Les choses sont bien plus complexes que cela. Les technologies numériques peuvent en effet intervenir au cours du processus de création ou encore servir de modèle à l’écriture. Ce n’est donc pas la question de l’outil qui est essentielle mais celle de la pensée à l’œuvre. Cela ne rend pas la définition du corpus aisée mais évite l’écueil d’une vision techniciste des technologies numériques.

Je laisserai tout au long de ce Basiques l’expression digital performances en anglais, non seulement parce qu’elle s’impose de plus en plus, mais aussi parce qu’elle a pour avantage de considérer les arts de la scène dans leur ensemble, sans distinguer notamment le théâtre de la danse, ce qui permet d’éviter des discussions stériles sur les genres et leurs frontières. Signalons qu’en français, un numéro spécial de la revue Anomalie publié en 2002 a également été intitulé Digital performance.

La traduction française par « performance numérique » est inexacte, le terme performance en anglais n’ayant pas la même signification en français. « Arts de la scène et nouvelles technologies » demeure très flou sur le contexte historique : il y a des « nouvelles technologies » à tous les âges de l’histoire du théâtre, et ces « nouvelles » technologies que seraient le numérique et les réseaux ne sont plus si neuves. Quant à « arts de la scène à composantes technologiques », outre la longueur de l’expression, celle-ci met l’accent sur les technologies conçues comme des outils et non comme des environnements de pensée. « Représentation numérique » ou « spectacle numérique » ne sont pas très usités et n’évoquent qu’une parcelle du champ étudié.

http://www.olats.org/livresetudes/basiques/artstechnosnumerique/1_basiquesATN.php

Tempo Reale Festival 29 novembre -2 dicembre
1175

PAESAGGI A COLORI
E alla fine si torna alla musica, un paesaggio sonoro “a colori” che si connette con immagini video, cinema e teatro, accompagnandoci in un viaggio internazionale dal Canada all’Inghilterra, dall’America alla Russia e, ovviamente, alla vivace Italia dell’elettronica.

✺ Giovedì 29 novembre, ore 20 > 22 Teatro Cantiere Florida
KLANG | MUSICA SPERIMENTALE #13
1. Louis Dufort SPACIOUS ORGANICITY
Opere acusmatiche e audiovisive. Con il supporto di Akousma, Réseaux des arts médiatiques (Montréal, Québec)
2. Natasha Barrett SAGITTARIUS A*
Violino Karin Hellqvist, live electronics Natasha Barrett
Con il supporto di Music Norway, Norwegian Composer’s Fund, Swedish Art’s Grants Committee
3. Massimo Pupillo (Zu), SOLO
Per basso elettrico, organo ed
elettronica

✺ Venerdì 30 novembre ore 21, Teatro Cantiere Florida
EDISON STUDIO | LA CORAZZATA POTËMKIN
Ėjzenštejn (1926)
Nuova colonna sonora dal vivo di Edison Studio con Vincenzo Core e Giacomo Piermatti

Strumenti, oggetti, samplers e live electronics Luigi Ceccarelli, Fabio Cifariello Ciardi, Alessandro Cipriani | Chitarre e live electronics Vincenzo Core | Contrabbasso Giacomo Piermatti
Extra-foley Paolo e Simone Frati | Voci registrate Andrey Maslenkin e Svetlana Marussia Kevral

✺ Sabato 1 dicembre ore 19, 20, 21, 22 Teatro Cantiere Florida
THE FACTORY PRD & MAGAGLIO | LOG OUT
Opera audiovisiva, ideazione e drammaturgia The Factory prd e John Haller Standing


Con Cristiano Woland Burgio | Musica Giovanni Magaglio | Visual Stefano Poggioni | Light design Claudia Cataldi | Movimenti scenici Elena Poggioni | Scenografia Audrey Biarnais | Assistente tecnico Simone Petracchi | Comunicazione per The Factory Prd Gaia Fronzaroli e Alessio Poggioni | Produzione Tempo Reale | Con il sostegno del Mibac e di SIAE, nell’ambito dell’iniziativa “Sillumina – Copia privata per i giovani, per la cultura”

✺ Domenica 2 dicembre ore 16.30, Cenacolo di Santa Croce
STRINGS CITY | CENACOLO ELETTRICO
In a large open space, Tempo Reale Electroacoustic Ensemble

Chitarra elettrica Francesco CanaveseEly GarboAndrea GozziJohn Haller StandingMichele MarchianiDavid MatteiniSalvatore MieleFrancesco PerissiLeonardo RubboliNiccolò Salvi | Sintetizzatore Agnese BantiFrancesco Giomi
James Tenney, In a large open space, per dodici o più strumenti
con suoni continui (1994)
Progetto realizzato nell’ambito di Strings City 2018
Si ringrazia Opera Di Santa Croce

Informazioni:
prenotazioni@temporeale.it | tel. 055717270 | https://www.temporeale.it/programma-2018-z.html

Biglietti:
29/11 e 1/12 € 5
30/11 € 10, ridotto € 5 (soci Arci e Carta dello Studente)
1/12 Ingresso a gruppi limitati di 20 spettatori
2/12 Ingresso libero. Posti limitati con prenotazione obbligatoria su stringscity.it

Grafica Mario Carovani
Fotolia © softfocusphoto

*****************************************************
Il Tempo Reale Festival è in collaborazione con:
Regione ToscanaComune Di Firenze, Città Metropolitana di Firenze, Mibac, Fondazione CR Firenze, Q4, SIAE, Akousma, Music Norway, Det norske komponistfond, Konstanarnamden, Strings City, Teatro Cantiere Florida, Opera di Santa Croce, Edison Studio, musicaelettronica.it

Interview to Rosa Sanchez and Alain Baumann (Koniclab) about theatre and technologies. The costs of the media theatre.
1173

Interview to KONICLAB

Kònic thtr is a Barcelona based artistic platform focusing on contemporary creation at the border between art and new technologies. Its main center of activity is the application of interactive technology to artistic projects. Kònic thtr is internationally renowned for the use and incorporation of interactive technology in creative projects. Their work have been shown in Spain, Europe, America, Asia and Africa. Through the research processes undertaken by Kònic Thtr since the beginning of the 1990’s, the company has developed a unique and personal language in this field of contemporary creation.

Rosa Sánchez. Multidisciplinary and multimedia artist, performer & choreographer. Artistic director and co founder of Konic thtr. Alain Baumann. Musician, multimedia artist. He is in charge of the interactive systems used by Konic thtr.

1. When you start an artistic multimedia theater project, do you guarantee yourself in advance having the necessary budget through residencies or external funding from Theatres or you usually work in self-production? And what are the real costs of your technological production as example?

KONIC Depending on the project we have in mind and the availability of funding, we work with different timings and budgets. Over the (many) years that we have dedicated to theatre and technology, we have acquired skills and knowledge that permit us to produce works with a very small team of four or five collaborators and auto-produce works when the economy is not buoyant. This means that we can do small scale project, with a limited amount of pre-booking for around 20-25K€. On the other hand, we can do large scale projects, with larger team of people participating in the company. When we work with non-readily available technology, such as our recent works with high speed networks, the budget is partly taken in charge by the technological partner who will provide the high bandwidth connection and team to operate it. This is an interesting way for us to work, as it means we are collaborating with engineers and exchange with them, and at the same time they support the work so that the budget for the piece stays reasonable.

2. In a case of a “call” for producing multimedia theater to stimulate the work of new authors or for a creation of a new work, which do you think is an adequate amount that a Theater should allocate?

This is a difficult question. It depends on the type of residency, if it does include a technical team at disposal to do research on technologies, video, light etc. The main problem is not so much the amount than the precarity of the work in general. It is becoming more and more difficult (especially in Spain, but we feel it is a general problem) to find co-producers to make good productions. The problem is that the precarity is also affecting the residencies, and a lot of times the spaces that offer residency have a very limited amount of funding, and rely more on the availability of space and knowledge that they can offer to the artist, than on the ability to remunerate the research that is taking place in their center.

3. Can the residency system be useful for the creation of multimedia theater? What does a residence imply for this theater and in the case, what should a theater / festival offer a residence for an entire crew or company?

We think that the residencies should be oriented towards research, a part of the development of the creative work, the pre-production of the work, that is not covered by productions. To support the pre-production processes is what we would expect from the residency centers, especially when the work implies the use of technology. This should also help to generate a cultural tissue, giving artists the tools to develop new ideas and praxis, and connect them to other artists.

4.The fact that funding is always so low as we observe in this period, does not perhaps oblige the artist to “break up” the work in too many segments of work that are likely to lose continuity and novelty to the work itself? How can we direct a certain theatrical cultural policy to a greater investment by making the theaters understand the complexity (and costs) of this theater?

Even if this is not the best condition, creating a work in a modular way is possible and can be interesting, as long as the work is coherent. As we work with diverse media, the work will evolve with time in the various facets of the piece as they get developed even if in segments. On the other hand, the problem arises when one is obliged to do so because of poor financing, so it is not a choice but the only alternative.

In these times of austerity, an additional problem for unconventional stage proposals (such as for example the ones that rely on technology) is that they are more affected by the reduction of funding than more conventional theatre. The producers, the exhibitors are wary to take ‘risk’ (yes, they see this kind of proposal as a risk…) and therefore there is even less funding going to these proposals.

We have to convince the theatres that they need to show technological proposals, and to make the ideas these proposals convey accessible to the audience. From our point of view, it is important to focus on the content, which is what theatre is about. The collectives working in this field are bringing content to the stage through innovation. Contents related to our technological era using languages that make culture a living and evolving entity.

The cost is inherently related to the design of the work. It is difficult to evaluate, but possibly the idea of higher cost of a piece relying on technology compared to conventional theatre is not so true anymore. New professionals are appearing who specialize in technology for the stage, and many software and hardware solutions, that would have been very expensive only a few years ago because they would need time to develop specifically, are now readily available.

5. Is there an ideal formula for creating this kind of show? What situation do you know that would correspond to a kind of “good practice” (residential or production) linked to the technological theater?

Our best experiences, both in production and residency where in fact initiatives from technological partners rather than from theatres. Somehow there is more interest for people who work in the technological research to develop cultural content that can serve them to test their technology in a context that can also give them visibility, than theatres showing interest in introducing technology into their contents. There are examples of using high velocity internet to transmit opera in real time, or to give masterclasses with a teacher in a city and the students in another city. Or using 360º cameras to film the opera etc.

So these companies or research centers are there and have some interest in showing to culture what their technology can do. They have the skills and the equipment available and if you have the opportunity to collaborate with them, they can be very open to new ideas.

A research agreement to collaborate directly with technology specialists and or research centers is in our experience a way to explore new formats and to be able to have interesting feedback in the way we use technology. In the frame of such agreements, we have had the opportunity to collaborate for instance with the department in artificial intelligence from the higher council for scientific research in Spain, and develop several projects in which we used artificial intelligence for pattern recognition in the use of sensors for dancers. More recently, we are working with specialists in the field of high bandwidth internet. Their work normally consists in connecting scientific research centers from all over the world with extremely fast internet. Working with them in order to develop artistic projects is very challenging, because neither them nor us do really know what the outcome will be. We have successfully showed the results of such collaboration in theatres were part of the audience was interested in the technology and the other part in the artistic content – the project Near in the Distance that was shown in Viena (2015) and in Linz (2017). There need to be mutual trust between the teams and this is a good start for making good projects.

6. In your opinion, is there any new technology that has not yet been explored and that would be useful to a “new format” of technological theater? For example, Robotics or AI?

Artists are very curious people and probably all technologies have been explored ! There is a need for many artists to explore the possibilities that are infusing our everyday life, but in our opinion, it will take some time until these elements are fully understood and the technology made available to artists so that new ways and new format really start to happen.

We cannot compete with technology in order to get the attention of an audience that is nowadays immersed in social networks. These social networks have at their disposal the very latest development in big data analysis and artificial intelligence software that they constantly adapt and develop in order to offer the best experience to their audience. In some ways they compete with theatre, and from our perspective we need to preserve the important part of theatre which is the contents. The contents that can be brought to the stage by using contemporary technologies are where we need to focus as artists.

7. The consideration that there are few productions or few groups that propose innovative ways in terms of theatrical narration creates a limitation for a theorical analysis of the phenomenon of the so-called ” intermediality?

From our point of view, innovation is created by specific projects who differ from others with proposals that may be a little ahead of their time and bring something qualitatively different, linked to the concept of innovation. They are never many projects, but they are models. These models are the ones that can be analyzed and studied to differentiate them from others. They might create a trend or not, but they are unique/different and can be studied.

It is correct that with the lack of funding, there is an increased difficulty to create such works since they require longer research times, and also the lack of opportunity to show transmedial works in theatres, many artists who dedicated part of their creation to new media have opted to dedicate less time to this type of shows. There is less production, but at the same time younger artists introduce technology in their work in a more informal manner using readily available technologies on stage and this is positive in our opinion.

The 4D Box – a holographic live stage- Ars electronica
1121

The 4D Box – a holographic live stage

The Culture Yard (DK), Very Mainstream Studio & Very Theatre (TW), Noora Hannula & The Nordic Beasts (DK/FI), Carl Emil Carlsen (DK), Bjørn Svin (DK)

The 4D Box is a multimedia digital live stage developed and curated by The Culture Yard and CEO and director Mikael Fock. It includes hologram technology, advanced sound and live performance in a single expression. In this interdisciplinary black box, The Culture Yard have created an entirely new artistic media platform that breaks the boundaries between physical performance and 3-D generated universes. At Ars Electronica, we look forward to presenting three productions:

The 4D Box: Chronicle of Light Year
The Culture Yard (DK), Very Mainstream Studio & Very Theatre (TW)

The 4D Box is a multimedia digital live stage and includes hologram technology, advanced sound and live performance in a single expression.

The 4D Box: Silicium
The Culture Yard (DK), Carl Emil Carlsen (DK), Bjørn Svin (DK)

The 4D Box is a multimedia digital live stage and includes hologram technology, advanced sound and live performance in a single expression.

The 4D Box: The Ultimate Battle
The Culture Yard (DK), Noora Hannula & The Nordic Beasts (DK/FI)

The 4D Box is a multimedia digital live stage and includes hologram technology, advanced sound and live performance in a single expression.

PAX: an immersive experience by La Fura at the Klangwolke 2018 in Linz
1110

Tradition is revolution. La Fura dels Baus -with the colaboration of the guest artist Mihael Milunovic-returns to Austria to perform PAX: a multimedia and interactive show in which the history of humanity is presented as a dreamlike visualization.

The audience was surrounded in 360º by incredible elements that were transported by land, water and air. It will be at the Klangwolke 2018: September 8, at 8pm, at the Donaupark in Linz.

https://www.facebook.com/ORFkultur/videos/495132124294137/?t=11

 

A giant carrier pigeon built with 12 meter long light tubes, which represents the human tradition of communicating de­spite distance, and in that moment, the au­dience have sent text messages that will be instantly projected in the dif­ferent elements that appear in the show. And if we were revolutionaries, if we were able to be that, it was because we had once loved and absorbed even those values against which we now reacted. We supported our-selves firmly on them in order to brace ourselves for the perilous leap forward to meet our destiny. Thus it should not surprise you that a poet who began as a surrealist today pres-ents a defence of tradition. Tradition and revolution: here are two words which are identical.

https://www.facebook.com/Brucknerhaus/?hc_ref=ARSLUu0aL5WbgIDw4K_hGq7IbxynAgjHdvRhK9FUqZWUN-jeUw02V-6PshFz1M_jU&fref=nf&__xts__[0]=68.ARAmNVi7xv1N3mvK5wU19ggnkAcCZ09VPqNtiXz0WgWPC6dzVqNWKoqpVTG85dgj-wKfeLzHCHce2Zbu0X3Z-XB_ehhpA6YN6V2Lr_Lyz5RXE0qcs0B9Ozt9q4qmm9cLnRK-8MMlS0OyDTW8ew8qi3LT-EOyqXZbprEppiqg1Wx-m5LqWZlctY&__tn__=kCH-R

dal canale youtube della FURA.

Video soggetto a limiti di età (per effetto delle Norme della community)

https://www.youtube.com/intl/it/yt/about/policies/#community-guidelines

 

 

MUTA IMAGO – COMBATTIMENTO PRIMA ASSOLUTA : SHORT THEATRE FESTIVAL 13-14 settembre ROMA
1100

MUTA IMAGO – COMBATTIMENTO
13 e 14 settembre | 22:00
La Pelanda – Studio 1

regia Claudia Sorace
con Annamaria Ajmone, Sara Leghissa
drammaturgia e suono Riccardo Fazi
direzione tecnica Maria Elena Fusacchia
costumi Fiamma Benvignati
organizzazione Martina Merico
produzione Muta Imago
con il sostegno di Angelo Mai
Compagnia finanziata dal Mibact

Combattimento indaga il concetto di amore come guerra, della seduzione come conquista, del desiderio come abbandono di uno stato di tranquillità per entrare in una dimensione di mistero e perdita di sé. Tutto ruota intorno ai corpi delle due performer in scena e alla relazione che queste instaurano nel tempo della performance: l’obiettivo è quello di condividere con il pubblico l’esperienza di due persone che cercano di uscire da loro stesse, di trasformarsi per arrivare a incontrare l’altra, attraverso il gesto della danza. Combattimento è una performance che ha la forma di un contest selvaggio e animale, che parte dallo studio del concetto di “mating” (l’insieme dei movimenti rituali che gli uccelli eseguono per attivare il desiderio e convincere il partner della propria forza e sensualità), attraversa l’ Après-midi d’un faune di Nijinski e arriva fino a Sergio Leone. Un movimento circolare e ipnotico che cerca di investigare l’amore come spinta del desiderio, il desiderio come esibizione di sé, e l’amplesso come scambio e annullamento di identità.

Muta Imago è una compagnia teatrale e un progetto di ricerca artistica nato a Roma nel 2006. Vive tra Roma e Bruxelles. È guidata da Claudia Sorace, regista, e Riccardo Fazi, drammaturgo e sound designer. È composta da tutte le persone che sono state, sono e saranno coinvolte nella realizzazione dei lavori. È alla continua ricerca di forme e storie che mettano in relazione la sfera dell’immaginazione con quella della realtà presente, umana, politica e sociale. Per questo realizza spettacoli, performance, installazioni, dove lo spazio è quello del rapporto e del conflitto tra l’essere umano e il suo tempo.

www.mutaimago.com
www.shorttheatre.org

Interviste ai protagonisti (artisti e teorici) del Teatro multimediale: nuove frontiere (della tecnologia) e vecchi problemi (di budget). #1 Antonio Pizzo
1090

Recentemente un bando apparso in rete che offriva residenza e cachet decisamente basso per progetti e spettacoli multimediali, ha riportato in luce la questione dei costi (per i teatri ma soprattutto per i creatori) di questi progetti  Sono veramente consapevoli coloro che ospitano questo tipo di spettacolo o chi propone residenze, di cosa implica allestire un lavoro tecnoteatrale? E’ corretto metterlo sullo stesso piano di una normale produzione?  Quali sono i budget che gli artisti o i promotori di questo teatro spendono realmente per le produzioni? Esistono “buone pratiche” di creazione collettiva o esempi di residenze specificatamente dedicate al teatro multimediale che possano essere considerati dei modelli? E in epoca di “software culture” e di “convergence culture” dove sta andando il teatro che usa nuovi, nuovissimi o vecchi media?

Ne parliamo con alcuni artisti autori e teorici: le domande sono comuni (Anna Monteverdi)

Cominciamo con uno degli studiosi di riferimento, Antonio PIzzo (autore tra gli altri, di Neodrammatico digitale: scena multimediale e racconto interattivo), che si è anche fatto promotore di nuove produzioni con Marcel.lì Antunez Roca all’interno dell’Università di Torino dove è docente associato al Dipartimento di Studi umanistici,  E’ direttore del CIRMA Centro interdipartimentale per la ricerca sul multimedia e audiviosivo. E’ Co-fondatore di Officine sintetiche. ed è membro del comitato di redazione di MImesis Journal.Scritture della performance.


1. Quando cominciate un progetto artistico di teatro multimediale vi garantite prima di avere il budget necessario tramite “call”, bandi europei, residenze o finanziamenti esterni di Teatri o lavorate in autoproduzione? 

Antonio Pizzo Le volte in cui nel mio lavoro universitario ho partecipato ad attività produttive (spettacoli, istallazioni, ecc.) ho sempre verificato prima l’esistenza di un budget necessario (sia che provenisse da una linee finanziamento sia che fosse un incarico diretto)

2. Se ci fosse una “call” di teatro multimediale per incentivare il lavoro di nuovi autori o per una creazione di una nuova opera quale credete che sia una cifra adeguata che un Teatro, un Festival dovrebbe stanziare?

Antonio Pizzo: Non credo che si possano fare produzioni al di sotto dei 50.000 euro. Nella mia esperienza ho partecipato a progetti che sono costati di meno ma solo perché una buona parte del lavoro era fornita in co-finanziamento dall’Università.

3. Il sistema delle residenze può essere utile alla creazione del teatro multimediale? Cosa implica una residenza per questo teatro e nel caso, cosa dovrebbe offrire un teatro/Festival che propone una residenza a una intera troupe o compagnia?

Antonio Pizzo: Il cosiddetto teatro multimediale condivide con il teatro “normale” una forte artigianalità. Solo raramente le soluzioni tecnologiche sono frutto di ricerca e innovazione specifiche (strumenti o applicazioni sviluppate ad hoc da laboratori specializzati, e in quel caso il budget sale esponenzialmente). La condizione più consueta è utilizzare in modo originale le tecnologie disponibili. Questo richiede un tempo di conoscenza con i sistemi, le macchine, le soluzioni. Le residenze sarebbero le occasioni principali per sviluppare questo tipo di competenze.

4.Il fatto che vengano attribuiti finanziamenti così bassi come abbiamo osservato in questo periodo, a vostro avviso non obbliga forse l’artista a “spezzettare” il lavoro in troppi segmenti di lavoro che rischiano di far perdere continuità e novità al lavoro stesso? Come possiamo indirizzare una certa politica culturale teatrale a un maggior investimento facendo capire ai teatri la complessità (e i costi) di questo teatro?

Antonio Pizzo : Nelle statistiche SIAE sullo spettacolo di alcuni anni fa emerge che lo spettacolo teatrale incassa ben di meno di altre forme di intrattenimento. Ma soprattutto si vede che quei pur minori incassi, sono sviluppati da produzioni eminentemente commerciali (musical, artisti famosi in TV). Vale a dire che sul piano della produzione Italiana di spettacolo, il teatro che noi esperti vediamo non ha quasi nulla a che fare con quello che vede il grande pubblico; tenendo conto di questa situazione, il sostegno dovrebbe scaturire da una visione programmatica della politica (nazionale e locale). Mi sembra difficile che in questo frangente si prenda una tale strada. Il modello “spacchettamento” è pericoloso perché impone all’artista di sviluppare sempre progetti di piccola portata. Lo stesso vale per il teatro di prosa in cui ormai i registi devono dirigere solo monologhi (per questioni di budget) e la nuova generazione perderà le competenze di direzione di un gruppo di attori. La direzione di una grossa compagnia, la messa in scena di un testo con più personaggi, saranno appannaggio di pochi. Gli altri sapranno solo dirigere due attori che parlano al pubblico. Senza grandi budget, non svilupperemo le competenze per far evolvere il teatro multimediale. lo faranno altrove probabilmente. Noi ritorneremo il paese famoso per gli attori geniacci della scena, simpatici e gigioni. Ma i grandi spettacoli li faranno altri. 



> 5.Esiste una formula ideale per la creazione di questo tipo di spettacolo? Quale situazione avete conosciuto che corrisponderebbe a una specie di “buona pratica” (residenziale o di produzione) legata al teatro tecnologico?

Antonio Pizzo premetto che sono di parte, ma credo che le residenze (vista la scarsità di budget) potrebbero essere più produttive se messe in rete con i centri di ricerca universitari e non, che sviluppano attività nel campo della creatività digitale. In questo modo gli artisti potrebbero contare su un bagaglio di competenze (tecniche e progettuali) senza costi aggiuntivi.

> 6. A vostro avviso c’è qualche nuova tecnologia che non è ancora stata esplorata e che si presterebbe a un “nuovo formato” di teatro? Per esempio la Robotica o la AI?

Antonio Pizzo Il teatro intermediale si è prevalentemente concentrato sulla medializzazione del corpo. In altre parole sul rapporto tra scena reale e media digitali. Esiste una linea di ricerca scientifica e artistica che lavora sull’utilizzo della intelligenza artificiale per creare/supportare/aumentare eventi performativi. Credo che questa sia una delle sfide più interessanti del prossimo decennio.

>
7.La considerazione che ci sono poche produzioni  o pochi gruppi che propongono modalità innovative sul piano della narrazione teatrale (ritornando al vecchio “videoteatro mai tramontato)  mette a vostro avviso, in stallo anche l’aspetto di un’analisi teorica del fenomeno della cosiddetta “intermediality?”

Antonio Pizzo Il teatro ha ampiamente assorbito l’utilizzo del video. Ormai sono numerose anche le opere liriche che fanno uso di videoscenografie. Ma è vero che la maggior parte degli eventi è di tipo tradizionale. Questo dipende sempre dai budget a disposizione che non permettono alcun tipo di investimento economico su innovazione linguistica. D’altra parte è pur vero che i modelli intermediali trovano applicazione in ambiti non specificamente teatrali. Se allarghiamo il nostro sguardo alla musica, all’arte contemporanea, agli eventi di intrattenimento ludico, allora forse vedremo che l’intermedialità è diventata un linguaggio più diffuso di quello che appare dal punto di vista teatrale. L’analisi teorica sulla intermedialità potrebbe mettere in luce gli elementi tradizionalmente frutto di un sapere “teatrale” (la drammaturgia, l’attore, il personaggio, la relazione in tempo reale con il pubblico) in eventi che si svolgono in ambiti spuri e differenziati. Invece di inserire oggetti diversissimi in ambito performativo solo per la loro natura intermediale (la tecnologia, la comunicazione, ecc.) si potrebbe riconoscere che questi oggetti non costituiscono performance teatrali e verificare puntualmente quali siano i contributi del sapere teatrale nella loro progettazione.

 

dossier Corps en scène : l’acteur face aux écrans – Bodies on Stage : The Actor Confronted with Screens, dirigé par Josette Féral, Dorota Sajewska et Dorota Sosnowska (www.archee.qc.ca)
1062

archée
• • •  revue d’art en ligne : arts médiatiques & cyberculture

www.archee.qc.ca

Juillet 2018

Dans le cadre du dossier Affect ou émotion en art immersif et interactif, Louise Boisclair s’entretient avec Lorella Abenavoli, artiste multidisciplinaire dont la démarche s’élabore entre recherche et création à travers des explorations sonores dans une dimension performative. Le portfolio présenté ici donne un aperçu de ses installations et de ses compositions sonores singulières.

Poursuivant le dossier Corps en scène : l’acteur face aux écrans – Bodies on Stage : The Actor Confronted with Screens, dirigé par Josette Féral, Dorota Sajewska et Dorota Sosnowska révèlent comment l’utilisation des nouveaux média permet de multiplier et de renforcer la présence des acteurs sur scène dans une dimension politique, Sebastian Samur and Richard Windeyer examinent les modulations vocales et digitales des performeurs et des spectateurs et Tony McCaffrey questionne, entres autres, l’impact des technologies sur les acteurs.

Christine Palmiéri

 

  Portfolio                   Lorella Abenavoli

Affect ou émotion

                   en art immersif et interactif

 

Sonifier la phusis

Louise Boisclair

Cet entretien en deux parties porte sur le travail de recherche-création d’installation sonore de Lorella Abenavoli, il s’inscrit dans le contexte du dossier Affect ou Émotion en art immersif et interactif. L’artiste présente sa démarche puis revisite quelques-unes de ses œuvres dont Le Souffle de la Terre et Verticale, L. son d. la m..té. d. .a sève d..s un a.bre au pr..temps, en évoquant son rapport intime avec la création et en développant ses conceptions de la spatialisation, de la sonification et de l’audification. [suite…]

 

Audifier et spatialiser l’Einfühlung

Louise Boisclair

Dans cette seconde partie de l’entretien avec Lorella Abenavoli, il sera question de son rapport aux éléments et aux matériaux, d’affect et de certains choix qu’elle a effectués dans son travail de sculpteure. Il sera aussi question des dimensions historiques et technologiques, mais aussi écologiques, artistiques et poétiques, qui ont renouvelé ses conceptions de la forme, de la représentation et du temps. Enfin l’artiste explique le terme « so(g)nification », néologisme qui lui est propre, et le met en relation avec les multiples sens de la sonification. [suite…]

 


 

L’acteur face aux écrans
Bodies on Stage :
The Actor Confronted with Screens

 

Body As Medium. Between Theory
and Technology of Theater

Dorota Sajewska and Dorota Sosnowska

We will present the theoretical approach to the problems of body and technology in stage performance. The starting point will be the status of the categories such as presence, ephemerality, immediacy of the (theatre) performance radically undermined in the texts of performance studies scholars such as Rebecca Schneider, Amelia Jones or Philip Auslander. Utilizing examples of performances from young Polish theatre:Krzysztof Garbaczewski (b.1983) and Radosław Rychcik (b.1981), we will juxtapose two functioning models of body-technology relation on stage. The first one – represented by Garbaczewski – is based on understanding the body as always mediated. It multiplies (undermines) the body’s presence by use of audiovisual means. The second one – Rychcik’s case – is to push the theatrical presence of the body to the absolute maximum. In this case an audiovisual layer is used to build a strong opposition to the actor’s stage presence. The two examples will be used to propose new theoretical approaches. We would like to show that such stage phenomena are not only the sign of a changing technological reality, but are also important theoretical input in the understanding of theatre itself. We will posit that every single body on stage (no matter if consciously, as in Garbaczewski’s case, or unconsciously, as in Rychcik’s case) is already mediated, and the use of technological tools is a way to play with this specific aspect of theatre’s corporeality. This broader perspective will also incorporate elements of the political dimension of annexing media-mediated and media-manipulated corporeality, for it will follow the apparently transparent and natural dimension of such actions, whereby once again, as postulated by Jacques Rancière it will turn aesthetic considerations into political considerations. [suite…]

 

Moi qui parle à moi-même dans le numérique
Auditory Alienation and Liberation
for the Intermedial Performer

Sebastian Samur and Richard Windeyer

To what extent does vocal modulation both alienate and liberate performers on the intermedial stage? Philip Auslander and Matthew Causey, among a growing number of contemporary theoreticians, have pointed to the « otherness » and « uncanny » experiences of both performers and spectators when confronted with digital doubles. How have artists working with vocal modulation negotiated these experiences and incorporated them into their practice? Our presentation will juxtapose an analysis of key works by three contemporary performance artists – The Wooster Group’s Laurie Anderson’s O Superman and Marie Brassard’s Peep Show – with a series of digital audio workshops held at the University of Toronto to better understand how both audiences and performers experience the disembodiment inherent in digital voice modulation. Anderson and Brassard speak of alter-egos or theatrical extensions of character, while Wooster Group performers describe increasing freedom through loss of control over technological modulations. In researching these works, we will examine whether an artist’s experiences are at odds with those of the spectator, who may experience a split or delayed presence of the performer. These experiences will further be compared to an in-house creation of Kurt Schwitters’ Ursonate. It has been described as written in a « universal language, » and we will attempt to stretch its universality into a digital soundscape through voice modulation, conscious of the artist experiences described above. Examining the psychoacoustic effects of digital modulation techniques applied to pitch/harmonics, volume, resonance, delay, and spatial (dis)location, we will compare experiences of performers, designers, and spectators with the experiences described in our case studies. Doing so will allow us to further identify how voice modulation both alienates and liberates, and how the actor can better situate him/herself within an intermedial practice.  [suite…]

 

A Dance that Draws you to the Edge of your Seat:
Acting and Disability Faced with Technology

Tony McCaffrey

Sarah Mainwaring’s palsy turns the task of clipping a microphone into its stand into a dance that draws you to the edge of your seat.”  This is how the reviewer for theSydney Morning Herald described the tremulous and fragile gestures of a performer with cerebral palsy, who laboriously, in fits and starts of movement, sets up a microphone at the beginning of Super Discount, (2013) by Back to Back Theatre , an internationally renowned ensemble of people perceived to have intellectual disabilities.  At the conclusion of a previous show, Food Court she delivered Caliban’s speech from The Tempest, ‘The isle is full of noises . . .’ in a similarly tremulous and fragile voice. As she spoke into a microphone (itself tuned to reverberate strategically) the sound of her voice was accompanied by the words of the speech projected in surtitles as animated text either rushing headlong or stalling, apparently (voice-)activated by the fits and starts of her distinctive delivery.

The work of Back to Back Theatre Company is, amongst many other things, an ongoing interrogation of the interaction between technology and performance (onstage and off).  By considering the work of this company, and of Zurich’s Theatre Hora , and my own practical research with Different Light Theatre , an ensemble of disabled performers in New Zealand, I wish to explore the following questions:  Does technology facilitate, aestheticize or problematize an access to “voice” for disabled performers? What place does assistive or aestheticizing technology have in how the transmission of affect and meaning is negotiated between disabled performer and (supposedly able) audience? What are the political, aesthetic and ethical implications of this interaction between the perceived fragility of the performer and the supposed communicative empowerment of technology? What is it about such performance that “draws you to the edge of your seat?”  [suite…]

La prospettiva mediologica del teatro: il volume Teatro e immaginari digitali di Alfonso Amendola e Vincenzo Del Gaudio (Gechi editore)
1061

E’ appena uscito per le edizioni GECHI (Salerno), il volume TEATRO E IMMAGINARI DIGITALI. SAGGI DI MEDIOLOGIA DELLO SPETTACOLO MULTIMEDIALE a cura di Alfonso Amendola e Vincenzo Del Gaudio che contiene contributi oltre che dei curatori, di J. Malvezzi, A.M.Sapienza, M. Tirino, C. Infante,  E. Pitozzi, A. Di Maso,M. Cozzolino, F. Deriu, L. Gemini, R. Savo, A. Pizzo.

Recensione di Anna Monteverdi

Il volume, che apre nuove prospettive nello studio del teatro contemporaneo, non si limita a fare una sintesi della produzione tecnologica teatrale a partire dalla fortunata stagione del videoteatro italiano degli anni Ottanta (segnalata cronologicamente dallo spettacolo Punto di rottura dei Magazzin)i ad oggi, ma ripensa la produzione scenica in un’ottica di interpretazione critica sociologica e mediologica insieme, cioè guardando al linguaggio teatrale dal punto di vista dei media utilizzati. Cosa cambia sul piano della percezione, della natura della comunicazione, della struttura drammaturgica, dello statuto di spettatore quando il processo creativo teatrale si apre al paradigma mediale assorbendone -completamente o parzialmente – i modi e i punti di vista? Qual è lo “specifico del teatro” quando l’ambiente della performance si estende al network, come si trasformano concetti naturalmente teatrali quali quelli di “immersività”, “interattività”, “immediatezza” una volta che questi vengono “mediati” da sistemi informatici? E come si traducono quegli stessi media una volta che dai videogame o da una APP per cellulare, trasbordano direttamente sul palcoscenico, diventando parte integrante di un processo drammaturgico, espandendo persino i propri territori fisici? Quando la tendenza generalizzata al gaming di un certo teatro porta dall'”artificazione” materiale di cui parlano Nathalie Heinich e Roberta Shapiro, a una vera e propria strutturazione narrativa teatrale legittimata quanto a valore e statuto? La rilettura suggerita nel libro di Del Gaudio e Amendola di Computer as Theatre di Brenda Laurel e degli studi di Abruzzese può essere un valido punto di partenza per ripensare il teatro al tempo dei new media oltre la generalizzazione spesso proposta in convegni internazionali di “intermediality in Theatre” che hanno portato alla valorizzazione iperbolica e a dir poco arbitraria, di operazioni tecnoteatrali non proprio efficaci.

Come dice Mario Perniola ne L’arte espansa: “Nessuna strategia artistica può fare a meno di una strategia teorica”.

In questo caso l’esaustivo volume (sia come contributi che come bibliografia) ha alcuni riferimenti metodologici chiave negli studi di Manovich, Jenkins, Parrikka, Castells, Hutamo, Bolter-Grusin. Tali studi, uniti a quelli italiani legati alla scuola di Salerno dello stesso Amendola e di Urbino di Boccia Artieri aprono la strada a concetti poco esplorati e poco applicati nell’analisi teatrologica, quali “rimediazione”, “schermologia”, transmedialità, iperconnesione che permettono ai numerosi autori dell’antologia, di analizzare e indagare spettacoli-chiave del “teatro analogico” prima e della digital performance poi (da Ritorno ad Alphaville a Camera astratta a Les AIguilles et l’opium a MDLSX), e di riflettere. oltre la pura prospettiva storica, sull’estetica di alcuni fondamentali registi e interpreti (Marcel.lì Antunez Roca, Wilson, Murgia, Motus, Wooster group, Hubert Westkemper, Dynamis).

La produzione di una “neo drammaturgia digitale” per dirla con il felice termine coniato da Antonio Pizzo, porta a un ibrido di teatro e interattività e teatro e cinema ben visibile negli spettacoli di Wilson, Lepage, Wooster Group, Marcel.li Antunez Roca,  mentre la dinamica del “farsi media” apre il teatro ai network più variegati e a una congenialità con internet e con i suoi effetti virali. 

 

Teatro e immaginari digitali. Saggi di mediologia dello spettacolo multimediale a cura di Alfonso Amendola e Vincenzo Del Gaudio, Gechi editore, 2018, Salerno Milano.

Introduzione. Prolegomeni per una mediologia del teatro di A. Amendola e V. Del Gaudio

Sezione I: Teatri dall’analogico al digitale

“Reinventare” il teatro attraverso il cinema. Punto di rottura del Carrozzone/Magazzini Criminali prod. di Jennifer Malvezzi

Da Peter Cheyney a Falso movimento passando per Godard: Alphaville e il teatro come ipermediazione performativa di Mario Tirino

Esperienze pionieristiche: La camera astratta di G. B. Corsetti e Studio azzurro di Annamaria Sapienza

Memoria di pietra. Performing media: un percorso crossmediale tra videoteatro e radiofonia di Carlo Infante

Les aiguilles et l’opium di Robert Lepage: dall’edizione del 1991 a quella del 2013 (aggiornando il software) di Anna Monteverdi

Sezione II: TEATRI DIGITALI

Exils: elementi di schermologia digitale di Vicnezo Del Gaudio

Il prisma del reale. La scena intermediale secondo Dumb Type e Shiro Takatani di Enrico Pitozzi

Adam’s passion: la drammaturgia musicale di Arvo Part nella drammaturgia della luce di Bob Wilson di Angela di Maso

Per oggi non si cade, un esempio di drammaturgia sonora di Milena Cozzolino

Reverse Theatrofilm, Hamlet del Wooster group (2007-2012) di Fabrizio Deriu

Digitale incarnato. Mediologia di MDLSX di MOTUS di Laura Gemini

2115 di Dynamis: il futuro visto dal passato, nel presente di Renata Savo

Giocare con la tecnologia: Pseudo di Marcel.lì Antunez Roca di Antonio Pizzo

 

 

KONIC THTR a Belgrado con #14 Skyline: quando la (video)danza esplora la vita (e la filosofia).
1059

I Konic di Barcellona ovvero Alain Baumann e Rosa Sanchez tra i protagonisti della scena digitale catalana, hanno esplorato nella loro lunga e importante carriera internazionale, ogni anfratto delle tecnologie e lo hanno depositato con cura amorevole sul palcoscenico dandogli una forma magica e sorprendente, amichevole e insieme profonda. Dall’arte interattiva al videomapping alla telematic dance (di cui sono gli indiscussi fondatori) hanno davvero sperimentato ogni genere di tecnologia, disseminando per il mondo le loro proposte artistiche; non a caso sono tra gli artisti più ricercati per giganteschi progetti transfrontalieri finanziati dall’UE come il famoso progetto IAM che li ha visti coinvolti con il Comune di Alghero nel triennio 2012-2015 in una proposta artistica complessa di realtà aumentata e videomapping per i beni culturali in Libano- Egitto- Palestina e Tunisia. Recentemente il loro telematic project Espai No tàctil ha avuto una rappresentazione fisica a Barcellona con una diretta telematica creativa con Santiago del Cile e Strasburgo. La rete viene intesa da Konic non solo come comunicazione ma come prolungamento creativo dello spettacolo.

Ogni loro lavoro teatrale o di digital art è una riflessione sull’umano e sulla trasformazione dell’individuo grazie alle tecnologie, una trasformazione che può ampliare gli orizzonti in modo smisurato offrendo libere  e insolite prospettive  ma solo se non ci limitiamo a essere “giocati” dalle tecnologie, cioè a subire le manipolazioni della scienza e della tecnologia in atto. Vale la pena ricordare la teorizzazione dei Konic, in epoca di piena euforia di videomapping, sul significato di una “mediaturgia” del mapping

Di ritorno dal Bangladesh dove erano stati invitati per un meeting su Cultural Transformation in Digital Ecosystem a Dhaka, li abbiamo incontrati a luglio al Theatre World Congress  di IFTR a Belgrado dove, dopo una lecture sul loro lavoro all’interno degli affollati General panel, hanno proposto una serata speciale con il loro più recente spettacolo di danza interattiva e network performance #14Skyline .

Lo spettacolo intrattiene con il pubblico una relazione inusuale, quasi rituale: non a caso è la musica, la poesia e il canto ad avvicinare nel prologo, l’orecchio e lo sguardo dello spettatore in modo intimista, quasi sussurrato, facendolo entrare delicatamente nella materia teatrale che si snoda attraverso percorsi astratti, suggestioni visive, frammenti di parole e atmosfere sonore immersive. Tutta la tecnologia è live, gestita, manipolata, ricreata e proiettata dal vivo.

Tre sono le postazioni: una scenografia che si eleva come una torre tronca a vortice fatta d listelle metalliche videomappate alla perfezione all’interno della quale Rosa Sanchez si muove interagendo con suoni e immagini, una seconda con un tavolino dove la performer “opera” davanti a un miniproiettore creando maschere video per il suo volto e una terza è lo spazio di azione di Alain Baumann, presente non solo come “tecnico” ma anche come performer a fotografare, riprendere e manipolare immagini proiettandole sui fondali, cambiando continuamente, appunto lo “skylyne” del palcoscenico con un cellulare.

Ogni momento della performance è rivolta a una  specifica sensorialità, ma è il corpo a “geolocalizzare” le coordinate per una sua immersione creativa (e interattiva) nella totalità spaziale. Lo spettacolo dei Konic sembra incarnare al meglio la nozione di Maurice Merleau-Ponty di “teoria del corpo come teoria della percezione”: la nostra esistenza come esperienza primariamente e incondizionatamente spaziale, che vive, connessa con la sua corporeità, lo spazio-immagine che ci circonda. Le forme, vissute in questo frammento di ispirata danza digitale, uniscono definitivamente l’uomo al suo ambiente. Un vero e proprio “approccio fenomenologico” che permette di ri-tracciare continuamente la realtà adeguandola alle immagini della nostra esperienza ma che si sommano, che si confondono anche con le immagini della nostra coscienza.

Il mondo che percepiamo in questo spettacolo è fatto di rimandi all’arte (dai viluppi delle sculture cubo futuriste di Tatlin, ai frammenti astratti futuristi, fino alla glitch art), ma il vero tema è proprio il legame tra coscienza e realtà che ci circonda. Lo spettacolo sembra suggerire come potrebbe diventare la città e il suo “skyline”,  videomappandola con il nostro occhio interiore, sovrapponendola a strati di colorate piazze abitate e vissute, scannerizzando non solo la superficie fisica degli edifici ma anche la nostra memoria, la nostra interiorità psicologica.

La traccia-guida, che è poi il tema portante dello spettacolo, è appunto il magnifico prologo di Rosa Sanchez che invita a “sentire” l’inaudibile, dare forma a pensieri, un momento che è anche un omaggio alla migliore arte d’avanguardia. La danza capta l’invisibile, i sensori colgono aneliti di trasformazione, generando immagini e identità multiple e il nostro volto indossa volontariamente maschere di ciò che siamo o che vorremmo essere, facendoci diventare, nell‘instagrammismo dei nostri tempi, immagini-filtro ovvero magnifici zombie digitali. Il teatro è uno spazio sensoriale frammentato e insieme uno spazio di connessione condivisa, uno skyline digitale che ci contiene con tutti i nostri desideri, sogni, passioni.

Uno spettacolo #14 Skyline di grande forza espressiva e di grande pregnanza concettuale, un concentrato di tutte le tecnologie – quelle che oggi, come ben sappiamo, stanno in qualche APP del nostro cellulare- dove però si insinua il fondamentale messaggio che, in un mondo che vive costantemente sugli schermi,  l’arte (e la vita) stiano piuttosto, nello spazio liminale dell’errore, della latenza, dell’imperfezione, esattamente ciò che la macchina non può e non sa programmare.

Anna Maria Monteverdi

Prossimi appuntamenti in cui sarà possibile vedere #14Skyline:

7 SEPTEMBER : 4th ‘Jornadas Escena Digital’. Barcelona. Spain

28 SEPTEMBER : XV Int. Festival VIDEOMOVIMIENTO / Cuerpo Multimedia. Bogota. Colombia

20 OCTOBER : Festival IDN+ / Mercat de les Flors. Extended version. Barcelona.

 

Anna Colafiglio: “Attori e alter ego digitali: riflessioni attraverso la lente delle masques technologiques”.
1035

Anna Colafiglio

“Attori e alter ego digitali: riflessioni attraverso la lente delle masques technologiques”.

Il dibattito sul tema del doppio digitale dell’uomo è, al giorno d’oggi, quanto mai attuale. La nuova società digitale che si è sviluppata sulle piattaforme web costituisce, di fatto, una realtà parallela in cui ognuno è attore e attante di una vita ‘altra’ che esiste a tutti gli effetti, sebbene sia collocabile su un diverso piano rispetto a quello della realtà fisica. La costruzione del proprio personaggio virtuale implica una teatralità di fondo, insita nella possibilità di ‘costruirsi’ e ‘rendersi percepibili’ su un piano differente rispetto a quello strettamente concreto ed empiricamente osservabile.

Come afferma Brunella Eruli, «désormais les média nous proposent un univers où l’image n’est pas, n’est plus, la “rèproduction” de la réalité: elle “est” la réalité»[1]. Di questo aspetto parla anche Philip Auslander, il quale sostiene che il valore della presenza del performer dal vivo sia stato svalutato dall’odierna cultura mediatizzata: «when we go to a concert employing a large video screen, for instance, what do we look at? Do we concentrate our attention on the live bodies or are our eyes drawn to the screen, as Benjamin’s postulate of our desire for proximity would predict?» [2].

Lasciando da parte, in questa sede, le ricadute socio-antropologiche che questo cambiamento strutturale comporta, ci si concentrerà sulle modalità attraverso cui la realtà digitale è giunta a permeare il ramo delle arti performative, la cui storia, sin dalle origini, incontra spesso il tema del doppio dell’attore – il quale è già, egli stesso, un doppio dell’uomo da cui è agito –. Steve Dixon parla di enhanced theatre per definire quell’esperienza teatrale ‘aumentata’ dall’uso delle tecnologie in scena, che amplificano gli aspetti peculiari del medium teatrale[3]; Steve Benford e Gabriella Giannachi definiscono mixed reality performances quelle tendenze performative che uniscono reale e virtuale, spettacolo dal vivo e interazione uomo-tecnologia[4]. Ricercatori attivi in campo teatrale, artisti digitali e programmatori si interrogano con interesse sempre maggiore su quali possano essere le interazioni tra la realtà e gli universi digitali, mondi a sé stanti moltiplicabili all’infinito e in infinite forme. Il teatro e le arti performative tutte riflettono, in particolare, sull’impatto che queste realtà ‘altre’ possono avere sulla percezione scenica, sulla professione dell’attore, sulle possibilità della messa in scena e sulla fruizione del pubblico.

Tra le declinazioni che questa contaminazione può assumere, quella del doppio virtuale dell’attore, inteso come avatar animato attraverso un sistema di Motion Capture[5] e che si muove in un universo digitalmente costruito, ha sicuramente un impatto molto significativo sui principali aspetti della performance dal vivo. Il performer è vestito di una tuta aderente con dei marcatori di movimento, che ne condiziona l’azione, ed è chiamato ad assumere il controllo di un corpo virtuale la cui esistenza implica l’impiego di due piani spaziali: quello reale e quello virtuale, che è un mondo del tutto differente. Uno dei primi terreni d’impiego della MoCap è stato il settore della danza contemporanea[6]. Come sostiene Antonio Pizzo, nella performance del danzatore il corpo è spogliato dalla componente narrativa che caratterizza, invece, l’azione dell’attore nel teatro, nel cinema e nel gaming; egli può dunque puntare all’espressività e alla rappresentazione della volumetria del corpo[7]. Nel caso dell’attore, il mezzo pone una serie di problemi in più; attualmente, la MoCap è utilizzata nei contesti di cinema e gaming molto più che nella performance teatrale. Ripercorrendo alcune esperienze di ricerca a livello nazionale e internazionale, si analizzeranno degli esempi di applicazione di questa tecnologia al lavoro dell’attore e del regista, insieme ad alcune possibilità drammaturgiche che hanno trovato spazio in seguito a queste sperimentazioni.

Gli studi di Matt Delbridge, che si concentrano principalmente sull’attore cinematografico, evidenziano la complessità della relazione tra l’attore e il suo avatar virtuale, le cui criticità si legano, in particolar modo, al controllo di un movimento che ha luogo in uno spazio diverso da quello in cui, concretamente, l’interprete si muove. Spesso gli ambienti di cattura sono asettici, privi di riferimenti spaziali e di contesto, privi di ingombri e oggetti di scena; questo sistema richiede un nuovo tipo di approccio alla performance, e afferma la necessità di una formazione specifica che vada a ridefinire il concetto stesso di presenza nello spazio. Sottolineando questa stessa problematica,

Daniel Kade sostiene che la qualità della performance degli attori MoCap dipenda molto dalla capacità di questi ultimi di immaginare la scena in cui stanno recitando, e di immedesimarsi nel ruolo che sono chiamati a interpretare[8]. L’analisi di Kade parte da una serie di questionari consegnati ad attori e registi MoCap di diversa formazione, da cui emerge un quadro interessante circa le circostanze di lavoro e le esigenze degli uni e degli altri. Per migliorare la propria performance, gli attori segnalano la necessità di un’evoluzione della pratica verso una maggiore disponibilità di riferimenti visivi, oggetti e ingombri di scena, costumi; affermano inoltre il bisogno di ricevere più dati possibili riguardo i personaggi, l’ambiente in cui si muovono e la sua collocazione temporale, informazioni cui non sempre possono accedere con facilità. Dai questionari consegnati ai registi, sono invece emerse le caratteristiche principali di cui un attore MoCap deve essere provvisto: creativo e dotato di grande capacità immaginativa, egli deve essere in grado di esprimere la propria emozionalità attraverso una gestualità chiara e pulita, limitando al massimo il ricorso alla mimica facciale. Quest’ultima infatti, come si vedrà, può costituire un vincolo per la cattura del movimento, poiché riduce considerevolmente l’espressività corporea diventando il veicolo semantico preponderante dell’emozionalità dell’interprete.

Anche David Cage, fondatore dell’azienda di videogiochi Quantic Dream, si esprime sulla particolarità della recitazione in un ambiente MoCap paragonandola all’esperienza dell’attore in quello che chiama minimalist theatre[9]: qui la performance avviene su un palcoscenico completamente vuoto, che costringe il performer a un notevole sforzo di immaginazione. In questa situazione, la figura del regista risulta fondamentale al fine di contestualizzare ciascuna azione.

John Dower, regista di performance MoCap soprattutto nell’ambito del gaming, afferma:

“Io ero autorizzato ad avere l’intero script di tutte le scene, ed era circa cento pagine. Gli attori, al contrario, non potevano averlo; veniva data loro solo la singola scena da girare il giorno seguente, o addirittura lo stesso giorno. Ciò accade perché le produzioni sono molto preoccupate che possano trapelare informazioni sulla storia. […] Quindi [l’interprete] deve essere in grado di comprendere rapidamente la situazione e, in pochi minuti, realizzare ciò di cui ha bisogno di sapere al fine di eseguire efficacemente le sue azioni. Puoi immaginare come reagirebbe un attore tradizionale se gli dessi la scena, magari anche abbastanza lunga, solo mezz’ora prima di eseguirla. […] In più, l’attore si trova in uno studio che non somiglia a nessun altro posto dove probabilmente ha già lavorato e possono mancargli gli elementi dai quali aveva imparato a trarre le proprie indicazioni, i propri riferimenti per la creazione del personaggio.[10]

Dower ha lavorato a lungo nel mondo del gaming, fino a sentire l’esigenza di fondare, insieme all’attore Oliver Hollis-Leick, la scuola The Mocap Vaults[11]: attiva tra Londra e Los Angeles, è uno dei principali centri di formazione per registi, attori e animatori che operano, a vario titolo, nell’industria della MoCap. A proposito delle tecniche attoriali, Dower afferma la necessità di una formazione di tipo teatrale per gli attori che si avvicinano alla MoCap: l’attore teatrale è infatti pienamente consapevole della propria presenza, della propria fisicità e di come questa entri in relazione con il pubblico[12]. Lo stesso Oliver Hollis-Leick, attore MoCap di grande esperienza, conferma questa visione, affermando che gli attori cinematografici tendono ad apparire molto rigidi nella loro trasposizione virtuale, in quanto abituati a utilizzare molto la mimica facciale nella loro pratica recitativa; gli attori di teatro, invece, sono spesso più inclini all’uso dell’intero corpo, poiché hanno necessità di rendere il loro movimento percepibile anche dagli spettatori più lontani dal palcoscenico.

I think people often underestimate the ability of motion capture to detect falseness. Any hesitation, tension or discomfort is immediately read by the technology and will look out of place. The hardest thing about motion capture is the rawness of it. On a movie set, you’ve got costume, props, and other actors around you, you know exactly where the camera is and you know what kind of size of shot it is and you can just perform. In motion capture, you have a bare warehouse-like set with no props, no costumes, sometimes you have no other actors in the room and you don’t necessarily even know where the camera is.[13]

La dimensione fortemente teatrale della performance MoCap è alla base del concetto di Performance Capture introdotto da Matt Delbridge, con il quale si identifica una pratica che va oltre la semplice cattura del movimento ‘fisico’, abbracciando una visione più ampia e completa della performance attoriale inclusiva della sfera emozionale e semantica del movimento stesso[14]; essa comprende dunque l’azione di tutte le figure creative e tecniche che concorrono alla creazione dell’avatar e del suo universo digitale. Delbridge utilizza proprio lo spazio teatrale per mettere in atto diverse sperimentazioni che riguardano il movimento dell’attore e la sua relazione con i piani ‘altri’ in cui il suo avatar si muove[15]: attraverso il coinvolgimento di attori e performer di differente formazione, Delbridge cerca di risolvere il problema dell’asetticità dello spazio recitativo in cui la cattura del movimento avviene, dando ai partecipanti la possibilità di vedere di fronte a sé l’avatar posizionato sul palcoscenico di un teatro virtuale. In questo modo, l’attore può migliorare la percezione di sé e delle proprie azioni, attraverso la messa in campo di una relazione uomo-ambiente che sarebbe impossibile trovare nel solo luogo dell’azione reale. L’approccio alla materia di Delbridge è diametralmente opposto a quello di John Dower e The Mocap Vaults: Dower afferma, infatti, la necessità di nascondere, agli occhi dell’attore, qualsiasi monitor in cui questi possa vedere il riflesso di se stesso, per evitare che si concentri sul proprio aspetto più che sulla propria performance.

In ambito italiano, sono pochissimi i casi in cui la tecnologia MoCap è stata applicata al teatro; tra questi, figura senza dubbio l’Ubu Incatenato di Fortebraccio Teatro (2005)[16] [inserire fig.1: Fortebraccio Teatro, Ubu Incatenato, regia di Roberto Latini, 2005. Foto di Cristiano Colangelo]. Qui Roberto Latini veste i panni di Ubu indossando un esoscheletro che lo incatena e ne capta il movimento, creando un avatar proiettato in un universo virtuale; è «il cyber-attore cablato, il cyborg miscela di organico, mitologico e tecnologico [che] assume i connotati della Supermarionetta profetizzata da Gordon Craig, dell’attore-architettura ambulante di Oskar Schlemmer e infine dell’attore biomeccanico mejercholdiano»[17].

Fortebraccio Teatro, Ubu Incatenato, regia di Roberto Latini, 2005. Foto di Cristiano Colangelo].

Tutto l’esoscheletro è immaginabile come un microfono del corpo che lo amplifica e lo rende altrimenti visibile e mutabile, lo moltiplica, lo reinventa anche graficamente […]. Tutti [i personaggi] possono essere animati, interpretati, attraversati da un solo attore. Come fosse il marionettista di se stesso, come fosse contemporaneamente il proprio suo autore, infine, dipendente solo da stesso. […] L’attore sul palco è assistito da un informatico che nella scenografia realizzata è posto sotto al palcoscenico, come se fosse nella baracca del burattinaio.[18] L’Ubu Incatenato si chiude con l’esoscheletro appeso al centro della scena, inerme; una carcassa che, privata dell’attore, non può portare avanti lo spettacolo.

Si evince come il palcoscenico teatrale ponga delle questioni assolutamente differenti da quelle dell’ambiente di cattura impiegato in ambito cinematografico o del gaming. Andrea Brogi, artista digitale fondatore di XLab  parla del rapporto tra la tecnologia e l’attore nella performance teatrale, rilevando degli elementi che si collocano agli antipodi di quanto detto finora:

Quando lo spettacolo va in scena l’attore conosce alla perfezione lo spazio che lo circonda, è effettivamente come un abito di scena che gli è stato cucito addosso, in cui si deve sentire a suo agio e di cui deve avere la piena padronanza. […] La mia attenzione si è sempre concentrata sulle necessità espressive dell’attore in modo da far diventare l’ambiente virtuale una sorta di estensione del suo corpo e della sua gestualità. Prima quindi si progetta l’aspetto interattivo che l’attore deve avere con la scena, dopodiché si scelgono le tecnologie adatte e si inizia la fase di sperimentazione con l’attore.[19]

Nelle parole dei registi e degli artisti digitali che lavorano per il teatro, torna di frequente il concetto di tecnologia come estensione del corpo dell’attore, che influisce radicalmente sulla creazione e sul suo modo di stare in scena[20].

Sul piano della ricerca in area nazionale, si segnala il lavoro svolto nell’ambito del Master in Animazione 3D Autodesk Maya e Compositing dell’Università La Sapienza di Roma[21]. In collaborazione con il Centro Teatro Ateneo, il Laboratorio di Biomeccanica dell’Università di Roma Foro Italico e The Pool Factory[22], l’équipe, composta da Maria Grazia Berlangieri, Flaviano Pizzardi, Ferruccio Marotti, Aurelio Cappozzo e Mounir Zok, ha messo in campo un gruppo di studio sulla relazione tra tecniche attoriali e animazione 3D in tempo reale[23]. Dopo diversi esperimenti con attori di provenienza cinematografica e teatrale in senso lato, la cui cattura del movimento è risultata funzionale ma poco espressiva, nel 2010 l’équipe ha iniziato a lavorare con attori di Commedia dell’Arte, il cui intervento si è rivelato molto efficace: formati attraverso un determinato training psicofisico e abituati ad agire su palcoscenici semivuoti, con una maschera sul volto a privarli della mimica facciale, essi sono stati in grado di infondere una maggiore espressività all’avatar virtuale. Per evitare che l’attenzione degli attori si focalizzasse troppo sulle novità tecnologiche peculiari dell’ambiente di cattura MoCap, i canovacci sono stati sostituiti da nuove drammaturgie, riportando l’attenzione sul testo e sugli elementi più tradizionali del lavoro d’attore. Gli interpreti hanno rilevato un’amplificazione del proprio immaginario attoriale, come reazione allo straniamento dato da quel set così privo di riferimenti spaziali, di luci, di pubblico, di punto di vista: «si tratta di estrema libertà, ma non avere paletti per un attore è, non dico rischioso, ma qualcosa che certamente disorienta e spiazza»[24].

Sul piano della tecnologia utilizzata come espediente formativo per l’attore è intervenuto Massimo Bergamasco, direttore del TECIP – Istituto di Tecnologie della Comunicazione, dell’Informazione e della Percezione della Scuola Superiore Sant’Anna di Pisa[25], nell’ambito del convegno internazionale di studi Masques technologiques – Altérités hybrides de la scène contemporaine[26]. L’intervento di Bergamasco ha presentato i risultati delle ricerche attualmente in corso presso il centro di eccellenza, che opera nel duplice ambito della robotica indossabile a fini riabilitativi e dello sviluppo di hardware e software per ambienti virtuali immersivi e realtà aumentata. Nel corso degli anni, l’Istituto si è confrontato con le arti performative in diverse occasioni. All’interno del progetto europeo Beaming[27] sul teletrasporto virtuale, due nuclei di attori presenti a Londra e Barcellona, dotati di caschi immersivi, si sono incontrati all’interno di un unico ambiente virtuale; un regista ha interagito con loro pur trovandosi in un terzo ambiente fisico, lontano da entrambi i gruppi, dando prova concreta del fenomeno chiamato immersive telepresence. Nel luglio 2017, in occasione della III edizione fiorentina del META – Meeting of European Theatre Academies, l’Istituto TECIP e il PERCRO – Laboratorio di Robotica Percettiva hanno collaborato con l’Accademia Teatrale di Firenze in occasione del workshop Realtà virtuale applicata alla pedagogia teatrale e alle arti performative[28], incentrato sui sistemi di formazione attoriale e registica basati sull’utilizzo di tecnologie quali sistemi di visualizzazione immersiva e di rilevamento motorio, sfruttando il valore trasformazionale degli ambienti virtuali per cambiare l’esperienza percettiva del performer e ottenere specifici risultati sulla scena.

Massimo Bergamasco

La riflessione messa in atto dal convegno parigino Masques technologiques ha avuto il merito di ampliare il dibattito sul doppio virtuale alla sua applicazione sul palcoscenico. La relazione con la MoCap è stata analizzata dal punto di vista del performer, del regista e del formatore teatrale, sottolineando le modalità attraverso cui l’utilizzo di questa tecnologia può diventare un espediente drammaturgico per la scena e interagire con la realtà fisica. Hanno partecipato alle giornate di studio professionisti provenienti da diversi ambiti disciplinari: ricercatori attivi nel campo degli studi teatrali, registi, attori, artisti digitali e programmatori. L’incontro tra queste professionalità ha messo in campo una serie di riflessioni a tutto tondo sull’utilizzo delle nuove tecnologie applicate a una forma di recitazione e creazione che, per molti versi, ha a che fare con la teatralità più classica: quella che vede l’attore relazionarsi con la maschera che porta sul volto e che, dunque, abita in certo modo il suo corpo. Partendo da una panoramica relativa all’utilizzo della maschera tra XIX e XX secolo, realizzata da Guy Freixe dell’Université de Besançon[29], si è giunti all’analisi di quella che, a oggi, è la relazione tra l’attore e il suo doppio, delle modalità di interazione tra il performer in scena e il suo alter ego digitale, della nuova dimensione spaziale che questa dualità scenica e interpretativa comporta. L’oggetto-maschera, privando l’attore della propria mimica facciale, lo spinge a cercare un codice espressivo che si caratterizza per movenze tipizzate e stilemi archetipici, imponendo al corpo dell’attore una determinata codificazione e una pulizia di movimento che, come si è visto, sono centrali anche nei processi di acquisizione del movimento propri della MoCap. Capace di trasformare il corpo in un ibrido che trascende l’umano, la maschera viene qui a rappresentare l’essenza stessa del teatro, che di per sé è luogo di trasfigurazione del reale, di ‘realtà aumentata’; costituisce una forma di alterità paragonabile all’approccio messo in campo dalle tecnologie digitali e dall’utilizzo del doppio in forma di avatar. Ci si chiede se, al giorno d’oggi, le tecnologie digitali possano essere percepite e utilizzate come vere e proprie maschere contemporanee: risoluzione che porta con sé la necessità di appellarsi ad appositi codici interpretativi, approcci al materiale scenico e percorsi di formazione attoriale mirati a questa modalità di creazione e azione, vero e proprio ‘moltiplicatore di realtà’.

Duccio Bellugi, storico attore del Théâtre du Soleil, ha affermato di utilizzare le stesse tecniche della recitazione con maschera nel dare vita all’avatar digitale; ha così lasciato spazio alla tecnologia, mettendo in secondo piano l’uomo-attore. «Spesso – ha affermato Bellugi ­– si pensa alla maschera come a un oggetto che riguarda solo il volto dell’attore, ma questo è un errore: nella recitazione con maschera è tutto il corpo a essere messo in gioco»[30]. La grammatica gestuale della maschera aiuta l’attore ad allontanarsi da un approccio realistico alla recitazione; è dunque un ausilio sostanziale alla sua relazione con il mezzo tecnologico.

Avviato nel 2015, il progetto di ricerca e creazione Masques et Avatars indaga la presenza dell’attore all’interno di una scena ‘aumentata’ da dispositivi digitali, in questo caso rappresentati dalla tecnologia MoCap. Come ha evidenziato Erica Magris, che con il suo intervento ha condotto la discussione alle radici della ricerca intrapresa nell’ambito del progetto, l’impatto che le tecnologie hanno sulla performance attoriale è evidente. Proprio questa riflessione ha condotto l’équipe a un’approfondita analisi delle dinamiche dello stare in scena dell’interprete; la maschera, da subito, si è configurata come un dispositivo ottimale per avvicinarsi a questo concetto di attore tecnologicamente aumentato. L’analisi di Erica Magris ha evidenziato come l’impiego della ‘maschera tecnologica’ sulla scena, nelle sue diverse declinazioni, influenzi profondamente la performance dell’attore. La differenza più grande che sussiste tra la maschera teatrale e quella tecnologica parte proprio dalla soggettività dell’attore: se la prima è un oggetto immobile che si applica al corpo e ‘vive’ grazie all’azione dell’interprete, quella tecnologica è un dispositivo che si configura come il risultato di una serie di elementi, il cui funzionamento e la cui resa scenica sono determinati dall’azione multipla e congiunta di più soggetti coinvolti. Il corpo dell’attore è così mediatizzato: i dispositivi tecnologici lavorano sulla sua immagine, riducendo le azioni in dati che possono essere manipolati e rielaborati all’infinito e che giungono, spesso, a distaccarsi radicalmente dall’attore, dal suo corpo e dalla sua influenza di essere vivente. L’attore spesso innesca dei fenomeni, ma il modo in cui il suo movimento è trattato in postproduzione dipende dal sistema complessivo di lavoro; egli diviene dunque uno strumento, sezione di un meccanismo che prescinde, in ampia parte, dalla sua azione.

Con l’intervento L’altérité en scène: masques et doubles numériques de l’acteur, Giulia Filacanapa ha proposto una cronistoria dei punti di partenza e di arrivo della ricerca condotta nel corso del triennio, e qui giunta a conclusione con la presentazione di tre diversi esiti scenici, in cui attori mascherati hanno animato degli avatar virtuali[31]. Partendo da alcuni interrogativi fondamentali – in che modo l’attore mascherato e colui che anima l’avatar vivono la metamorfosi? Quali sono i parallelismi tra queste due tipologie di alterità? –, il gruppo di lavoro ha adottato da subito un approccio pratico alla ricerca e ha elaborato un dizionario di neologismi: l’attore in tuta MoCap[32] è diventato, così, mocapteur, ed è emersa una nuova figura, fondamentale per la resa finale, che è quella del manipulacteur. Quest’ultimo assume il controllo in tempo reale della presenza dell’avatar nello spazio, tramite un joystick molto simile a quello adoperato nei videogiochi. Alle figure del mocapteur e del manipulacteur si aggiungono quella dell’artista digitale, che crea lo spazio e il personaggio virtuale, e quella del regista. Il ruolo di quest’ultimo assume, in questo contesto, una complessità differente: egli deve infatti dirigere l’attore in carne e ossa partendo dallo specchio del suo movimento sull’avatar digitale; deve cercare, dunque, il mezzo affinché la resa finale dell’avatar corrisponda alle esigenze della scena, interrogandosi costantemente sui destinatari delle proprie indicazioni e dirigendo l’équipe secondo un’estetica coerente con il progetto di messa in scena.

Dal punto di vista spaziale, il mocapteur si muove su tre aree differenti: lo spazio fisico, nel quale il suo corpo ‘reale’ agisce; lo spazio virtuale, che spesso è caratterizzato da una maggiore connotazione scenica, e dunque drammaturgica, nel quale si muove l’avatar; lo spazio ‘drammatico-fisico’, a metà tra i due, nel quale si trova l’attore nel momento in cui anima un avatar o un personaggio. Il mocapteur deve, così, abitare uno spazio al confine tra realtà differenti, in cui la plausibilità dell’azione dipende dalla sua capacità di proiettare l’azione stessa in uno spazio ‘altro’, spesso preoccupandosi, al contempo, della credibilità ed efficacia del suo personaggio nello spazio reale.

La plausibilità espressiva dell’avatar è stata, da subito, uno dei punti focali per l’équipe di ricerca. Il miglioramento portato all’espressività dell’avatar dalla presenza della maschera sul volto dell’attore MoCap, è stato rilevato anche dal programmatore Cédric Plessiet, che ha sottolineato una variabile di contesto nella percezione del gesto attoriale: se in teatro questo è visto come un’azione intenzionale portatrice di significato, per l’animatore 3D è null’altro che un dato trasmesso al sistema. La maschera può essere un valido ausilio in questo senso poiché, facendo appello a una grammatica codificata del movimento, aiuta l’attore a rendere il suo gesto informaticamente più leggibile. Per chiarire questo nodo teorico, Plessiet ha citato il metodo attoriale di Andy Serkis: egli non recita mascherato, ma ha una tale padronanza della MoCap da rendere il dato del suo movimento perfettamente decifrabile dai suoi sviluppatori. Oggi, fuori dalle dinamiche delle grandi produzioni cinematografiche, questa è una situazione molto difficile da replicare, sia perché l’attore teatrale ha una minore dimestichezza con il mezzo tecnologico, sia perché, a livello economico, l’impiego di mezzi e risorse umane è di gran lunga inferiore.

Il regista e ricercatore Georges Gagneré, che da tempo si occupa dell’applicazione del digitale in teatro, ha lavorato con Plessiet nel corso del progetto di ricerca. Izabella Pluta ha analizzato la relazione tra queste due professionalità, che presenta numerosi punti critici derivanti da una lontananza di approcci e di vedute destinate, tuttavia, a convergere in nome di un risultato. La collaborazione tra i due settori ha permesso di generare una grande consapevolezza dei reciproci campi di analisi; le esigenze dell’attore sono sempre state al centro della ricerca, e i codici di programmazione sono stati scritti in funzione di quelli che gli attori e gli altri utilizzatori avevano definito come necessità legate alla performance. Gagneré ha sintetizzato così la fruttuosa collaborazione avuta con Plessiet nel corso del progetto:

“Ho chiesto a Cédric di costruirmi una prima piattaforma di manipolazione dell’avatar e di insegnarmi degli elementi che, a un certo punto, sarei stato in grado di gestire da solo, senza fargli delle domande semplicistiche o dovute al fatto che non mi ero preso la responsabilità di formarmi un minimo al suo linguaggio. Ci sono delle cose che non sapevo fare, e che non saprò mai fare; d’altra parte, ci sono cose di cui potevo iniziare ad appropriarmi, per esistere nel mondo di Cédric in totale complementarietà, ma mantenendo comunque un’indipendenza”.

Rémy Sohier, che lavora nel campo del gaming, si è occupato di costruire la scenografia virtuale per le performance afferenti al progetto. Ha sottolineato la complessità di creare una composizione scenografica per l’attore teatrale aumentato e di posizionarlo nella scena virtuale; i riferimenti cinematografici e fotografici con i quali opera abitualmente, si sono rivelati inadeguati alla condizione ibrida del teatro, in cui due realtà – quella fisica e quella virtuale – devono entrare in relazione.

Come ha sottolineato il regista e attore Boris Dymny, l’ambiente in cui l’avatar si muove, seppur bidimensionale, è basato sulle regole del 3D: nella costruzione dello spazio, gli artisti digitali ragionano infatti in termini tridimensionali – dove posizionare la camera, come strutturare il campo visivo in relazione al personaggio –. Nello spazio virtuale, la terza dimensione è data dal fatto che la camera può girare a trecentosessanta gradi attorno al personaggio, dando così un risultato in termini di tridimensionalità; è estremamente difficile trovare dei codici recitativi che possano funzionare allo stesso modo sia nello spazio reale a tre dimensioni, sia in uno spazio, di fatto, bidimensionale.

Il progetto Masques et Avatars ha concluso la ricerca con la messa a punto di tre esiti scenici, basati sulle sperimentazioni realizzate durante il percorso. Con una maggiore coscienza tecnico-pratica da parte dei registi e degli attori, e con una rinnovata attenzione verso la scena da parte dei programmatori, è iniziato il lavoro sulla creazione. In tutti e tre i casi la tecnologia MoCap è stata utilizzata come espediente drammaturgico, con diverse modalità e diversi esiti. Le équipe hanno lavorato su avatar preesistenti, piuttosto statici e dalla configurazione molto semplice; il lavoro congiunto del mocapteur e del manipulacteur ha permesso di dar loro una maggiore presenza rendendoli scenicamente più efficaci – fermi restando i limiti imposti dalla tecnologia utilizzata, che hanno determinato una scarsa efficacia dell’azione in tempo reale e reso il lavoro degli attori piuttosto complicato –.

In Agamemnon Redux[33], Andy Lavender ha effettuato un lavoro sullo sguardo e sullo scarto di prossimità tra le attrici in scena e gli avatar nello spazio virtuale, luogo in cui avviene tutta l’azione scenica

Agamemnon Redux, regia di Andy Lavender, produzione Labex Arts H2H, 2017. Foto di Mélie Perrin Néel

Le due attrici, che vediamo agire sul palcoscenico con maschere balinesi sul volto, non hanno altro ruolo che quello di dare il movimento agli avatar in tempo reale: esse agiscono i personaggi ora guardando l’azione che avviene sullo schermo, ora stando di fronte al pubblico. Andy Lavender, docente presso la University of Warwick[34], ha evidenziato il paradosso cui è sottoposto il corpo umano nel momento in cui viene trasfigurato dall’oggetto-maschera o dalla tecnologia MoCap: entrambi i dispositivi giungono alla performance attraverso un processo di dissimulazione, poiché chiarificano il movimento e definiscono l’azione attraverso la negazione del corpo o del viso dell’attore. Per Agamemnon, Lavender ha adottato un approccio aderente ai principi della maschera: una cattura del movimento teatralizzata, in cui l’attore è in scena e crea l’avatar in tempo reale, rendendo lo spettatore cosciente dei mezzi con cui l’avatar stesso è realizzato. Gli avatar di Lavender non interagiscono con gli attori, ma sono da essi diretti come se fossero marionette; la loro gestualità è dunque evocativa, tratteggiata, mai realistica.

In La vie en rose. De la clinique à l’éternité[35], Giulia Filacanapa ha utilizzato la scena virtuale come luogo del ricordo, simbolo di uno spazio mentale ‘altro’ rispetto all’azione drammaturgica che ha luogo sulla scena

La vie en rose. De la clinique à l’éternité, regia di Giulia Filacanapa, produzione Labex Arts H2H, 2017. Foto di Mélie Perrin Néel

Gli attori, che indossano maschere in cuoio, interpretano dei personaggi sul palcoscenico e, al contempo, muovono gli avatar presenti nello spazio virtuale, luogo del pensiero di un malato di alzheimer che interagisce con le immagini prodotte dalla propria mente. La sincronizzazione dell’attore con il sistema MoCap avviene in scena: l’artificio svelato è parte integrante dello spettacolo.

Nella terza restituzione, La psychanalyse augmentée[36], la scena virtuale rappresenta il luogo dell’inconscio del protagonista, che ricorda episodi della sua infanzia durante una seduta di psicanalisi. In questo caso, i due protagonisti sono al centro della scena, rivolti verso il pubblico, mentre sui due lati, fuori dai riflettori, altri attori animano gli avatar digitali; la scena virtuale rappresenta un altro piano di rappresentazione rispetto alla scena fisica, e non interagisce con essa.

Le esperienze riportate dagli attori convolti nel progetto Masques et Avatars sono significative, soprattutto se comparate al punto di vista dei programmatori informatici che ne hanno seguito le diverse tappe nella creazione. Léandre Ruiz ha rilevato la necessità, per l’attore, di rinegoziare il proprio linguaggio espressivo e percettivo nella relazione con l’avatar virtuale, il quale è frutto di una responsabilità condivisa assai nuova per l’interprete; questi elementi di novità implicherebbero l’esigenza di seguire percorsi di formazione finalizzati all’acquisizione di nuovi strumenti espressivi. Cercare un ‘respiro’ comune a quello dell’avatar è risultato, per gli attori, molto difficoltoso: come confermato dal programmatore Cédric Plessiet, l’avatar virtuale, a causa di fattori principalmente derivanti da tecniche di calcolo, possiede un ritmo ‘vitale’ più lento rispetto a quello dell’interprete. Questa differenza crea uno scarto complicato da gestire, che determina impazienza tanto nell’attore quanto nel regista, riducendo la plausibilità dell’avatar agli occhi del pubblico.

Plessiet, da tempo impegnato nella definizione delle possibilità di autonomia dei personaggi virtuali, ha ipotizzato che la plausibilità dell’avatar possa dipendere dalla sua capacità di generare movimenti in autonomia, partendo dalla respirazione – il che potrebbe comportare non poche, ulteriori criticità nella relazione con l’interprete –. Oggi, dal punto di vista della programmazione, quanto c’è di più vicino all’autonomia è l’effetto creato dall’animazione comportamentale, sempre più diffusa anche nel campo del gaming: una simulazione basata su una serie di algoritmi genetici e reti neurali ‘istruite’. Plessiet ha operato una differenziazione tra il Golem, inteso come robot, che agisce autonomamente in seguito a un input esterno, e l’attore, che agisce invece grazie a un’intenzionalità e a un movimento che provengono da sé; l’obiettivo dei programmatori consiste nel far raggiungere al personaggio virtuale lo stesso status dell’attore, rendendolo a sua volta autore autonomo della propria intenzione e della propria azione. Anche l’artista digitale Jean-François Jégo, del laboratorio INRéV – Images Numériques et Réalité Virtuelle, si è interrogato sulle possibilità di autonomia per l’attore digitale: essa crea un’illusione di realtà che induce alla risoluzione per cui, se un personaggio è autonomo, allora questi è potenzialmente vivo, interrogando la possibile empatia o simpatia che si prova nei suoi confronti.

Si potrebbe ragionare molto sulla questione dell’autonomia dei personaggi virtuali, ma gli artisti digitali intervenuti sono stati concordi nell’affermare che, per ottenere un risultato ottimale, sarebbe necessario che ricercatori, programmatori e animatori collaborassero con gli attori al fine di ‘creare’ le capacità dell’attore virtuale, istruendo una specifica rete neurale. Nell’improvvisazione di due attori che recitano con maschera, non si sa quello che essi si diranno, ma si sa che entrambi resteranno sicuramente nella linea del proprio personaggio; ed è proprio in questa nozione di ‘personaggio’ che risiede una pista possibile per la creazione dell’attore virtuale autonomo.

 

Tag: motion capture, avatar, maschera, attore, teatro, performance, tecnologia, digitale, corpo

[1] B. Eruli, ‘Le silence des sirènes’, Puck. La marionnette et les autres arts. Images virtuelles, n. 9, 1996, p. 9.

[2] P. Auslander, Liveness. Performance in a Mediatized Culture, London-New York, Routledge, 2008, II ed., p. 42.

[3] Cfr. S. Dixon, Digital Performance. A History of New Media in Theater, Dance, Performance Art, and Installation, Cambridge-London, The MIT Press, 2007.

[4] Cfr. S. Benford, G. Giannachi, Performing Mixed Reality, Cambridge-London, The MIT Press, 2011; cfr. inoltre S. Broadhurst, J. Machon (edited by), Performance and Technology. Practices of Virtual Embodiment and Interactivity, London, Palgrave-Macmillan, 2011.

[5] Da ora in poi MoCap.

[6] Sull’uso della MoCap in scena hanno lavorato coreografi del calibro di Merce Cunningham, William Forsythe, Bill T. Jones, Trisha Brown, spesso in collaborazione con l’artista digitale Paul Kaiser. Per approfondimenti, cfr. in particolare M. Cunningham, Il danzatore e la danza. Colloqui con Jacqueline Lesschaeve, Torino, EDT, 1990; A. Menicacci, E. Quinz (a cura di), La scena digitale. Nuovi media per la danza, Venezia, Marsilio, 2001; E. Manning, Relationscapes. Movement, Art, Philosophy, Cambridge-London, The MIT Press, 2009; F. Mazzocchi, A. Pizzo, A. Pontremoli (a cura di), Danza, media digitali, interattività, Acireale, Bonanno, 2012; S. Portanova, Moving without a body. Digital Philosophy and Choreographic Thoughts, Cambridge-London, The MIT Press, 2013; N. Salazar Sutil, Motion and Representation. The Language of Human Movement, Cambridge-London, The MIT Press, 2015; L.G. Monda, Choreographic bodies. L’esperienza della Motion Bank nel progetto multidisciplinare di Forsythe, Roma, Dino Audino Editore, 2016; E. Pitozzi, ‘Bodysoundscape. Perception, Movement, and Audiovisual Developments in Contemporary Dance’, in Y. Kaduri (edited by), The Oxford Handbook of Sound and Image in Western Art, Oxford, Oxford University Press, 2016.

[7] Cfr. A. Pizzo, ‘Attori e personaggi virtuali’, Acting Archives Review, a. I, n. 1, aprile 2011, pp. 83-118.

[8] Cfr. D. Kade, ‘Towards Stanislavski-based Principles for Motion Capture Acting in Animation and Computer Games’, in AA.VV., CONFIA – 2nd International Conference in Illustration and Animation, Porto, IPCA, 2013, pp. 277-292.

[9] D. Cage intervistato da P. Davidson, ‘David Cage: “We Can Use Technology to Say Something”’, USgamer, 4 settembre 2013, https://www.usgamer.net/articles/david-cage-we-can-use-technology-to-say-something [accessed 21 April 2018].

[10] J. Dower intervistato da A. Pizzo, ‘Il lavoro con la motion capture: il regista e l’attore’, Acting Archives Review, a. VI, n. 11, maggio 2016, pp. 72-74. Su questi argomenti si è espresso anche Andy Serkis, attore cinematografico tra i più esperti di recitazione MoCap, in un’intervista a S. Silberman, ‘Q&A: King of Mo-Cap Andy Serkis on Digital Acting and Gollum’s Oscar Diss’, Wired, 14 settembre 2007, https://www.wired.com/2007/09/pl-serkis/ [accessed 22 April 2018].

[11] Cfr. www.themocapvaults.com [accessed 24 March 2018].

[12] J. Dower intervistato da A. Pizzo, ‘Il lavoro con la motion capture: il regista e l’attore’, cit., pp. 76-77.

[13] O. Hollis-Leick intervistato dalla redazione di CGSociety, ‘What actors and directors need to know about motion capture to stay competitive’, CGSociety, 2015, http://www.cgsociety.org/news/article/1181/what-actors-and-directors-need-to-know-about-motion-capture-to-stay-competitive [accessed 25 March 2018].

[14] Cfr. M. Delbridge, Motion Capture in Performance. An Introduction, London-New York, Palgrave-Macmillan, 2015, pp. 2-5; A. Pizzo, ‘L’attore e la recitazione nella motion capture’, Acting Archives Review, a. VI, n. 11, maggio 2016, pp. 39-40.

[15] Cfr. M. Delbridge, Motion Capture in Performance, cit., p. 22 sgg.; R. Roihankorpi, M. Delbridge, ‘Hamlet’s Norwegian Doll’s House: reframing embodied knowledge with virtual architectonics of performance’, Arti dello Spettacolo / Performing Arts. New Frontiers: Live Performances, Archives and Digital technology, a. III, n. 3, 2017, pp. 49-58.

[16] Ubu Incatenato, di R. Latini e G. Misiti da A. Jarry, con R. Latini e P. Pasteris, regia R. Latini, musiche e aiuto regia G. Misiti, ambienti digitali interattivi A. Brogi / XLab Factory, assistente motion capture P. Pasteris, luci e direzione tecnica M. Mugnai, video in chroma key P. Magnani. Prima rappresentazione: Udine, Teatro San Giorgio, 14 dicembre 2005. Cfr. F. Bini, S. Terranova, ‘Ubu Incatenato (2005)’, Sciami | Nuovo Teatro Made in Italy, https://nuovoteatromadeinitaly.sciami.com/roberto-latini-ubu-incatenato-2005/ [accessed 24 March 2018]; R. Latini, ‘Incatenando Ubu’, Sciami | Nuovo Teatro Made in Italy, https://sciami.com/scm-content/uploads/sites/7/2017/04/Roberto-Latini-note-regia-Ubu-incatenato-2005.pdf [accessed 24 March 2018];  S. Terranova, ‘Ubu incatenato. Presentazione’, Sciami | Nuovo Teatro Made in Italy, https://sciami.com/scm-content/uploads/sites/7/2017/04/Roberto-Latini-descrizione-Ubu-Incatenato-2005-Serena-Terranova-2015.pdf [accessed 25 March 2018].

[17] A.M. Monteverdi, Nuovi media, nuovo teatro. Teorie e pratiche tra teatro e digitalità, Milano, Franco Angeli, 2011, p. 190.

[18] R. Latini, ‘Incatenando Ubu’, cit.

[19] A. Brogi intervistato da A.M. Monteverdi, ‘Andrea Brogi, Motion Capture Teatrale’, Digicult, http://digicult.it/it/digimag/issue-024/italiano-andrea-brogi-motion-capture-teatrale/ [accessed 24 March 2018].

[20] Interessanti testimonianze di artisti digitali, registi, attori e performer che lavorano con la tecnologia in scena sono rintracciabili in A.M. Monteverdi, Nuovi media, nuovo teatro, cit., pp. 227-267.

[21] Cfr. M.G. Berlangieri, ‘Motion Capture e Commedia dell’Arte: un case study’, in P. Bertolone, A. Corea, D. Gavrilovich (a cura di), Trame di meraviglia. Studi in onore di Silvia Carandini, Roma, UniversItalia, 2016, pp. 39-45; M.G. Berlangieri, ‘Performing Arts, gli archivi digitali e la narrazione interattiva’, Arti dello Spettacolo / Performing Arts. New Frontiers: Live Performances, Archives and Digital technology, a. III, n. 3, 2017, pp. 16-27.

[22] The Pool Factory è una delle più importanti realtà italiane che operano nel campo dell’animazione 3D; cfr. http://thepool.it/ [accessed 28 March 2018].

[23] Di questioni affini, traslate principalmente nel campo della danza e dell’esecuzione musicale, si occupa tutt’oggi il centro di ricerca genovese Casa Paganini / InfoMus Lab, sviluppatore del noto software EyesWeb. Cfr. A. Camurri, ‘Il progetto EyesWeb per musica, danza e teatro’, in A. Menicacci, E. Quinz (a cura di), La scena digitale. Nuovi media per la danza, cit., pp. 67-78; http://www.infomus.org/index.php [accessed 12 May 2018].

[24] Intervista all’attore I. Picciallo, citato in M.G. Berlangieri, ‘Motion Capture e Commedia dell’Arte: un case study’, cit., pp. 44-45.

[25] Cfr. http://www.santannapisa.it/it/istituto/tecip/tecip-institute [accessed 12 May 2018].

[26] Il convegno si è svolto a Parigi, presso Le Cube – Centre de création numérique, nei giorni 14 e 15 dicembre 2017, e si è configurato come il punto d’arrivo del progetto triennale Labex Arts H2H La scène augmentée: jeu de l’acteur, pratiques de création, modes de transmission, ideato e diretto da Erica Magris con Giulia Filacanapa, Georges Gagneré e Cédric Plessiet (Université Paris 8), con la collaborazione di Josette Féral (Université Sorbonne Nouvelle). Oltre ai relatori di cui si è fatta menzione all’interno di questo saggio, hanno preso parte al convegno Réjane Dreifuss (Zurich University of the Arts), con un intervento sul game theatre, che rielabora i meccanismi dei videogiochi per creare un nuovo tipo di interazione in cui gli spettatori sono parte attiva nella creazione dello spettacolo; Simon Hagemann (Université de Nancy), che ha analizzato il fenomeno del coinvolgimento interattivo dello spettatore attraverso interfacce mediatizzate, all’interno di quello che prende il nome di immersive theatre; Paolo Héritier (Università degli Studi di Torino), che ha proposto una riflessione sul contesto normativo dell’immagine del robot; Anna Maria Monteverdi (Università degli Studi di Milano), che ha analizzato la ‘maschera teatrale’ scenica che caratterizza il teatro di Robert Lepage – per approfondimenti su questo tema, cfr. A.M. Monteverdi, Memoria, maschera e macchina nel teatro di Robert Lepage, Meltemi 2018 –; Anton Rey (Zurich University of the Arts), che ha esposto la lavorazione del progetto Action Avatar, realizzato in collaborazione con centri neurologici di eccellenza, le cui sperimentazioni sono al momento concentrate sui metodi di face tracking.

[27] Il progetto si è sviluppato dal 2011 al 2013 e ha visto la Scuola Superiore Sant’Anna comparire nel team di progetto insieme ad altri centri di eccellenza europei, leader nella ricerca e nello sviluppo. Cfr. http://www.beaming-eu.org/home [accessed 12 May 2018].

[28] Cfr. M. Brighenti, META 2017. Intervista Bergamasco Bartolini – Virtual Reality and Theatre, 13 luglio 2017, https://www.youtube.com/watch?v=HxWX7MjMF-M [accessed 13 May 2018].

[29] Cfr., tra gli altri, G. Freixe, Les utopies du masque sur les scènes européennes du XX siècle, Paris, L’Entretemps, 2010; A.M. Monteverdi (a cura di), La maschera volubile. Frammenti di teatro e video, Titivillus, Corazzano (Pisa), 2000.

[30] D’ora in avanti, citazioni e rimandi afferiscono agli interventi presentati durante il convegno in oggetto.

[31] Tre spettacoli-performance coordinati da Giulia Filacanapa e Georges Gagneré; concezione della piattaforma di direzione degli avatar (AKeNe): Cédric Plessiet; programmazione digitale: Georges Gagneré; artista 3D: Rémy Sohier.

[32] Il sistema MoCap Perception Neuron, una rete neurale con trentadue marcatori collocati nei punti nodali del corpo attraverso un sistema di bande elastiche, è stato collegato a una piattaforma digitale creata ad hoc dall’équipe di ricerca del laboratorio INRéV – Images Numériques et Réalité Virtuelle dell’Université Paris 8. La piattaforma è basata sul motore grafico per videogiochi Unreal Engine, ed è stata progettata per visualizzare in tempo reale l’anteprima delle animazioni digitali.

 

[33] Agamemnon Redux. Une experience de masque et de mocap en trois scenes, di Andy Lavender da Agamennone di Eschilo. Regia di Andy Lavender, con Alexandra Beraldin e Cécile Roqué-Alsina.

[34] Cfr. A. Lavender, Performance in the Twenty-First Century: Theatres of Engagement, London-New York, Routledge, 2016.

[35] La vie en rose. De la clinique à l’éternité, di Boris Dymny e Giulia Filacanapa. Regia di Giulia Filacanapa, maschere di Stefano Perocco di Meduna, con Ethel de Sousa, Boris Dymny, Léandre Ruiz, Morgane Lombardi.

[36] La psychanalyse augmentée, di Mathieu Milesi. Progetto e regia di Duccio Bellugi e Mathieu Milesi, con Medhi Benabbas, Assya Benhaddou, Cécilia Clarisse, Mariam Dimitri, Léa Jourdain, Béni Kianda-Petevo, Anastasiia Ternova, Ioana Voicu.

Holograms in 2047 Apologue by Zhang Yimou
945

During 16th-18th of June 2017 the Musion 3D holographic technology was incorporated into the global premiere of conceptual performance “2047 Apologue” at theNational Center for Performing Arts in Beijing, directed by internationally acclaimed film director Zhang Yimou.

“2047 Apologue” aims to start a conversation about the relationship between people and technology and where this relationship is heading through the use of traditional martial arts, folk dance, music performance and a rich collection of Chinese artworks. The holographic fragment featured award winning modern dance performers Li Yu and Hu Jie perform to the antique WanWan Qiang opera.

Director Zhang Yimou said: Humankind has been so smart in developing technology that kills; the Americans are especially strong in that, right? said Zhang. When technology has become weapons that help us to kill, what is the relationship between it and us? Will it be used on you one day?

Photo Gallery

Motion & Set Design: 2047 Apologue - Weaving Maсhine
Motion & Set Design: 2047 Apologue - Weaving Maсhine
Motion & Set Design: 2047 Apologue - Weaving Maсhine
Motion & Set Design: 2047 Apologue - Weaving Maсhine
Motion & Set Design: 2047 Apologue - Weaving Maсhine
Motion & Set Design: 2047 Apologue - Weaving Maсhine
Motion & Set Design: 2047 Apologue - Weaving Maсhine
Motion & Set Design: 2047 Apologue - Weaving Maсhine
Motion & Set Design: 2047 Apologue - Weaving Maсhine
Motion & Set Design: 2047 Apologue - Weaving Maсhine

 

Photo Gallery

Motion & Set Design: 2047 Apologue - Weaving Maсhine
Motion & Set Design: 2047 Apologue - Weaving Maсhine
Motion & Set Design: 2047 Apologue - Weaving Maсhine
Motion & Set Design: 2047 Apologue - Weaving Maсhine
Motion & Set Design: 2047 Apologue - Weaving Maсhine
Motion & Set Design: 2047 Apologue - Weaving Maсhine
Motion & Set Design: 2047 Apologue - Weaving Maсhine
Motion & Set Design: 2047 Apologue - Weaving Maсhine
Motion & Set Design: 2047 Apologue - Weaving Maсhine
Motion & Set Design: 2047 Apologue - Weaving Maсhine

 

 

2047 Apologue by Director ZHANG Yimou
944

Directed by ZHANG Yimou, 2047 Apologue made its global premiere in Beijing at NCPA in june 2017.

47 Apologue a concept performance in 8 parts by director Zhang Yimou

this video is the teaser for the last part of the show called “Weaving Machine”

Chinese director Zhang Yimou who is best known for his movies “Raise the Red Lantern”, “Hero” and “The Great Wall” but also for directing the opening and closing ceremonies of the Beijing Olympics returns to the theater stage with his concept perfomance “2047 APOLOGUE”.

Zhang Yimou has unveiled his latest work at the National Center for the Performing Arts in Beijing. Based on Peking Opera “Sanchakou,” “2047 Apologue” is breaking the form of traditional stage plays, combining Chinese folk art with the latest technology. The show aims to mirror reality, commenting on how science and technology are a huge part of life in the 21st century. The show consists of 8 parts, each combining a traditional chinese craft, music or dance style with modern high tech such as lasers, robots, drones and kinetics.

WHITEvoid was commissioned to create, program and direct the kinetic display for the last part of the show called “Weaving Machine”. The 9 minute performance features 640 motorized LED spheres, an anchient chinese weaving machine and a modern dancer. German motor winch producer KINETIC LIGHTS provided the vertical hoist systems for the LED spheres and control software. Russian RADUGADESIGN animated a complementing video backdrop and CPG Concepts from Hong Kong provided the dance choreography for british dancer Rose Alice.

 

The international teams with domestic and overseas top cast have presented a refreshing audio-visual feast. ZHANG Yimou breaks the form of traditional stage plays, combining Chinese folk arts with international technology, and thus creating a unique “concept performance”.

 

20 teams and individuals from seven countries will gather in this performance. Radugadesign studio has participated in the show. In cooperation with WHITEvoid team (Germany) and the dance director of London Contemporary Ballet Theatre Rose Alice they have created visual support for dance with kinetic lights installation.

UHD hologram and back projection for visionary director Zhang Yimou by

Dominic Faraway

Combination of live and holographic dance performance.
Shown at Beijing National Centre for the Performing Arts

Gli atti del convegno Corps en scène: l’acteur face aux écrans (Paris, Sorbonne nouvelle 2015) on line sulla rivista Archée
941

Le dossier Corps en scène: l’acteur face aux écrans – Bodies on Stage: The Actor Confronted with Screens, présenté par Josette Féral, s’étendra sur plusieurs numéros. ll réunit des textes de théoriciens, d’historiens et d’artistes qui poursuivent et approfondissent les réflexions entamées à ce sujet depuis que la relation entre corps, écrans et dispositifs interactifs a transformé tous les champs de l’art, autant celui des arts du vivant que celui des arts médiatiques. Dans cette première parution de l’année, Josette Féral nous présente un panorama des différentes approches et Edmond Couchot, Kris Verdonck et Philip Auslander observent et analysent les pratiques artistiques augmentées par de nouveaux dispositifs scéniques.

Notre portfolio offre quant à lui un aperçu des productions du Studio Azzurro.

Quand l’écran et l’acteur font corps

Josette Féral

Depuis une vingtaine d’années, l’apport des nouvelles technologies a modifié en profondeur la scène théâtrale et, avec elle, le jeu de l’acteur. Désormais les corps de chair y côtoient fréquemment les corps synthétiques ou hybrides, créant des corporéités mixtes, « mi-chair, mi-calcul », dont l’équilibre varie selon les choix esthétiques des artistes (metteurs en scène, acteurs, concepteurs du spectacle). Que devient l’acteur dans cette confrontation avec la scène transformée ? Quelles techniques de jeu ces nouvelles modalités scéniques imposent-elles aux performeurs ? Comment les esthétiques nouvelles qui dérivent de ces mutations conjuguent-elles la juxtaposition du charnel et du virtuel ? Comment se déploie, dans ce contexte, la présence du performeur ? Comment se gère son énergie ? Son rapport à la voix ? À l’espace ? Au temps ? Au mouvement ?

(CONTINUA SU http://archee.qc.ca/images/edito-2018-03/Archee_2018_03_Josette1.php

 

 

Non solo Studio azzurro. Interattività, performance, gioco. Orf Quarenghi: dal teatro interattivo allo spray-gun contenitore di storie
935

L’interattività come gioco accomuna molti artisti e performer. Da Myron Kruger che coniò il termine Realtà artificiale e che creò i primi ambienti interattivi in cui lo spettatore con la sua ombra grazie a telecamere, veniva proiettato all’interno di uno schermo dove era rappresentato un mondo fatto di grafiche colorate con cui interagiva (da Videoplace a Glowflow a Metaplay) agli italiani GMM con le varianti da Buddah vision per Mandala system (un sistema di proto realtà virtuale inventato negli anni Ottanta dai canadesi Vivid Group); e ancora da Reactable di Sergi Jordà, tavolo sonoro con touch screen su cui vengono appoggiati oggetti generatori di pattern sonori, all’interactive carpet del TPO di Davide Venturini, sfondo colorato calpestabile per spettacoli per ragazzi. E arriviamo ai più raffinati programmi di interaction design (vedi E-motions di Adrien Mondot per coreografie digitali -vedi Cinématique-) e di augmented reality (come i videomapping interattivi di Klaus Obermaier o del gruppo 1024architecture) che non eliminano affatto la dimensione del gioco collettivo. Anzi, anzi la “aumentano”.

Orf Quarenghi programmatore in Visual C++, docente alla Naba di Milano, è l’autore dei sistemi interattivi del gruppo multimediale N03 con cui ha dato vita al Museo della Resistenza di Fosdinovo (realizzato nel 2000 con Studio Azzurro, uno dei primi musei interattivi italiani, con i volti, le parole, i luoghi, le testimonianze della resistenza tra la Liguria e la Toscana), al Museo diffuso della Resistenza di Torino, agli allestimenti per il bicentenario verdiano (Museo della Scala) e per la Pirelli (Triennale di Milano). E ancora, la toccante mostra su Luciana Nissim A noi fu dato in sorte questo tempo, presso la baracca recuperata ex Campo Fossoli a Carpi (Modena). Nel campo performativo crea i visual live per concerti con il gruppo LLOQ Project.

Ma forse non tutti sanno che Orf Quarenghi ha collaborato anche alla creazione delle videoscenografie sincronizzate e ai sistemi per le coreografie digitali e spettacoli interattivi a firma di Studio azzurro (1997, The Cenci; 1998: Il fuoco, l’acqua e l’ombra, ispirato a Andrei Tarkovskij; 1998 Giacomo mio salviamoci! Con Umberto Orsini; 1998, Wer möchte Wohl Kaspar Hauser sein?). Si tratta delle prime esperienze italiane di ambienti sensibili dedicati espressamente al teatro che il compianto Paolo Rosa così amava descrivere: “Una vera e propria area laboratoriale antropologica permanente, in grado di utilizzare gli strumenti e linguaggi più nuovi, come spesso il teatro ha fatto nella sua lunga e impressionante storia, e capace di produrre anticorpi di consapevolezza e di creatività partecipata”.

Progetto a sua firma unica invece, questo “protoTypo” che dal nome denuncia tutto l’amore del suo autore per le invenzioni industriali: uno spray-gun (l’interattore) esattamente come quello usato per le pitturazioni da carrozziere, in mano a divertiti spettatori, soffia aria e colore virtuali che interagiscono (grazie a raggi infrarossi) con uno schermo dove valanghe di lettere vanno a comporre o scomporre parole e pensieri in libertà. Una specie di gioco surrealista di scrittura che molto sarebbe piaciuto a Tristan Tzara o a André Breton. Una giocosa ars combinatoria di lettere e di frasi che inaspettatamente si srotolano ma solo se l’oggetto disegnato viene completamente liberato –grazie allo spray-gun- dalla nuvola di fonemi, consonanti e aggregati di dittonghi che lo ricopre. Un’applicazione ludica che potrebbe creare interessanti sfondi live e interattivi per performance poetiche. Rimane con lo spray interattivo, la memoria sia del grafo (a spruzzo) della pittura industriale sia del gesto pittorico dello stencil, riportandoci a una forma (evoluta digitalmente) di urban art. Basta premere il grilletto….

ProtoTypo visto a Frontiers of interaction alla Fiera di Milano lo definisce un “contenitore di storie” e lo ha applicato a installazioni artistiche. Come funziona e da dove è partito come concept?

<<Il concept è nato dall’interattore: la pistola a spruzzo da carrozziere. Usavo questa pistola vent’anni fa per farmi le T-shirt con gli stencil. E’ un oggetto che in mano mi ha sempre dato una gran bella sensazione e mi dispiaceva che rimanesse in cantina a far polvere. Così ho cominciato a chiedermi come usarla in un contesto interattivo. Devo aggiungere che negli ultimi tempi le mie modalità di lavoro hanno subito un cambiamento abbastanza repentino. La crisi ha colpito duro l’ambito culturale e museale, e procacciarsi lavoro è diventato molto più difficile. Per reagire ho deciso di inventarmi un’installazione nuova, senza che nessuno me la commissionasse. Qualcosa che costasse poco, non richiedesse scenografie impegnative e che potesse essere declinato in ambito culturale, artistico e commerciale. Ho costruito protoTypo attorno alla mia convinzione -molto naïf e “da tecnico” quale io sono- che lo storytelling sia un bisogno fondamentale, e che l’interazione non sia altro che un modo di raccontare storie. La spray-gun si incastrava bene con tutto questo. Il funzionamento è basato sull’utilizzo di luce infrarossa. Ho modificato la pistola a spruzzo in modo che spruzzasse luce infrarossa anziché vernice. Tramite una telecamera customizzata e un’applicazione che ho sviluppato ad hoc, il sistema è in grado di rilevare le coordinate dove punta la pistola, e da lì in poi “è come lavorare con un mouse>>

Entrando nel merito strettamente tecnico, che strumentazione viene usata?

<<Come hardware protoTypo usa un set minimale:

– telecamera IR

– proiettore

– telo da retroproiezione

Sull’interattore (paintgun) è montato un led IR (infrarossi) a raggi infrarossi che viene acceso premendo il grilletto. L’interazione è su base ottica – immagina di proiettare un “bollo” di luce sullo schermo. Il sistema riconosce lo stato on/off del led la sua posizione sullo schermo. Siccome si utilizza luce infrarossa, nulla di tutto questo risulta visibile a un essere umano. In termini di software protoTypo è basato sull’architettura Piccolo Popolo (http://www.orfware.com/piccolo-popolo-architecture/) che ho cominciato a sviluppare ai tempi della NABA (Nuova Accademia di Belle Arti di Milano). E’ un’architettura modulare in cui ogni applicazione assolve un compito preciso e comunica con le altre mediante il protocollo OpenSound Control (OSC). Le applicazioni che costituiscono ProtoTypo sono tre:

– Mocolo: analisi in tempo reale dello stream video (telecamera a infrarossi). E’ un progetto che sto portando avanti dal 2001 e che continuo a tenere aggiornato.

– Polipo: player videografico interattivo. E’ una sorta di videogioco DirectX che integra player e mixer video che può essere configurato e comandato in remoto.

– Torsolo: master di sistema che coordina il lavoro delle altre applicazioni e implementa lo storyboard (risposta alle interazioni, gestione temporizzazioni eccetera).

I nomi sono intenzionalmente ridicoli. In passato ho lavorato con gente che battezzava software brutti e malfunzionanti con nomi altisonanti. Io ho deciso di fare l’esatto contrario!>>

In cosa l’interattività, a suo avviso, cambia il senso dell’opera d’arte?

<<Per me l’interazione è soprattutto un bel gioco. Il gesto d’interazione deve essere soddisfacente di per sè. Se si riesce a coniugare in modo sensato un “bel gesto” con un evento visuale bello e ricco di significato, allora l’interazione diventa un efficace strumento di narrazione che si può decidere di usare in contesti diversi. L’interazione cambia la modalità di fruizione, aggiunge gradi di libertà, ma non cambia il senso profondo di un’opera, che è sempre quello di raccontare una storia.>>

Questo Prototype mi ha ricordato da un lato Myron Kruger per la giocosità e l’interattività poco invasiva e dall’altro altri progetti più attuali di interaction design come Cinematique. A cosa si è ispirato, ci sono modalità o forme di interactive art che privilegia?

<<In realtà a me piace moltissimo usare degli oggetti, per interagire. Non è un approccio molto di moda – Kinect di Microsoft va per la maggiore, ma anche se lo trovo un oggetto tecnologico meraviglioso non mi ha ancora fatto venire idee stimolanti. Amo le sale di controllo delle vecchie stazioni ferroviarie, piene di leve, di pomelli e di enormi manometri. Mi piacerebbe moltissimo coniugare interattività e archeologia industriale, prima o poi. Rifare in scala più grande quello che ho fatto con la pistola a spruzzo, tornando a dare vita – per esempio – a una sala di comando di una vecchia centrale elettrica.>>

 

Oggi le performance usano molto spesso live media, e sistemi anche complessi di videomapping live, a tuo avviso quali sono i programmi e le soluzioni più intriganti e più flessibili da usare nel live di concerti o di reading e quali lei ha usato con il gruppo LLOQ (Luca Lomboni-Orf Quarenghi)?

<<Ho sempre utilizzato software scritto da me. Questo è sia un limite che un grado di libertà in più. Costruendo una cosa dal nulla realizzi una tua idea in grande libertà. Utilizzando software off-shelf molto diffusi il rischio è di cadere nel “tranello del plugin”: usare un certo effetto perché è “appena uscito” e trovarsi sostanzialmente a seguire una moda. Certo svilupparsi tutto in casa è faticoso e comporta tempi di lavorazione non esattamente agili…Quanto a LLOQ è nato da due vecchissimi amici che mille anni fa hanno fondato una Beasty Boys tribute band (io cantavo!). Luca era già un bassista affermato, io un enorme scalzacane..Dopo una ventina d’anni ci siamo rincontrati e avevamo ancora voglia di fare qualcosa insieme. Abbiamo buttato le nostre esperienze sul tavolo e abbiamo visto che c’erano strade da seguire, idee da far crescere, sia sul fronte tecnico che creativo.>>

Il video come interagisce in pratica, con la musica e come viene progettato l’ambiente interattivo?

<<Intercetto due tipi di informazioni dalla musica che Luca Lomboni suona dal video: la parte ritmica (segnali midi) e lo spettro acustico (campionato in tempo reale da una mia applicazione che si chiama Spatolo). I due stream di informazione vengono utilizzati per deformare interattivamente delle entità grafiche. Poi utilizzo dei mixer midi e delle pulsantiere per modificare parametri ed innescare eventi in tempo reale. Ma la base dell’interazione è sempre la musica che Luca Lomboni suona in ogni dato momento.>>

Rispetto all’audience, quanto viene recepito del processo creativo e dell’azione interattiva?

<<Credo che dell’azione interattiva venga percepito poco, temo. Dobbiamo ancora lavorarci molto, anche se sono soddisfatto dei risultati raccolti fin qui. La gente vede “succedere cose” che vanno a tempo con la musica e spesso crede che sia Luca che insegue i tempi di un clip video (approccio tecnico effettivamente utilizzato in molte performance di “interattività al contrario”…).>>

Ha lavorato ai primi spettacoli di teatro interattivo di Studio azzurro, chi e come veniva deciso l’approccio interattivo usare?

<<L’approccio – che è stato tipico nei lavori che ho realizzato per lo Studio Azzurro – era quello di creare un’entità fatta di audio e video che avesse dei comportamenti, che in qualche modo interagisse con pubblico e performer. Erano gli anni della “non linearità”, e per implementare quel comportamento ho scritto un’applicazione che si chiamava “Eschilo” e consentiva di gestire fino a 12 timeline audio/video interattive. Le timeline potevano venire collegate mediante “blocchi interattivi”. Dando il cue a uno di questi blocchi (con un colpo di mouse) si mettevano in play sincrono tutte le tracce legate a quel blocco. C’erano momenti in cui tutte le tracce (al massimo ne abbiamo usate otto) procedevano sincrone, ma con questo meccanismo era semplice uscire da una sincronia rigida, sincronizzare solo temporaneamente alcune tracce e lasciarne libere altre. Una delle cose che questa architettura consentiva di fare era definire dei cue molto fini. Ad esempio ne Il fuoco, l’Acqua, l’Ombra c’erano una serie di oggetti che apparivano sul pavimento che venivano calpestati da una performer e poi sparivano. Non era “interazione al contrario” (cioè: la performer che impara a memoria i tempi di un video). Il performer agiva con i suoi tempi e l’operatore di Eschilo sganciava il blocco giusto al momento giusto. L’operatore Eschilo era un po’ regista e un po’ performer. Eschilo è figlio mio, ma è nato anche e soprattutto grazie alle molte birre bevute con Davide Sgalippa (Studio Azzurro, N03) e alle molte notti insonni trascorse “sul pezzo”. Regista lui, sviluppatore io. Si lavorava cercando e costruendo un linguaggio comune.>>

Come si lavora con i performer o i danzatori usando sistemi interattivi e che problematiche implica?

<<E’ complicato. Io ho sempre fatto del mio meglio per fare in modo che il software consentisse di andare incontro alle esigenze delle prove, ad esempio “ripartire da un certo punto”. A volte le attrezzature tecniche pilotate dal software però, non lo consentivano (stiamo parlando dei mitici Laserdisk Pioneer!)>>

N!03 nasce da una collaborazione comune e con un legame con Studio azzurro e lei ha avuto un lungo rapporto di lavoro con il gruppo milanese. Paolo Rosa ha lasciato un segno indelebile nei territori d’arte tecnologica e non solo: cosa si sente di dire che le ha lasciato in eredità un artista come Paolo?

<<Quello con Paolo è stato un dialogo intenso e difficile. Non so se si può parlare di eredità. Mi rimane di quegli anni il linguaggio comune che abbiamo costruito per comunicare, fra tecnici di derivazione industriale e artisti a tutto tondo, una cosa che all’epoca sembrava roba da pazzi. E il ricordo di un viaggio formidabile che per un lungo tratto abbiamo affrontato assieme.>>

Home

In libreria il volume sul videomaker Giacomo Verde a cura di Silvana Vassallo per ETS
919

Tra i pionieri nel campo della sperimentazione con le arti elettroniche in Italia, Giacomo Verde opera da decenni in un territorio di confine, all’incrocio tra diversi linguaggi e generi. Con coerenza, ironia e un’attitudine hacker, da tempo persegue una ricerca est’etica e tecnologica mai disgiunta dall’impegno sociale e politico. Il suo fare artistico privilegia la realizzazione di oper’azioni processuali con una forte componente performativa, che si traducono nella creazione di contesti partecipativi e relazionali, fra materiali poveri e raffinate ricerche in digitale. Non mancano opere compiute, dalla videoarte al documentario di creazione.
Questa è la prima monografia su Giacomo Verde. I vari aspetti della sua produzione artistica sono analizzati in saggi critici che ne restituiscono le sfaccettature nel contesto internazionale, fra tecno-teatro e videoarte, tradizione di conta-storie e sperimentazioni con innovative tecnologie digitali e interattive, performance audiovisive e ricerche sul videofonino, con un approccio che coniuga improvvisazione giocosa e profondità di riflessione teorica.

Testi di: Andreina Di Brino, Marco Maria Gazzano, Sandra Lischi, Francesca Maccarrone, Anna Maria Monteverdi, Silvana Vassallo.

Silvana Vassallo si ocupa di arte contemporanea e di rapporti fra arte e nuove tecnologie. Su questi temi ha pubblicato saggi e articoli, curato mostre ed eventi per istituzioni sia pubbliche che private, tenuto corsi presso le Università di Pisa e Bologna e presso l’Accademia di Belle Arti di Macerata. Dal 2014 dirige a Pisa la Galleria Passaggi Arte Contemporanea, oltre a collaborare attivamente con l’associazione Multiversum Arte

Interview to Tobias Gremmler, digital artist. By Anna Monteverdi
916

Tobias Gremmler (Bio):

He started his career as media artist and designer in the early 90s. His work has been shown at Ars Electronica, Transmediale, and theatres like Volksbühne Berlin and Cultural Centre Hong Kong. He blends media art and design with traditional art forms like theatre, music and sculpture.

As Designer, he developed digital design solutions for companies such as Apple, Adidas, BMW, Samsung, Swarovski and Sony. Book publications: ‘Grids for the Dynamic Image’ 2003, ‘cyberBionic’ 2008, ‘Creative Education and Dynamic Media’ 2014.
Homepage: www.syncon-d.com
Teaching and Research: www.syncon-d.com/hk

INTERVIEW:
Anna Monteverdi: You use 3D animation, digital technics, videomapping applied for several art forms: theatre, music and sculpture. Which are your method of work for this kind of digital intervention where other artists are involved in the same projects?
Tobias Gremmler: Every project is like a new exploration. Many of them are commissions, which often leads to new, exciting collaborations. The interaction with other artists as well as the creative method and technology depends on the nature of the project. Some projects deserve very close collaboration while others are done without much communication.
Anna Monteverdi.We were astonished by your animated scenography for the recent chinese theatre show in which technoloy has a very liquid dialogue with natural elements and with the actor. It offers a real immersive environment.
Can you describe this experience, also from a technical point of view? Was it a interactive scenary? Which was the starting point?
Tobias Gremmler : The director (Tim Yip) wanted to tell the story without drawing a too concrete picture. The visuals should trigger the imagination of the audience rather than being consumed. Thus, the visuals appear often incomplete or hiding something that needs to be imagined. For example, the dragon is mostly invisible, covered by smoke. But as its motions become expressed through the turbulences of the smoke, one can imagine the movements behind it. The smoke becomes a medium that abstracts a scene and propagates it wider into space. Similar methods are used with bamboo and stone. This elements serve as media that translates the underlying scenarios.

Every medium has a different degree of intimacy that determines the individual freedom of interpretation. When you read a book, all voices and images appear in your own head. They come to existence through the imagination of the reader. Thus, each character in a book has as many different voices as readers. In cinema, the space for imagination is more constrained, as the voices and visual appearance of the characters are already predefined. Although I am working with a visual medium, I often introduce elements of incompleteness in the sense that it encourages the recipient to complete it with its own imagination.

Anna Monteverdi What is nowadays the role of the digital in the contemporary theatre? Could it completely transforme the traditional stage?

Tobias Gremmler: Theatre is an art form that continuously absorbs new disciplines, technology and trends. Nowadays, every big theatre or opera house has a stage projector. When I was suggesting this twenty-five years ago, directors argued that this will turn theatre into cinema. Obviously, that didn’t happen. Theatre needs to stay open to integrate technology that already impacts our society. Otherwise it loses its relevance. That will not change the core aspects of theatre but keep them alive. The constant flexibility and transformation of theatre is a necessary precondition to establish a stage that reflect the current society.
Anna Monteverdi ABout FACE VISUALs. The projection on the face of the artist is perfect. Is it live or a postproduction effect? 

Tobias Gremmler: In “Face Visuals”, the face was mapped on geometry, which is vice versa than the work you referring. Till a certain degree, the technology is similar to projection mapping, but not real-time. I wanted to extend the visuals beyond the shape of the head, which would not be possible when projecting on a face. I’ve used similar technology more than ten years ago, so there was no need for getting inspired by Omote, although it’s a fantastic work. Apart from technical aspects, the visuals telling the story of fragmenting a persona along with the lyrics of the singer. Thus, the technology primarily serves an artistic expression.

Anna Monteverdi .You always blend music, visual art, 3d as for the London SYnphony orchestra in which the movemente are visualized the cascade of colors and lines, as Kandisnsky imagined in the avanguarde period.
Which are you goals in these productions? To produce to the audience a sinesthetic experience?

Tobias Gremmler:Back in the early 1990s, I composed music for several theatre pieces. The methods of creating music are very similar to those I use now for creating a visual composition. Both media including aspects of rhythm and patters, contrast, variation, etc. There is an inherent coherence between both disciplines that I try to express. Through that expression, the boundaries between the disciplines starting to dissolve. It is actually this process of dissolving rather than merging that interests me. It unveils a certain structure that exist beyond the media that carries

 

Anna Monteverdi Why  theatre  (and especially Chines theatre) is at the centre of your research in the digital art?

Tobias Gremmler: Chinese theatre particular interests me because there are no gaps between singing, dancing and acting. Most of the performers have skills in all disciplines and can seamless blend between them during a play. In contrast, western theater is strictly divided into opera, dance or drama, and the performers are specialized in one of this disciplines.

When I composed music for theater, being in my early 20s, I got in touch with disciplines such as dance, lighting, costumes and stage design. I learned that each of this disciples has an almost equal impact on the final piece as the expression of a scene can be altered complete just by music or lighting. I was fascinated by this interaction and it had a huge influence of my later work. Even if I mainly focus on visuals now, it still contains aspects of lighting, dancing, costume and stage design.

There is a high degree of abstraction in Chinese theater. Every gesture, eye movement, costume color or pattern has a specific meaning, like a highly elaborated system of visual design trough witch information is encoded. As a foreigner, I have a natural distance toward this system which allows me to analyze it from a different perspective, although I found some aspects deeply resonating. There is a universal core in each theatrical expression, independent from its cultural encoding. We all feel happiness, sadness, curiosity or anger. It is just expressed differently through different cultures.

For example, in some of Robert Wilsons works one can trace a relation to Chinese theatre. The methods how information is encoded visually is somehow similar. I am not referring to the visual style but rather the visual language. In my collaborations with Chinese performance, I extract aspects of its visual language and reconstruct its grammar in a way it becomes readable across different cultures without losing its inherent meaning.

 

Colloque international MASQUES TECHNOLOGIQUES : ALTÉRITÉS HYBRIDES DE LA SCÈNE CONTEMPORAINE
889

Colloque international 14 et 15 décembre 2017

Le Cube – Centre de création numérique, PARIS
20 cours Saint-Vincent
92130 Issy-les-Moulineaux
Le colloque international Masques technologiques  altérités hybrides de la scène contemporaine, vise à proposer une réflexion sur l’augmentation technologique dans le spectacle vivant à travers le prisme du masque, « lieu d’un passage extrême vers d’autres, identités protéiformes d’où émergent des visions de l’inconnu »(F. Mastropasqua).


Est-ce que le masque en tant qu’idée, objet, métaphore et pratique de jeu peut aider à comprendre les hybridations technologiques de la scène et des corps qui l’habitent, ainsi que les nouvelles figures numériques de l’acteur ? Des praticiens et chercheurs de plusieurs pays et de domaines variés se retrouveront autour de cette hypothèse en utilisant le masque comme une interface conceptuelle et matérielle pour observer les rapports multiples entre acteurs et personnages, acteurs et spectateurs, dans le cadre d’un environnement numérique ou technologiquement augmenté.

Entrée libre sur réservation

Pour le colloque : http://lecube.com/evenements/masques-technologiques-alterites-hybrides 
Pour les spectacles : http://lecube.com/evenements/masques-et-avatars

Sophie Lally, Identity, Performance and Technology Practices of Empowerment, Embodiment and Technicity
887

This project investigates the implications of technology on identity in embodied performance, opening up a forum of debate exploring the interrelationship of and between identities in performance practices and considering how identity is formed, de-formed, blurred and celebrated within diverse approaches to technological performance practice.

Reviews:

‘…this is an important addition to the material on performance and technology and its impact on embodied performance practices. In its ambition and scope this volume will be of interest to those concerned with somatic practice and the range of emergent thinking and multiple impacts of digital technologies deployed in contemporary performance.’ – Scott Palmer, New Theatre Quarterly

‘…a solid collection of interesting and insightful case studies of performance events and practices incorporating media technologies.’ – David Z. Saltz, Theatre Journal

‘This book has something to offer those interested in the confluence of performance and technology from practitioners to scholars of all levels, as well as those outside the academy with an active interest in this type of performance work.’ – Sophie Lally, Contemporary Theatre Review

Università di Salerno, Convegno Internazionale di Studi “Digital Poiesis. Rimediazioni, immaginari, narrazioni contemporanee”.
867

Si svolgerà mercoledì 22 e giovedì 23 novembre, presso il Campus di Fisciano dell’Ateneo di Salerno, nell’aula “Vittorio Foa”, il Convegno Internazionale di Studi “Digital Poiesis. Rimediazioni, immaginari, narrazioni contemporanee”.

Al centro delle riflessioni e del dibattito scientifico sono posti i temi delle narrazioni, dell’immaginario audiovisivo e delle pratiche comunicative trasformate dagli ambienti digitali; un’attenzione particolare sarà fornita alle linee di continuità, alle fratture e alle segnature trasversali fra culture antiche e culture contemporanee.

A cura del Centro Studi “Media Comunicazione Società” (diretto dal prof. Gino Frezza), sostenuto dal Dipartimento di Scienze Politiche, Sociali e della Comunicazione, in collaborazione con Universidad de Cádiz e Universitat Pompeu Fabra di Barcellona, con il patrocinio dell’AIS (Associazione Italiana di Sociologia) – Sezione Processi e Istituzioni Culturali.

Direzione scientifica: Alfonso Amendola, Fabrizio Denunzio, Diana Salzano 

Organizzazione scientifica: Vincenzo Del Gaudio, Antonella Napoli, Mario Tirino

Segreteria e redazione: Simona Castellano, Lorenzo Di Paola, Novella Troianiello

Art director: Luca Lanzetta