Fernando Mastropasqua parla di Robert Lepage
1043

Fernando Mastropasqua ha scritto l’introduzione al libro di ANNA MONTEVERDI MEMORIA MASCHERA E MACCHINA NEL TEATRO DI ROBERT LEPAGE

Fernando Mastropasqua è nato nel 1941 a Chiusi in provincia di Siena. Ha insegnato Storia del teatro e dello spettacolo nelle Università di Pisa, Trento e Torino. Tra le sue pubblicazioni: Le feste della rivoluzione francese, Milano, Mursia, 1976; Metamorfosi del teatro, Napoli, ESI, 1998; In cammino verso Amleto (Craig e Shakespeare), Pisa, BFS, 2000; Teatro provincia dell’uomo, Livorno, Frediani, 2004; La scena rituale, Roma, Carocci, 2007. In collaborazione con Ferdinando Falossi ha pubblicato L’incanto della maschera e La poesia della maschera, Torino, Prinp, 2014 e 2015. Collabora alla rivista “Critica d’Arte”.

 

Al Teatro Dimora L’Arboreto dal 2 al 5 luglio Chroma Keys residenza creativa per la ricerca e la produzione della performace site-specific di Motus per Santarcangelo Festival
1042

residenza creativa per la ricerca e la produzione della performace site-specific di Motus per Santarcangelo Festival

di Enrico CasagrandeDaniela Nicolò e Silvia Calderoni
tecnica e video design Paride DonatelliAndrea Gallo e Alessio Spirli (aqua micans group)
una produzione Motus con Santarcangelo Festival
con il sostegno di MiBACTRegione Emilia-Romagna
si ringrazia Matteo Marelli per la collaborazione

residenza creativa L’arboreto – Teatro Dimora di Mondaino

 

Abbiamo bisogno d’aria, dell’imprevisto degli spazi aperti… e, come in un piano sequenza senza inizio né fine, di metterci ancora in viaggio con altri esseri alieni. Dopo anni di tournée in teatri oscuri e artificiali, luoghi connotati e uscite di sicurezza, torniamo allo smarrimento del Fuori. Per questa edizione del festival, tutta all’insegna dello stupore/terrore per l’imprevisto, scegliamo proprio il cuore di Santarcangelo, piazza Ganganelli, per sondare i nostri peak. Questa performance-scheggia impazzita di Panorama è un tributo dal sapore cinematografico all’andare senza meta, sfidando gli angoli inquieti della percezione visiva. I vecchi artifici, Truka e Chroma Key ci aiuteranno a spostare l’asse del vero, ad aggiungere finzione alla finzione, “assaltando l’impossibile” sino a… che fare? Ad esempio, lanciarsi in una corsa sfrenata con l’auto ed entrare dritti in mezzo al mare, come i protagonisti di Pierrot le fou di J.L. Godard!

Presentazione

7 – 8 luglioore 21.30 – Piazza Ganganelli – Santarcangelo di Romagna (RN)
nel programma di Santarcangelo Festival

 

Motus nasce nel 1991, compagnia nomade e indipendente, in costante movimento tra Paesi, momenti storici e discipline. I fondatori Enrico Casagrande e Daniela Nicolò, animati dalla necessità di confrontarsi con temi, conflitti e ferite dell’attualità, fondono scenicamente arte e impegno civile attraversando immaginari che hanno riattivato le visioni di alcuni tra i più scomodi “poeti” della contemporaneità. Compie venticinque anni la compagnia fondata da Enrico Casagrande e Daniela Nicolò: un anniversario importante per il gruppo, esploso negli anni Novanta con spettacoli di grande impatto emotivo e fisico, che ha saputo prevedere e raccontare alcune tra le più aspre contraddizioni del presente. Ha attraversato e creato tendenze sceniche ipercontemporanee, interpretando autori come Beckett, DeLillo, Genet, Fassbinder, Rilke o l’amato Pasolini, per approdare alla radicale rilettura di Antigone alla luce della crisi greca o a una Tempesta shakesperiana, interpolata da Aimé Césaire, capace di evocare la tragedia dell’emigrazione e di creare instant community in tutto il mondo.
Hanno ricevuto numerosi riconoscimenti, tra cui tre premi UBU e prestigiosi premi speciali per il loro lavoro. Silvia Calderoni, attrice di Motus dal 2005, ha vinto diversi premi tra cui premio UBU come migliore attrice Italiana (2009), MArteAwards (2013), Elisabetta Turroni (2014) e Virginia Reiter (2015).
Liberi pensatori, portano i loro spettacoli nel mondo, da Under the Radar (NYC), al Festival TransAmériques (Montréal), Santiago a Mil (Cile), Fiba Festival (Buenos Aires), e in tutta Europa.

www.motusonline.com

VFrame by Adam Harvey: Machine learning for Human Rights researchers and Investigative Journalists
1040

VFRAME is a computer vision toolkit designed for human rights researchers and investigative journalists

VFrame

Project from Adam Harvey creates tools using Machine Learning for human rights researchers and investigative journalists – the video above demonstrates visual recognition of munition and shells:

Accelerating Human Rights Investigations with Computer Vision

People caught in conflict zones such as the Syrian conflict frequently post videos online that contain critical information for human rights investigations. But manually reviewing these videos is expensive, does not scale, and can cause vicarious trauma. As an increasing number of videos are posted, a new approach is needed.

VFRAME is a computer vision framework being developed to address these demands. It provides researchers and technologists with access to state-of-the-art tools to locate objects of interest, extract visual metadata, query related media, organize and annotate custom datasets, and provide filtering for traumatic content.

VFRAME is currently working directly with the Syrian Archive to establish the most effective and relevant tools for improving their workflow. Phase 1 of VFRAME will research and develop the following capabilities:

Visual Taxonomy
To understand how objects can be annotated for training datasets, they are first stuctured into a visual hierachy that defines and links signature visual characteristics
Custom Datasets
Using the visual taxonomy, datasets can be constructed using a new web-based annotation platform developed specifically for VFRAME
Object Detection
Using the custom datasets, state-of-the-art object detection algorithms are trained to locate and quantify objects of interest in large video datasets
Scene Metadata
Additional visual metadata such as scene attributes will provide researchers with more keywords to search and link videos
Graphic Filtering
Manually reviewing videos from conflict zones can cause vicarious trauma. VFRAME is creating graphic filtering capabilities to provide relief from reviewing traumatic content
Visual Metadata API
VFRAME converts videos into RESTful API endpoints that can be integrated into other workflows and custom search engines

Sulla rivista interuniversitaria ARABESCHI l’articolo su 887 di LEPAGE di Anna Monteverdi
1039

Il saggio di Anna Monteverdi sullo spettacolo di LEPAGE  887 nella sua veste di “racconto autofinzionale” è stato pubblicato nella rivista interuniversitaria di Catania ARABESCHI  n.11

Lo spettacolo 887 dell’eclettico artista teatrale canadese Robert Lepage è un’incursione nel mondo della memoria, una storia che inizia nei suoi ricordi di infanzia. Attraverso la costurzione di un allestimento scenografico ʻtrasformistaʼ, l’autore si immerge nel cuore della propria memoria, interrogandosi sui suoi meccanismi (Perché ricordiamo il numero di telefono della nostra gioventù, quando dimentichiamo il presente? Perché le informazioni inutili persistono, mentre altre, più utili, evadono?). Il saggio prende in esame il processo creativo dello spettacolo di Lepage alla luce della tecnica dell’ʻautofinzioneʼ, che permette all’artista di alimentare la realtà autobiografica con elementi a metà tra verità e fantasia.

The show 887 directed by the eclectic theatrical Canadian artist Robert Lepage is a foray into the world of memory, a story that begins in his childhood memories. Through the set-up of a scenographic setting ʻtransformativeʼ, the author immerses himself in the heart of his memory, questioning about his mechanisms (Why do we remember the phone number of our youth, while we forget the current one? Why does useless information persist, while others, more useful, escape?). The essay examines the creative process of the Lepage’s show in light of the ‘autofiction’ technique, which allows the artist to feed the autobiographical reality with elements halfway between truth and fantasy.

http://www.arabeschi.it/authors/anna-maria-monteverdi/

 

 

June 26 at 17.00 presentation at Teatro Potlach-Festival FLIPT of the book “Memoria, maschera e macchina nel teatro di Robert Lepage”
1038

FLIPT – Festival Laboratorio Interculturale di Pratiche Teatrali
June 26 at 17.00 presentation at Teatro Potlach of the book “Memoria, maschera e macchina nel teatro di Robert Lepage” (Memory, mask and machine in the theater of Robert Lepage) with the author Anna Maria Monteverdi.

https://www.youtube.com/watch?v=xJeboqCYHNQ

 

Memoria Maschera e Macchina al Festival Inequilibrio.Introduce Massimo Bergamasco
1037

Il volume Memoria maschera e macchina nel teatro di Robert Lepage (Meltemi editore).  di Anna Maria Monteverdi appena edito per Meltemi con introduzione di Fernando Mastropasqua., sarà presentato per la prima volta a Castiglioncello il 20 giugno alle ore 16 nell’ambito del  Festival di Teatro “Inequilibrio” diretto da Fabio Masi e Angela Fumarola.

L’incontro vede la partecipazione insieme all’autrice, dell’Assessore alle Politiche giovanili del Comune di Rosignano Veronica Moretti  e di Massimo Bergamasco, docente di Ingegneria Meccanica alla Scuola Superiore Sant’Anna di Pisa.  

L’ incontro è legato al Contest Giovani Innovatori 2018 promosso dal Comune di Rosignano Marittimo.

Memoria, maschera e macchina sono termini interscambiabili nel teatro di Robert Lepage, regista e interprete teatrale franco-canadese considerato tra i più grandi autori della scena contemporanea che usa i nuovi media; se la sua drammaturgia scava l’io del personaggio portando alla luce un vero e proprio arsenale di memorie personali e collettive, la macchina scenica video diventa il doppio del soggetto, specchio della sua interiorità più profonda. La perfetta corrispondenza tra trasformazione interiore del personaggio e trasformazione della scena determinano la caratteristica della macchina teatrale nel suo complesso che raffigura, come maschera, il limite tra visibile e invisibile. Il volume contiene interviste a Robert Lepage e allo scenografo Carl Fillion e un’antologia critica con saggi di Massimo Bergamasco, Vincenzo Sansone, Erica Magris, Giancarla Carboni, Francesca Pasquinucci, Andrea Lanini, Ilaria Bellini, Sara Russo, Elisa Lombardi, Claudio Longhi.

Anna Maria Monteverdi è ricercatore di Storia del Teatro all’Università Statale di Milano e docente aggregato di Storia della Scenografia. Insegna Cultura digitale alla Alma Artis Academy di Pisa ed è coordinatrice della Scuola di Arti e Nuove tecnologie dell’Accademia. Esperta di Digital Performance ha pubblicato: Nuovi media nuovo teatro (FrancoAngeli 2011), Rimediando il teatro con le ombre, le macchine e i new media (Ed.Giacché 2013), Le arti multimediali digitali (Garzanti 2005 ). Ha realizzato documentari teatrali per Rai5.

Massimo Bergamasco: Ordinario di Meccanica Applicata presso la Scuola Superiore Sant’Anna di Pisa, è Direttore dell’Istituto di Tecnologie per la Comunicazione, Informazione e Percezione della Scuola. Ha fondato nel 1991 il Laboratorio di Robotica Percettiva, dove svolge attività di ricerca su temi di Robotica Indossabile, Interfacce Aptiche e Ambienti Virtuali.

 

FLIPT Festival FARA SABINA, Saturday, June 23rd: Film “The Art of the Impossible”, first Italian screening of the documentary by Elsa Kvamme on Eugenio Barba and the Odin Teatret
1036

FESTIVAL LABORATORIO INTERCULTURALE DI PRATICHE TEATRALI

in collaborazione con I.S.T.A. International School of Theatre Anthropology diretta da Eugenio Barba

dal  18 GIUGNO  al  1 LUGLIO  2018 

Giunge alla sua XVIII edizione il FLIPT – Festival Laboratorio Interculturale di Pratiche Teatraliorganizzato dal Teatro Potlach di Fara in Sabina.

Quattordici giorni di laboratori, spettacoli e dialoghi dedicati all’incontro e allo scambio creativo tra diverse culture della performance.

Quest’anno il confronto avverrà tra artisti provenienti da Iran, Danimarca, Grecia, Polonia, Brasile, Ungheria, Germania, India e Italia, che porteranno al festival il proprio contributo attraverso la condivisione della propria personale esperienza teatrale.

Dal 18 giugno al 1 luglio, nella sede del teatro diretto da Pino Di Buduo, pedagoghi di livello internazionale si avvicenderanno nella conduzione di workshop dedicati alla regia e agli elementi fondativi della presenza scenica dell’attore nelle culture orientali e occidentali.

Il 23 giugno verrà presentato il documentario su EUGENIO BARBA in prima nazionale

 

Anna Colafiglio: “Attori e alter ego digitali: riflessioni attraverso la lente delle masques technologiques”.
1035

Anna Colafiglio

“Attori e alter ego digitali: riflessioni attraverso la lente delle masques technologiques”.

Il dibattito sul tema del doppio digitale dell’uomo è, al giorno d’oggi, quanto mai attuale. La nuova società digitale che si è sviluppata sulle piattaforme web costituisce, di fatto, una realtà parallela in cui ognuno è attore e attante di una vita ‘altra’ che esiste a tutti gli effetti, sebbene sia collocabile su un diverso piano rispetto a quello della realtà fisica. La costruzione del proprio personaggio virtuale implica una teatralità di fondo, insita nella possibilità di ‘costruirsi’ e ‘rendersi percepibili’ su un piano differente rispetto a quello strettamente concreto ed empiricamente osservabile.

Come afferma Brunella Eruli, «désormais les média nous proposent un univers où l’image n’est pas, n’est plus, la “rèproduction” de la réalité: elle “est” la réalité»[1]. Di questo aspetto parla anche Philip Auslander, il quale sostiene che il valore della presenza del performer dal vivo sia stato svalutato dall’odierna cultura mediatizzata: «when we go to a concert employing a large video screen, for instance, what do we look at? Do we concentrate our attention on the live bodies or are our eyes drawn to the screen, as Benjamin’s postulate of our desire for proximity would predict?» [2].

Lasciando da parte, in questa sede, le ricadute socio-antropologiche che questo cambiamento strutturale comporta, ci si concentrerà sulle modalità attraverso cui la realtà digitale è giunta a permeare il ramo delle arti performative, la cui storia, sin dalle origini, incontra spesso il tema del doppio dell’attore – il quale è già, egli stesso, un doppio dell’uomo da cui è agito –. Steve Dixon parla di enhanced theatre per definire quell’esperienza teatrale ‘aumentata’ dall’uso delle tecnologie in scena, che amplificano gli aspetti peculiari del medium teatrale[3]; Steve Benford e Gabriella Giannachi definiscono mixed reality performances quelle tendenze performative che uniscono reale e virtuale, spettacolo dal vivo e interazione uomo-tecnologia[4]. Ricercatori attivi in campo teatrale, artisti digitali e programmatori si interrogano con interesse sempre maggiore su quali possano essere le interazioni tra la realtà e gli universi digitali, mondi a sé stanti moltiplicabili all’infinito e in infinite forme. Il teatro e le arti performative tutte riflettono, in particolare, sull’impatto che queste realtà ‘altre’ possono avere sulla percezione scenica, sulla professione dell’attore, sulle possibilità della messa in scena e sulla fruizione del pubblico.

Tra le declinazioni che questa contaminazione può assumere, quella del doppio virtuale dell’attore, inteso come avatar animato attraverso un sistema di Motion Capture[5] e che si muove in un universo digitalmente costruito, ha sicuramente un impatto molto significativo sui principali aspetti della performance dal vivo. Il performer è vestito di una tuta aderente con dei marcatori di movimento, che ne condiziona l’azione, ed è chiamato ad assumere il controllo di un corpo virtuale la cui esistenza implica l’impiego di due piani spaziali: quello reale e quello virtuale, che è un mondo del tutto differente. Uno dei primi terreni d’impiego della MoCap è stato il settore della danza contemporanea[6]. Come sostiene Antonio Pizzo, nella performance del danzatore il corpo è spogliato dalla componente narrativa che caratterizza, invece, l’azione dell’attore nel teatro, nel cinema e nel gaming; egli può dunque puntare all’espressività e alla rappresentazione della volumetria del corpo[7]. Nel caso dell’attore, il mezzo pone una serie di problemi in più; attualmente, la MoCap è utilizzata nei contesti di cinema e gaming molto più che nella performance teatrale. Ripercorrendo alcune esperienze di ricerca a livello nazionale e internazionale, si analizzeranno degli esempi di applicazione di questa tecnologia al lavoro dell’attore e del regista, insieme ad alcune possibilità drammaturgiche che hanno trovato spazio in seguito a queste sperimentazioni.

Gli studi di Matt Delbridge, che si concentrano principalmente sull’attore cinematografico, evidenziano la complessità della relazione tra l’attore e il suo avatar virtuale, le cui criticità si legano, in particolar modo, al controllo di un movimento che ha luogo in uno spazio diverso da quello in cui, concretamente, l’interprete si muove. Spesso gli ambienti di cattura sono asettici, privi di riferimenti spaziali e di contesto, privi di ingombri e oggetti di scena; questo sistema richiede un nuovo tipo di approccio alla performance, e afferma la necessità di una formazione specifica che vada a ridefinire il concetto stesso di presenza nello spazio. Sottolineando questa stessa problematica,

Daniel Kade sostiene che la qualità della performance degli attori MoCap dipenda molto dalla capacità di questi ultimi di immaginare la scena in cui stanno recitando, e di immedesimarsi nel ruolo che sono chiamati a interpretare[8]. L’analisi di Kade parte da una serie di questionari consegnati ad attori e registi MoCap di diversa formazione, da cui emerge un quadro interessante circa le circostanze di lavoro e le esigenze degli uni e degli altri. Per migliorare la propria performance, gli attori segnalano la necessità di un’evoluzione della pratica verso una maggiore disponibilità di riferimenti visivi, oggetti e ingombri di scena, costumi; affermano inoltre il bisogno di ricevere più dati possibili riguardo i personaggi, l’ambiente in cui si muovono e la sua collocazione temporale, informazioni cui non sempre possono accedere con facilità. Dai questionari consegnati ai registi, sono invece emerse le caratteristiche principali di cui un attore MoCap deve essere provvisto: creativo e dotato di grande capacità immaginativa, egli deve essere in grado di esprimere la propria emozionalità attraverso una gestualità chiara e pulita, limitando al massimo il ricorso alla mimica facciale. Quest’ultima infatti, come si vedrà, può costituire un vincolo per la cattura del movimento, poiché riduce considerevolmente l’espressività corporea diventando il veicolo semantico preponderante dell’emozionalità dell’interprete.

Anche David Cage, fondatore dell’azienda di videogiochi Quantic Dream, si esprime sulla particolarità della recitazione in un ambiente MoCap paragonandola all’esperienza dell’attore in quello che chiama minimalist theatre[9]: qui la performance avviene su un palcoscenico completamente vuoto, che costringe il performer a un notevole sforzo di immaginazione. In questa situazione, la figura del regista risulta fondamentale al fine di contestualizzare ciascuna azione.

John Dower, regista di performance MoCap soprattutto nell’ambito del gaming, afferma:

“Io ero autorizzato ad avere l’intero script di tutte le scene, ed era circa cento pagine. Gli attori, al contrario, non potevano averlo; veniva data loro solo la singola scena da girare il giorno seguente, o addirittura lo stesso giorno. Ciò accade perché le produzioni sono molto preoccupate che possano trapelare informazioni sulla storia. […] Quindi [l’interprete] deve essere in grado di comprendere rapidamente la situazione e, in pochi minuti, realizzare ciò di cui ha bisogno di sapere al fine di eseguire efficacemente le sue azioni. Puoi immaginare come reagirebbe un attore tradizionale se gli dessi la scena, magari anche abbastanza lunga, solo mezz’ora prima di eseguirla. […] In più, l’attore si trova in uno studio che non somiglia a nessun altro posto dove probabilmente ha già lavorato e possono mancargli gli elementi dai quali aveva imparato a trarre le proprie indicazioni, i propri riferimenti per la creazione del personaggio.[10]

Dower ha lavorato a lungo nel mondo del gaming, fino a sentire l’esigenza di fondare, insieme all’attore Oliver Hollis-Leick, la scuola The Mocap Vaults[11]: attiva tra Londra e Los Angeles, è uno dei principali centri di formazione per registi, attori e animatori che operano, a vario titolo, nell’industria della MoCap. A proposito delle tecniche attoriali, Dower afferma la necessità di una formazione di tipo teatrale per gli attori che si avvicinano alla MoCap: l’attore teatrale è infatti pienamente consapevole della propria presenza, della propria fisicità e di come questa entri in relazione con il pubblico[12]. Lo stesso Oliver Hollis-Leick, attore MoCap di grande esperienza, conferma questa visione, affermando che gli attori cinematografici tendono ad apparire molto rigidi nella loro trasposizione virtuale, in quanto abituati a utilizzare molto la mimica facciale nella loro pratica recitativa; gli attori di teatro, invece, sono spesso più inclini all’uso dell’intero corpo, poiché hanno necessità di rendere il loro movimento percepibile anche dagli spettatori più lontani dal palcoscenico.

I think people often underestimate the ability of motion capture to detect falseness. Any hesitation, tension or discomfort is immediately read by the technology and will look out of place. The hardest thing about motion capture is the rawness of it. On a movie set, you’ve got costume, props, and other actors around you, you know exactly where the camera is and you know what kind of size of shot it is and you can just perform. In motion capture, you have a bare warehouse-like set with no props, no costumes, sometimes you have no other actors in the room and you don’t necessarily even know where the camera is.[13]

La dimensione fortemente teatrale della performance MoCap è alla base del concetto di Performance Capture introdotto da Matt Delbridge, con il quale si identifica una pratica che va oltre la semplice cattura del movimento ‘fisico’, abbracciando una visione più ampia e completa della performance attoriale inclusiva della sfera emozionale e semantica del movimento stesso[14]; essa comprende dunque l’azione di tutte le figure creative e tecniche che concorrono alla creazione dell’avatar e del suo universo digitale. Delbridge utilizza proprio lo spazio teatrale per mettere in atto diverse sperimentazioni che riguardano il movimento dell’attore e la sua relazione con i piani ‘altri’ in cui il suo avatar si muove[15]: attraverso il coinvolgimento di attori e performer di differente formazione, Delbridge cerca di risolvere il problema dell’asetticità dello spazio recitativo in cui la cattura del movimento avviene, dando ai partecipanti la possibilità di vedere di fronte a sé l’avatar posizionato sul palcoscenico di un teatro virtuale. In questo modo, l’attore può migliorare la percezione di sé e delle proprie azioni, attraverso la messa in campo di una relazione uomo-ambiente che sarebbe impossibile trovare nel solo luogo dell’azione reale. L’approccio alla materia di Delbridge è diametralmente opposto a quello di John Dower e The Mocap Vaults: Dower afferma, infatti, la necessità di nascondere, agli occhi dell’attore, qualsiasi monitor in cui questi possa vedere il riflesso di se stesso, per evitare che si concentri sul proprio aspetto più che sulla propria performance.

In ambito italiano, sono pochissimi i casi in cui la tecnologia MoCap è stata applicata al teatro; tra questi, figura senza dubbio l’Ubu Incatenato di Fortebraccio Teatro (2005)[16] [inserire fig.1: Fortebraccio Teatro, Ubu Incatenato, regia di Roberto Latini, 2005. Foto di Cristiano Colangelo]. Qui Roberto Latini veste i panni di Ubu indossando un esoscheletro che lo incatena e ne capta il movimento, creando un avatar proiettato in un universo virtuale; è «il cyber-attore cablato, il cyborg miscela di organico, mitologico e tecnologico [che] assume i connotati della Supermarionetta profetizzata da Gordon Craig, dell’attore-architettura ambulante di Oskar Schlemmer e infine dell’attore biomeccanico mejercholdiano»[17].

Fortebraccio Teatro, Ubu Incatenato, regia di Roberto Latini, 2005. Foto di Cristiano Colangelo].

Tutto l’esoscheletro è immaginabile come un microfono del corpo che lo amplifica e lo rende altrimenti visibile e mutabile, lo moltiplica, lo reinventa anche graficamente […]. Tutti [i personaggi] possono essere animati, interpretati, attraversati da un solo attore. Come fosse il marionettista di se stesso, come fosse contemporaneamente il proprio suo autore, infine, dipendente solo da stesso. […] L’attore sul palco è assistito da un informatico che nella scenografia realizzata è posto sotto al palcoscenico, come se fosse nella baracca del burattinaio.[18] L’Ubu Incatenato si chiude con l’esoscheletro appeso al centro della scena, inerme; una carcassa che, privata dell’attore, non può portare avanti lo spettacolo.

Si evince come il palcoscenico teatrale ponga delle questioni assolutamente differenti da quelle dell’ambiente di cattura impiegato in ambito cinematografico o del gaming. Andrea Brogi, artista digitale fondatore di XLab  parla del rapporto tra la tecnologia e l’attore nella performance teatrale, rilevando degli elementi che si collocano agli antipodi di quanto detto finora:

Quando lo spettacolo va in scena l’attore conosce alla perfezione lo spazio che lo circonda, è effettivamente come un abito di scena che gli è stato cucito addosso, in cui si deve sentire a suo agio e di cui deve avere la piena padronanza. […] La mia attenzione si è sempre concentrata sulle necessità espressive dell’attore in modo da far diventare l’ambiente virtuale una sorta di estensione del suo corpo e della sua gestualità. Prima quindi si progetta l’aspetto interattivo che l’attore deve avere con la scena, dopodiché si scelgono le tecnologie adatte e si inizia la fase di sperimentazione con l’attore.[19]

Nelle parole dei registi e degli artisti digitali che lavorano per il teatro, torna di frequente il concetto di tecnologia come estensione del corpo dell’attore, che influisce radicalmente sulla creazione e sul suo modo di stare in scena[20].

Sul piano della ricerca in area nazionale, si segnala il lavoro svolto nell’ambito del Master in Animazione 3D Autodesk Maya e Compositing dell’Università La Sapienza di Roma[21]. In collaborazione con il Centro Teatro Ateneo, il Laboratorio di Biomeccanica dell’Università di Roma Foro Italico e The Pool Factory[22], l’équipe, composta da Maria Grazia Berlangieri, Flaviano Pizzardi, Ferruccio Marotti, Aurelio Cappozzo e Mounir Zok, ha messo in campo un gruppo di studio sulla relazione tra tecniche attoriali e animazione 3D in tempo reale[23]. Dopo diversi esperimenti con attori di provenienza cinematografica e teatrale in senso lato, la cui cattura del movimento è risultata funzionale ma poco espressiva, nel 2010 l’équipe ha iniziato a lavorare con attori di Commedia dell’Arte, il cui intervento si è rivelato molto efficace: formati attraverso un determinato training psicofisico e abituati ad agire su palcoscenici semivuoti, con una maschera sul volto a privarli della mimica facciale, essi sono stati in grado di infondere una maggiore espressività all’avatar virtuale. Per evitare che l’attenzione degli attori si focalizzasse troppo sulle novità tecnologiche peculiari dell’ambiente di cattura MoCap, i canovacci sono stati sostituiti da nuove drammaturgie, riportando l’attenzione sul testo e sugli elementi più tradizionali del lavoro d’attore. Gli interpreti hanno rilevato un’amplificazione del proprio immaginario attoriale, come reazione allo straniamento dato da quel set così privo di riferimenti spaziali, di luci, di pubblico, di punto di vista: «si tratta di estrema libertà, ma non avere paletti per un attore è, non dico rischioso, ma qualcosa che certamente disorienta e spiazza»[24].

Sul piano della tecnologia utilizzata come espediente formativo per l’attore è intervenuto Massimo Bergamasco, direttore del TECIP – Istituto di Tecnologie della Comunicazione, dell’Informazione e della Percezione della Scuola Superiore Sant’Anna di Pisa[25], nell’ambito del convegno internazionale di studi Masques technologiques – Altérités hybrides de la scène contemporaine[26]. L’intervento di Bergamasco ha presentato i risultati delle ricerche attualmente in corso presso il centro di eccellenza, che opera nel duplice ambito della robotica indossabile a fini riabilitativi e dello sviluppo di hardware e software per ambienti virtuali immersivi e realtà aumentata. Nel corso degli anni, l’Istituto si è confrontato con le arti performative in diverse occasioni. All’interno del progetto europeo Beaming[27] sul teletrasporto virtuale, due nuclei di attori presenti a Londra e Barcellona, dotati di caschi immersivi, si sono incontrati all’interno di un unico ambiente virtuale; un regista ha interagito con loro pur trovandosi in un terzo ambiente fisico, lontano da entrambi i gruppi, dando prova concreta del fenomeno chiamato immersive telepresence. Nel luglio 2017, in occasione della III edizione fiorentina del META – Meeting of European Theatre Academies, l’Istituto TECIP e il PERCRO – Laboratorio di Robotica Percettiva hanno collaborato con l’Accademia Teatrale di Firenze in occasione del workshop Realtà virtuale applicata alla pedagogia teatrale e alle arti performative[28], incentrato sui sistemi di formazione attoriale e registica basati sull’utilizzo di tecnologie quali sistemi di visualizzazione immersiva e di rilevamento motorio, sfruttando il valore trasformazionale degli ambienti virtuali per cambiare l’esperienza percettiva del performer e ottenere specifici risultati sulla scena.

Massimo Bergamasco

La riflessione messa in atto dal convegno parigino Masques technologiques ha avuto il merito di ampliare il dibattito sul doppio virtuale alla sua applicazione sul palcoscenico. La relazione con la MoCap è stata analizzata dal punto di vista del performer, del regista e del formatore teatrale, sottolineando le modalità attraverso cui l’utilizzo di questa tecnologia può diventare un espediente drammaturgico per la scena e interagire con la realtà fisica. Hanno partecipato alle giornate di studio professionisti provenienti da diversi ambiti disciplinari: ricercatori attivi nel campo degli studi teatrali, registi, attori, artisti digitali e programmatori. L’incontro tra queste professionalità ha messo in campo una serie di riflessioni a tutto tondo sull’utilizzo delle nuove tecnologie applicate a una forma di recitazione e creazione che, per molti versi, ha a che fare con la teatralità più classica: quella che vede l’attore relazionarsi con la maschera che porta sul volto e che, dunque, abita in certo modo il suo corpo. Partendo da una panoramica relativa all’utilizzo della maschera tra XIX e XX secolo, realizzata da Guy Freixe dell’Université de Besançon[29], si è giunti all’analisi di quella che, a oggi, è la relazione tra l’attore e il suo doppio, delle modalità di interazione tra il performer in scena e il suo alter ego digitale, della nuova dimensione spaziale che questa dualità scenica e interpretativa comporta. L’oggetto-maschera, privando l’attore della propria mimica facciale, lo spinge a cercare un codice espressivo che si caratterizza per movenze tipizzate e stilemi archetipici, imponendo al corpo dell’attore una determinata codificazione e una pulizia di movimento che, come si è visto, sono centrali anche nei processi di acquisizione del movimento propri della MoCap. Capace di trasformare il corpo in un ibrido che trascende l’umano, la maschera viene qui a rappresentare l’essenza stessa del teatro, che di per sé è luogo di trasfigurazione del reale, di ‘realtà aumentata’; costituisce una forma di alterità paragonabile all’approccio messo in campo dalle tecnologie digitali e dall’utilizzo del doppio in forma di avatar. Ci si chiede se, al giorno d’oggi, le tecnologie digitali possano essere percepite e utilizzate come vere e proprie maschere contemporanee: risoluzione che porta con sé la necessità di appellarsi ad appositi codici interpretativi, approcci al materiale scenico e percorsi di formazione attoriale mirati a questa modalità di creazione e azione, vero e proprio ‘moltiplicatore di realtà’.

Duccio Bellugi, storico attore del Théâtre du Soleil, ha affermato di utilizzare le stesse tecniche della recitazione con maschera nel dare vita all’avatar digitale; ha così lasciato spazio alla tecnologia, mettendo in secondo piano l’uomo-attore. «Spesso – ha affermato Bellugi ­– si pensa alla maschera come a un oggetto che riguarda solo il volto dell’attore, ma questo è un errore: nella recitazione con maschera è tutto il corpo a essere messo in gioco»[30]. La grammatica gestuale della maschera aiuta l’attore ad allontanarsi da un approccio realistico alla recitazione; è dunque un ausilio sostanziale alla sua relazione con il mezzo tecnologico.

Avviato nel 2015, il progetto di ricerca e creazione Masques et Avatars indaga la presenza dell’attore all’interno di una scena ‘aumentata’ da dispositivi digitali, in questo caso rappresentati dalla tecnologia MoCap. Come ha evidenziato Erica Magris, che con il suo intervento ha condotto la discussione alle radici della ricerca intrapresa nell’ambito del progetto, l’impatto che le tecnologie hanno sulla performance attoriale è evidente. Proprio questa riflessione ha condotto l’équipe a un’approfondita analisi delle dinamiche dello stare in scena dell’interprete; la maschera, da subito, si è configurata come un dispositivo ottimale per avvicinarsi a questo concetto di attore tecnologicamente aumentato. L’analisi di Erica Magris ha evidenziato come l’impiego della ‘maschera tecnologica’ sulla scena, nelle sue diverse declinazioni, influenzi profondamente la performance dell’attore. La differenza più grande che sussiste tra la maschera teatrale e quella tecnologica parte proprio dalla soggettività dell’attore: se la prima è un oggetto immobile che si applica al corpo e ‘vive’ grazie all’azione dell’interprete, quella tecnologica è un dispositivo che si configura come il risultato di una serie di elementi, il cui funzionamento e la cui resa scenica sono determinati dall’azione multipla e congiunta di più soggetti coinvolti. Il corpo dell’attore è così mediatizzato: i dispositivi tecnologici lavorano sulla sua immagine, riducendo le azioni in dati che possono essere manipolati e rielaborati all’infinito e che giungono, spesso, a distaccarsi radicalmente dall’attore, dal suo corpo e dalla sua influenza di essere vivente. L’attore spesso innesca dei fenomeni, ma il modo in cui il suo movimento è trattato in postproduzione dipende dal sistema complessivo di lavoro; egli diviene dunque uno strumento, sezione di un meccanismo che prescinde, in ampia parte, dalla sua azione.

Con l’intervento L’altérité en scène: masques et doubles numériques de l’acteur, Giulia Filacanapa ha proposto una cronistoria dei punti di partenza e di arrivo della ricerca condotta nel corso del triennio, e qui giunta a conclusione con la presentazione di tre diversi esiti scenici, in cui attori mascherati hanno animato degli avatar virtuali[31]. Partendo da alcuni interrogativi fondamentali – in che modo l’attore mascherato e colui che anima l’avatar vivono la metamorfosi? Quali sono i parallelismi tra queste due tipologie di alterità? –, il gruppo di lavoro ha adottato da subito un approccio pratico alla ricerca e ha elaborato un dizionario di neologismi: l’attore in tuta MoCap[32] è diventato, così, mocapteur, ed è emersa una nuova figura, fondamentale per la resa finale, che è quella del manipulacteur. Quest’ultimo assume il controllo in tempo reale della presenza dell’avatar nello spazio, tramite un joystick molto simile a quello adoperato nei videogiochi. Alle figure del mocapteur e del manipulacteur si aggiungono quella dell’artista digitale, che crea lo spazio e il personaggio virtuale, e quella del regista. Il ruolo di quest’ultimo assume, in questo contesto, una complessità differente: egli deve infatti dirigere l’attore in carne e ossa partendo dallo specchio del suo movimento sull’avatar digitale; deve cercare, dunque, il mezzo affinché la resa finale dell’avatar corrisponda alle esigenze della scena, interrogandosi costantemente sui destinatari delle proprie indicazioni e dirigendo l’équipe secondo un’estetica coerente con il progetto di messa in scena.

Dal punto di vista spaziale, il mocapteur si muove su tre aree differenti: lo spazio fisico, nel quale il suo corpo ‘reale’ agisce; lo spazio virtuale, che spesso è caratterizzato da una maggiore connotazione scenica, e dunque drammaturgica, nel quale si muove l’avatar; lo spazio ‘drammatico-fisico’, a metà tra i due, nel quale si trova l’attore nel momento in cui anima un avatar o un personaggio. Il mocapteur deve, così, abitare uno spazio al confine tra realtà differenti, in cui la plausibilità dell’azione dipende dalla sua capacità di proiettare l’azione stessa in uno spazio ‘altro’, spesso preoccupandosi, al contempo, della credibilità ed efficacia del suo personaggio nello spazio reale.

La plausibilità espressiva dell’avatar è stata, da subito, uno dei punti focali per l’équipe di ricerca. Il miglioramento portato all’espressività dell’avatar dalla presenza della maschera sul volto dell’attore MoCap, è stato rilevato anche dal programmatore Cédric Plessiet, che ha sottolineato una variabile di contesto nella percezione del gesto attoriale: se in teatro questo è visto come un’azione intenzionale portatrice di significato, per l’animatore 3D è null’altro che un dato trasmesso al sistema. La maschera può essere un valido ausilio in questo senso poiché, facendo appello a una grammatica codificata del movimento, aiuta l’attore a rendere il suo gesto informaticamente più leggibile. Per chiarire questo nodo teorico, Plessiet ha citato il metodo attoriale di Andy Serkis: egli non recita mascherato, ma ha una tale padronanza della MoCap da rendere il dato del suo movimento perfettamente decifrabile dai suoi sviluppatori. Oggi, fuori dalle dinamiche delle grandi produzioni cinematografiche, questa è una situazione molto difficile da replicare, sia perché l’attore teatrale ha una minore dimestichezza con il mezzo tecnologico, sia perché, a livello economico, l’impiego di mezzi e risorse umane è di gran lunga inferiore.

Il regista e ricercatore Georges Gagneré, che da tempo si occupa dell’applicazione del digitale in teatro, ha lavorato con Plessiet nel corso del progetto di ricerca. Izabella Pluta ha analizzato la relazione tra queste due professionalità, che presenta numerosi punti critici derivanti da una lontananza di approcci e di vedute destinate, tuttavia, a convergere in nome di un risultato. La collaborazione tra i due settori ha permesso di generare una grande consapevolezza dei reciproci campi di analisi; le esigenze dell’attore sono sempre state al centro della ricerca, e i codici di programmazione sono stati scritti in funzione di quelli che gli attori e gli altri utilizzatori avevano definito come necessità legate alla performance. Gagneré ha sintetizzato così la fruttuosa collaborazione avuta con Plessiet nel corso del progetto:

“Ho chiesto a Cédric di costruirmi una prima piattaforma di manipolazione dell’avatar e di insegnarmi degli elementi che, a un certo punto, sarei stato in grado di gestire da solo, senza fargli delle domande semplicistiche o dovute al fatto che non mi ero preso la responsabilità di formarmi un minimo al suo linguaggio. Ci sono delle cose che non sapevo fare, e che non saprò mai fare; d’altra parte, ci sono cose di cui potevo iniziare ad appropriarmi, per esistere nel mondo di Cédric in totale complementarietà, ma mantenendo comunque un’indipendenza”.

Rémy Sohier, che lavora nel campo del gaming, si è occupato di costruire la scenografia virtuale per le performance afferenti al progetto. Ha sottolineato la complessità di creare una composizione scenografica per l’attore teatrale aumentato e di posizionarlo nella scena virtuale; i riferimenti cinematografici e fotografici con i quali opera abitualmente, si sono rivelati inadeguati alla condizione ibrida del teatro, in cui due realtà – quella fisica e quella virtuale – devono entrare in relazione.

Come ha sottolineato il regista e attore Boris Dymny, l’ambiente in cui l’avatar si muove, seppur bidimensionale, è basato sulle regole del 3D: nella costruzione dello spazio, gli artisti digitali ragionano infatti in termini tridimensionali – dove posizionare la camera, come strutturare il campo visivo in relazione al personaggio –. Nello spazio virtuale, la terza dimensione è data dal fatto che la camera può girare a trecentosessanta gradi attorno al personaggio, dando così un risultato in termini di tridimensionalità; è estremamente difficile trovare dei codici recitativi che possano funzionare allo stesso modo sia nello spazio reale a tre dimensioni, sia in uno spazio, di fatto, bidimensionale.

Il progetto Masques et Avatars ha concluso la ricerca con la messa a punto di tre esiti scenici, basati sulle sperimentazioni realizzate durante il percorso. Con una maggiore coscienza tecnico-pratica da parte dei registi e degli attori, e con una rinnovata attenzione verso la scena da parte dei programmatori, è iniziato il lavoro sulla creazione. In tutti e tre i casi la tecnologia MoCap è stata utilizzata come espediente drammaturgico, con diverse modalità e diversi esiti. Le équipe hanno lavorato su avatar preesistenti, piuttosto statici e dalla configurazione molto semplice; il lavoro congiunto del mocapteur e del manipulacteur ha permesso di dar loro una maggiore presenza rendendoli scenicamente più efficaci – fermi restando i limiti imposti dalla tecnologia utilizzata, che hanno determinato una scarsa efficacia dell’azione in tempo reale e reso il lavoro degli attori piuttosto complicato –.

In Agamemnon Redux[33], Andy Lavender ha effettuato un lavoro sullo sguardo e sullo scarto di prossimità tra le attrici in scena e gli avatar nello spazio virtuale, luogo in cui avviene tutta l’azione scenica

Agamemnon Redux, regia di Andy Lavender, produzione Labex Arts H2H, 2017. Foto di Mélie Perrin Néel

Le due attrici, che vediamo agire sul palcoscenico con maschere balinesi sul volto, non hanno altro ruolo che quello di dare il movimento agli avatar in tempo reale: esse agiscono i personaggi ora guardando l’azione che avviene sullo schermo, ora stando di fronte al pubblico. Andy Lavender, docente presso la University of Warwick[34], ha evidenziato il paradosso cui è sottoposto il corpo umano nel momento in cui viene trasfigurato dall’oggetto-maschera o dalla tecnologia MoCap: entrambi i dispositivi giungono alla performance attraverso un processo di dissimulazione, poiché chiarificano il movimento e definiscono l’azione attraverso la negazione del corpo o del viso dell’attore. Per Agamemnon, Lavender ha adottato un approccio aderente ai principi della maschera: una cattura del movimento teatralizzata, in cui l’attore è in scena e crea l’avatar in tempo reale, rendendo lo spettatore cosciente dei mezzi con cui l’avatar stesso è realizzato. Gli avatar di Lavender non interagiscono con gli attori, ma sono da essi diretti come se fossero marionette; la loro gestualità è dunque evocativa, tratteggiata, mai realistica.

In La vie en rose. De la clinique à l’éternité[35], Giulia Filacanapa ha utilizzato la scena virtuale come luogo del ricordo, simbolo di uno spazio mentale ‘altro’ rispetto all’azione drammaturgica che ha luogo sulla scena

La vie en rose. De la clinique à l’éternité, regia di Giulia Filacanapa, produzione Labex Arts H2H, 2017. Foto di Mélie Perrin Néel

Gli attori, che indossano maschere in cuoio, interpretano dei personaggi sul palcoscenico e, al contempo, muovono gli avatar presenti nello spazio virtuale, luogo del pensiero di un malato di alzheimer che interagisce con le immagini prodotte dalla propria mente. La sincronizzazione dell’attore con il sistema MoCap avviene in scena: l’artificio svelato è parte integrante dello spettacolo.

Nella terza restituzione, La psychanalyse augmentée[36], la scena virtuale rappresenta il luogo dell’inconscio del protagonista, che ricorda episodi della sua infanzia durante una seduta di psicanalisi. In questo caso, i due protagonisti sono al centro della scena, rivolti verso il pubblico, mentre sui due lati, fuori dai riflettori, altri attori animano gli avatar digitali; la scena virtuale rappresenta un altro piano di rappresentazione rispetto alla scena fisica, e non interagisce con essa.

Le esperienze riportate dagli attori convolti nel progetto Masques et Avatars sono significative, soprattutto se comparate al punto di vista dei programmatori informatici che ne hanno seguito le diverse tappe nella creazione. Léandre Ruiz ha rilevato la necessità, per l’attore, di rinegoziare il proprio linguaggio espressivo e percettivo nella relazione con l’avatar virtuale, il quale è frutto di una responsabilità condivisa assai nuova per l’interprete; questi elementi di novità implicherebbero l’esigenza di seguire percorsi di formazione finalizzati all’acquisizione di nuovi strumenti espressivi. Cercare un ‘respiro’ comune a quello dell’avatar è risultato, per gli attori, molto difficoltoso: come confermato dal programmatore Cédric Plessiet, l’avatar virtuale, a causa di fattori principalmente derivanti da tecniche di calcolo, possiede un ritmo ‘vitale’ più lento rispetto a quello dell’interprete. Questa differenza crea uno scarto complicato da gestire, che determina impazienza tanto nell’attore quanto nel regista, riducendo la plausibilità dell’avatar agli occhi del pubblico.

Plessiet, da tempo impegnato nella definizione delle possibilità di autonomia dei personaggi virtuali, ha ipotizzato che la plausibilità dell’avatar possa dipendere dalla sua capacità di generare movimenti in autonomia, partendo dalla respirazione – il che potrebbe comportare non poche, ulteriori criticità nella relazione con l’interprete –. Oggi, dal punto di vista della programmazione, quanto c’è di più vicino all’autonomia è l’effetto creato dall’animazione comportamentale, sempre più diffusa anche nel campo del gaming: una simulazione basata su una serie di algoritmi genetici e reti neurali ‘istruite’. Plessiet ha operato una differenziazione tra il Golem, inteso come robot, che agisce autonomamente in seguito a un input esterno, e l’attore, che agisce invece grazie a un’intenzionalità e a un movimento che provengono da sé; l’obiettivo dei programmatori consiste nel far raggiungere al personaggio virtuale lo stesso status dell’attore, rendendolo a sua volta autore autonomo della propria intenzione e della propria azione. Anche l’artista digitale Jean-François Jégo, del laboratorio INRéV – Images Numériques et Réalité Virtuelle, si è interrogato sulle possibilità di autonomia per l’attore digitale: essa crea un’illusione di realtà che induce alla risoluzione per cui, se un personaggio è autonomo, allora questi è potenzialmente vivo, interrogando la possibile empatia o simpatia che si prova nei suoi confronti.

Si potrebbe ragionare molto sulla questione dell’autonomia dei personaggi virtuali, ma gli artisti digitali intervenuti sono stati concordi nell’affermare che, per ottenere un risultato ottimale, sarebbe necessario che ricercatori, programmatori e animatori collaborassero con gli attori al fine di ‘creare’ le capacità dell’attore virtuale, istruendo una specifica rete neurale. Nell’improvvisazione di due attori che recitano con maschera, non si sa quello che essi si diranno, ma si sa che entrambi resteranno sicuramente nella linea del proprio personaggio; ed è proprio in questa nozione di ‘personaggio’ che risiede una pista possibile per la creazione dell’attore virtuale autonomo.

 

Tag: motion capture, avatar, maschera, attore, teatro, performance, tecnologia, digitale, corpo

[1] B. Eruli, ‘Le silence des sirènes’, Puck. La marionnette et les autres arts. Images virtuelles, n. 9, 1996, p. 9.

[2] P. Auslander, Liveness. Performance in a Mediatized Culture, London-New York, Routledge, 2008, II ed., p. 42.

[3] Cfr. S. Dixon, Digital Performance. A History of New Media in Theater, Dance, Performance Art, and Installation, Cambridge-London, The MIT Press, 2007.

[4] Cfr. S. Benford, G. Giannachi, Performing Mixed Reality, Cambridge-London, The MIT Press, 2011; cfr. inoltre S. Broadhurst, J. Machon (edited by), Performance and Technology. Practices of Virtual Embodiment and Interactivity, London, Palgrave-Macmillan, 2011.

[5] Da ora in poi MoCap.

[6] Sull’uso della MoCap in scena hanno lavorato coreografi del calibro di Merce Cunningham, William Forsythe, Bill T. Jones, Trisha Brown, spesso in collaborazione con l’artista digitale Paul Kaiser. Per approfondimenti, cfr. in particolare M. Cunningham, Il danzatore e la danza. Colloqui con Jacqueline Lesschaeve, Torino, EDT, 1990; A. Menicacci, E. Quinz (a cura di), La scena digitale. Nuovi media per la danza, Venezia, Marsilio, 2001; E. Manning, Relationscapes. Movement, Art, Philosophy, Cambridge-London, The MIT Press, 2009; F. Mazzocchi, A. Pizzo, A. Pontremoli (a cura di), Danza, media digitali, interattività, Acireale, Bonanno, 2012; S. Portanova, Moving without a body. Digital Philosophy and Choreographic Thoughts, Cambridge-London, The MIT Press, 2013; N. Salazar Sutil, Motion and Representation. The Language of Human Movement, Cambridge-London, The MIT Press, 2015; L.G. Monda, Choreographic bodies. L’esperienza della Motion Bank nel progetto multidisciplinare di Forsythe, Roma, Dino Audino Editore, 2016; E. Pitozzi, ‘Bodysoundscape. Perception, Movement, and Audiovisual Developments in Contemporary Dance’, in Y. Kaduri (edited by), The Oxford Handbook of Sound and Image in Western Art, Oxford, Oxford University Press, 2016.

[7] Cfr. A. Pizzo, ‘Attori e personaggi virtuali’, Acting Archives Review, a. I, n. 1, aprile 2011, pp. 83-118.

[8] Cfr. D. Kade, ‘Towards Stanislavski-based Principles for Motion Capture Acting in Animation and Computer Games’, in AA.VV., CONFIA – 2nd International Conference in Illustration and Animation, Porto, IPCA, 2013, pp. 277-292.

[9] D. Cage intervistato da P. Davidson, ‘David Cage: “We Can Use Technology to Say Something”’, USgamer, 4 settembre 2013, https://www.usgamer.net/articles/david-cage-we-can-use-technology-to-say-something [accessed 21 April 2018].

[10] J. Dower intervistato da A. Pizzo, ‘Il lavoro con la motion capture: il regista e l’attore’, Acting Archives Review, a. VI, n. 11, maggio 2016, pp. 72-74. Su questi argomenti si è espresso anche Andy Serkis, attore cinematografico tra i più esperti di recitazione MoCap, in un’intervista a S. Silberman, ‘Q&A: King of Mo-Cap Andy Serkis on Digital Acting and Gollum’s Oscar Diss’, Wired, 14 settembre 2007, https://www.wired.com/2007/09/pl-serkis/ [accessed 22 April 2018].

[11] Cfr. www.themocapvaults.com [accessed 24 March 2018].

[12] J. Dower intervistato da A. Pizzo, ‘Il lavoro con la motion capture: il regista e l’attore’, cit., pp. 76-77.

[13] O. Hollis-Leick intervistato dalla redazione di CGSociety, ‘What actors and directors need to know about motion capture to stay competitive’, CGSociety, 2015, http://www.cgsociety.org/news/article/1181/what-actors-and-directors-need-to-know-about-motion-capture-to-stay-competitive [accessed 25 March 2018].

[14] Cfr. M. Delbridge, Motion Capture in Performance. An Introduction, London-New York, Palgrave-Macmillan, 2015, pp. 2-5; A. Pizzo, ‘L’attore e la recitazione nella motion capture’, Acting Archives Review, a. VI, n. 11, maggio 2016, pp. 39-40.

[15] Cfr. M. Delbridge, Motion Capture in Performance, cit., p. 22 sgg.; R. Roihankorpi, M. Delbridge, ‘Hamlet’s Norwegian Doll’s House: reframing embodied knowledge with virtual architectonics of performance’, Arti dello Spettacolo / Performing Arts. New Frontiers: Live Performances, Archives and Digital technology, a. III, n. 3, 2017, pp. 49-58.

[16] Ubu Incatenato, di R. Latini e G. Misiti da A. Jarry, con R. Latini e P. Pasteris, regia R. Latini, musiche e aiuto regia G. Misiti, ambienti digitali interattivi A. Brogi / XLab Factory, assistente motion capture P. Pasteris, luci e direzione tecnica M. Mugnai, video in chroma key P. Magnani. Prima rappresentazione: Udine, Teatro San Giorgio, 14 dicembre 2005. Cfr. F. Bini, S. Terranova, ‘Ubu Incatenato (2005)’, Sciami | Nuovo Teatro Made in Italy, https://nuovoteatromadeinitaly.sciami.com/roberto-latini-ubu-incatenato-2005/ [accessed 24 March 2018]; R. Latini, ‘Incatenando Ubu’, Sciami | Nuovo Teatro Made in Italy, https://sciami.com/scm-content/uploads/sites/7/2017/04/Roberto-Latini-note-regia-Ubu-incatenato-2005.pdf [accessed 24 March 2018];  S. Terranova, ‘Ubu incatenato. Presentazione’, Sciami | Nuovo Teatro Made in Italy, https://sciami.com/scm-content/uploads/sites/7/2017/04/Roberto-Latini-descrizione-Ubu-Incatenato-2005-Serena-Terranova-2015.pdf [accessed 25 March 2018].

[17] A.M. Monteverdi, Nuovi media, nuovo teatro. Teorie e pratiche tra teatro e digitalità, Milano, Franco Angeli, 2011, p. 190.

[18] R. Latini, ‘Incatenando Ubu’, cit.

[19] A. Brogi intervistato da A.M. Monteverdi, ‘Andrea Brogi, Motion Capture Teatrale’, Digicult, http://digicult.it/it/digimag/issue-024/italiano-andrea-brogi-motion-capture-teatrale/ [accessed 24 March 2018].

[20] Interessanti testimonianze di artisti digitali, registi, attori e performer che lavorano con la tecnologia in scena sono rintracciabili in A.M. Monteverdi, Nuovi media, nuovo teatro, cit., pp. 227-267.

[21] Cfr. M.G. Berlangieri, ‘Motion Capture e Commedia dell’Arte: un case study’, in P. Bertolone, A. Corea, D. Gavrilovich (a cura di), Trame di meraviglia. Studi in onore di Silvia Carandini, Roma, UniversItalia, 2016, pp. 39-45; M.G. Berlangieri, ‘Performing Arts, gli archivi digitali e la narrazione interattiva’, Arti dello Spettacolo / Performing Arts. New Frontiers: Live Performances, Archives and Digital technology, a. III, n. 3, 2017, pp. 16-27.

[22] The Pool Factory è una delle più importanti realtà italiane che operano nel campo dell’animazione 3D; cfr. http://thepool.it/ [accessed 28 March 2018].

[23] Di questioni affini, traslate principalmente nel campo della danza e dell’esecuzione musicale, si occupa tutt’oggi il centro di ricerca genovese Casa Paganini / InfoMus Lab, sviluppatore del noto software EyesWeb. Cfr. A. Camurri, ‘Il progetto EyesWeb per musica, danza e teatro’, in A. Menicacci, E. Quinz (a cura di), La scena digitale. Nuovi media per la danza, cit., pp. 67-78; http://www.infomus.org/index.php [accessed 12 May 2018].

[24] Intervista all’attore I. Picciallo, citato in M.G. Berlangieri, ‘Motion Capture e Commedia dell’Arte: un case study’, cit., pp. 44-45.

[25] Cfr. http://www.santannapisa.it/it/istituto/tecip/tecip-institute [accessed 12 May 2018].

[26] Il convegno si è svolto a Parigi, presso Le Cube – Centre de création numérique, nei giorni 14 e 15 dicembre 2017, e si è configurato come il punto d’arrivo del progetto triennale Labex Arts H2H La scène augmentée: jeu de l’acteur, pratiques de création, modes de transmission, ideato e diretto da Erica Magris con Giulia Filacanapa, Georges Gagneré e Cédric Plessiet (Université Paris 8), con la collaborazione di Josette Féral (Université Sorbonne Nouvelle). Oltre ai relatori di cui si è fatta menzione all’interno di questo saggio, hanno preso parte al convegno Réjane Dreifuss (Zurich University of the Arts), con un intervento sul game theatre, che rielabora i meccanismi dei videogiochi per creare un nuovo tipo di interazione in cui gli spettatori sono parte attiva nella creazione dello spettacolo; Simon Hagemann (Université de Nancy), che ha analizzato il fenomeno del coinvolgimento interattivo dello spettatore attraverso interfacce mediatizzate, all’interno di quello che prende il nome di immersive theatre; Paolo Héritier (Università degli Studi di Torino), che ha proposto una riflessione sul contesto normativo dell’immagine del robot; Anna Maria Monteverdi (Università degli Studi di Milano), che ha analizzato la ‘maschera teatrale’ scenica che caratterizza il teatro di Robert Lepage – per approfondimenti su questo tema, cfr. A.M. Monteverdi, Memoria, maschera e macchina nel teatro di Robert Lepage, Meltemi 2018 –; Anton Rey (Zurich University of the Arts), che ha esposto la lavorazione del progetto Action Avatar, realizzato in collaborazione con centri neurologici di eccellenza, le cui sperimentazioni sono al momento concentrate sui metodi di face tracking.

[27] Il progetto si è sviluppato dal 2011 al 2013 e ha visto la Scuola Superiore Sant’Anna comparire nel team di progetto insieme ad altri centri di eccellenza europei, leader nella ricerca e nello sviluppo. Cfr. http://www.beaming-eu.org/home [accessed 12 May 2018].

[28] Cfr. M. Brighenti, META 2017. Intervista Bergamasco Bartolini – Virtual Reality and Theatre, 13 luglio 2017, https://www.youtube.com/watch?v=HxWX7MjMF-M [accessed 13 May 2018].

[29] Cfr., tra gli altri, G. Freixe, Les utopies du masque sur les scènes européennes du XX siècle, Paris, L’Entretemps, 2010; A.M. Monteverdi (a cura di), La maschera volubile. Frammenti di teatro e video, Titivillus, Corazzano (Pisa), 2000.

[30] D’ora in avanti, citazioni e rimandi afferiscono agli interventi presentati durante il convegno in oggetto.

[31] Tre spettacoli-performance coordinati da Giulia Filacanapa e Georges Gagneré; concezione della piattaforma di direzione degli avatar (AKeNe): Cédric Plessiet; programmazione digitale: Georges Gagneré; artista 3D: Rémy Sohier.

[32] Il sistema MoCap Perception Neuron, una rete neurale con trentadue marcatori collocati nei punti nodali del corpo attraverso un sistema di bande elastiche, è stato collegato a una piattaforma digitale creata ad hoc dall’équipe di ricerca del laboratorio INRéV – Images Numériques et Réalité Virtuelle dell’Université Paris 8. La piattaforma è basata sul motore grafico per videogiochi Unreal Engine, ed è stata progettata per visualizzare in tempo reale l’anteprima delle animazioni digitali.

 

[33] Agamemnon Redux. Une experience de masque et de mocap en trois scenes, di Andy Lavender da Agamennone di Eschilo. Regia di Andy Lavender, con Alexandra Beraldin e Cécile Roqué-Alsina.

[34] Cfr. A. Lavender, Performance in the Twenty-First Century: Theatres of Engagement, London-New York, Routledge, 2016.

[35] La vie en rose. De la clinique à l’éternité, di Boris Dymny e Giulia Filacanapa. Regia di Giulia Filacanapa, maschere di Stefano Perocco di Meduna, con Ethel de Sousa, Boris Dymny, Léandre Ruiz, Morgane Lombardi.

[36] La psychanalyse augmentée, di Mathieu Milesi. Progetto e regia di Duccio Bellugi e Mathieu Milesi, con Medhi Benabbas, Assya Benhaddou, Cécilia Clarisse, Mariam Dimitri, Léa Jourdain, Béni Kianda-Petevo, Anastasiia Ternova, Ioana Voicu.

La piattaforma open source Archiui presenta l’Archivio digitale del Touring Club Italiano
1034

Archiui ha intervistato Ilaria Parma che fa parte del gruppo di lavoro dell’Archivio Storico del Touring Club Italiano, per parlare del nuovo archivio digitale Digitouring. La piattaforma, oltre a descrivere fotografie e cartoline storiche, fascicoli d’archivio, carte geografiche e atlanti e parte delle riviste edite dal Touring a partire dal 1895, dà spazio a diversi contenuti grazie all’introduzione di nuove sezioni.

COLLECTIVEACCESS

Alla base di Archiui c’è il software open source CollectiveAccess, nato nel 2003 grazie alla ricerca e alla collaborazione tra importanti istituti culturali americani, gestito da una community internazionale di esperti informatici che sovrintende a sviluppo, implementazione e rilascio di nuove funzionalità. Nel mondo, più di un migliaio di istituzioni, musei, archivi e biblioteche utilizzano oggi CollectiveAccess per descrivere, gestire e pubblicare il loro patrimonio.

Introdotto in Italia per la prima volta da Promemoria, che ha integrato nuovi sviluppi e funzionalità, è stato adottato negli ultimi cinque anni da oltre 400 enti pubblici, istituti culturali e aziende private, che lo hanno scelto per la gestione di alcuni tra i progetti più significativi di promozione e valorizzazione culturale.
Da Marzo 2018 è attivo il sito internet www.ita-ca.it che si propone di mappare le realtà italiane che utilizzano CollectiveAccess.
Grazie al lavoro svolto da Promemoria, la rete italiana che utilizza CollectiveAccess è diventata la seconda più importante al mondo. Dal 2014 il software è convenzionato con la Direzione Generale degli Archivi.

Tra i progetti più interessanti di questi ultimi anni sul territorio piemontese è il lavoro con il Polo del ‘900, primo esempio di rete di Istituti culturali. Inoltre nel 2016 il Consorzio per il Sistema Informativo del Piemonte (CSI-Piemonte) ha affidato a Promemoria la personalizzazione di CollectiveAccess per la nuova piattaforma territoriale Ecosistema Cultura.

CASE HISTORY

Frutto dell’esperienza maturata in oltre cinque anni dal team di Promemoria, Archiui è pronto per diventare la prima piattaforma integrata per la gestione e la valorizzazione dei beni culturali. Un approccio nuovo e versatile, che supera l’orientamento tecnico-informatico dei software attualmente esistenti sul mercato per offrire un’innovativo ambiente digitale integrato per i beni culturali.

Presentazione del libro “Memoria Maschera e Macchina nel teatro di Robert Lepage” al Festival Inequilibrio di Castiglioncello il 20 giugno. Presenta l’Ing. Massimo Bergamasco del Sant’Anna
1032

Memoria maschera e macchina nel teatro di Robert Lepage (Meltemi editore).  di Anna Maria Monteverdi

Il volume appena edito da Meltemi con introduzione di Fernando Mastropasqua, sarà presentato per la prima volta a Castiglioncello il 20 giugno alle ore 16 nell’ambito del  Festival di Teatro “Inequilibrio” diretto da Fabio Masi e Angela Fumarola.

L’incontro vede la partecipazione insieme all’autrice, dell’assessore alle Politiche giovanili del Comune di Rosignano Veronica Moretti  e di Massimo Bergamasco, docente di Ingegneria Meccanica alla Scuola Superiore Sant’Anna di Pisa.

L’ incontro è legato al Contest Giovani Innovatori 2018 promosso dal Comune di Rosignano Marittimo.

Memoria, maschera e macchina sono termini interscambiabili nel teatro di Robert Lepage, regista e interprete teatrale franco-canadese considerato tra i più grandi autori della scena contemporanea che usa i nuovi media; se la sua drammaturgia scava l’io del personaggio portando alla luce un vero e proprio arsenale di memorie personali e collettive, la macchina scenica video diventa il doppio del soggetto, specchio della sua interiorità più profonda. La perfetta corrispondenza tra trasformazione interiore del personaggio e trasformazione della scena determinano la caratteristica della macchina teatrale nel suo complesso che raffigura, come maschera, il limite tra visibile e invisibile. Il volume contiene interviste a Robert Lepage e allo scenografo Carl Fillion e un’antologia critica con saggi di Massimo Bergamasco, Vincenzo Sansone, Erica Magris, Giancarla Carboni, Francesca Pasquinucci, Andrea Lanini, Ilaria Bellini, Sara Russo, Elisa Lombardi, Claudio Longhi.

Anna Maria Monteverdi è ricercatore di Storia del Teatro all’Università Statale di Milano e docente aggregato di Storia della Scenografia. Insegna Cultura digitale alla Alma Artis Academy di Pisa ed è coordinatrice della Scuola di Arti e Nuove tecnologie dell’Accademia. Esperta di Digital Performance ha pubblicato: Nuovi media nuovo teatro (FrancoAngeli 2011), Rimediando il teatro con le ombre, le macchine e i new media (Ed.Giacché 2013), Le arti multimediali digitali (Garzanti 2005 ). Ha realizzato documentari teatrali per Rai5.

Massimo Bergamasco: Ordinario di Meccanica Applicata presso la Scuola Superiore Sant’Anna di Pisa, è Direttore dell’Istituto di Tecnologie per la Comunicazione, Informazione e Percezione della Scuola. Ha fondato nel 1991 il Laboratorio di Robotica Percettiva, dove svolge attività di ricerca su temi di Robotica Indossabile, Interfacce Aptiche e Ambienti Virtuali.

 

Agorà Scienza‎Humanities in a day – Torino: La ricerca umanistica si racconta
1031

L’Università di Torino vi invita alla prima giornata dedicata alla ricerca umanistica!

Mercoledì 13 giugno a Palazzo Nuovo, dalle 9 alle 18, i ricercatori racconteranno i loro progetti attraverso poster scientifici, talk e visite guidate nei centri di ricerca.

mercoledì 13 giugno dalle ore 9:00 alle ore 18:00  

Partecipano: il Dipartimento di Filosofia e Scienze dell’Educazione, il Dipartimento di Lingue e Letterature Straniere e Culture Moderne, il Dipartimento di Studi Umanistici e il Dipartimento di Studi Storici, l’Atlante Linguistico Italiano, le biblioteche del Polo di Scienze Umanistiche, il Centro Studi “Guido Gozzano – Cesare Pavese”, il Centro interdipartimentale Cinedumedia – Università degli Studi di Torino, il Centro Interdipartimentale MeDiHum, il Laboratorio di Fonetica Sperimentale “Arturo Genre”, il Laboratorio Fotografico e Topografico di Studi Storici e StudiUm Lab.

L’iniziativa è realizzata dalla Direzione Ricerca e Terza Missione – Polo di Scienze Umanistiche e dalla Sezione Valorizzazione della ricerca e Public Engagement – Agorà Scienza in collaborazione con #FRidA – Forum della Ricerca di Ateneo.

Takeshi Murata: bio and works
1028

Takeshi Murata is an American contemporary artist who creates digital media artworks using video and computer animation techniques. In 2007 he had a solo exhibition, Black Box: Takeshi Murata, at the Hirshhorn Museum and Sculpture Garden in Washington, D.C. His 2006 work “Pink Dot” is in the Hirshhorn’s permanent collection and his 2005 work “Monster Movie” is in the permanent collection of the Smithsonian American Art Museum. His 2013 short film “OM Rider” was selected to screen as an animated short film at the 2015 Sundance Film Festival.

Key works completed by Murata in the mid-2000s exploited the introduction of distortions to previously recorded videos, a practice commonly found in glitch art. “Monster Movie,” “Untitled (Silver),” and “Untitled (Pink Dot),” all made between 2005 and 2007, share this characteristic.

A 2009 article in Artforum about Murata’s art noted that “the artificial palette, flashing lights, abstract patterns, and coarsely pixelated texture of Pink Dot and other works by Murata locate him in the tradition of electronic animation pioneered by John Whitney and Lillian Schwartz. But while his predecessors were testing the computer’s ability to replicate the cinematic illusion of movement, Murata uses the tools of consumer-level film-editing software to undo that illusion, with trails of pixel dust tracking the changing positions of the image from frame to frame.

“Monster Movie”

Display notes for the work “Monster Movie” in the 2015 Smithsonian American Art Museum exhibition Watch This! Revelations in Media Art state:

“Monster Movie” is a mesmerizing digital video projection with an aggressive audio track. Murata sourced video from the 1981 B-movie Caveman, and beginning with a process called datamoshing, mixed it into a kind of digital liquid. Much as [Raphael Montañez] Ortiz punched holes in 16mm filmstock, Murata punched virtual holes through the compressed video file, disrupting the video’s logic and revealing a monster beneath the surface of the video, inside the digital script.”[8]

Untitled (Silver)

A 2006 review of Murata’s work “Untitled (Silver)” stated: “A main part of Murata’s technique involves digitally compressing the footage so that the movement of a series of frames is reduced to a single twitching image that records only the net difference in movement from one frame to the next. Ironically, this high-tech wizardry recalls old-fashioned animation and moving-picture precedents such as flipbookszoetropes and Eadweard Muybridge‘s motion studies. The video’s visual effects also evoke the way Impressionist painters broke down images into brushwork and blurriness, which similarly gave way to abstraction. For his part, Murata likens the liquid look of his digital distortions to the physical deterioration of old film stock.”[9]

“I, Popeye”

Since 2010, Murata has also created artworks that exploit the hyperreality achievable with the use of digital rendering. “I, Popeye,” a parodic twist on the original Popeyecartoon series, was Murata’s first work in representational animation and “a distinct break from the psychedelic and abstract digital imagery that he was originally known for.”[10]Critic Lauren Cornell writes:

At the time it was made, the copyright for the original cartoon character had expired in the EU but remained in effect in the United States: a highly anachronistic situation—especially given the boundlessness of contemporary culture—and one that inspired Murata to test the blurry grounds of fair use. He used the cartoon’s original cast but, their entanglements are too abject and too contemporary to be mistaken for the real thing—for instance, in one scene, a remorseful Popeye visits Bluto in the hospital as he recovers from an apparent assault; in another, Popeye wistfully lays flowers on Olive Oyl‘s grave. While it is conceptually consistent with his earlier work, in that he uses emergent software and digital technologies to subvert commercial perfection and create disorder, “I, Popeye” was his first foray into representational animation, a direction that he has continued in vastly more complex narratives, such as “OM Rider” (2014).”[10]

 

Synthesizers and “Night Moves”

The 2013 exhibition Synthesizers at Salon 94 in New York included seven large-scale pigment prints depicting interior spaces populated with objects that were either created with computer graphics or by using stock images found online, together with the video “Night Moves,” created jointly with Billy Grant. According to a contemporaneous review by Brienne Walsh, “Night Moves” features

the studio’s interior, rendered in three dimensions by combining scanned photographs of the space. Objects lifted from the scans and animated on the computer—a pink nightgown, a desk chair, a tripod—pulsate, sway, liquefy and occasionally start maniacally laughing. Continually shattering into prismatic shards that reassemble into unified forms, the environment finally dissolves into a flurry of fragments….Night Moves is a sophisticated amalgam of these two facets of his work, the abstract and the narrative.”[11]

“OM Rider”

Murata’s digitally animated short film “OM Rider” was described as “funny and weird” in a New York Times review of the artwork’s display at Salon 94 in New York in December 2014. The two main characters are “a restless, punk werewolf in a black T-shirt and cutoff shorts, and a grumpy old man who is bald, but for wispy white hair hanging down below his ears,” who eventually end up fighting each other.[12]

Murata and the film’s sound designer Robert Beatty discussed the inspiration and process of making “OM Rider” in an interview for the podcast Bad at Sports in December 2013. According to Murata, “I’ve always loved horror movies, so I thought that [the Ratio 3] space could be really cinematic and tried to transform the gallery by blacking it out. It was a perfect opportunity to go in this direction.”[6]

“Melter 3-D”

Murata’s digitally animated kinetic sculpture “Melter 3-D” captivated visitors to the Frieze New York Art Fair in May 2014. As reported in the New York Times,

For technical magic, nothing beats Takeshi Murata’s “Melter 3-D.” In a room lit by flickering strobes, a revolving, beachball-size sphere seems made of mercury. A hypnotic wonder, it appears to be constantly melting into flowing ripples.”[13]

Murata created this illusion by projecting digital animation onto a rotating sphere, with the spinning of the sphere synchronized with the blinking of a strobe light. This makes it a form of 3D-zoetrope. According to Liz Stinson, writing in Wired:

Murata was able to take the same principles used centuries ago to create repeating zoetrope animations, and add some high-tech gloss. He started by designing the object on his computer with 3-D modeling software. The looping melting effect you see is the result of syncing the spinning of the sphere with the blinking of the strobe. “It’s the same concept as old cylindrical zoetropes, where you look through the slits to see the animation,” says Murata. “But in a 3-D zoetrope, the slits are replaced with strobe lights, and drawings or photographs can become objects

a glitch art history (sort of)
1027

http://gl1tch.us/R3kN3WWW.html

 

/* BACKGROUNDS && NOTES */
jonCates
jonCates
jonCates
(A) r4WB1t5 micro.fest (2005 – 2007)


jonCates

jonCates and Ant Scott’s format.fetish exhibition – Gallery1F (2006)

jonCates

(ᴳ̇̇̇̇̇̇̇̇̇̇̇̇̇̇̇̇̇̇̇̇̇̐litch) Art Genealogies – curated by Daniel Franke, John McKiernan + Rosa Menkman at LEAP Gallery in Berlin (2013.03.19 – 2013.03.23)

/* my work incl’d in this exhibition. positioned as addressing GL1TCHYSTØRIES from perspectives that were presented as:

  • ‘not historically singular’ +
  • ‘not encompassing historical or causal overview’ but rather as
  • ‘threaded’,
  • ‘discursive’ +
  • ‘subjective’ as well as
  • ‘intergenerational’ of different communities

speaking of which my work in this exhibition is work on many different levels:

  • in 2007 i founded the Phil Morton Archive, which the 1rst img is from
  • in 2010 i made this artwork in the 2nd img, as an exxxperimentalLecture in GLI.TC/H 2010
  • + my friend, colleague + former student Nick Briz made the Media Art work in the 3rd img which i commissioned for an exhibition i curated called REMIX-IT-RIGHT

so these works incl’d in this exhibition expresses another specific form of genealogical rltns */

jonCates
Glitch Aesthetics – Iman Moradi (2004)
“Pure Glitch
Is the result of a Malfunction or Error.
There is a great deal of scope in the discussion of what can be classed as a Glitch. Primarily, in a theoretical, scientific and non-art sense, a glitch is assumed to be the unexpected result of a malfunction. The word glitch was first recorded in English in 1962, during the American space programme, namely in the writings of John Glenn where it was used to “describe the problems” they were having. Glenn then gives the technical sense of the word the astronauts had adopted: “Literally, a glitch is a spike or change in voltage in an electrical current.” (John Glenn, cited in American Heritage Dictionary 4th Ed (2000) )”
from: Glitch Aesthetics – Iman Moradi (2004)

PROPOSAL FOR GL1TCHYSTØRIES:

Claims have been staked in the unstable ground of Glitch Art hystories. Can multiple and parallel Media Art Histories of Glitch Art co-exist openly or do these instabilities represent glitches in histories themselves?

/* staking claims in unstable grounds
staging Media Art Histories */

jonCates
Pete Conrad with U.S. Lunar Flag on Apollo 12 – November 1969

jonCates
#84 – But, Is It Okay To Desecrate A Digital Image Of The Flag? – GlitchingNo (2013)

” Mayhaps this is a Glitch Era in which we experience a specific kind of breakage based on the broken promises of the Modern Era. An American Modernist promise of endless utopic improvements to life based on technologies, leading each generation beyond the apex of the last, into better and brighter tomorrows now appears clearly hollow and false. We humans live in a broken world, a technologized world of our own making. The technological is a socially constructed set of ideas and realizations of material power that shift and shape over times and fundamentally inform and affect our understandings of ourselves, glitches, nature, the natural world, the technological worl, specific Digital Art technologies and our Arts in Technological Times.” from:
jonCates interviewed for AXIS 2013 INTERNATIONAL ART FESTIVAL – Una Dimitrijevic (2013)

/* why unstable grounds? based on brokenness, instabilities, on glitches + Glitch Art
also, multiple definitions + differences can be identified between “glitch” + “Glitch Art”

  • glitch as “an accident or the result of misencoding between different actors” – Rosa Menkman (2010)
  • glitch art as “art that exploits certain characteristics of glitch, for instance the fingerprints of the system, or maybe the shock effect.” – Rosa Menkman (2011)

multiple definitions co-exist, complicate or even include one another
‘incompleteness’ of Media Archeologies +/or Media Art Histories via Erkki Huhtamo’s keynote

like playing a Glass Bead Game set in the future, the rules of which are unknown
or trying to capture reflections of reflections in a Net of Indra which become more complex as they become more numbered + reflexive
witnessing yourself returning to yourself as another self
not branching narrative b/c that forking structure still maintains 1 true point of origin, 1 originary truth claim
but rather the radical co-existing of multiple realities
methaphors of interconectedness, relationality  + multiplicities
the point here is: pluralities */

MEDIA ART HISTORIES

/* recently i was invited to curate an exhibition + events series in Regina Canada in which i made certain claims explicitly + implicitly about glitch, Glitch Art + GL1TCHYSTØRIES
i gave a talk entitled: I Don’t Believe In Glitch Art but I Do Believe In You
by this i mean that i do not believe in Glitch Art as a specialized area of artistic activity or theorypractice
this is not to say that i did not previously. i did, however, those daze are vey literally over. they are in fact, Media Art Histories now */

jonCates

jonCatesjonCatesjonCates
jonCates jonCatesjonCates
_ģ̶Ł̶1̶ɫ̶C̶ʮ̶_Δ┌┼_INTERNATIONAL SYMPOSIUM, EXHIBITION, WORKSHOP, DISCUSSION, EVENT… – jonCates (2013)

CONTINUUMS: PRE-GLITCH ⇌ GLITCH ⇋ POST-GLITCH
PRE-GLITCH ⇌ GLITCH ⇋ POST-GLITCH
jonCates
2012: Year of the GLI.TC/H – SXSW (2013)

 
pre-glitch – GL1TCH.US – post-glitch @ SXSW – jonCates (2013)
 from jonCates on Vimeo.


jonCates

r4WB1t5r4WB1t5r4WB1t5
(a) r4WB1t5 micro.Fest remix by dmtr of an img of Celina by noisydaughter/ (2005)

“Dirty New Media is an idea i developed in 2005 as a part of a series of festivals i initiated and organized with Jon Satrom, Amanda Gutierrez, Jake Elliott, Jason Soliday, Arcangel Constantini, Juanjose Rivas and many others Dirty New Media artists… This series, called (A) r4WB1t5 micro.fest, was an international decentralized and open platform. Dirty New Media means dirty as in raw, direct, explicit, noisy. Or as i wrote in 2005, it also means dirty in the sense of broken, crashing, messy, desirous, leaky and open. My naming of Dirty New Media is also meant to imply the existence of a counter-example, i.e. to suggest that a category of “clean New Media Art” might exist that Dirty New Media Art could be an alternative to or in contrast with… Dirty New Media is a culture of what is now often known as Glitch Art. The terms Glitch Art and Dirty New Media are now often used in relation to one another and even used interchangeably to refer to the same art projects or similar theory-practices.” from:
jonCates interviewed for AXIS 2013 INTERNATIONAL ART FESTIVAL – Una Dimitrijevic (2013)

Dirty New Media in Chicago AKA CH1C∆Gø D1RTY N3W M3DI∆ (2005 – present)


Round Robin – Chicago’s Dirty New Media at the MCA from F Newsmagazine on Vimeo
jonCates
Golan Levin invoking Nam June Paik’s Magnet TV @ Conversations At The Edge (2009) THEN Rosa Menkman invoking Nam June Paik’s Magnet TV @ Conversations At The Edge (2010 )THEN Gabriel Menotti invoking Nam June Paik’s Magnet TV @ GLI.TC/H Birmingham (2011)
jonCatesjonCates
jonCates

Articoli utili su #glitchart
1026

How to glitch JPG images with data corruption

1.Il punk visivo della Glitch art di Martino Prendini:

http://www.anatomiederform.com/blog/2015/06/il-punk-visivo-della-glitch-art/

2. Glitch && Human/Computer Interaction Daniel Temkin, 2014

http://nooart.org/post/73353953758/temkin-glitchhumancomputerinteraction

3.Media Art Histories 2013:glitch art

http://gl1tch.us/index_20131008.html

4. Da DIGIMAG:

La Sottile Arte Del Glitch. Trucchi Ed Errori

 

 

 

 

 

Datamoshing: generare GLITCH
1025

Vedi articolo integrale su

https://newatlas.com/art-technology-digital-datamoshing/48152/#gallery

Datamoshing nato nei primi anni del 2000, è ispirato ai difetti/errori riscontrati nei primi codec video digitali come DivX. I primi esperimenti nella creazione di “difetti intenzionali” nei file jpeg hanno portato gli artisti ad esplorare nuovi modi per controllare  difetti video digitali. Gli artisti digitali  hanno iniziato a sfruttare questi programmi artigianali di compressione e ad hackerare il codice dei file video digitali immettendo difetti intenzionali per creare effetti pittorici impressionistici.

Nel 2003 datamoshing è stato usato da Owi Mahn e Laura Baginski per un progetto intitolato Pastell Kompressor

“PASTELL KOMPRESSOR” / Owi Mahn + Laura Baginski / DV Pal / 1 min 42 sec / September 2003

“Todays video compressors are using an algorithm, which is not anymore saving each frame of a movie clip, but only the changes, which come after a so called “keyframe”. If this keyframe is being withdrawn from the compressor, be it on purpose or by chance, chaos is being generated. As basis for “pastell compressor” we have been using time- lapse shootings of clouds drifting by, which we took on the plateaus in the south of france. Afterwards this material has been worked on with a compression codec called “sörensen- 3”. This chaotic picture- decomposition, which resulted from the compression, we went on provoking. While doing so, we were joining the fragments together by making another one- frame- animation, which became this movie- clip.

Un altro esempio di utilizzo di Datamoshing è dato dall’artista Takeshi Murata

 

 

 

 

David Kraftsow:   YouTube Artifacts – MOMAR- GLITCH and BOT at MUSEUM
1024

 MoMAR. An unauthorized gallery concept aimed at democratizing physical exhibition spaces, museums, and the curation of art within them. MoMAR is non-profit, non-owned, and exists in the absence of any privatized structures.

The first exhibit: “Hello, we’re from the internet” consists of eight artists and will be overlaid on top of existing artworks hung in ‘a museum’ of modern art in New York using Augmented Reality.

Join us on March 2nd for the very first exhibition. If not simply to see the artworks themselves, we invite you to engage in the oncoming conversations and consider the bigger pictures that surround them.

The project is open source, instructions readily available on momar.gallery/opensource and very much open to the public.

http://momar.gallery/about.html

David Kraftsow: 
 YouTube Artifacts

JUNE 1 – SEP 6 2018

Opening Reception:
Friday June 1st, 6pm – 8pm
(Floor 5, Jackson Pollock Room)

This second AR exhibition is the first solo exhibition presented by the group, and it highlights the work of David Kraftsow. The eight artworks in the exhibition are generated by a Twitter bot Kraftsow created called youtube artifact. The bot currently generates a new image every four hours and posts its creations on Twitter.

To generate each image Kraftsow’s algorithm lets the bot pull a specific video off YouTube, which is found through a convoluted set of parameters. Then, using a technique called datamoshing, the bot generates a still image from the video, with specifically introduced coding errors creating an impressionistic swirl of colors.

A selection of the best work by the bot youtube artifact from the past month

In describing the exhibition the MoMAR introduction asks, “If the role of art in society is to incite reflection and ask questions about the state of our world, can algorithms be a part of determining and defining people’s artistic and cultural values?”

This isn’t the first time AR has invaded an art gallery, but the unauthorized nature of MoMAR certainly points to some compelling possible future uses for the technology. The ability to reclaim spaces that have classically been prohibitively controlled suggests an almost anarchic deconstruction of traditional environments.

Welcome to The Age of the Algorithm. A world in which automated processes are no longer simply tools at our disposal, but the single greatest omnipresent force currently shaping our world. For the most part, they remain unseen. Going about their business, mimicking human behavior and making decisions based on statistical analysis of what they ‘think’ is right. If the role of art in society is to incite reflection and ask questions about the state of our world, can algorithms be a part of determining and defining people’s artistic and cultural values? MoMAR presents a series of eight pieces created by David Kraftsow’s YouTube Artifact Bot.

About the artist

David Kraftsow
David Kraftsow is a programmer and artist based in New York. His recent work focuses on generative art. His projects have been exhibited internationally at The Tate Modern, The Museum of the Moving Image, Babycastles, Electric Objects, Nikolaj Copenhagen Contemporary Art Center, and a yoga studio in Park City with DJ A-Trak. He has been featured in numerous media outlets including Wired, The Atlantic, NHK Television and Entertainment Weekly.
Also, Pee-Wee Herman and Coolio have tweeted about his work.
Link

Aperte le iscrizioni alla #AlmaArtisAcademy di Pisa: tecnologie e arti grafiche per le professioni del futuro
1020

Si divide in due Indirizzi l’Accademia di Nuove Tecnologie per l’Arte ALMA ARTIS di Pisa (direttore Dott. Dario Matteoni; direttore scientifico Prof. Andrea Brogni):

Diploma accademico di I livello

Art and Digital Technologies

coordinatore prof.ssa Anna Maria Monteverdi

e Graphic & Multimedia Design Coordinatore prof.  Federico Luci

Alma Artis Academy apre la campagna iscrizioni presentandosi con due corsi nell’ambito della Scuola di Nuove Tecnologie dell’Arte.

Il corso di Art and Digital Technologies forma artisti/designers in grado di esprimere e collocare la propria creatività nel mondo dell’informazione digitale, della multimedialità e del web. Le nuove tecnologie informatiche accentuano il carattere comunicativo del prodotto artistico: nella società contemporanea l’opera d’arte, non più condizionata dal supporto materiale, si colloca sempre di più nello spazio dell’immateriale, delle reti e della multimedialità.

Il percorso formativo assicura un’adeguata conoscenza delle nuove tecnologie digitali e sviluppa specifiche competenze nei settori delle arti multimediali, delle arti performative, del video, della fotografia e del web. Tale iter formativo comprende l’acquisizione di strumenti critici che rendano gli artisti/designers consapevoli della portata sociale dei nuovi prodotti. Essi saranno consapevoli delle conseguenze culturali e sociali del loro agire in quanto creatori e sviluppatori di nuove idee concepite per soddisfare le esigenze della civiltà della contemporanea.

Il corso di Graphic and Multimedia Design è rivolto verso una figura professionale in grado di organizzare e sviluppare i processi creativi necessari per realizzare quei prodotti visuali fondamentali nell’odierne politiche comunicative delle imprese.

Il percorso formativo muove dalla conoscenza di campi fondamentali quali l’arte come produzione segnica, la fotografia e il copywriting, e sviluppa settori più applicativi quali le nuove tecnologie digitali ed interattive, la progettazione grafica ed audiovisiva e l’ideazione di spazi multimediali.

Nell’ambito di tale iter formativo, si prevede anche l’acquisizione di strumenti informatici di base e una conoscenza della lingua inglese, particolarmente rivolta al settore artistico/tecnologico.

La Scuola di Alta Formazione può essere definita come un’offerta di percorsi formativi sia di media e che di lunga durata, i quali, attraverso l’utilizzo di metodologie innovative, hanno come principali obiettivi quelli di:

  • Sviluppare specifiche competenze per la creazione di figure professionali di alto profilo e alta specializzazione e che abbiano effettiva richiesta sul mercato del lavoro.
  • Aggiornare conoscenze già maturate dalle persone in significative esperienze lavorative.
  • Riunire in un unico contenitore formativo competenze diverse ed interdisciplinari.
  • Creare sinergie tra aziende, professionisti, luoghi di lavoro, docenti e studenti.

 

 

Videomapping e concerto d’organo alla Spezia: un incanto di luci e musica grazie al maestro Ferruccio Bartoletti e Hightfiles
1019

La Chiesa Abbaziale di Santa Maria Assunta alla Spezia è diventata lo scenario di uno spettacolo davvero…miracoloso. Il famoso musicista e maestro d’organo Ferruccio Bartoletti grazie all’associazione musicale Caesar Franck e alla Fondazione Carispe ha definito una serie di appuntamenti musicali per le Chiese provinciali e ha inaugurato la rassegna proprio ieri, 8 giugno con un suo concerto.

La caratteristica è stata l’improvvisazione sia per la musica che il video che ha fatto da brillante e stupefacente scenario alla musica. Il videomapping (in interno e non in esterno) ha ricreato la giusta atmosfera andando a definire i contorni dello spazio absidale, delle vele, dell’altare, uno spazio sacro e mistico esaltato e impreziosito dalla luce e dall’effettistica video.

A lato l’imponente organo di Bartoletti; il Maestro profondamente ispirato, dava il giusto “mood” al giovane artista visivo Tommaso RInaldi, aka Highfiles per far virare di colorazioni scure o infuocate la parete sovrastante l’altare. Effetti che ricordavano talvolta il barocco o il gotico, replicando le forme a sesto acuto delle volte e le forme intagliate delle guglie antiche ricreando un’atmosfera mistica.

E così il video ricrea l’idea di affreschi dell’antichità, portando il pubblico dentro una dimensione immersiva davvero potente. Tante le suggestioni suggerite dalla musica e raddoppiate dal video, che  in alcuni casi davvero ha ricreato dei momenti cinematografici impressionanti.

E così una tecnica e una modalità tipica del mondo del VJing e dei club musicali entra in un mondo completamente altro, creando quella ibridazione (prima di tutto culturale e poi tecnica) di cui parla Jenkins nel fondamentale volume Cultura convergente. 

Folla straordinaria in..”religioso silenzio” (doveroso peraltro dato il luogo).

Abbiamo chiesto alcune delucidazioni tecniche a Hightfiles che in questi giorni sta partecipando come finalista a una kermesse di Live mapping a Roma e da un anno è anche titolare del corso di DRAMMATURGIA MULTIMEDIALE all‘ACCADEMIA ALMA ARTIS di PISA:

Come ti prepari tecnicamente a una improvvisazione con videomapping?

Di solito seguo un canovaccio mentale, che spesso però, da metà circa lo tralascio quasi senza rendermene conto per dar spazio ad una improvvisazione pura. ieri non sapendo bene cosa avrebbe fatto Ferruccio Bartoletti (ho scoperto qualcosa di più nei pochi secondi precedenti al live) , ho preparato una Serie di animazioni a loop su after effect, poi mixate, gestite live, effettate e rese sound reactive tramite il software resolume.
I video davano una dimensione pittorica. Lo avete stabilito in precedenza insieme con il musicista questo effetto?
No! Abbiamo lavorato liberi e a compartimenti totalmente stagni, e ci siamo parlati solo pochi istanti prima di iniziare… Lo considero un atto molto performativo, ma allo stesso tempo l’idea di base su cui abbiamo lavorato, senza saperlo era abbastanza simile
E lo scenario che diventa affresco era forse frutto di qualche tua reminiscenza d’accademia dove ti seri formato a Torino?
credo che gli studi passati continuino ad influenzare in qualche modo, ma a un livello di subconscio soprattutto. E poi spesso sono gli “studi” (non ero il migliore degli studenti ecco) classici fatti in precedenza che mi forniscono spunti, in questo caso mi interessava mettere a confronto due forze, una oscura e una luminosa, un po’ il dualismo che ci contraddistingue e che è per me il perno della religione cattolica, il peccato e il perdono.

 

 

What is CryptoArt?
1018

ARTICOLO tratto da:

https://www.artnome.com/news/2018/1/14/what-is-cryptoart

CryptoArt are rare digital artworks, sometimes described as digital trading cards or “rares”, associated with unique and provably rare tokens that exist on the blockchain. The concept is based on the idea of digital scarcity, which allows you to buy, sell, and trade digital goods as if they were physical goods. This system works due to the fact that, like Bitcoins and other cryptocurrency, CryptoArt exist in limited quantity. Popular early examples include CryptoKittiesCryptoPunksRare PepeCurioCards, and Dada.nyc.

 

 

STAZIONE CREATIVA 2018 LA METROPOLI SENZA PERIFERIE MILANO giovedì 7 giugno ore 18.00 – 24.00
1017

Ritorna la STAZIONE CREATIVA a Spazio MIL.
La seconda edizione, a due anni dì distanza, testimonia la volontà di proseguire con questo progetto di “fertilizzazione” della Metropoli.

Il nuovo progetto ha visto lo sviluppo, tra GENNAIO e GIUGNO 2018, sotto la curatela di uno staff (Studio Azzurro e Spazio MIL), di una serie di laboratori/workshop rivolti a giovani ricercatori/artisti per la promozione di percorsi creativi ed espressivi legati al tema di come superare il concetto di periferia nell’ottica di costruzione della metropoli.

I laboratori/workshop hanno coinvolto Gianni BiondilloMario Canali, la compagnia Effetto LarsenPietro Lembi Francesca Telli della compagnia Schuko e, infine, Michelangelo Pistoletto. Hanno toccato alcune aree sensibili di Milano, tra cui il Parco Lambro e la Cascina Biblioteca. Hanno visto lo sviluppo di rapporti tra i giovani e un insieme plurale di soggetti territoriali quali studenti, cittadini, istituzioni locali, scuole, associazioni, cooperative sociali, attraverso attività quali sopralluoghi, incontri, interviste, riprese foto e video.

 

Spazio MIL
ore 18.00 – 24.00
via Granelli 1
Sesto San Giovanni Milano Città Metropolitana
M1 Sesto Marelli / M5 Bignami

TOUCHING MONA LISA’S FACE (2017) by Albert Barqué-Duran
1016

TOUCHING MONA LISA’S FACE (2017)

MOTIVATION
Every time I am in front of a portrait painting I feel this urge to touch it.
I can’t help to imagine how, according to the techniques the artist used, the skin of that specific face would feel like when touching it. Well, it seems we are getting closer to that. Jackson et al. (2017) have just published a paper titled “Large Pose 3D Face Reconstruction from a Single Image via Direct Volumetric Convolutional Neural Network (CNN) Regression“. I couldn’t help myself to play a bit with their results and here I present the outcome. I took some of the most famous portrait paintings in art history and I run them through their algorithm. I know, this is not like a real touch of a portrait painting’s face but at least now we can experience them with volume and texture. And come on, it looks terribly cool!

 

 

JACKSON ET AL.’s (2017) WORK
3D face reconstruction is a fundamental Computer Vision problem of extraordinary difficulty. Current systems often assume the availability of multiple facial images (sometimes from the same subject) as input, and must address a number of methodological challenges such as establishing dense correspondences across large facial poses, expressions, and non-uniform illumination. In general these methods require complex and inefficient pipelines for model building and fitting. In this work, they propose to address many of these limitations by training a Convolutional Neural Network (CNN) on an appropriate dataset consisting of 2D images and 3D facial models or scans. Their CNN works with just a single 2D facial image, does not require accurate alignment nor establishes dense correspondence between images, works for arbitrary facial poses and expressions, and can be used to reconstruct the whole 3D facial geometry (including the non-visible parts of the face) bypassing the construction (during training) and fitting (during testing) of a 3D Morphable Model. They achieve this via a simple CNN architecture that performs direct regression of a volumetric representation of the 3D facial geometry from a single 2D image. They also demonstrate how the related task of facial landmark localization can be incorporated into the proposed framework and help improve reconstruction quality, especially for the cases of large poses and facial expressions. Code and models are available at http://aaronsplace.co.uk

 

(BE PATIENT UNTIL ALL THE IMAGES LOAD)

 

 

LIST OF ARTWORKS USED:
American Gotic – Grant Wood (1930)
Marylin Diptych – Andy Warhol (1962)
Le Désespéré – Gustave Courbet (1844)
The Song of Love – Giorgio de Chirico (1914)
Self-Portrait with Thorn Necklace and Hummingbird – Frida Kahlo (1940)
Portrait of Adele Bloch-Bauer I – Gustav Klimt (1907)
Las meninas – Diego Velázquez (1656)
Portrait of Madame Matisse / The Green Line – Henri Matisse (1905)
Mona Lisa – Leonardo Da Vinci (1503)
Self-Portrait – Rembrandt (1660)
Arnolfini Portrait – Jan van Eyck (1434)
Self-Portrait- Vincent Van Gogh (1889)
Girl with a Pearl Earring – Johannes Vermeer (1665)

My Artificial Muse’.
1015

MY ARTIFICAL MUSE – WORLD TOUR

Each performance is unique.

A new Artificial Muse computationally-created.
A new Classical Muse live-painted.
A new Music Set live-ensembled.

 


12 MAY – MOLLERUSSA (CATALONIA/SPAIN)
Teatre de l’Amistat 

26 MAY – KRAKÓW (POLAND)  
Copernicus Festival

27 AUGUST – MEDELLÍN (COLOMBIA) 
Medellín Museum of Modern Art / Universidad Pontificia Bolivariana

+ dates coming soon

:: digital performance interactive arts