Il performer e la semantica del gesto. Ambiente integrato di analisi del movimento e dei feedback emozionali Venezia, Isola di San Giorgio Maggiore 10 maggio 2018    
982

 

Il performer e la semantica del gesto. Ambiente integrato di analisi del movimento e dei feedback emozionali

 Attraverso l’uso di sensori biometrici e intelligenza artificiale, si analizzerà il movimento del performer mettendolo in relazione con i feedback emozionali del performer stesso e di un campione di pubblico. Particolare attenzione sarà dedicata ai processi di sonificazione semantica del gesto.

 Giovedì 10 maggio, alle ore 18.00, i partecipanti mostreranno i risultati delle loro sperimentazioni in un evento aperto al pubblico

 Dall’8 al 10 maggio 2018, l’Istituto per il Teatro e il Melodramma, in collaborazione con l’Università Ca’ Foscari e nell’ambito del progetto Teatro, ricerca, innovazione. La scena digitale finanziato dalla Regione del Veneto, realizza con l’azienda see-d un seminario di ricerca volto all’analisi semantica e alla sonificazione del movimento del performer, in relazione ai feedback emozionali provenienti dal performer stesso e da un campione di pubblico. Il laboratorio vedrà il coinvolgimento di professionisti che operano, a livello internazionale, nel settore dell’animazione digitale, dell’intelligenza artificiale e della sonificazione gestuale; tra questi, Ugo Padulosi (Eurotech Group), Lorenzo Pagliei (Conservatorio di Vicenza, Ircam di Parigi), Luca Richelli (Conservatorio di Vicenza, SaMPL – Sound and Music Processing Lab di Padova) e Davide Tiso (Conservatorio di Vicenza, see-d di Venezia).

Al termine del percorso di ricerca, giovedì 10 maggio, alle ore 18.00, sarà realizzata una dimostrazione finale aperta al pubblico, come esito dei lavori e delle sperimentazioni che hanno avuto luogo nel corso delle tre giornate di laboratorio (ingresso libero fino a esaurimento posti).

Il progetto si propone di mappare il movimento dei performer attraverso la costruzione di un ambiente integrato di motioncapture e sensori biometrici, creando un avatar digitale che possa muoversi attraverso modelli ‘semantici’ di movimento –inclusivi della componente gestuale ed emozionale – generati da attori di commedia dell’arte, danzatori contemporanei ed esponenti di discipline sportive: l’attore Titino Carrara, le danzatrici Tiziana BolfeBriaschi, Camilla Monga e Chiara Vittadello, i maestri di Tai Chi e di tennis Riccardo Belli e SvenJurmic.Una particolare attenzione sarà, inoltre, dedicata ai processi di sonificazione semantica del gesto, con la creazione di una partitura sonora generata dallo stesso movimento degli interpreti.

Nel corso di queste giornate di studio, si intende ‘estrarre’ un modello di movimento in grado di generare una determinata reazione emozionale tanto nel performer, quanto nello spettatore: la mappatura attraverso sensori biometrici consentirà di valutare l’efficacia del movimento e di analizzare il successo dell’interazione tra performer e pubblico, attraverso un sistema basato sull’intelligenza artificiale. I risultati estrapolati da questa analisi della relazione, genereranno un modello archetipico che potrà essere applicato a differenti casistiche e settori, dall’animazione alla robotica, all’interno di differenti ambiti disciplinari quali l’entertainment, le applicazioni medicali, lo sport.

Il progetto è realzzato con il sostegno di Conservatorio di Musica di Vicenza “Arrigo Pedrollo”, Eurotech Group, GRAIM Studio del Conservatorio di Vicenza,SaMPL – Sound and Music Processing Lab.

Informazioni:

Fondazione Giorgio Cini onlus

Istituto per il Teatro e Melodramma

tel.+39 041 2710236

fax +39 041 2710215

teatromelodramma@cini.it

 

Informazioni per la stampa:

Fondazione Giorgio Cinionlus

Ufficio Stampa
tel. +39 041 2710280
stampa@cini.it
www.cini.it/press-release