Immagine AI

Al Teatro Auditorium dell’Università della Calabria ha avuto luogo il workshop “Collaborazione artistica uomo-robot in MUSIC4D”, in cui un robot umanoide ha condiviso il podio con il maestro Michelangelo Galeati per dirigere un ensemble orchestrale del Conservatorio Santa Cecilia di Roma. Il repertorio era volutamente cinematografico e denso di riferimenti alla fantascienza — da Also sprach Zarathustra di Strauss, reso celebre da 2001: Odissea nello spazio, alle colonne sonore di Ennio Morricone, fino ai temi di The Terminator e WestWorld — e la performance era completata da contributi video generati dall’intelligenza artificiale curati da Mauro Martino, direttore dell’AI Visual Lab di IBM-MIT. Ma oltre la dimensione spettacolare, ciò che è stato presentato sul palco del TAU è il risultato concreto di un percorso di ricerca finanziato dal Ministero dell’Università e della Ricerca attraverso il PNRR.

Il progetto si chiama MUSIC4D e ha ottenuto il primo posto per punteggio e ordine di finanziamento nell’ambito dell’avviso per l’internazionalizzazione degli istituti AFAM. Il consorzio è coordinato dal Conservatorio Alessandro Scarlatti di Palermo e coinvolge tredici partner — tutti i conservatori di Sicilia e Sardegna, l’Università di Palermo con il professor Antonio Chella come responsabile scientifico, e l’Università della Calabria con i professori Giancarlo Fortino e Francesco Pupo — per un finanziamento complessivo di quasi sei milioni di euro. L’obiettivo dichiarato è la digitalizzazione dei conservatori musicali italiani attraverso l’integrazione di robotica umanoide e intelligenza artificiale nelle arti performative, con ambizioni che si estendono oltre la musica verso il teatro, la danza e le altre forme di spettacolo dal vivo.

Il cuore tecnologico del progetto è la piattaforma RoBoCon, sviluppata dal laboratorio SPEME del DIMES — Dipartimento di Ingegneria Informatica, Modellistica, Elettronica e Sistemistica — sotto la guida di Fortino, ordinario di Sistemi di Elaborazione delle Informazioni. RoBoCon non è un sistema di riproduzione meccanica di gesti predefiniti: la sua caratteristica più rilevante sul piano della ricerca è la capacità di riconoscere in tempo reale le emozioni non del singolo individuo, ma del gruppo, ovvero dell’intera sala. Il team di Fortino rivendica di aver sviluppato le prime tecniche internazionali di riconoscimento delle emozioni collettive applicato a un contesto performativo: il sistema acquisisce dati da direttore, musicisti e pubblico, ne elabora gli stati affettivi aggregati e li incorpora nel comportamento del robot, che li esprime attraverso variazioni di illuminazione e pattern gestuali associati a specifici stati emotivi.

Questa capacità di leggere e rispondere a ciò che accade nel contesto circostante colloca RoBoCon in una categoria diversa rispetto ai precedenti esperimenti di robot-direttori d’orchestra — come il coreano Ever6 del 2023, il cui risultato fu valutato dalla critica come meccanico e elementare. La distinzione non è solo tecnica: riguarda l’intera concezione del sistema. Ever6 eseguiva una sequenza di movimenti preregistrati; RoBoCon è progettato per partecipare a un’interazione bidirezionale con l’ambiente sonoro ed emotivo del concerto, adattando il proprio comportamento in funzione di ciò che percepisce. La direzione d’orchestra richiede esattamente questa sensibilità contestuale — la capacità di leggere l’orchestra, modificare il gesto in risposta a ciò che si ascolta, comunicare intenzioni musicali in modo non verbale — e il progetto di ricerca dell’Unical è orientato proprio a modellare computazionalmente questa dimensione.

Sul piano della struttura del progetto, MUSIC4D non si limita alla componente robotica: include un’infrastruttura formativa che eroga corsi di alta formazione su IA generativa, robotica applicata e creazione musicale, con una piattaforma MOOC gestita dall’Università della Calabria che permette fruizione ibrida a studenti, docenti e personale tecnico-amministrativo dei conservatori partner. L’ambizione di lungo periodo è costruire un ecosistema in cui la ricerca scientifica non sia accessoria alla produzione artistica ma ne costituisca il fondamento operativo, trasformando le istituzioni AFAM — storicamente lontane dall’innovazione tecnologica — in hub di sperimentazione avanzata. Tra i prossimi obiettivi del consorzio figura anche la produzione di una micro-opera ispirata all’Orlando Furioso con l’impiego del metaverso e di robot in scena.

Il laboratorio SPEME dell’Unical che guida la componente tecnologica del progetto conta circa 45 ricercatori provenienti da tutto il mondo e mantiene collaborazioni attive con università e aziende europee, americane e cinesi che lavorano nello sviluppo della robotica umanoide. Il fatto che una ricerca di questa natura emerga da un ateneo del Sud Italia — e che sia stata valutata prima in graduatoria a livello nazionale — è un dato che merita di essere letto non solo come notizia di costume tecnologico, ma come indicatore di dove si stanno spostando alcune delle frontiere più fertili della ricerca italiana sull’intelligenza artificiale incarnata, quella che non si limita ai sistemi disincarnati di elaborazione del linguaggio ma lavora sulla presenza fisica, sul gesto, sull’interazione emotiva nello spazio condiviso.

Di Fantasy