L’intelligenza artificiale sta rivoluzionando molti settori e quello musicale non fa eccezione. Il Prof. Fabio Antonacci del Politecnico di Milano ci svela come vengono analizzati i fenomeni acustici con l’AI e con quali risultati per professionisti e pubblico

Tra le aree di grande innovazione dell’intelligenza artificiale c’è la musica che ascoltiamo e produciamo. In particolare c’è lo studio dei fenomeni acustici, dove l’AI consente di analizzare grandi quantità di dati per creare modelli sonori dettagliati che replicano con precisione le caratteristiche spaziali dei suoni. Questo approccio permette di creare esperienze uditive di musica immersiva che sembrano reali e possono essere personalizzate in base alle preferenze dell’ascoltatore.

Un altro aspetto rivoluzionario dell’AI nella musica è la capacità di imitare il suono di strumenti famosi, come i violini Stradivari. Gli Stradivari sono noti per la loro qualità sonora unica, ma sono anche estremamente rari e costosi. Attraverso l’uso dell’intelligenza artificiale, è possibile analizzare in dettaglio le caratteristiche acustiche di questi strumenti e creare modelli digitali che ne replicano il suono.

Il Prof. Fabio Antonacci del Politecnico di Milano è uno dei ricercatori di punta in questo ambito. L’ho incontrato al Wired Next Fest di Milano e intervistato per sapere come l’intelligenza artificiale sta cambiando la pratica e l’ascolto musicale e quali potrebbero essere le prossime frontiere di questa entusiasmante area di ricerca.

– Grazie per averci incontrato. Partiamo dall’inizio. Qual’é stato il suo primo approccio con l’intelligenza artificiale?
Grazie a voi per questa opportunità. L’uso dell’intelligenza artificiale è diventato pervasivo da 10 anni a questa parte. Abbiamo potuto osservare come settori di ricerca che avevano una forte tradizione, come ad esempio l’acustica, hanno impiegato più tempo di altri ad applicare il paradigma dell’intelligenza artificiale, ma poi questa è diventata via via di uso comune. Nel mio caso specifico, mi occupo di elaborazione dei segnali audio ed acustica degli strumenti musicali. L’IA ha preso piede oramai da una decina di anni nell’audio signal processing, ed una delle prime applicazioni è stata quella del music information retrieval, ovvero l’estrazione di informazioni a partire dal segnale musicale, orientata ad esempio, al problema della raccomandazione di brani.

– Quali tecnologie e metodologie di AI vengono impiegate nei suoi studi per l’analisi e la sintesi del suono?
Alla base delle applicazioni di AI, possiamo trovare l’uso di deep neural networks. Possiamo in generale classificare tre principali usi delle reti neurali. Il primo è relativo alla classificazione od inferenza a partire dal contenuto audio. Ci sono poi tipologie di reti neurali che sono dedicate all’ottenere segnali audio a partire da altri segnali audio. Ad esempio, possiamo annoverare in questa categoria le tecniche che, sulla base della conoscenza del campo acustico in pochi punti, permettono di ricostruire il suono in un’area più o meno vasta, facendo una sorta di microfonatura virtuale. Infine, negli ultimissimi anni, l’AI ha avuto una vasta risonanza nell’opinione pubblica per via delle reti generative che, sulla base di un prompt, restituiscono, ad esempio, un brano musicale. Nei nostri studi ci focalizziamo sulle prime due categorie, principalmente. Il problema, infatti, delle reti generative è che per crearne di nuove c’è bisogno di una mole di dati ed una potenza di calcolo che non sono nella disponibilità di un centro di ricerca universitario. Le grandi aziende del settore, Google, Meta, etc., hanno investito da molti anni in questo settore, e c’è un gap oramai incolmabile. Per quanto riguarda le reti generative, i centri di ricerca universitari sono degli utenti di questi grossi sistemi. Nei casi migliori, è possibile effettuare una personalizzazione delle reti, per specifici obiettivi di sintesi.

– Può descrivere alcuni progetti specifici in cui l’AI è stata utilizzata per creare ambienti musicali immersivi?
Posso fare a questo riguardo un esempio. Si tratta di un progetto europeo, REPERTORIUM, che vede coinvolti noi del Politecnico di Milano, insieme ad una rete di Università, aziende ed associazioni di Spagna, Francia, Germania, Inghilterra, Finlandia e Lituania. L’obiettivo di questo progetto è preservare e diffondere la cultura musicale europea, sia per ciò riguarda i manoscritti di musica medievale sia per la diffusione di concerti di musica classica in audio immersivo. Noi del Politecnico di Milano ci occupiamo principalmente del secondo obiettivo. Quello che stiamo facendo è di creare un sistema per l’ascolto del concerto da remoto in audio immersivo, potendo scegliere la seduta nel teatro con la acustica per noi preferita, proprio come adesso è possibile prenotare un posto al concerto tramite le piattaforme di ticketing. Se dovessimo basarci su tecniche tradizionali, dovremmo disporre i microfoni su ogni seduta del teatro, scenario chiaramente infattibile. Ebbene, nel progetto REPERTORIUM stiamo mettendo a punto delle tecniche che usano un numero minimale di microfoni, da qualche unità a qualche decina a seconda dell’estensione dell’area che vogliamo coprire, per riuscire a ricostruire il campo acustico in punti intermedi. Questo tipo di applicazione, poi, si integrerà con l’ascolto binaurale in cuffia, e la possibilità di avere head tracking, restituendo un’esperienza di olografia acustica. Altri partner del progetto stanno invece lavorando su tecniche di minus one, ovvero rimuovere dall’audio il suono di un particolare strumento, per poter suonare insieme all’orchestra. Combinando questo con l’audio immersivo, permetterà al musicista da casa di posizionarsi sul palco, rimuovere virtualmente un musicista, e suonare insieme all’orchestra.

– Come si sviluppano i modelli acustici degli strumenti famosi, come gli Stradivari, utilizzando l’intelligenza artificiale?
Nel caso dell’acustica degli strumenti musicali, la sfida è quella di stabilire la relazione complessa che esiste tra geometria, spessori, bombatura, caratteristiche meccaniche del legno e comportamento acustico. Si tratta di una relazione estremamente complessa, che non può essere scritta in forma chiusa, e rispetto alla quale le tecniche di intelligenza artificiale ci sono venute in soccorso. Ovviamente negli anni siamo partiti dalle sole superfici libere, come la tavola ed il fondo, e poi siamo andati via via ad analizzare lo strumento intero.

– Quali sono le principali sfide tecniche nel replicare il suono di strumenti musicali storici attraverso l’AI?
Strumenti acusticamente “pregiati” presentano una risposta che è, in molti casi, difficilmente distinguibile da quella di strumenti di scarso valore. Tutta la differenza la fa la nostra percezione del suono. Ebbene, una delle sfide più grandi è rendere l’AI sufficientemente accurata da riuscire a rendere queste sottigliezze che fanno la differenza. L’altro problema, in parte collegato al precedente, è che l’AI, per poter funzionare e restituire risultati accurati, ha bisogno di molti dati. Gli strumenti fisici a nostra disposizione, però, sono molto pochi. Abbiamo quindi dovuto rimediare, combinando, nella fase di addestramento, dati reali con dati simulati.

– Con quali enti o istituzioni il Politecnico di Milano collabora per questi progetti?
Sul fronte dell’acustica degli strumenti musicali, il fatto di avere un laboratorio a Cremona, all’interno del Museo del Violino, ci pone in una posizione di assoluta visibilità rispetto ad altri gruppi di ricerca. Con la Fondazione Antonio Stradivari, la Direttrice del Museo ed il conservatore, abbiamo sviluppato collaborazioni su più fronti. Inoltre, lo spazio all’interno del Museo del Violino è condiviso con il Laboratorio Arvedi di Diagnostica Non invasiva, che si occupa dell’analisi dei materiali. Ad esempio è di interesse studiare l’impatto acustico di vernici e finiture in collaborazione con loro Ovviamente è importante avere un rapporto con i liutai di Cremona, oltre 150, con i quali vengono organizzati incontri periodici, nei quali sempre più ci poniamo in una posizione di ascolto dei loro interessi. Negli ultimi anni a Cremona è stata costruita una rete di Università, Enti ed associazioni che contribuiscono in modo strutturato a vari ambiti di ricerca. Tutto questo è stato incanalato nel Piano di Salvaguardia della Liuteria Cremonese, coordinato dal Comune di Cremona. Un solo laboratorio non può ovviamente essere esaustivo rispetto alle esigenze della comunità. E’ necessaria una forte collaborazione. Sugli altri ambiti, più legati alla elaborazione di segnali audio in genere, invece, abbiamo alcune collaborazioni di lunga data, ad esempio con l’università di Valencia e Jaen in Spagna, ed altre legate a progetti specifici. Oltre a questo, ovviamente, abbiamo collaborazioni con aziende italiane e straniere.

– Quali sono le prospettive future per l’uso dell’AI nel campo dell’acustica e della musica?
Si fa ultimamente un gran parlare dell’uso di AI generativa per scopi musicali. Non è facile dire, ad ora, quanto queste tecnologie prenderanno realmente piede. Ci tengo a specificare che l’AI non è creativa, e l’uso dell’aggettivo generativa non è casuale. Un algoritmo di AI può generare nuovi dati, sulla base di quelli usati durante l’addestramento, ma non riesce ad essere creativa. Questa prospettiva, ovviamente, deve essere sempre tenuta in conto. A mio avviso, questo forte interesse verso l’AI ha il merito di rendere sempre più evidente per le nuove generazioni la necessità di acquisire competenze in machine learning, per non essere solo fruitori di queste tecnologie, ma sviluppatori delle stesse.

– Finiamo parlando di benefici e rischi: riguardo alle problematiche sull’etica dell’AI c’è qualcosa che la preoccupa in questo ambito?
L’uso di AI generativa per creare musica ha una valenza non positiva, perché, si pensa, impoverisca il lavoro di musicisti e produttori. Tuttavia, a mio avviso c’è un malinteso: come dicevo prima, l’AI non è creativa, ma solo generativa. L’idea musicale alla base di un brano non può provenire da una macchina, ma deve essere frutto dell’artista. L’AI è uno strumento, nulla di più. Tutto dipende dall’uso che se ne fa. Uno degli ambiti che più preoccupa per l’AI è quello della generazione di contenuti deepfake. Allo sviluppo di tecnologie sempre più efficienti per la generazione di contenuti audio accurati e difficilmente distinguibili da quelli reali, si affiancano tecnologie, sempre basate su AI, per identificare contenuti falsi. Tutte le grandi Università, ed anche il Politecnico, si sono dotate negli anni di centri di ricerca specifici sull’intelligenza artificiale, e che si occupano anche di aspetti di etica. Ovviamente l’uso di AI per fini non leciti è pericoloso, ma a mio avviso, ora ed in futuro, i benefici prevarranno su questi problemi.

– Grazie per le risposte esaurienti. C’è un corso di laurea o una specializzazione al Politecnico di Milano per chi volesse approfondire questi argomenti?
Da oramai 6 anni il Politecnico di Milano offre un corso di Laurea Magistrale in Music and Acoustic Engineering, nel quale gli studenti possono approfondire vari argomenti. Il programma è incardinato su due fronti principali, quello dell’acustica, sia essa ambientale, degli strumenti musicali, analisi delle vibrazioni ed altro ancora. L’altra direzione è quella dell’ingegneria musicale, nella quale si studiano tutte le applicazioni più innovative dell’elaborazione, analisi e sintesi dei segnali per la musica, nonché le tecnologie per la produzione musicale, per la progettazione di interfacce innovative per interagire con i sistemi per la produzione, elettronica per il suono ed elettroacustica, e molti altri corsi ancora.


Articolo precedenteGite scolastiche tra svago e istruzione
Articolo successivoVoice Machine: castrati e altri strani suoni
Autore: Fulvio Binetti
Fulvio Binetti è un editore online, fondatore di Bintmusic.it, musicista, produttore e esperto di comunicazione digitale. Da oltre tre decenni collabora con le principali realtà del campo audiovisivo, discografico ed editoriale, dove si è distinto nella produzione di canzoni e colonne sonore per tv, radio, moda, web ed eventi. In qualità di blogger, condivide approfondimenti su musica, cultura e lifestyle. Per saperne di più leggi la biografia o segui i suoi profili social.