Con questo articolo inauguriamo un dialogo della serie Art in Responsible Innovation specificatamente dedicato alla musica. In questa pagina un testo di Luca Severino, compositore, produttore e tecnico del suono, e un video del dialogo tra lo stesso Severino e Jonathan Hankins, che sta curando la serie. Prossimamente anche alcuni episodi podcast.
Rivoluzionare la creazione musicale con l’intelligenza artificiale
Quella che comunemente chiamiamo intelligenza artificiale generativa corrisponde ai motori di elaborazione noti come ChatGpt, Gemini (Google), Apple Ai (già presente negli USA e nel suo sistema operativo bloccata in UE), ed è basata sui modelli LLM (Language Learning Machine).
Questi “motori” elaborativi hanno portato, nel giro di pochissimo tempo (se confrontato con il tempo della storia umana e dell’evoluzione tecnologica), alla realizzazione di ulteriori applicativi che utilizzano loro stessi per:
- Modelli di linguaggio naturale (NLP);
- Modelli di visione artificiale (CV) (basati su LLM);
- Modelli di generazione audio e musica;
- Modelli di apprendimento automatico generico;
- Modelli per gaming e robotica;
- Modelli di intelligenza multimodale.
- E altro
La lista cresce continuamente: nuove architetture e varianti vengono sviluppate regolarmente, sia dall’utente comune che dalla “grande industria”.
Il settore musicale non fa eccezione. Al momento, ogni suo aspetto è manovrabile dall’essere umano, elaborato dall’A.I. e creato.
In una frase:
L’intelligenza artificiale non solo sta migliorando il modo in cui la musica viene composta, prodotta e distribuita, ma sta anche democratizzando l’accesso agli strumenti di creazione musicale.
La musica è stata protagonista, nel biennio 2023-2024, di una delle più grandi ingerenze dell’A.I. nei suoi meccanismi e nei suoi attori.
La sua prima apparizione è avvenuta sotto forma di strumento di “aiuto” tecnico, come plugin dedicato allo snellimento delle mansioni foniche legate alla creazione musicale dal lato dei creatori-lavoratori della musica.
Dal lato degli utenti, invece, l’A.I. è entrata fornendo raccomandazioni musicali personalizzate e playlist basate sui mood.
Intanto l’intelligenza artificiale si è nutrita di big data, sotto ogni forma: pensiamo alle informazioni raccolte sotto forma di cookie e alla profilazione individuale. La musica vedeva già da tempo un appiattimento-omologazione attraverso playlist, algoritmi e tendenze preesistenti principalmente per via dell’interconnessione di tre dinamiche:
– Gli algoritmi di raccomandazione: le piattaforme di streaming utilizzano sistemi basati su machine learning che privilegiano la riproduzione di brani simili a quelli già ascoltati dagli utenti.
– Standardizzazione delle playlist: le playlist curate (sia da algoritmi che da editori umani) tendono a seguire formule precise per massimizzare l’engagement. Questo porta alla predominanza di brani con caratteristiche comuni, come durate brevi, melodie semplici, ritmi regolari (tipicamente 4/4) e progressioni armoniche prevedibili.
-Tendenze preesistenti e cicli di mercato: L’industria musicale si concentra su ciò che ha già dimostrato un successo commerciale, replicando quindi formule consolidate.
Ma conveniamo tutti che, quando nasce una invenzione tecnologica di tale portata rivoluzionaria, che corrisponde a uno strumento tecnico multi-modale:
- L’uomo ne è l’artefice (siamo stati noi, volenti o nolenti);
- L’uomo ne è l’utilizzatore (e lo nutre);
- L’uomo può farne un uso positivo o negativo, a sé stesso e agli altri.
Tornando alla storia, nel mondo della musica, lo strumento di aiuto tecnico nella forma di plugin entra a capofitto nell’industria come votato alla cosiddetta creazione, in quanto permette di estrapolare ogni parte di un brano (basso, batteria, voce, altri strumenti) e di darlo fisicamente nelle mani dell’utente. Qualcuno ne avrà fatto un uso creativo; molti, invece, ne hanno fatto remix non autorizzati, prendendo brani sia famosi che meno popolari, li hanno distribuiti e ne hanno raccolto i proventi monetari (royalties).
Un terremoto scuote l’industria a ogni livello: dalle major alle medie e piccole case discografiche, passando per i distributori, gli artisti, gli utenti e per i mezzi di streaming più famosi, come Spotify. La perdita economica è enorme, e il cerchio democratico si chiude: il grande ente di riproduzione musicale adotta politiche stringenti, parla solo con quattro grandi distributori, restringendo così l’accesso agli artisti, cambiando le politiche di ripartizione monetaria e adottando anche altre forme di somministrazione musicale, rafforzando playlist basate sui mood e sui cd. superfan.
A gennaio 2025, sia le major discografiche che le PRO sono in causa per la raccolta, a questo punto irregolare, dei proventi dei diritti d’autore.
Gli attori sono loro, mentre le controparti sono le aziende tecnologiche che hanno permesso la produzione dei contenuti audio. Negli USA si combatte legalmente anche per la raccolta fotomeccanica del diritto d’autore. Nel breve periodo, entreranno in gioco nuovi attori; probabilmente nasceranno perfino nuovi enti. La possibilità che ci si ponga la domanda sulla nascita dell’AI come ente giuridico può essere annoverata tra le probabilità da considerare.
Il ruolo dell’A.I. nella creazione musicale
Le tecnologie di intelligenza artificiale vengono utilizzate per svolgere compiti che tradizionalmente richiedevano una significativa diretta e completa esperienza umana.
Questi compiti includono:
- Composizione e scrittura di canzoni:
Strumenti basati sull’A.I., come MuseNet di OpenAI, AIVA, Suno, Udio e tantissimi altri basati più o meno su stessi modelli o diversi database, generano melodie, armonie e intere composizioni. Questi sistemi analizzano vasti database di musica esistente per creare brani che imitano generi o stili specifici. - Produzione, separazione stem e mixaggio audio:
Algoritmi di machine learning assistono nella masterizzazione dei brani, regolando automaticamente livelli, equalizzazione ed effetti.
Strumenti per la separazione delle parti di un brano e alla portata di chiunque, come Moises, forniscono stem isolati dei brani.
Nel dualismo e nell’ambivalenza etica, uno strumento così potente potrebbe far crollare un mercato intero come essere estremamente utile ora a professionisti e studenti.
Strumenti come LANDR e tanti altri utilizzano l’A.I. per fornire una masterizzazione audio di alta qualità, accessibile anche ai non professionisti.A gennaio 2025, una band praticamente “morta” come i Beatles è diventata il primo artista a vincere un Grammy con un brano realizzato con strumenti tecnici basati sull’A.I. - Raccomandazioni musicali personalizzate:
Piattaforme come Spotify, Apple Music, Prime ed altre ancora usano l’A.I. per curare playlist personalizzate, in modo da migliorare il coinvolgimento degli utenti.
Sfide ed implicazioni etiche
- Democratizzazione:
Questo tema è emerso quando la musica è passata dall’analogico al digitale, aprendo le porte a ogni musicista o aspirante tale. All’epoca era ancora una questione di denaro: si parlava di milioni; oggi si tratta di migliaia. Con l’avvento del World Wide Web, la democratizzazione si è espansa sempre di più, impattando la distribuzione e contribuendo alla creazione di nuovi generi e forme. - Copyright e proprietà:
Stabilire chi possiede i diritti sulla musica generata dall’A.I. è una questione complessa, poiché i quadri legali attuali non sono pienamente in grado di affrontare questi scenari. - Bias nei modelli di A.I.:
Viviamo già un’esperienza di ascolto omologata, basata su un generale appiattimento dell’ascolto e della non-complessità dei brani che consumiamo nelle nostre fruizioni quotidiane in ogni loro forma.
I sistemi di A.I. addestrati su dataset musicali esistenti rinforzano involontariamente bias già presenti, limitando la diversità nella produzione musicale.
Un prompt basato su un’esperienza di ascolto omogenea creerà inevitabilmente un prompt altrettanto omogeneo e così via. - Impatto sull’occupazione:
Sebbene l’A.I. crei nuove opportunità per gli ingegneri e i musicisti disposti a “nutrire la bestia”, potrebbe anche sostituire ruoli tradizionalmente occupati da musicisti, produttori e tecnici del suono umani.
La production music cd. Musica da sottofondo può tranquillamente essere, e lo è già, rimpiazzata da contenuti generati dall’A.I. i quali, per un pubblico di non addetti ai lavori risultano indistinguibili da quelli umani. Nelle varie funzioni della musica si potrebbe creare un nuovo livello di fruizione, portando a un nuovo scenario di addetti ai lavori e utenti. - Autenticità e valore artistico:
La proliferazione di musica generata dell’A.I. solleva dubbi sul valore dell’arte umana e sull’autenticità delle opere creative.
Difatti, usando lo stesso lessico di J. Baudrillard, siamo di fronte a una precessione del modello.
È effettivamente un simulacro che non deriva dalla realtà ma la precede, creando un universo autonomo. È un’immagine o un brano, quindi una rappresentazione che non rimanda più a un originale, ma che esiste come realtà autonoma.
La musica generata dall’A.I. si smaterializzerebbe, diventando un prodotto “iperreale”, svuotato di significato umano. Inoltre, si creerebbe una sovrapproduzione che porterebbe a un “inquinamento” culturale, rischiando una saturazione del mercato, dove la musica diventa un contenuto indistinto e facilmente dimenticabile.
Senza contare l’autorialità e la simulazione: se un’A.I. può produrre un brano “nel genere di”, chi è il vero autore? Il compositore umano che ha creato lo stile? Il programmatore che ha progettato l’algoritmo? O l’algoritmo stesso?
Prospettive future
L’integrazione dell’A.I. nella creazione musicale è ancora nelle sue prime fasi, ma ha già rimodellato il suo mondo i suoi creatori e gli ascoltatori.
L’evoluzione umana e quella tecnica crescono in modo eguale sino al punto in cui l’evoluzione dello strumento tecnico del musicista e quello del fruitore ampliano l’esposizione naturale dell’uomo alla musica, accrescendo lo sviluppo di entrambi.
Se il secolo scorso ha visto il formarsi delle orchestre, delle band, di svariate figure di musicisti sotto forma di gruppo, gli ultimi decenni hanno, invece, visto l’emergere di elementi come il cd. Bedroom Music Producer.
Il crescente isolamento dell’uomo che si riflette nell’esposizione al mezzo tecnico per eccellenza di oggi, ossia smartphone tablet e personal computer, lo ha quasi completamente atomizzato.
Man mano che la tecnologia avanza, è probabile che favorisca collaborazioni senza precedenti tra esseri umani e macchine ma sentiamo l’urgenza di determinare come interagiremo e come lo farà.
Le interazioni uomo-strumento e uomini-strumenti hanno da sempre portato all’ampliamento della quantità di musica e della sua qualità, e queste si sono riflesse ampiamente nell’evoluzione intesa in termini positivistici dell’uomo.
Quando la tecnica ha impattato così prepotentemente nella musica da far sviluppare nuove figure e nuovi ruoli ad essa connessa abbiamo avuto scenari musicali così diversi, che hanno a loro volta impattato sulla società tutta creando sub-culture che hanno umanamente generato nuova musica.
Se concordiamo che l’uomo e la musica sono due concetti assolutamente non divisibili e
se l’urgenza dell’uomo di creare, quella di fruire, e quella dell’arricchimento capitalistico si incrociassero, il prossimo futuro prospetterebbe scenari apocalittici considerata la facilità con cui l’AI attualmente porta alla creazione di un brano musicale.
La prospettiva a medio-termine sembrerebbe quella in cui l’interazione sociale avverrebbe nella via “Creatore versus A.I” che non vivrebbe più l’incrocio della cultura e dell’interazione umana che hanno caratterizzato la società moderna, almeno a livello “analogico” rubando la terminologia tecnica musicale. Nondimeno, non possiamo escludere che l’interazione uomo-A.I porti risultati sonori inaspettati e fusione o generazione di nuovi stilemi musicali .
Banalmente se tutti gli strumenti attualmente disponibili fossero usati eticamente per la produzione musicale tutta, mirata alla creazione, alla performance, assolvente a tutte le funzioni ad essa correlate potremmo ottenere risultati indubbiamente inaspettati.
Conclusione
Inaspettato e imprevedibile.
L’uomo e ora anche la macchina; perché l’A.I è anche generativa. L’algoritmo è di per sé finito. Ma dataset, algoritmi, modelli e generazione portano anche loro all’imprevedibilità.
Se l’A.I. su un livello di analisi superficiale sta rivoluzionando l’industria musicale, offrendo strumenti che potenziano la creatività, semplificano la produzione e personalizzano le esperienze degli ascoltatori dobbiamo comunque stare attentissimi.
Superficialmente, dopo lo stupore pensiamo forse di interfacciarci con uno strumento innovativo, come tanti altri lo sono stati nel corso della storia, ma approcciarsi all’A.I come se parlassimo del classico rapporto uomo-strumento non è sufficiente.
L’A.I è molto più che uno strumento, e ciò che emerge ed urge pone enormi interrogativi sulle sfide etiche e pratiche da affrontare, senza dimenticare il medio e il lungo termine.