Come produrremo musica in futuro? (Sada Says)

Come produrremo musica in futuro? Riccardo Sada che con la sua rubrica Sada Says ci porta nella musica di domani, che andrà a braccetto con l’AI

L’intelligenza artificiale è al centro di un cambiamento fondamentale nel ruolo della musica nelle nostre vite e in modo particolare per la musica dance elettronica. La transizione, nonostante la resistenza, sarà di proporzioni sismiche e se ci ho scritto attorno un libro come “BEATtitude” (kDope Edizioni) un motivo ci sarà. Il panorama che verrà a delinearsi sarà l’utopico e il distopico. Ne ha parlato anche sul sito di DJ Mag lo specialista in tech Declan McGlynn, che ha esamina come l’intelligenza artificiale sia diventata una delle realtà più interessanti della produzione musica dall’avvento del campionamento.

In fondo, per la maggior parte delle persone, l’intelligenza artificiale ricorda uno scenario futuristico e fantascientifico di robot o macchine autonomi in grado di prendere le proprie decisioni e, il più delle volte, portare alla scomparsa delle loro controparti umane. Per ora, invece, le sue applicazioni sono meno apocalittiche Come dice l’amico Morris Capaldi, se si chiede a chiunque qualcosa sull’AI o su ChatGPT ti risponderà che lo ha provato e non che lo usa o lo ha usato.

Siamo in fase di tentativi, di test, di prove sul campo. L’impatto delle nuove tecnologie sull’arte e la cultura in gran parte è ancora in divenire. La fase è sperimentale. La maggior parte di noi utilizza inconsapevolmente da anni architetture basate sull’intelligenza artificiale e sul machine learning. Piattaforme di ascolto musicale come YouTube, Spotify, Apple Music e Pandora utilizzano l’AI per perfezionare l’esperienza consigliando la traccia perfetta da riprodurre, eliminando i tempi morti e regolando il volume in tempo reale.

L’apprendimento automatico è un ramo dell’intelligenza artificiale che essenzialmente insegna a una macchina come imparare.

Utilizza dati di addestramento per individuare modelli e utilizza tali modelli per costruire un modello basato su tali dati. Il deep learning è un sottoinsieme dell’apprendimento automatico che si basa su grandi reti neurali artificiali per costruire questi modelli ed è alla base della maggior parte delle scoperte che vediamo nell’AI (intelligenza artificiale) moderna. Discover Weekly di Spotify ne è un esempio.

Siri, assistente vocale di Apple e Alexa di Amazon Echo, fanno la stessa cosa. Anche i plug-in e i software per la creazione di musica hanno iniziato ad adottare il ML (machine learning), come Neutron di iZotope. Splice, Loopmasters e altri utilizzano il ML per suggerire nuovi sample per migliorare la propria traccia e consentire di scansionare le librerie di milioni di suoni in base ad attributi più astratti (come il profilo armonico e il tono). App come Endel e AIMI hanno utilizzato le fasi radicali di collaboratori come Richie Hawtin, Grimes, Black Loops e Shanti Celeste per creare musica generativa personalizzata che non si ripete mai e non finisce mai.

Come produrremo musica in futuro? Anche il djing è cambiato…

Anche il djing è stato coinvolto dal ML. Virtual DJ e djay di Algoriddim hanno introdotto la separazione degli stems in tempo reale grazie all’intelligenza artificiale. Le funzioni AutoMix dei vari software utilizzano anche il ML per capire come una canzone possa fondersi con quella successiva. Rekordbox di Pioneer ha un suo rilevatore vocale assistito dall’intelligenza artificiale. Sensorium Galaxy, piattaforma di realtà virtuale, ha reclutato Carl Cox, Eric Prydz e Charlotte de Witte per esibirsi all’interno del suo spazio virtuale, con il supporto di dj bot formati da centinaia di ore di musica elettronica.

Sorgeranno nuove questioni legali ed etiche senza precedenti e i deepfake altereranno la nostra percezione di ciò che è reale. Strumenti musicali, DAW e strumenti saranno completamente ripensati e riprogettati. Le competenze fondamentali di mixaggio e produzione saranno automatizzate, i dj bot dilagheranno e la selezione delle tracce e la collaborazione sarà possibile con qualsiasi artista, vivo o morto. L’industria musicale sta per affrontare una tempesta di deepfake, video, audio o immagini statiche che utilizzano l’intelligenza artificiale per sostituirsi alle persone. I modelli costruiti sul ML (maching learning), che si tratti di un cantante o di un musicista, o anche di un collettivo live al gran completo, possono identificare e replicare idiosincrasie altamente personali nello stile di quell’artista o produttore, replicando ogni dettaglio di una vita fatta di manierismi e caratteristiche musicali e tecniche.

Quando non riusciamo a distinguere tra una vera voce di una popstar da una finta, il caos è dietro all’angolo. Guarda quelle rose di plastica, sembrano vere. Guarda quelle rose vere e perfette, sembrano finte. Questa sulla percezione e sull’etica nella musica è la centralità a cui non siamo ancora pronti. Potrebbe delinearsi uno scenario da incubo in cui le persone lavorano con le clonazioni visive, le somiglianze vocali, le repliche assolute in un modo in cui le vecchie generazioni non si troveranno a loro agio.

Forse è meglio non cercare di limitare la tecnologia bensì lasciarsi andare abbracciandone il potenziale creativo.

Il discografico Gianfranco Bortolotti nel 1996 durante una riunione nella sua Media Records (pre)disse: “Un domani scomparirà il diritto d’autore”. Fu un attimo di follia? Di visione? La preoccupazione intanto è sempre più legata ai detentori dei diritti di pubblicazione dei contenuti, che non possano acquisirne una certa fluidità. Se potessimo creare un modello della voce di un noto cantante e poi pubblicarne e accreditarne una canzone probabilmente avremo una causa legale. Ci saranno anche dei produttori che daranno vita a certe bassezze solo per attirare l’attenzione.

È cosa fastidiosa e dannosa per il mercato e rimangono questioni morali, etiche e legali irrisolte. Il suono della voce in sé non è coperto dalla legge sul copyright. Il motivo per cui puoi impersonare qualcuno con un audio deepfake è perché ci sono solo due oggetti protetti dalla legge sul copyright: l’opera musicale e la registrazione audio. Il processo di lavorazione musicale si riferisce alla canzone: note, accordi e testi. La protezione della registrazione del suono può essere applicata solo a una traccia specifica.

Ciò significa che l’audio fittizio staziona nel limbo delle regolamentazioni. La voce non è considerata per legge come parte della composizione. Invece, il campionamento può essere oscurato nell’oblio, è possibile identificarlo in ambito della forma sonora. La preoccupazione è che a meno che i titolari dei diritti di pubblicazione e gli artisti stessi non acquisiscano una certa fluidità su questo, ci troveremo in paradigmi e nuove possibilità. Là dove il campionamento ha fallito, la modellazione potrebbe essere un’opportunità per riscrivere il regolamento sulla remunerazione. È importante sottolineare le opportunità creative offerte dai nuovi modelli di business.


Per produttori e cantautori, l’idea di un collaboratore autonomo che suggerisca la tua musica o il tuo arrangiamento, o che ti aiuti a scrivere i testi o semplicemente faccia il lavoro per te, è generalmente accolta con disagio.

Questo nonostante il fatto che l’intelligenza artificiale faccia già parte di alcune importanti DAW, tra cui Logic Pro, che utilizza la tecnologia per rilevare e creare automaticamente marcatori di tempo mentre suoni. Plugin di terze parti come il progetto Magenta Studio di Google utilizzano l’apprendimento automatico per generare accordi, melodie, pattern di batteria o persino un numero di battute nell’arrangiamento basato su file MIDI esistenti e alcuni parametri di base impostati dall’utente. Ci sono molti altri plug-in e strumenti AI sul mercato, tra cui Amper, Rhythmiq, Musico.

Per produttori musicali e ingegneri del suono, la cosa più vicina alla retorica del cliché è che i robot ci ruberanno il lavoro. Si tratta di una preoccupazione legittima. Come ingegnere del suono, se ti guadagni da vivere caricando una sessione, mettendo in atto il mix più generico e non applicando realmente la tua creatività e umanità a quello e pensare subito di passare al prossimo lavoro, allora sì: sarai sostituito dalla tecnologia. Per i dj in tournée che trascorrono i fine settimana in viaggio, con tempo in studio limitato a pochi giorni, ridurre l’amministrazione dello studio con una AI potrebbe essere una manna dal cielo.

I deepfake potrebbero essere il punto interrogativo culturale più ovvio su ciò che è possibile con la creazione di musica AI (intelligenza artificiale) e ML (machine learning) nei prossimi anni. Tuttavia, ci sono altre implicazioni per gli individui creativi. Per coloro che lavorano con scadenze ravvicinate, o le cui orecchie si sono stancate per le ore in studio, o, ancora, sono stati in viaggio tutto il fine settimana e hanno bisogno di finire un remix, ottenere un aiutino da un’intelligenza artificiale può essere sensato. L’algoritmo sa: se lavori in una stanza non trattata, se possiedi monitor entry-level, se non hai decenni di esperienza ingegneristica alle spalle. I musicisti tradizionali non sono interessati alla tecnologia di creazione automatica della composizione.

La AI non risolverà i problemi musicali ma cercherà di rendere gli algoritmi il più trasparenti e utili possibile.

Ecco perché chiamiamo strumenti gli strumenti. Un rischio dell’intelligenza artificiale è che ci si ritrovi con una macchina che genera canzoni che fa delle bellissime composizioni ma che non accrediti nessuna delle cose che ha usato per realizzarle. La griglia che attualmente domina le moderne DAW potrebbe appartenere al cassetto dei ricordi. Programmatori stanno reinventando completamente le interfacce cercando di farci approcciare in modo più divertente e intuitivo alla scrittura. La griglia, lo score, i mattoncini colorati appartengono al passato? Sicuramente le interazioni stanno cambiando, così anche le interfacce, che diventeranno sempre più neurali. Va ripensato tutto da zero, senza passare da quello che già si sa.

È giusto sottolineare che la musica pop contemporanea segua una propria formula e certi schemi, a volte prevedibili, renda più facile per l’AI individuare le tendenze e ricreare la musica in modo sempre più accurato. La musica dance poi richiama schemi ancor più chiari seguendo uno schema di arrangiamento di quattro, otto o sedici battute. Ogni artista poi è un individuo autonomo e creativo e utilizza la musica generativa come contenuto dinamico e in continua evoluzione.

Ciò consente all’artista di evolversi costantemente nell’ambiente virtuale di nuove piattaforme.

Non solo la musica è generata sulla base di centinaia di ore di dati provenienti da registrazioni reali ma presto anche i dj virtuali e i bot dj impareranno da quello che succede sulla pista. Saranno in grado di reagire alle emozioni del pubblico, allo stato d’animo e alle vibrazioni adattandosi e cambiando il tipo di musica riprodotta. La musica generativa su una pista virtuale può sembrare cosa futuristica o addirittura distopica, tuttavia le tracce create dall’intelligenza artificiale hanno un altro ruolo più nobile. La scienza dei ritmi circadiani ci informa sul proprio stato energetico.

La neuroscienza della musica ci informerà su quali frequenze, scale e toni dovremmo usare per aiutare il fruitore a raggiungere uno stato cognitivo massimo. Ci sono molti paradossi legali, tecnologici e persino filosofici molto interessanti a cui dobbiamo pensare. L’unico modo per capire queste innovazioni è farsi travolgere dagli eventi e investire e credere ciecamente nello sviluppo tecnologico. È improbabile che la musica diventi completamente generativa. Invece, è probabile che uno stile di ascolto completamente nuovo, generato dall’intelligenza artificiale, funzionale e altamente personalizzato, coesista con i nostri brani e album preferiti.

L’idea della musica come elettricità o come flusso, contenuto, va contro la convinzione di alcuni artisti, ormai preoccupati per il proprio futuro e sul quando l’intelligenza artificiale non sarà più distinguibile dalla realtà. Le persone (normali) non avvertono la differenza tra un file mp3 e uno wave, tra un vinile (a meno che i solchi siano sporchi) o qualunque altro supporto. Le persone sono intrappolate nella bolla dell’algoritmo e nell’impeto distributivo delle dsp. Come percepirà la musica il pubblico in un prossimo futuro? La ascolteranno e punto, senza porsi domande, forse senza dividerla in categorie ed etichette, serie A o serie B. Sarà qualcosa, sarà arte (?), o il pretesto per fare festa. Un forno a microonde non è il massimo per cucinare ma se hai bisogno di riscaldare e consumare velocemente un piatto, perché non usarlo.

E quindi, come produrremo musica in futuro?

Le implicazioni creative e le potenzialità di certe sfide sono infinite. Forse, quando tutto potrà essere automatizzato, quando spariranno le app e i computer saranno molto simili a quello dell’astronave Enterprise in Star Trek, quando tutto sarà generato e ricreato con il semplice pensiero, desidereremo connessioni umane più significative. L’obiettivo in fase creativa sarà il riprendere ciò che è stato prima e remixarlo, riforgiarlo, rimpacchettarlo e distribuirlo al miglior interessato. Generi di dance elettronica come l’electro, la techno, la acid, la house e la jungle hanno visto la propria alba grazie a innovazioni tecnologiche e fusioni e contaminazioni inaspettate. Prendiamo l’intelligenza artificiale per quella che è: uno strumento ormai contemporaneo che può supportare le nostre attività, anche in campo professionale.

Riccardo Sada per Sada Says / AllaDiscoteca

Leave a Comment