La musica delle AI: qui l’articolo originale sul New York Times
LONDRA – Siamo a una conferenza tenuta da Patrick Stobbs, il quale sta riproducendo delle canzoni col suo smartphone nel tentativo di dimostrare come la sua start-up, Jukedeck, sia all’avanguardia nel mondo della musica. La prima traccia sembra la colonna sonora di un videogioco anni ‘80. “Questo è quello che facevamo due anni fa” dice, un po’ imbarazzato.
“E questo è quello che facciamo adesso” continua, riproducendo un delicato pezzo al pianoforte. La melodia è semplice ed evoca una malinconia un po’ scontata, ma senza dubbio potrebbe andare benissimo come sottofondo per una pubblicità di un’assicurazione sanitaria, per dire.
Stobbs non ha scritto lui stesso la musica, né l’ha commissionata a un compositore: la Jukedeck è una fra sempre più imprese che, per comporre musica, usano un’intelligenza artificiale. I suoi computer sfruttano degli strumenti simili a reti neurali artificiali modellate su quelle del cervello, che permettono ai computer di imparare attraverso l’esperienza, come i bambini. Questo particolare ramo del mercato, almeno per adesso, non sembra preoccupare troppo i musicisti.
“Sappiamo che il nostro sistema è ancora al livello embrionale: ha imparato solamente un numero limitato di informazioni sulla musica,” dice Stobbs, aggiungendo però un veloce riferimento a una possibile direzione evolutiva di Jukedeck: “Non ci sono leggi della fisica che provino che i computer non possono diventare bravi come gli esseri umani.”
Quella di far scrivere musica alle macchine non è una pratica nuova. Negli anni ’50 il compositore Lejaren Hiller ha usato un computer per produrre la suite “Illiac” per quartetto d’archi, la prima partitura generata al computer.
Lejaren Hiller – Illiac Suite for String Quartet [1/4] Video di alex di nunzio
Da quel momento, molti ricercatori hanno portato avanti i lavori. Alcune start-up ora stanno però cercando di mettere la musica artificiale sul mercato, spaziando dai jingle ai successi pop. Jukedeck per esempio vende musica a chiunque abbia bisogno di una colonna sonora per video, videogiochi o pubblicità. Per usare un pezzo, la compagnia fa pagare alle grandi aziende appena 21,99 dollari, una frazione di quello che costerebbe assoldare un musicista. Stobbs non vuole rivelare quanti pezzi hanno venduto finora, ma ammette che la divisione inglese della CocaCola paga un abbonamento mensile.
Anche i giganti della tecnologia sono impegnati in progetti simili. Per giugno 2017 Google Brain ha annunciato il lancio di Magenta, un progetto con lo scopo di produrre musica “artistica e coinvolgente,” piena di sorprese. I loro sforzi per ora non si sono rivelati molto all’altezza delle aspettative.
Lo scorso settembre DeepMind, compagnia inglese di proprietà di Google che si occupa di intelligenza artificiale, ha pubblicato i risultati di un esperimento senza particolari scopi scientifici. Gli ingegneri di DeepMind hanno inserito dei brani al pianoforte nel loro sistema WaveNet, che serve a generare file audio e riprodurre, fra le altre cose, il parlato. Il sistema, che non era stato impostato per capire come funzionasse la musica, ha usato il file audio iniziale per sintetizzare frammenti di 10 secondi: sembrano jazz d’avanguardia. Anche IBM ha investito in un progetto di ricerca chiamato Watson Beat, che i musicisti potranno usare per trasformare lo stile delle loro composizioni e dargli ad esempio un tono orientaleggiante, o “pauroso.”
L’intelligenza artificiale DeepMind di Google compone e suona il piano ad altissimo livello in tempo reale – Video di Evan Evans
Gli esordi della Jukedeck sono abbastanza peculiari per un’azienda di tecnologia. Stobbs e il compositore Ed Newton-Rex, entrambi 29enni, l’hanno fondata nel 2012. Da ragazzi facevano tutti e due parte del coro della King’s College School a Cambridge, e Newton-Rex ha continuato lo studio della musica all’Università di Cambridge, in Inghilterra, dove ha imparato che le intelligenze artificiali possono comporre. Dopo essersi laureati a Cambridge, i due hanno messo su una boy band corale (“una pessima idea”, ammette Stobbs) accarezzando la possibilità di fondare un’etichetta discografica. Ma nel 2010 Newton-Rex frequenta una lezione di informatica ad Harvard, dove studiava la sua ragazza. Il professore parla della codifica dei suoni in maniera abbastanza semplice, e riporta alla mente di Newton-Rex i suoi primi studi sull’intelligenza artificiale. Mette le due cose insieme, e comincia a concepire la Jukedeck sul volo di ritorno.
Il sistema della Jukedeck prevede che si inseriscano centinaia di spartiti nelle sue reti neuronali artificiali, le quali analizzano la struttura della musica per estrapolare dati come la probabilità che una determinata nota ne segua un’altra, o la progressione degli accordi. Le reti elaborano composizioni in uno stile simile, che vengono poi tradotte in file audio usando un programma di produzione automatico. Il sistema ha diverse reti neurali per diversi stili musicali, dal folk alla “corporate” – una musica che ricorda l’elettronica patinata delle conferenze d’affari. Recentemente la compagnia ha iniziato a sperimentare e a lavorare con le reti neurali artificiali anche all’elaborazione del suono, oltre che alla composizione, per creare tracce che suonino più naturali e varie – in altre parole, più umane.
Le altre compagnie che lavorano sulla musica artificiale tendono a coinvolgere più direttamente dei musicisti nel processo. I musicisti, per esempio, giocano un ruolo fondamentale al Sony Computer Science Laboratory di Parigi; il progetto si chiama Flow Machines, ed è stato finanziato anche dal Concilio Europeo per la Ricerca.
L’idea dietro questo progetto è di portare i computer a scrivere successi pop, dice François Pachet, direttore del laboratorio. “La maggior parte delle persone che hanno lavorato con le intelligenze artificiali si è focalizzata sulla musica classica, ma io sono convinto che comporre una melodia breve e orecchiabile rimanga il compito più difficile.”
Pachet aggiunge che “una canzone accattivante è in realtà fragile, e preziosa. Può funzionare solo se tutte le variabili sono giuste: la melodia, l’armonia, la voce, i vestiti del cantante, il contesto – cioè ‘Perché hai scritto questa canzone?’ Al momento nessuno è in grado di creare e modellare tutto questo dal nulla, e io sono interessato a risolvere questo problema.”
Il sistema principale della Flow Machine è uno strumento di composizione che lavora in modo simile a quello della Jukedeck, ovvero tramite un computer che analizza gli spartiti – di tutto, dai Beatles alle hit dance, – impara da essi, e riscrive i propri. I risultati sono comunque consegnati ai musicisti che sono liberi di utilizzarli, cambiarli o buttarli via come ritengono più giusto, senza pagare niente in più (Si sta lavorando a degli accordi contrattuali con le case discografiche nel caso questa musica sia distribuita.) I musicisti danno quello che si dice un “senso di agenzia,” dice Pachet, di consapevolezza autoriale. “I sistemi non sanno perché fanno musica. Non hanno obiettivi o desideri.”
Circa venti artisti hanno già utilizzato il sistema, dice Pachet, alcuni addirittura suonando in concerto le canzoni composte. Pachet è al momento in contatto con gruppi famosi, come la band indie Phoenix, per fargli provare il sistema. Degli album di musica artificiale verranno già distribuiti sul mercato quest’anno.
E il sistema sembra piacere ai musicisti. “Non avrei mai potuto scrivere una canzone come questa senza il sistema.” Dice Mathieu Paudupin, un musicista rock francese meglio conosciuto come Lescop. “Mi ha portato in luoghi che da solo non avrei mai raggiunto.” Aggiunge che è stato come lavorare con un altro membro della band, anche se in effetti ha ignorato la maggior parte dei suoi suggerimenti. “Ma del resto quale cantante ascolta gli altri membri della band?” dice ridendo.
Pachet e Lescop sostengono che gli ascoltatori non accetterebbero della musica generata al cento per cento da un computer. “I fan tendono a innamorarsi degli artisti,” dice Lescop. “Non puoi innamorarti di un computer.”
Ma i fondatori della Jukedeck non ne sono così sicuri.
Newton-Rex prevede che l’intelligenza artificiale cambierà il nostro modo di ascoltare musica, specialmente se i computer finiranno per “capire abbastanza da rispondere in tempo reale a, diciamo, una partita, o al ritmo della corsa durante un allenamento,” dice. “La musica registrata va benissimo, ma è statica. Se stai giocando una partita non c’è Hans Zimmer di fianco a te che compone. Credo che i sistemi responsivi rappresenteranno molta della musica del futuro.”
Parlo lingue, traduco, leggo, studio musica, suono. Nel tempo libero lavoro e sono poco pretenziosa.
22 Maggio 2017
1 Aprile 2017
19 Marzo 2017
11 Marzo 2017
23 Febbraio 2017
Parlo lingue, traduco, leggo, studio musica, suono. Nel tempo libero lavoro e sono poco pretenziosa.
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.