Home Phone Email

Un’Intelligenza Artificiale compone la decima sinfonia di Beethoven

A distanza di quasi 200 anni dalla sua morte, è stato possibile comporre la decima sinfonia di Beethoven grazie all'Intelligenza Artificiale.

L’hai mai sentita la nona sinfonia di Beethoven?

È una delle opere più importanti e apprezzate del compositore viennese, se non addirittura della musica classica intera.

Ora, una delle cose che pochi sanno di Beethoven è che lui ha anche iniziato a comporre una decima sinfonia, che però non è mai stata conclusa, poiché scomparso prima di poterla completare.

Di quella sinfonia sono rimasti solamente una serie di fogli scribacchiati.

Diversi compositori hanno cercato di completarla, ma ad oggi nessuno ha effettivamente creato una sinfonia abbastanza convincente.

Ma adesso, a distanza di quasi 200 anni dalla sua morte, è stato possibile comporre la decima sinfonia di Beethoven grazie all’Intelligenza Artificiale.

E questa notizia è stata così tanto rimbalzata nel mondo che abbiamo deciso di inserirla all’inizio di questo articolo, facendo ritornare la rubrica «Effetto Wow», in cui parliamo delle notizie provenienti dal mondo dell’Intelligenza Artificiale che potrebbero farti dire “wow”.

Cominciamo subito.



1. Un’Intelligenza Artificiale compone la decima sinfonia di Beethoven

Grazie alla start-up Playform, la decima sinfonia di Beethoven è finalmente realtà.

Per riuscire a completare la sinfonia, la start-up ha messo insieme un team di lavoro formato da storici di musica, musicologi, compositori e, naturalmente, data scientist.

Prima di tutto, il team ha insegnato al modello le opere di Beethoven e poi – il fattore più interessante del processo – gli ha insegnato il processo creativo del compositore viennese, ovvero ‘come’ lui creava le sue opere.

In poche parole, il team ha insegnato al modello ad essere creativo seguendo un processo.

Questa è stata la sfida più importante di tutto il progetto, dato che più volte si è provato a completare la sinfonia dando in pasto al modello solo le opere di Beethoven già presenti, gli schizzi e le altre sinfonie, ottenendo pochi successi.

Il modello ha completato la decima sinfonia di Beethoven e alla fine è stata anche suonata in orchestra davanti ad un pubblico.

Secondo alcuni feedback, solo gli esperti sono riusciti a notare dei piccoli dettagli nella versione composta dall’Intelligenza Artificiale, incongrui rispetto a quello che probabilmente avrebbe composto Beethoven.

2. Un’Intelligenza Artificiale potrebbe prevedere le priorità scientifico-astronomiche per i prossimi dieci anni

Ogni dieci anni una commissione di astronomi statunitensi deve selezionare le priorità scientifiche del decennio successivo e inserirle in un documento, il Decadal Survey on Astronomy and Astrophisics.

Se pensiamo a quanto impatta il mondo astronomico anche sulla nostra vita, possiamo capire che si tratta di decisioni cruciali.

Ora, per decidere come orientare la ricerca scientifica, la commissione analizza migliaia di proposte basandosi anche sui trend degli anni precedenti…

E un team di ricercatori vuole aiutare l’Intelligenza Artificiale ad accelerare questo processo decisionale.

Trainando l’Intelligenza Artificiale si potrebbe creare un modello che aiuta a predire gli eventuali trend più interessanti per il decennio futuro.

Harley Thronson, scienziato pensionato della NASA, e il suo team hanno lavorato per circa un anno al training di un modello di Intelligenza Artificiale usando più di 400.000 ricerche pubblicate nel decennio scorso.

In questo modo sono riusciti ad elaborare un modello che è riuscito a trovare i sei temi più popolari degli ultimi dieci anni, compreso l’aumento di interesse nei confronti degli esopianeti e delle galassie.

E ora questo modello può essere utilizzato per supportare i ricercatori per programmare le attività di ricerca dei prossimi dieci anni.

3. DeepMind rivela un nuovo network: PonderNet

PonderNet è un modello di Intelligenza Artificiale che persegue l’obiettivo di dare un risultato decidendo in autonomia se quel risultato ha una predizione accettabile in base all’effort che richiede raggiungerlo.

Detto in termini più semplici…

Il modello può decidere in autonomia se l’impegno previsto – in termini di calcolo e tempo – vale la pena per risolvere un determinato problema.

Per esempio, nel momento in cui gli viene posta una domanda, PonderNet soppesa di volta in volta tutte le possibili risposte, studiando accuratamente la propria scelta.

Questo processo di valutazione viene definito “pondering” – in italiano, “ponderare” – anche se il modello – effettivamente – non “pondera”.

Il modello punterà sempre e comunque al completamento di un’attività rispetto ad un calcolo puro di opportunità.

Se per raggiungere un risultato con un’affidabilità molto alta deve impiegarci mesi di lavoro o di training o di calcolo, il modello cercherà un compromesso per riuscire a completare la task nel minor tempo, anche se l’affidabilità sarà più bassa.

4. Un cluster di chip per modelli di Intelligenza Artificiale con 100 trilioni di connessioni

L’Intelligenza Artificiale è basata sulle reti neurali, e più dati ha a disposizione la rete, più è buona la qualità del modello sviluppato.

I recenti sviluppi del Natural Language Processing, ad esempio, ci hanno spinti a costruire alcuni dei modelli di Intelligenza Artificiale più grandi di sempre.

Ora un nuovo cluster di chip per computer potrebbe aiutare queste reti a crescere fino ad una grandezza inimmaginabile, anche in settori diversi come la robotica e la computer vision.

Su questo la fa da pioniere Cerebras System, una start-up che ha già costruito il computer chip più grande del mondo e adesso sta sviluppando una tecnologia che permette ad un cluster di chip di far girare dei modelli di Intelligenza Artificiale anche 100 volte più grandi di quello che conosciamo adesso.

Cerebras ha dichiarato appunto che possono far andare una rete neurale con 120 trilioni di connessioni, considerando che i più grandi modelli di Intelligenza Artificiale esistenti hanno circa un trilione di connessioni, stiamo parlando di un hardware che permetterà di ottenere performance di due ordini di grandezza superiori, quindi 100 volte in più.

E questo andando a ridurre anche i tempi di elaborazione: secondo Cerebras, il suo hardware potrà fare calcoli in un cinquantesimo del tempo che ci impiegano adesso gli hardware esistenti.