Gli scienziati hanno sviluppato un metodo basato sull’intelligenza artificiale chiamato Brain2Music, che è in grado di creare una canzone basandosi sull’attività cerebrale di una persona. Utilizzando i dati di imaging del cervello raccolti tramite risonanza magnetica funzionale (fMRI), i ricercatori hanno addestrato un programma di intelligenza artificiale per trovare collegamenti tra le caratteristiche musicali e i segnali cerebrali dei partecipanti.
L’intelligenza artificiale è stata personalizzata per ogni persona, prendendo in considerazione i loro schemi di attività cerebrale unici e vari elementi musicali. Successivamente, è stato utilizzato un modello di intelligenza artificiale chiamato MusicLM per generare clip musicali che assomigliano alle canzoni originali. L’intelligenza artificiale è stata in grado di catturare alcune caratteristiche dei brani originali in modo accurato.
Lo studio ha anche evidenziato le regioni cerebrali coinvolte nell’elaborazione della musica, come la corteccia uditiva primaria e la corteccia prefrontale laterale. Studi futuri potrebbero esplorare come il cervello elabora la musica di diversi generi o stati d’animo, nonché se l’intelligenza artificiale può ricostruire la musica immaginata nella mente delle persone.