Activision Blizzard ha depositato un brevetto per la generazione di musica per videogiochi e potrebbe cambiare il settore così come lo conosciamo.
Il gioco è stato a lungo un focolaio di innovazione dell’intelligenza artificiale , stabilendo precedenti in campi come la generazione di contenuti procedurali, il pathfinding, gli algoritmi decisionali e la simulazione del comportamento umano. Ora può aggiungere la generazione di musica al suo arsenale. Uno dei più grandi sviluppatori al mondo, Activision Blizzard , noto per giochi come Call of Duty, Overwatch e World of Warcraft, ha recentemente pubblicato un brevetto che descrive in dettaglio un sistema che genera musica unica per ogni giocatore utilizzando intelligenza artificiale e algoritmi di apprendimento automatico.
Questo sistema ha il potenziale non solo per cambiare il modo in cui i compositori si avvicinano alla musica nei videogiochi, ma ridefinisce anche l’immersione nei videogiochi creando un’esperienza uditiva unica per ogni giocatore.
Prima di approfondire le specifiche di come funziona il sistema di intelligenza artificiale proposto, esploriamo alcuni esempi di determinati metodi algoritmici utilizzati per creare esperienze uniche nei giochi.
All’interno della riproduzione musicale AI di Activision Blizzard
Nel brevetto, depositato presso l’ufficio brevetti degli Stati Uniti nell’aprile di quest’anno, il team Activision Blizzard descrive un sistema per generare e modulare dinamicamente la musica in base agli eventi di gioco. Come con qualsiasi soluzione basata sull’intelligenza artificiale, il primo passo è raccogliere dati sui modelli di gioco, sul profilo e sulle prestazioni del giocatore, insieme alla musica che veniva riprodotta ogni volta che il giocatore si impegnava nel gioco, creando così una coppia attività-musica.
Come il server interagirà con il modulo di generazione della musica
Questi dati vengono quindi inviati a un server centrale, che inserisce quindi il giocatore in uno o più profili giocatore a seconda della natura dei dati raccolti. Questi profili dei giocatori comprendono livelli di abilità per principianti, entusiasti ed esperti.
I dati vengono quindi utilizzati come base per generare dati sugli eventi, che rappresenteranno l’impegno del giocatore con “elementi virtuali”. Ciò comprende un’ampia gamma di possibili punti dati, tra cui il ritmo del giocatore, la sua capacità di sconfiggere i nemici e il suo approccio generale all’interazione con il gioco. Questi dati evento vengono quindi utilizzati per classificare i dati in due o più profili evento. I dati dell’evento sono classificati in base al valore dell’impegno dei giocatori, da basso ad alto.
Un algoritmo di apprendimento automatico viene quindi addestrato su questi set di dati, con i pesi salvati per successive iterazioni del modello. Quindi, l’algoritmo viene utilizzato per generare musica identificando l’umore del giocatore in base ai profili dell’evento e ai profili del giocatore, creando in teoria un sistema musicale reattivo che risponde sia all’attività dell’utente che alla sua interazione con elementi virtuali nel gioco. Un modello aggiuntivo modifica quindi elementi della canzone come ritmo, metro, tempo, progressioni di accordi, volume, durata e altro a seconda dei profili del lettore.
Ciò può comportare un’esperienza completamente coinvolgente per l’utente. Non solo la musica generata sarà adatta agli eventi che accadono sullo schermo, che è lo status quo oggi, ma anche l’approccio del giocatore al gioco sarà preso in considerazione durante la creazione della musica.
Ciò creerà un’esperienza di grande impatto per ogni giocatore pur rimanendo separata dalle esperienze degli altri giocatori. Anche giocatori diversi nello stesso server, nel caso di un gioco multiplayer, avranno una musica adatta che accompagnerà le loro avventure nel gioco.
Una breve storia degli algoritmi musicali
Uno dei primi sistemi utilizzati per la musica interattiva è iMUSE , creato dallo sviluppatore di videogiochi LucasArts nei primi anni ’90. Il motore è nato dalla frustrazione del sistema audio esistente nel motore di sviluppo del gioco SCUMM ed è stato utilizzato per la prima volta nel gioco Monkey Island 2: LeChuck’s Revenge.
Il motore era relativamente semplice per gli standard moderni, ma costituiva il precedente per il modo in cui i giochi si avvicinano alla musica. Il sistema iMUSE sincronizzava la musica con le azioni del giocatore e passava senza intoppi da un brano musicale all’altro, uno straordinario in un’epoca in cui i giochi venivano comunemente forniti in bundle con musica abbastanza semplice che veniva riprodotta in loop. Questo concetto è poi diventato una pietra miliare della musica dei videogiochi, che si è poi evoluta per includere concetti come la risequenziazione orizzontale e la riorchestrazione verticale .
La risequenziazione avviene quando sezioni precomposte di musica vengono riprodotte in base ai segnali di azione del giocatore, come la sua posizione o l’attività che sta intraprendendo. Ogni volta che lo scenario cambia, il motore musicale esegue una dissolvenza incrociata al segmento successivo, adatto al nuovo scenario, o cambia il segmento al completamento della frase musicale corrente. Ad esempio, il gioco può cambiare la musica riprodotta se il giocatore raccoglie un potenziamento e poi torna alla colonna sonora originale quando il potenziamento svanisce.
La riorchestrazione, d’altra parte, cambia il mix di diversi strumenti in cima a un loop musicale preesistente. Le azioni del giocatore determinano quindi la strumentazione della colonna sonora. Ad esempio, un gioco può riprodurre una determinata traccia quando il giocatore sta esplorando, ma amplificare alcuni componenti, come strumenti ad arco o percussioni, quando il giocatore entra in combattimento.
Molti algoritmi sono stati scritti sulla base di questi due concetti, creando varie soluzioni adatte allo scopo del gioco e al modo in cui i giocatori le giocavano. Un notevole esempio di riorchestrazione è il gioco di successo del 2016 DOOM, che utilizzava un complesso algoritmo per creare accompagnamenti musicali alle azioni del giocatore.
Per cominciare, le sezioni dei brani sono state suddivise in parti più piccole, in modo da consentire all’algoritmo di scegliere la parte migliore dei brani per riflettere l’azione sullo schermo. Quindi, le azioni del giocatore vengono attentamente monitorate, con il motore musicale che tiene traccia della velocità di movimento del giocatore, del numero di nemici in combattimento e dell’attività corrente intrapresa dal giocatore, ad esempio esplorazione o combattimento.
Parlando della colonna sonora di Doom, Hugo Martin, direttore creativo di iD Software, ha dichiarato: “Alla fine abbiamo raggiunto un ottimo equilibrio ascoltando le cose che devi sentire dal punto di vista del gameplay. . . ma alla fine facendo sentire il giocatore costantemente un duro. Cresce magnificamente, accentua ogni azione che faccio, è un concerto rock.
Quindi, considerando questi fattori, l’algoritmo sceglie lo snippet più adatto della canzone e lo fonde perfettamente con la traccia che è già in riproduzione. Il risultato è una colonna sonora che integra perfettamente le azioni del giocatore e fornisce un’esperienza indimenticabile.
Anche se tale tecnologia avanzata è già stata utilizzata per i giochi moderni, Blizzard mira a spingersi oltre e personalizzare completamente l’esperienza di gioco per ogni giocatore.
La musica generata dall’intelligenza artificiale potrebbe essere solo la punta dell’iceberg quando si tratta di contenuti nei giochi. Stiamo già vedendo la generazione procedurale prendere il sopravvento nei giochi, non solo per creare la musica ma anche per creare il mondo in cui si trova il giocatore. L’intelligenza artificiale è stata sfruttata anche per ridurre l’utilizzo delle risorse di sistema, come visto con la tecnologia DLSS di NVIDIA . L’utilizzo di modelli all’avanguardia non solo fornirà un valore aggiunto per i giochi, ma creerà uno stuolo di nuove esperienze che lasceranno un segno indelebile nella nuova generazione di giocatori.