Scorciatoia computazionale per le reti neurali
Le reti neurali sono algoritmi di apprendimento che approssimano la soluzione a un’attività allenandosi con i dati disponibili. Tuttavia, di solito non è chiaro come esattamente riescano a farlo. Due giovani fisici di Basilea hanno ora derivato espressioni matematiche che consentono di calcolare la soluzione ottimale senza addestrare una rete. I loro risultati non solo forniscono informazioni su come funzionano questi algoritmi di apprendimento, ma potrebbero anche aiutare a rilevare in futuro transizioni di fase sconosciute nei sistemi fisici.
Le reti neurali si basano sul principio di funzionamento del cervello. Tali algoritmi informatici imparano a risolvere problemi attraverso un addestramento ripetuto e possono, ad esempio, distinguere oggetti o elaborare il linguaggio parlato.
Da diversi anni ormai i fisici cercano di utilizzare le reti neurali anche per rilevare le transizioni di fase. Le transizioni di fase ci sono familiari dall’esperienza quotidiana, ad esempio quando l’acqua si congela in ghiaccio, ma si verificano anche in una forma più complessa tra diverse fasi di materiali magnetici o sistemi quantistici, dove sono spesso difficili da rilevare.
Julian Arnold e Frank Schäfer, due dottorandi del gruppo di ricerca del Prof. Dr. Christoph Bruder presso l’Università di Basilea, hanno ora derivato da soli espressioni matematiche con cui è possibile scoprire tali transizioni di fase più velocemente di prima. Hanno recentemente pubblicato i loro risultati sulla rivista scientifica Physical Review X.
Saltare l’allenamento fa risparmiare tempo
Una rete neurale apprende variando sistematicamente i parametri in molti round di addestramento in modo che le previsioni calcolate dalla rete corrispondano ai dati di addestramento immessi in essa sempre più da vicino. Quei dati di allenamento possono essere i pixel delle immagini o, in effetti, i risultati di misurazioni su un sistema fisico che mostra transizioni di fase su cui si vorrebbe imparare qualcosa.
“Le reti neurali sono già diventate abbastanza brave a rilevare le transizioni di fase”, afferma Arnold, “ma come esattamente lo fanno di solito rimane completamente oscuro”. Per cambiare questa situazione e portare un po’ di luce nella “scatola nera” di una rete neurale, Arnold e Schäfer hanno esaminato il caso speciale delle reti con un numero infinito di parametri che, in linea di principio, attraversano anche infiniti cicli di addestramento.
In generale, è noto da tempo che le previsioni di tali reti tendono sempre verso una certa soluzione ottimale. Arnold e Schäfer hanno preso questo come punto di partenza per derivare formule matematiche che consentono di calcolare direttamente quella soluzione ottimale senza dover effettivamente addestrare la rete. “Questa scorciatoia riduce enormemente il tempo di calcolo”, spiega Arnold: “Il tempo necessario per calcolare la nostra soluzione è solo quanto un singolo ciclo di formazione di una piccola rete”.
Approfondimento sulla rete
Oltre a risparmiare tempo, il metodo sviluppato dai fisici di Basilea ha anche il vantaggio che le equazioni derivate forniscono alcune informazioni sul funzionamento delle reti neurali e, quindi, dei sistemi fisici oggetto di studio. Finora, Arnold e Schäfer hanno testato il loro metodo su dati generati dal computer. Presto vorranno applicare il metodo anche ai dati di misurazione reali. In futuro, ciò potrebbe consentire di rilevare transizioni di fase ancora sconosciute, ad esempio in simulatori quantistici o in nuovi materiali.