L’esplosione di Internet, insieme al successo delle reti neurali, ha avvicinato il mondo della finanza ad approcci più esotici. Il deep learning oggi è una di queste tecniche che viene ampiamente adottata per ridurre le perdite e generare profitti.
Quando gli istinti intestinali non fanno il lavoro, entrano in gioco i metodi matematici. Le equazioni differenziali, ad esempio, possono essere utilizzate per rappresentare un modello dinamico. Il ravvicinamento delle funzioni di determinazione del prezzo è una sfida persistente nella finanza quantitativa. All’inizio degli anni ’80, i ricercatori stavano già sperimentando Taylor Expansions per modelli di volatilità stocastica.
Ad esempio, se la società A vuole acquistare una merce, dì petrolio in futuro dalla società B, ma non è sicuro dei prezzi futuri. Quindi la società A vuole fare un accordo con B che, indipendentemente dal prezzo del petrolio in futuro, B dovrebbe venderlo ad A per un prezzo in base al loro contratto.
Nel mondo della finanza, questa è una versione annacquata del trading di derivati. I derivati sono i titoli costituiti su attività sottostanti. Nel caso precedente, la società A prevede un aumento del prezzo e la società B prevede un calo del prezzo. Entrambe queste società stanno scommettendo sui prezzi futuri e concordano un prezzo che riduca le loro perdite o possa persino portare profitti (se A vende dopo l’aumento dei prezzi). Quindi, come fanno queste aziende ad arrivare ad un certo prezzo o come prevedono il prezzo futuro?
Prendendo lo stesso esempio di trading di derivati, i ricercatori della Danske Bank of Denmark hanno esplorato le implicazioni del deep learning differenziale.
Il deep learning offre le velocità analitiche tanto necessarie, necessarie per un’approssimazione dei mercati volatili. Gli strumenti di apprendimento automatico possono assumere il carattere di alta dimensionalità (molti parametri) di un mercato e aiutare a risolvere i colli di bottiglia computazionali.
Comprensione del differenziale ML attraverso la lente della finanza
L’apprendimento automatico differenziale è un’estensione dell’apprendimento supervisionato, in cui i modelli ML vengono formati sui differenziali delle etichette rispetto agli input.
Nel contesto dei derivati finanziari e della gestione del rischio, i differenziali di percorso sono popolarmente popolari
calcolato con differenziazione aggiunta automatica (AAD). AAD è un algoritmo per calcolare la sensibilità dei derivati, molto rapidamente. Niente di più, niente di meno. AAD è anche noto nel campo dell’apprendimento automatico con il nome di “propagazione inversa” o semplicemente backprop.
L’apprendimento automatico differenziale, combinato con AAD, ha scritto gli autori, fornisce prezzi estremamente efficaci e approssimazioni del rischio. Dicono che è possibile produrre analisi dei prezzi veloci e calcolare efficacemente le metriche di gestione dei rischi e persino simulare le strategie di copertura.
Questo lavoro confronta l’apprendimento automatico differenziale con l’incremento dei dati nella visione artificiale, in cui vengono prodotte più immagini etichettate da una singola, ritagliando, ingrandendo, ruotando o ricolorando.
L’aumento dei dati non solo estende il set di addestramento, ma incoraggia anche il modello di apprendimento automatico ad apprendere importanti invarianze (caratteristiche che rimangono le stesse). Allo stesso modo, le etichette dei derivati non solo aumentano la quantità di informazioni nel set di formazione, ma incoraggiano anche il modello ad apprendere la forma della funzione di determinazione del prezzo. I derivati da reti feedforward formano un’altra rete neurale, calcolando in modo efficiente la sensibilità al rischio nel contesto del ravvicinamento dei prezzi. Poiché i contorni formano una seconda rete, è possibile utilizzarli per l’allenamento e aspettarsi un significativo miglioramento delle prestazioni.
Le sensibilità al rischio convergono considerevolmente più lentamente dei valori e spesso rimangono palesemente sbagliate, anche con centinaia di migliaia di esempi. Risolviamo questi problemi addestrando i modelli ML su set di dati aumentati con differenziali di etichette rispetto ai seguenti input:
Questa semplice idea, affermano gli autori, insieme all’algoritmo di addestramento adeguato, consentirà ai modelli ML di apprendere approssimazioni accurate anche da piccoli set di dati, rendendo l’apprendimento automatico praticabile nel contesto del trading.
L’apprendimento automatico differenziale apprende meglio dai soli dati, la grande quantità di informazioni contenute nei differenziali gioca un ruolo simile e spesso più efficace, agli adattamenti manuali dalle informazioni contestuali.
Conclusione
I ricercatori ritengono che l’efficacia irragionevole della ML differenziale sia applicabile in situazioni in cui sono disponibili derivati di primo ordine di alta qualità con input di formazione e in complesse attività computazionali come la determinazione del prezzo e l’approssimazione del rischio nel trading di derivati complessi.
I differenziali iniettano informazioni aggiuntive significative, ottenendo infine risultati migliori con set di dati più piccoli. L’apprendimento efficace da piccoli set di dati è fondamentale nel contesto delle normative, in cui l’approssimazione dei prezzi deve essere appresa rapidamente e non è possibile sostenere le spese di un ampio set di formazione.
I risultati degli esperimenti dei ricercatori della banca Danske mostrano che “imparare la forma corretta” dai differenziali è cruciale per le prestazioni dei modelli di regressione, comprese le reti neurali.