Poiché la pandemia accelera ulteriormente la nostra trasformazione digitale, le aziende si affidano ancora di più all’automazione e in particolare all’intelligenza artificiale. Due terzi dei CEO intervistati lo scorso anno da un’importante società di consulenza hanno affermato che utilizzeranno l’intelligenza artificiale ancora più di prima per la creazione di nuovi modelli di forza lavoro. Numeri ancora più alti pianificano di digitalizzare operazioni, interazioni con i clienti, modelli di business e flussi di entrate. Questa enorme accelerazione e spostamento porterà sicuramente a enormi fallimenti, lasciando le aziende – e in alcuni casi anche infrastrutture critiche – vulnerabili alla perdita poiché il processo decisionale critico viene affidato all’IA.

In qualità di tecnologo che ha costruito piattaforme e ha lavorato nei principali settori che impiegano spesso l’IA (come FinTech e assistenza sanitaria), ho visto in prima persona cosa va storto quando alcune delle più grandi aziende del mondo lasciano la loro intelligenza alla loro IA. Sulla base del clamore intorno all’IA, sembrerebbe che tutto possa essere migliorato da sofisticati algoritmi che setacciano masse di dati. Dalla razionalizzazione dell’assistenza clienti all’invenzione di nuovi profumi e persino all’allenamento delle squadre di calcio, l’IA sembra un fornitore inarrestabile di vantaggio competitivo, e praticamente tutto ciò che i dirigenti dell’azienda devono fare è lasciar perdere e andare a pranzo ( cucinato da uno chef robot AI ) mentre guardano salire i profitti della loro azienda.Purtroppo, ciò che vediamo nell’esecuzione è un mondo completamente diverso: dalle aspettative mal gestite a fallimenti ed errori estremamente costosi. Troppo spesso l’intelligenza artificiale non è la luce splendente per un brillante futuro aziendale, ma piuttosto il cieco che guida i ciechi lungo la strada sbagliata, finché qualcuno non cade da un precipizio. Molti dei più responsabili dell’hype nel mondo dell’intelligenza artificiale non hanno mai scritto una riga di codice, per non parlare dell’IA implementata in produzione. Anche pochi sviluppatori hanno l’incentivo a darti una dose di realtà. Sono felice di condividere alcuni dei fallimenti pratici dell’IA, sulla base della mia esperienza, e di fornire alcune informazioni su ciò di cui i decisori devono essere consapevoli.
Ecco alcuni dei modi peggiori per utilizzare l’intelligenza artificiale, come dimostrato da hedge fund, banche di investimento di Wall Street e società dalle aziende Fortune 100 fino alle startup:

1. Prendere decisioni in base ai dati sbagliati
L’intelligenza artificiale è eccezionale nel trovare modelli in enormi set di dati ed è efficiente nel prevedere i risultati in base a tali modelli e nel trovare alfa non correlati (modelli nascosti nel set di dati). Ma sorgono grossi problemi quando i dati sbagliati (o le informazioni anomale) vengono inseriti nel set di dati. In un famoso esempio alla fine degli anni 2000 c’è stato un colpo di stato militare in Thailandia e l’algoritmo dietro un importante fondo ha interpretato quel colpo di stato militare come un evento di mercato, mettendo allo scoperto molte azioni asiatiche, perdendo rapidamente nove cifre in dollari.

Ho lavorato con un piccolo hedge fund focalizzato sul settore TMT (tecnologia, media, telecomunicazioni). I fondatori provenivano da una grande società finanziaria e hanno portato con sé alcuni programmatori che avevano lavorato su sistemi di trading per REITS e il settore energetico. Il loro obiettivo era costruire un motore di analisi che i trader di questo nuovo hedge fund incentrato su TMT potessero utilizzare per segnalare determinati eventi chiave. Il problema era che i loro sviluppatori avevano copiato e unito due motori che erano stati costruiti per REITS e il commercio di energia e hanno cercato di adattare gli indicatori tecnici più rilevanti per il settore TMT in questo ibrido. Sono stato chiamato a fare la scientifica dopo che è stato costruito perché il motore dava risultati sporadici e incoerenti e ci è voluto del tempo per renderci conto che, sebbene i fondatori pensassero che il loro team avesse costruito un motore nuovo di zecca progettato specificamente per TMT, è stato davvero costruito con pezzi di ricambio. Sebbene tutti e tre i settori condividano indicatori tecnici simili, come la volatilità implicita o la media mobile di 52 settimane, l’IA è un lavoro sensibile e dettagliato e ogni motore dovrebbe essere personalizzato.
Assicurati che la tua intelligenza artificiale fornisca consigli basati su dati pertinenti.

2. Non riuscire ad addestrare correttamente la tua intelligenza artificiale
Puoi fornire al tuo motore AI tutti i dati giusti e fargli restituire le risposte giuste, ma fino a quando non viene testato in natura non sai cosa farà. Affrettarsi a dargli più responsabilità di quanto non sia pronto è come mandare un bambino piccolo nel mondo reale – nessuno dei due porterà buoni risultati.

Un cliente di hedge fund era interessato all’IA per il trading quantistico. Avevano assunto un team esterno per costruire un modello di prova di un motore di intelligenza artificiale e il mio team in seguito ha fornito servizi di consulenza su quel POC. Per costruire un buon motore di intelligenza artificiale per generare alfa (ovvero, per aumentare la misura del ROI sull’investimento), è necessario disporre di un ampio set di dati storici omogeneo. In finanza, i set di dati sono strutturati in un formato di serie temporali, offrendo punti dati con livelli di granularità molto diversi. In generale, più punti dati abbiamo in un set di dati, migliore sarà il motore nel rilevare i risultati futuri; quei punti di dati aiuteranno un motore ben progettato a scoprire la correlazione non lineare dei dati per aiutare nelle previsioni. Abbiamo consigliato al cliente di dare al motore di intelligenza artificiale più tempo per elaborare il proprio set di dati per renderlo più omogeneo e per non seguire i segnali di prezzo tradizionali. Purtroppo, non l’hanno fatto, e il POC era overfitting e così finemente sintonizzato sul set di dati specifico che non funzionava con dati nuovi e invisibili. In altre parole, era inutile con i dati di mercato in tempo reale.
Dai tempo alla tua intelligenza artificiale per elaborare e apprendere nuove informazioni.

3. Ignorare la responsabilità umana per le decisioni
Indipendentemente da ciò che programmi per fare la tua intelligenza artificiale, non condividerà i tuoi obiettivi umani né ne sopporterà le conseguenze. Così abbiamo visto i primi esempi di intelligenza artificiale che portava i primi utenti GPS in un fiume o eliminava informazioni critiche per “minimizzare” le differenze in un set di dati .

Ho visto più di una startup basata sul presupposto che gli algoritmi di intelligenza artificiale possano apprendere modelli di approvazione del credito e sostituire l’ufficiale di approvazione del credito nella concessione / negazione di prestiti di credito. Tuttavia, quando ti viene negato un prestito di credito, la legge federale richiede a un prestatore di dirti perché ha preso quella decisione. Il software non prende veramente decisioni (identifica solo i modelli) e non è responsabile delle decisioni; gli umani lo sono. Poiché la legge federale concorda sul fatto che gli esseri umani sono responsabili delle decisioni sul credito, molte di queste startup hanno bruciato fondi di capitale di rischio e quindi non potevano legalmente lanciare ai clienti perché l’IA che avevano sviluppato era intrinsecamente parziale. Quando ha negato i prestiti, nessun essere umano è stato in grado di spiegare adeguatamente il motivo per cui è avvenuto il rifiuto.
Assicurati di mantenere le persone responsabili delle conseguenze umane.

4. Sopravvalutazione dei dati
Alcuni dati semplicemente non possono essere utilizzati per creare qualcosa di utile. Uno dei nostri clienti che non è riuscito a utilizzare l’IA era una popolare piattaforma di diagnosi medica con un proprio data lakee un’ampia gamma di set di dati. La società che lo possedeva aveva acquisito un’altra piattaforma con la propria serie di set di dati in silos. I dirigenti volevano raccogliere alcune informazioni sul miscuglio di set di dati disconnessi e avevano bisogno di aiuto per l’onboarding di potenziali clienti. Il problema era che questi set di dati descrivevano diversi problemi / profili medici e non era possibile cercare di trovare denominatori comuni di alcun valore reale. Nonostante tutte le informazioni raccolte, lavorare con i dati di questo cliente era come avere pezzi lego che in realtà non si collegavano. Solo perché sono simili sotto molti aspetti non significa che puoi costruire un castello con loro. Dopo aver consultato il cliente, abbiamo consigliato di non fare il progetto.

Uno sviluppatore immobiliare voleva che progettassimo l’intelligenza artificiale per approfondimenti sulle decisioni di costruzione, l’idea è che se potessimo ingerire dati sufficienti dagli elenchi di immobili, potremmo eseguire analisi che informerebbero le loro decisioni sul layout dei loro nuovi sviluppi. Il cliente sperava che le informazioni sull’intelligenza artificiale gli avrebbero detto quale sarebbe il layout più ottimale, in base alla posizione dell’edificio. Ad esempio, l’edificio dovrebbe avere un grande appartamento per piano o dividere il piano in tre appartamenti con una camera da letto? Dovrebbe essere un edificio a uso misto con negozi commerciali in fondo e affitti residenziali? Dopo aver acquisito i dati degli elenchi di immobili da diversi stati, lavorato sull’analisi dei set di dati e interagito con esperti in materia, è diventato ovvio che, poiché il mercato immobiliare è altamente localizzato, un algoritmo valido per tutti non funzionerebbe. Il patrimonio immobiliare di Midtown Manhattan East è leggermente diverso da Midtown West e Brooklyn è diverso dal Queens, per non parlare dello stato di New York come un intero set di dati. I numerosi set di dati erano troppo piccoli indipendentemente per costruire un algoritmo di classificazione significativo e il progetto non è andato a buon fine.



In questi casi, le aziende riducono le perdite, ma molte altre continuano a buttare soldi all’IA, scavando più a fondo in dettagli che non si collegano mai ai loro obiettivi.

Prima di costruire un motore AI, assicurati di avere le parti giuste.

Dove andiamo da qui?
L’intelligenza artificiale potrebbe essere il futuro di questo mondo del business digitale accelerato, ma per ora troppa è ancora un mondo di hype. Le aziende dovrebbero prendere in considerazione l’intelligenza artificiale, ma con una visione fondata e una corretta comprensione di ciò che fa realmente. E dovrebbero sviluppare una prospettiva adeguata per tutte le iniziative correlate. I responsabili delle decisioni devono comprendere la realtà dell’intelligenza artificiale, il potenziale che porta e le sfide dietro di essa. Avere una chiara strategia di qualsiasi potenziale progetto di IA, tenendo conto dei dati disponibili, delle tempistiche, dei costi e delle aspettative. Di solito, i progetti di IA di successo forniscono risultati a lungo termine piuttosto che vantaggi immediati.

L’intelligenza artificiale, in fondo, è semplicemente inferenza; può aiutare ad analizzare enormi dettagli, ma solo gli esseri umani possono comprendere il quadro generale. Comprendiamo che in quanto esseri umani le nostre decisioni hanno conseguenze (commerciali, legali, etiche) e fornire all’IA falsi tratti umani nasconde il fatto che non la pensa come noi. Gli esseri umani possono commettere più “errori” dell’IA, ma abbiamo anche più potere di riconoscerli. Quindi, considera l ‘”intelligenza artificiale”, ma quando pensi a come distribuirla, assicurati che la tua intelligenza sia ancora in prima linea.

Di ihal