I tempi sono maturi per un’IA responsabile nell’aviazione
 
Sebbene l’intelligenza artificiale esista da oltre 60 anni, i progressi nell’informatica e l’accesso ai dati hanno consentito a molti settori di sfruttare il potenziale degli algoritmi di apprendimento automatico.
 
Nel film ‘2001: Odissea nello spazio’, c’è un’interazione agghiacciante tra un astronauta – David Bowman, e un computer senziente – HAL (computer algoritmico programmato euristicamente). Il dialogo è più o meno così: 

David: “Apri le porte del pod bay, HAL.” 

 
HAL: “Mi dispiace, Dave. Temo di non poterlo fare”.

La storia racconta che HAL apprende, leggendo le loro labbra, che gli astronauti lo spegneranno, temendo che non funzioni correttamente. HAL decide quindi di uccidere gli astronauti in modo che possa continuare le sue direttive programmate. Il film è uscito nel 1968 e alcuni dei romanzi della serie Odissea nello spazio di Arthur C. Clarke sono ancora più vecchi. 

Sebbene i pericoli posti dall’Intelligenza Artificiale (AI) siano stati riconosciuti sin dal suo inizio, è solo ora che vediamo maggiore attenzione all’etica nell’uso dell’AI. In un sondaggio condotto dal co-fondatore di deeplearning.ai Andrew Ng nell’agosto 2020, è stato rivelato che l’IA etica e spiegabile era una delle quattro sfide importanti su cui la comunità dell’IA dovrebbe lavorare.

IA nell’aviazione
Sebbene l’intelligenza artificiale esista da oltre 60 anni, i progressi nell’informatica e l’accesso ai dati hanno consentito a molti settori di sfruttare il potenziale degli algoritmi di apprendimento automatico. Anche l’industria aeronautica non è rimasta indietro. Manutenzione intelligente, miglioramenti della catena di approvvigionamento, servizio clienti e strumenti prognostici sono alcune delle aree in cui viene applicato l’apprendimento automatico. Ecco alcuni casi d’uso: 

In Air Traffic Management, l’apprendimento automatico può estrarre enormi quantità di dati storici per aiutare gli operatori di terra e i piloti nella cabina di pilotaggio a prendere decisioni migliori.
L’intelligenza artificiale può aiutare a migliorare l’accelerazione della crisi climatica ottimizzando le traiettorie.
L’aumento dell’accuratezza delle previsioni può eliminare le inefficienze dalle operazioni, che a loro volta possono aiutare a compensare le emissioni di carbonio.
Con un sistema di riconoscimento visivo, le ispezioni degli aeromobili e il rilevamento dei guasti possono essere automatizzati e resi più efficienti.
Nella gestione del personale, l’intelligenza artificiale può fornire all’equipaggio un feedback sui livelli di affaticamento e identificare le aree in cui l’input della macchina è probabilmente superiore al giudizio umano.
Gli aerei senza pilota o i droni possono essere utilizzati per far cadere medicinali, specialmente durante i soccorsi in caso di calamità o durante la navigazione su terreni inospitali.
Pericoli?
Sebbene abbiamo elencato alcune aree in cui l’intelligenza artificiale sarebbe utile nell’aviazione, è necessaria cautela. In questa sezione, parliamo di alcune aree grigie in cui dovremo usare l’IA in modo responsabile.

Gli aerei autonomi probabilmente devono affrontare meno sfide rispetto alle auto a guida autonoma, dato che lo spazio aereo è più semplice. Non ci sono pedoni, segnali stradali o segnali e non ci sono deviazioni dovute a lavori in corso, ecc. Il pericolo di sostituire le persone nella cabina di pilotaggio si presenta in situazioni estreme, come l’atterraggio dell’aereo in una tempesta dove non c’è visibilità, per esempio. Una macchina avrebbe probabilmente lo stesso successo di un essere umano in questi scenari, ma la decisione di una macchina sarebbe accettabile?

 Nel caso dei sistemi di gestione della fatica per i membri dell’equipaggio, il problema con l’utilizzo dell’intelligenza artificiale sarà che i piloti si affidano esclusivamente all’input della macchina. Farebbe sì che i piloti siano meno vigili? Inoltre, c’è il problema dell’invasione della privacy con i livelli di salute e di allerta dell’equipaggio costantemente monitorati. Per il bene superiore, è accettabile scendere a compromessi sulla privacy?

 

Anche i sistemi di riconoscimento visivo o le reti neurali che si basano su un numero sempre maggiore di dati per “apprendere” e fornire una maggiore precisione necessitano di convalida. Quando è abbastanza buono per essere distribuito? Può essere rotto da alcuni dati imprevisti? La pandemia di COVID può essere considerata come uno di questi esempi che viene chiamata “interruzione non strutturata” nei dati delle serie temporali. Avremmo bisogno di opzioni di sicurezza per quando tali algoritmi falliscono.

L’ostacolo più grande, tuttavia, è la sicurezza informatica. Con le tecnologie digitali che sostituiscono sempre più il lavoro umano nella gestione delle attività manuali di routine, la sicurezza deve essere più affidabile e sicura. La posta in gioco è completamente diversa, rispetto al proprio account sui social media. 

La strada davanti
Attualmente, nel settore dell’aviazione, l’IA è confinata alle operazioni non critiche. Le sfide poste dal COVID offrono un’opportunità per rinnovare le operazioni manuali esistenti e adottare nuove tecnologie per creare un ambiente aeronautico scalabile ed economicamente e ambientalmente sostenibile. La comunità dell’IA dovrebbe formare un comitato che possa mettere insieme un piano d’azione. Istituendo un comitato, alcuni dei pericoli che possiamo già prevedere possono essere affrontati in modo efficace. Alcuni altri elementi del piano d’azione possono essere campagne di sensibilizzazione sui vantaggi dell’IA e campagne di demistificazione. Può creare un’infrastruttura per creare nuove piattaforme aeronautiche per raccogliere dati che in precedenza erano disponibili solo tramite i satelliti. L’accesso ai dati dovrebbe essere concesso solo alle parti interessate approvate dal comitato. Il comitato può anche concentrarsi sull’upskilling o sul reskilling dei programmatori, addestrandoli a interpretare le raccomandazioni degli strumenti analitici e alla gestione del cambiamento (ad es. pratiche sanitarie da adottare durante una pandemia). La formazione sull’etica dovrebbe essere resa obbligatoria: gli argomenti dovrebbero includere l’identificazione delle aree grigie e dei risultati etici desiderabili in tali situazioni. 

Il settore dell’aviazione è uno dei più colpiti dalla pandemia in corso. Dovremmo usarlo come un’opportunità per accelerare l’adozione dell’IA. Insieme a migliori strumenti decisionali, efficienza industriale e operativa, dovremmo anche assicurarci di utilizzare l’IA in modo responsabile.

Di ihal