Valutare l’intersezione tra open source e AI 

La tecnologia open source è stata un fattore trainante in molti degli sviluppi più innovativi dell’era digitale, quindi non dovrebbe sorprendere che si sia fatta strada anche nell’intelligenza artificiale.

Ma con la fiducia nell’impatto dell’intelligenza artificiale sul mondo ancora incerta, l’idea che strumenti, biblioteche e comunità open source stiano creando progetti di intelligenza artificiale nella solita moda del selvaggio west sta creando ancora più disagio tra alcuni osservatori.

 
Perché preoccuparsi?
I sostenitori dell’open source, ovviamente, respingono queste paure, sostenendo che c’è altrettanto poca supervisione sulle attività dominate dalle aziende delle piattaforme chiuse. In effetti, l’open source può essere tracciato e monitorato più facilmente perché è, beh, aperto a tutti. E questo ci lascia con la stessa domanda che ha tormentato i progressi della tecnologia nel corso dei secoli: è meglio lasciare che questi potenti strumenti crescano ed evolvano come vogliono, o dovremmo cercare di controllarli? E se sì, come e fino a che punto?

 
Semmai, afferma Adilin Beatrice di Analytics Insight , l’open source ha alimentato l’avanzata dell’AI ottimizzando il processo di sviluppo. Non mancano piattaforme gratuite e open source in grado di implementare anche tipologie complesse di AI come il machine learning, e questo serve ad ampliare la portata dello sviluppo AI in generale e consentire agli sviluppatori di sfruttare al massimo i dati disponibili. Strumenti come Weka, ad esempio, consentono ai programmatori di integrare rapidamente il data mining e altre funzioni nei loro progetti senza dover scrivere tutto da zero. TensorFlow di Google, nel frattempo, è una delle piattaforme di machine learning end-to-end più popolari sul mercato.

E proprio come abbiamo visto in altre iniziative digitali, come la virtualizzazione e il cloud, le aziende stanno iniziando a combinare varie soluzioni open source per creare un’ampia gamma di applicazioni intelligenti. Neuron7.ai ha recentemente presentato un nuovo sistema di assistenza sul campo in grado di fornire di tutto, dai portali di auto-aiuto agli strumenti di ottimizzazione del traffico. Il sistema sfrutta più motori di intelligenza artificiale aperti, tra cui TensorFlow, che gli consentono non solo di ingerire grandi quantità di dati non strutturati da più fonti, come CRM e sistemi di messaggistica, ma anche di incapsulare le esperienze dei tecnici sul campo e dei clienti per migliorare la precisione e identificare ulteriori mezzi di automazione.

Un occhio cieco
Si potrebbe pensare che con la tecnologia open source che gioca un ruolo così significativo nello sviluppo dell’intelligenza artificiale che sarebbe in cima all’agenda dei decisori politici. Ma secondo Alex Engler della Brookings Institution , è praticamente fuori dai radar. Mentre il governo degli Stati Uniti ha affrontato l’open source con misure come la Federal Source Code Policy, discussioni più recenti su possibili regolamenti di intelligenza artificiale lo menzionano solo di sfuggita. In Europa, Engler afferma che le normative sull’open source sono prive di un chiaro collegamento alle politiche e alle strategie di intelligenza artificiale e gli aggiornamenti proposti più di recente a queste misure non menzionano affatto l’open source.

 
Engler aggiunge che questa mancanza di attenzione potrebbe produrre due esiti negativi. In primo luogo, potrebbe comportare che le iniziative di intelligenza artificiale non riescano a capitalizzare i punti di forza che il software open source apporta allo sviluppo. Questi includono funzionalità chiave come l’aumento della velocità di sviluppo stesso e la riduzione dei pregiudizi e altri risultati indesiderati. In secondo luogo, esiste la possibilità che il dominio nelle soluzioni open source possa portare al dominio nell’IA. L’open source tende a creare standard predefiniti nel settore tecnologico e, sebbene le migliori versioni open source di Google, Facebook e altri siano disponibili gratuitamente, la stragrande maggioranza dei progetti che supportano viene creata all’interno dell’azienda che ha sviluppato il framework, dando loro un vantaggio nel programma risultante.

Questo, ovviamente, ci riporta allo stesso dilemma che ha afflitto le tecnologie emergenti dall’inizio, afferma Ned Potter dell’IEEE . Chi dovrebbe tracciare la tabella di marcia per l’IA per garantire che abbia un impatto positivo sulla società? Aziende tecnologiche? Il governo? Accademia? O dovrebbe semplicemente essere democratizzato e lasciare che sia il mercato a risolverlo? I sostenitori dell’open source tendono a favorire la mano libera, ovviamente, con l’idea che un controllo continuo da parte della comunità spingerà organicamente le cattive idee verso il basso ed eleverà le buone idee verso l’alto. Ma questo non garantisce ancora un risultato positivo, in particolare quando l’IA diventa accessibile a un pubblico più ampio.

 
Alla fine, ovviamente, non ci sono garanzie. Se abbiamo imparato qualcosa dal passato, è probabile che gli errori provengano dall’industria privata come dai regolatori governativi o dai singoli operatori. Ma c’è una grande differenza tra guardare e regolare. Per lo meno, dovrebbero esserci meccanismi in atto per tenere traccia di come le tecnologie open source stanno influenzando lo sviluppo dell’IA, in modo che almeno qualcuno abbia la capacità di avvisare se le cose stanno andando nella direzione sbagliata.

Di ihal