Poiché è una scienza così giovane, l’apprendimento automatico (ML) viene costantemente ridefinito. 

Molti considerano i sistemi di intelligenza artificiale autonomi e autocontrollati come il prossimo grande perturbatore, o potenziale definitore, nella disciplina. 

Questi cosiddetti ” modelli di fondazione ” includono DALL-E 2, BERT, RoBERTa, Codex, T5, GPT-3, CLIP e altri. Sono già utilizzati in aree come il riconoscimento vocale, la codifica e la visione artificiale e stanno emergendo in altri. Evolvendosi in termini di capacità, portata e prestazioni, utilizzano miliardi di parametri e sono in grado di generalizzare oltre le attività previste. In quanto tali, ispirano stupore, ira e tutto il resto. 
“È molto probabile che i progressi che stanno facendo andranno avanti per un bel po’”, ha affermato Ilya Sutskever, cofondatore e scienziato capo di OpenAI, il cui lavoro sui modelli di fondazione ha attirato un’ampia attenzione. “Il loro impatto sarà molto vasto: ogni aspetto della società, ogni attività”. 

Rob Reich, professore di scienze politiche a Stanford, era d’accordo. “L’intelligenza artificiale sta trasformando ogni aspetto della vita: vita personale, vita professionale, vita politica”, ha affermato. “Cosa possiamo fare? Cosa dobbiamo fare per far avanzare il potere organizzativo dell’umanità insieme ai nostri straordinari progressi tecnici?” 

Sutskever, Reich e molti altri hanno parlato a lungo dello sviluppo, dei benefici, delle insidie ​​e delle implicazioni – sia positive che negative – dei modelli di fondazione alla conferenza di primavera dello Stanford Institute for Human-Centered Artificial Intelligence (HAI). L’Istituto è stato fondato nel 2019 per far progredire la ricerca, l’istruzione, le politiche e la pratica dell’IA per “migliorare la condizione umana” e la loro conferenza annuale di primavera si è concentrata sui principali progressi dell’IA.

Lungi dall’essere ottimale, fare progressi 
I modelli di base si basano su reti neurali profonde e apprendimento auto-supervisionato che accetta dati grezzi non etichettati o parzialmente etichettati. Gli algoritmi utilizzano quindi piccole quantità di dati identificati per determinare le correlazioni, creare e applicare etichette e addestrare il sistema in base a tali etichette. Questi modelli sono descritti come adattabili e indipendenti dal compito. 

Il termine “modelli di base” è stato soprannominato dal neonato Center for Research on Foundation Models (CRFM), un gruppo interdisciplinare di ricercatori, informatici, sociologi, filosofi, educatori e studenti formatosi alla Stanford University nell’agosto 2021. La descrizione è uno volutamente a doppia faccia: denota l’esistenza di tali modelli come incompiuta ma funge da base comune da cui vengono costruiti molti modelli specifici per attività tramite adattamento. Ha anche lo scopo di enfatizzare la gravità di tali modelli come una “ricetta per il disastro” se mal costruiti e una “fondamenta per applicazioni future” se ben eseguiti, secondo un rapporto CRFM. 
“I modelli di base sono davvero impressionanti, sono stati utilizzati in molti contesti diversi, ma sono tutt’altro che ottimali”, ha affermato Percy Liang, direttore di CRFM e professore associato di informatica a Stanford.

Li ha descritti come utili per capacità generali e in grado di fornire opportunità in una vasta gamma di discipline come diritto, medicina e altre scienze. Ad esempio, potrebbero potenziare molte attività nell’imaging medico, i cui dati sono a livello di petabyte. 

Sutskever, il cui OpenAI ha sviluppato un modello di linguaggio GPT-3 e DALL-E 2, che genera immagini da descrizioni di testo, ha sottolineato che sono stati fatti molti progressi con i modelli di generazione di testo. “Ma il mondo non è solo testo”, ha detto. 

La risoluzione dei problemi intrinseci dei modelli di fondazione richiede l’uso nel mondo reale, ha aggiunto. “Questi modelli stanno uscendo dal laboratorio”, ha detto Sutskever. “Un modo in cui possiamo pensare alla progressione di questi modelli è quello di un progresso graduale. Questi non sono perfetti; questa non è l’esplorazione finale. 

Questioni di etica e di azione
Il rapporto CRFM sottolinea chiaramente che i modelli di fondazione presentano “rischi per la società chiari e significativi”, sia nella loro attuazione che nella premessa, mentre le risorse necessarie per formarli hanno abbassato gli standard di accessibilità, escludendo così la maggior parte della comunità. 

Il centro sottolinea inoltre che i modelli di base dovrebbero essere fondati, dovrebbero enfatizzare il ruolo delle persone e dovrebbero supportare ricerche diversificate. Il loro sviluppo futuro richiede un dibattito aperto e dovrebbe adottare protocolli per la gestione dei dati, rispetto della privacy, paradigmi di valutazione standard e meccanismi di intervento e ricorso. 
“In generale, riteniamo che l’azione concertata durante questo periodo formativo darà forma al modo in cui vengono sviluppati i modelli di fondazione, chi controlla questo sviluppo e in che modo i modelli di fondazione influenzeranno l’ecosistema più ampio e avranno un impatto sulla società”, ha scritto Liang in un post sul blog di CRFM. 

Definire il confine tra modelli di fondazione sicuri e non sicuri richiede la disponibilità di un sistema per tenere traccia di quando e per cosa vengono utilizzati questi modelli, concorda Sutskever. Ciò includerebbe anche i metodi per segnalare l’uso improprio. Ma tale infrastruttura è carente in questo momento, ha detto, e l’enfasi è più sull’addestramento di questi modelli. 

Con DALL-E 2, OpenAI ha pianificato prima la creazione di grafici per pensare ai molti modi in cui le cose possono andare storte, come pregiudizi e usi impropri, ha affermato. Potrebbero anche modificare i dati di addestramento utilizzando filtri o eseguire l’addestramento “a posteriori” per modificare le capacità del sistema, ha affermato Sutskever. 

Nel complesso, tuttavia, “le reti neurali continueranno a sorprenderci e a fare progressi incredibili”, ha affermato. “È molto probabile che i progressi che stanno facendo andranno avanti per un bel po’”. 

Tuttavia, Reich è più diffidente riguardo alle implicazioni dei modelli di fondazione. “L’intelligenza artificiale è un dominio dell’indagine scientifica immaturo dal punto di vista dello sviluppo”, ha affermato il direttore associato di HAI. Ha sottolineato che l’informatica esiste, formalmente parlando, solo da pochi decenni e l’IA solo da una frazione di quella. 

“Sono sospettoso dell’idea di democratizzare l’IA”, ha detto Reich. “Non vogliamo democratizzare l’accesso ad alcune delle tecnologie più potenti e metterle nelle mani di chiunque possa usarle per scopi contraddittori”.
Sebbene ci siano opportunità, ci sono anche molti rischi, ha affermato, e ha messo in dubbio ciò che conta come sviluppo responsabile e ciò che i principali scienziati dell’IA stanno facendo per accelerare lo sviluppo delle norme professionali. Ha aggiunto che le questioni sociali e di sicurezza richiedono il contributo di più parti interessate e devono estendersi al di là delle competenze di qualsiasi esperto tecnico o azienda. 

“Gli scienziati dell’IA non hanno una densa impronta istituzionale di norme professionali ed etica”, ha affermato. “Sono, per dirla in modo ancora più provocatorio, come gli adolescenti in fase avanzata che sono appena entrati nel riconoscimento dei loro poteri nel mondo, ma i cui lobi frontali non sono ancora sufficientemente sviluppati per dare loro responsabilità sociale. Hanno bisogno di una rapida accelerazione. Abbiamo bisogno di una rapida accelerazione delle norme professionali e dell’etica per guidare il nostro lavoro collettivo come scienziati dell’IA”.

Di ihal