Raggiungere un’IA generativa affidabile  

Il termine “IA generativa” è stato di gran moda di recente. L’intelligenza artificiale generativa è disponibile in diversi tipi, ma comune a tutti è l’idea che il computer possa generare automaticamente molti contenuti intelligenti e utili sulla base di un input relativamente ridotto da parte dell’utente. 

 
Gran parte del recente entusiasmo è stato alimentato da sistemi di intelligenza artificiale generativa visiva, come DALL·E 2 e Stable Diffusion , in cui la macchina genera nuove immagini basate su brevi descrizioni testuali. Vuoi un’immagine di “un asino sulla luna che legge Tolstoj”? Ecco! In pochi secondi, ottieni un’immagine mai vista prima di questo asino colto e ben viaggiato.

 
Questi sistemi offrono un divertimento senza fine e sono mozzafiato. È difficile scrollarsi di dosso la sensazione che debbano essere intelligenti per capire il tuo intento e abbastanza creativi da generare una nuova immagine esteticamente gradevole basata su di esso. Inoltre, c’è un interessante scambio di valori: inserisci poche parole e, in cambio, ottieni un’immagine che vale mille. Finalmente un’IA intelligente, creativa e utile!

Alcune verità sull’IA generativa
Ma questo è fuorviante, poiché rafforza l’idea che il computer faccia tutto il lavoro. Se davvero tutto ciò che desideri è un’immagine estetica di un asino erudito, è probabile che sarai soddisfatto del risultato; ci sono molte di queste immagini o parti di esse e i sistemi sono abbastanza buoni da poterne produrre una. Ma se sei un artista, hai in mente un intento più sfumato e, nella migliore delle ipotesi, utilizzeresti il ​​sistema generativo come strumento interattivo per generare immagini basate su molti suggerimenti con cui sperimenti – e probabilmente lo farai anche massaggia tu stesso l’immagine in seguito.

  

Ciò è ancora più sorprendente nel caso dell’IA generativa testuale , sistemi in cui sia l’input che l’output sono testo. Anche in questo caso, la promessa di modelli come GPT-3 suggerisce un futuro da idee a testo in cui l’utente annota alcune idee chiave e il sistema prende il sopravvento e si occupa della maggior parte della scrittura. E in effetti, i sistemi attuali sono impressionanti. Scrivono poesie, post di blog, e-mail, copia di marketing: l’elenco potrebbe continuare. I sistemi a volte possono persino produrre un testo lungo che è sorprendentemente coerente e coerente con il messaggio e include molti fatti corretti e pertinenti non menzionati nelle istruzioni.

Tranne quando non lo fanno. E spesso non lo faranno. In pratica, l’IA generativa testuale, se utilizzata senza controlli adeguati, genera tanto assurdità quanto contenuto utile. L’esempio recente più notevole di ciò è stato Galactica di Meta , che rivendicava la capacità di generare contenuti scientifici approfonditi, ma è stato rimosso dopo due giorni quando è diventato evidente che stava producendo tanto pseudo-scienza quanto contenuto scientifico credibile.

Una qualità fragile
 
La fragilità dell’IA generativa testuale è stata riconosciuta fin dall’inizio. Quando GPT-2 è stato introdotto nel 2019, l’editorialista Tiernan Ray ha scritto: “[GPT-2 mostra] lampi di brillantezza mescolati con […] parole senza senso”. E quando un anno dopo è stato rilasciato GPT-3, il mio collega Andrew Ng ha scritto: “A volte GPT-3 scrive come un saggista passabile, [ma] assomiglia molto ad alcuni personaggi pubblici che pontificano con sicurezza su argomenti di cui sanno poco”. 

Di certo noi che lavoriamo sul territorio siamo stati ben consapevoli di questa fragilità. In realtà, i sistemi generativi testuali sono, nella migliore delle ipotesi, usati come generatori di idee, stimolando l’immaginazione dello scrittore umano. Il mio collega Percy Liang, non estraneo all’IA generativa, riferisce di averla utilizzata in questa modalità durante la composizione di un discorso per un matrimonio.

Ma fare affidamento sull’IA generativa per produrre in modo affidabile un testo completo e finale va oltre le capacità dei sistemi attuali. Come si è recentemente lamentato con me un noto editore, il tempo risparmiato dalla sua azienda utilizzando un certo sistema generativo è stato compensato dal tempo necessario per correggere le sciocchezze prodotte dal sistema.

Impatto limitato (finora)
 
Questa fragilità dell’attuale IA generativa ne limita l’impatto nel mondo reale. Per realizzare appieno il suo potenziale, l’IA generativa, in particolare quella testuale, deve diventare più affidabile. Diversi sviluppi tecnologici sono promettenti in questo senso.

Uno sta aumentando il grado in cui l’output è saldamente ancorato a fonti attendibili. Con “saldamente ancorato”, non intendo semplicemente essere addestrato su fonti attendibili (che è già un problema nei sistemi attuali), ma anche che parti importanti dell’output possono essere ricondotte in modo affidabile alle fonti su cui si basavano. Gli attuali cosiddetti “metodi di recupero”, che accedono a testo attendibile per aiutare a guidare l’output della rete neurale , puntano in una direzione promettente. 

Un altro elemento chiave è l’aumento del grado in cui i sistemi mostrano buon senso di base e ragionamento solido. Il testo lungo racconta una storia e la storia deve avere una logica interna, essere effettivamente corretta e avere un punto. I sistemi attuali no.

La natura statistica delle reti neurali che alimentano i sistemi attuali consente loro di produrre passaggi convincenti alcune volte, ma inevitabilmente cadono dal precipizio quando vengono spinte oltre un certo limite. Fanno palesi errori fattuali o logici e possono facilmente deviare fuori tema.

 
Soluzioni neurali
Ci sono diversi filoni di lavoro volti a mitigare questo. Includono approcci puramente neurali, come la cosiddetta “scomposizione rapida” e la “generazione gerarchica”. Altri approcci seguono la cosiddetta direzione “neuro-simbolica”, che potenzia il macchinario neurale con ragionamenti simbolici espliciti. 

Ma penso che lo sviluppo più importante sarà l’armonizzazione del pensiero prodotto e algoritmico. La tentazione di “ottenere qualcosa per niente” induce le persone a non fornire una guida sufficiente ai sistemi generativi ea richiedere un risultato troppo ambizioso.

 
L’IA generativa non sarà mai perfetta e un buon product manager comprende i limiti della tecnologia sottostante; progetta il prodotto per compensare tali limitazioni e, in particolare, crea la migliore divisione del lavoro tra l’utente e la macchina. Galactica, come accennato in precedenza, è in realtà un interessante manufatto ingegneristico. Ma chiedergli di produrre in modo affidabile articoli scientifici è semplicemente troppo.

L’IA generativa ha bisogno di più indicazioni: se non sai dove stai andando, non ci arriverai mai. La guida può essere fornita in anticipo, ad esempio da una serie arricchita di suggerimenti, ma anche in modo interattivo nel prodotto stesso.

Guardando avanti
La giuria è fuori su quale combinazione di tecniche si rivelerà più utile, ma credo che le carenze dell’IA generativa saranno drasticamente ridotte. Credo anche che ciò accadrà prima piuttosto che dopo a causa degli enormi vantaggi economici di un’IA generativa testuale affidabile. 

 
Questo significa la fine della scrittura umana? Non ci credo. Certamente, alcuni aspetti della scrittura saranno automatizzati. Già oggi non possiamo vivere senza un software di correzione ortografica e grammaticale; la modifica della copia è stata automatizzata. Ma scriviamo ancora e non credo che cambierà.

Ciò che cambierà è che, mentre scriviamo, avremo assistenti di ricerca ed editor integrati (nel senso di un editor di libri, non di un artefatto software). Queste funzioni, che sono state un lusso che solo pochissimi possono permettersi, saranno democratizzate. E questa è una buona cosa. 

Yoav Shoham è il co-fondatore e co-CEO di AI21 Labs .

Di ihal