Di recente, mentre la tecnologia dell’intelligenza artificiale (AI) si sviluppa rapidamente, si stanno verificando risultati mai visti in passato. In particolare, l’IA generativa, che crea testo, immagini, video e persino codice di programmazione, sta guidando l’innovazione in molti campi.

The Guardian of the UK ha riassunto e introdotto i concetti chiave essenziali per comprendere il trend di sviluppo della tecnologia AI. I sette concetti sono reti neurali e modelli di linguaggio di grandi dimensioni (LLM), reti generative avversarie (GAN), informatica, scatole nere, messa a punto e ordinamento.

  • Rete neurale. È la tecnologia di base al centro del boom dell’IA. È una tecnologia universale che può cambiare vari settori come il motore a vapore della prima rivoluzione industriale. Le reti neurali, ideate per la prima volta negli anni ’40, sono nate dagli sforzi per imitare artificialmente il cervello degli animali. La rete neurale di un animale consiste di milioni di neuroni semplici ciascuno connesso a pochi altri neuroni. Ogni singolo neurone è molto semplice, ma se combinato in grandi quantità può fare cose qualitativamente diverse e può imparare a svolgere compiti complessi. Le reti neurali artificiali hanno la stessa struttura. Tuttavia, qui i neuroni sono collegati in modo algoritmico, non in modo fisico. Come il motore a vapore, le reti neurali hanno impiegato decenni per comprendere il vero potere dell’invenzione. Le reti neurali sono state in gran parte una curiosità negli ultimi 70 anni perché operano solo con un’enorme potenza di calcolo e grandi quantità di dati. Tuttavia, negli anni 2000, la situazione è cambiata.
  • Modelli linguistici di grandi dimensioni (LLM). I modelli di linguaggio di grandi dimensioni, insieme ai GAN, sono reti neurali che hanno portato a un recente sviluppo esplosivo nel campo dell’IA. La serie GPT di OpenAI, PaLM di Google o LLaMa di Meta vengono addestrati utilizzando enormi dati di testo come LLM. LLM apprende dai dati pubblicamente disponibili, come documenti Web di alta qualità, libri, articoli di Wikipedia, post di blog e codice open source su GitHub. Sulla base di ciò, dato un testo, prevede probabilisticamente quale testo verrà dopo, e se come risultato viene generato un testo più lungo, il processo di previsione del testo successivo viene ripetuto. Questo può produrre risultati che generano intere frasi e paragrafi, articoli o persino libri. Più grande è il modello linguistico, ovvero più parametri, migliori sono le prestazioni. Con 175 miliardi di parametri, GPT-3 è 1500 volte più grande di GPT-1 e ha prestazioni migliori
  • Generative Adversarial Network (GAN). Le reti antagonistiche generative vengono utilizzate per generare immagini, video e audio. GAN è costituito da due reti neurali, un modello generativo e un modello discriminante. Prendiamo, ad esempio, la costruzione di un’intelligenza artificiale che produce foto fotorealistiche. Innanzitutto, il modello discriminante viene addestrato su innumerevoli foto. Il modello discriminante ti consente di etichettare determinate foto come “cani” o “gatti”. Successivamente, lascia che il modello generativo inganni il modello discriminante creando un’immagine che assomigli a un cane o un gatto. Se il modello discriminante identifica che l’immagine generata dal modello generativo è falsa, smetterà di etichettare e il modello generativo imparerà da questo risultato e ricreerà un’immagine più simile. Pertanto, i due modelli competono l’uno contro l’altro e migliorano le loro prestazioni. Di conseguenza, è possibile creare successivamente immagini realistiche di cani o gatti difficili da distinguere da quelli reali. Allo stesso modo è possibile creare audio, video e immagini 3D.
  • Informatica. Per addestrare un grande modello di intelligenza artificiale, la potenza di calcolo deve essere grande e potente, quindi questo è costoso. È noto che lo sviluppo di GPT-3 è costato circa 10 milioni di dollari (circa 13,1 miliardi di won). OpenAI, che ha sviluppato ChatGPT, ha già annunciato nel 2018 che la quantità di elaborazione richiesta per l’addestramento AI raddoppia ogni tre mesi e mezzo. Questo è il contesto in cui OpenAI, che ha iniziato come azienda senza scopo di lucro, alla fine ha ricevuto la sponsorizzazione da Microsoft. I grandi strumenti di intelligenza artificiale come LLM sono difficili da mettere in pratica a meno che non si tratti di una grande azienda tecnologica a causa dei limiti di tale potenza di calcolo.
  • Scatola nera. Le reti neurali sono spesso descritte come scatole nere. Più parametri ha una rete neurale, più difficile è capire come va il processo tra input e output. Ogni parametro di una rete neurale artificiale può descrivere come un neurone influisce su un altro neurone, ma se ci sono 100 miliardi o 500 miliardi di queste variabili, diventa praticamente impossibile da afferrare. Infatti, per una rete neurale così vasta, il meccanismo stesso è un mistero.
  • Ritocchi. Poiché le IA di grandi dimensioni come la serie GPT sono modelli fondamentali con un’eccellente versatilità, possono essere utilizzate per sviluppare strumenti IA specifici. In questo caso è necessaria una messa a punto. Ad esempio, se sviluppi un’intelligenza artificiale in grado di scrivere buoni articoli scientifici, non è necessario sviluppare un modello linguistico da zero. Addestrando un modello base come GPT con dati specifici relativi ad articoli scientifici, è possibile sviluppare un modello con tecnologia altamente specializzata a basso costo. Tuttavia, gli sviluppatori potrebbero incontrare difficoltà in questo processo di messa a punto. In qualità di sviluppatore, poiché non conosci il set di dati su cui è stato originariamente addestrato GTP, potresti riscontrare una situazione in cui non conosci la causa se ottieni risultati che non corrispondono alle tue intenzioni.
  • Allineamento. Significa adattare un sistema di intelligenza artificiale agli obiettivi o agli interessi previsti dal suo progettista. Un’IA ben allineata raggiunge l’obiettivo prefissato, ma un’IA mal allineata può causare malfunzionamenti o danni. Questo caso appare quando i dati di allenamento sono errati. Il concetto di allineamento è anche usato per indicare che l’IA segue i valori umani. Ci sono molti scienziati che temono che l’emergere di un’intelligenza artificiale altamente avanzata che superi gli umani significhi una catastrofe se non è allineata ai valori umani.

Di Fantasy