Oggi, Microsoft ha presentato una nuova risorsa chiamata Guidance, una sorta di “Bibbia” per i modelli linguistici. Questo strumento innovativo consente agli utenti di controllare in modo più efficace ed efficiente i modelli linguistici, superando le limitazioni dei tradizionali prompt o concatenamenti. Oltre a GPT-4 e ad altri modelli, è possibile integrare anche modelli open source come Vicuna.
Secondo l’azienda, il programma Guidance consente agli utenti di combinare generazione, prompt e controllo logico in un unico flusso continuo, rispecchiando il modo in cui il modello linguistico elabora effettivamente il testo. Questo sembra indicare che Microsoft sta sviluppando una sorta di “religione” nel nome dei modelli linguistici (LLM). Hanno persino citato un proverbio, il GPT 11:14, che afferma: “Dove non c’è guida, un modello fallisce, ma in un’abbondanza di istruzioni, c’è sicurezza”.
Microsoft ha affermato che l’implementazione di semplici strutture di output come la catena del pensiero (COT) e le sue varianti, come ART e Auto-COT, ha dimostrato di migliorare le prestazioni del modello linguistico. Con l’avvento di LLM più potenti, come GPT-4, si può creare una struttura ancora più ricca, e Guidance semplifica e rende più economica questa possibilità.
Guidance offre una sintassi semplice e intuitiva basata su modelli di manubri. Ecco alcuni aspetti salienti:
- Fornisce una ricca struttura di output con più generazioni, selezioni, condizionali, strumenti, ecc.
- Gli utenti possono sperimentare il flusso continuo simile a Playground nei notebook Jupyter/VSCode.
- Offre una generazione intelligente basata su seed, con memorizzazione nella cache.
- Supporta modelli di chat basati su Tole (ChatGPT).
Questa nuova funzionalità può essere facilmente integrata con i modelli HuggingFace, inclusa l’accelerazione della guida, la guarigione dei token e le guide ai pattern regex. Inoltre, all’inizio di questo mese, i ricercatori di Microsoft hanno presentato l’ottimizzazione automatica dei prompt (APO), un framework semplice e generico per l’ottimizzazione automatica dei prompt LLM. Se desideri saperne di più, puoi consultare il documento di ricerca qui.
L’anno scorso, durante l’evento Build 2022, Microsoft ha annunciato il lancio di strumenti e set di dati open source progettati per controllare i sistemi di moderazione dei contenuti basati sull’intelligenza artificiale. Inoltre, hanno sviluppato un sistema per generare automaticamente test che mettano in luce eventuali bug nei modelli di intelligenza artificiale. Questi progetti, denominati AdaTest e (De)ToxiGen, mirano a rendere i modelli linguistici più affidabili.