Microsoft ha annunciato i plugin per i modelli di linguaggio di grandi dimensioni basati su GPT offerti su Azure. L’azienda ha dichiarato di adottare lo stesso approccio di ChatGPT, recentemente lanciato in versione beta, per garantire l’interoperabilità tra ChatGPT e le varie offerte di copilota di Microsoft.
Gli sviluppatori possono ora utilizzare una piattaforma unificata per creare plug-in che funzionano sia su piattaforme consumer che aziendali, come ChatGPT, Bing, Dynamics 365 Copilot (in anteprima) e Microsoft 365 Copilot (in anteprima). Nel caso in cui gli utenti desiderino sviluppare e utilizzare i propri plug-in con l’app AI basata sul servizio Azure OpenAI, per impostazione predefinita sarà possibile garantire l’interoperabilità grazie allo stesso standard di plug-in. Questo permette agli sviluppatori di creare esperienze che consentono alle persone di interagire con le proprie applicazioni utilizzando un linguaggio naturale, l’interfaccia utente più intuitiva.
I plug-in rappresentano dei servizi esterni al modello principale di un Large Language Model (LLM) utilizzato da un’azienda. Questo si traduce in un modello primario che viene integrato con altri modelli e servizi per soddisfare al meglio le esigenze specifiche degli utenti.
I plug-in offrono un modo rapido per trasformare un LLM generico in una soluzione specializzata che possiede una competenza specifica nel dominio di riferimento. Questa personalizzazione può essere realizzata senza richiedere la riqualificazione o l’adattamento del modello di base. Invece, vengono aggiunti modelli che lavorano in sinergia con il modello di base per soddisfare esigenze specifiche, fornendo accesso a servizi Web, knowledge base e programmi provenienti da fonti interne o esterne. Questa flessibilità rende gli LLM molto più adattabili alle esigenze aziendali.
Tuttavia, quando si tratta di modelli destinati ai consumatori, potrebbero sorgere alcune limitazioni significative. Dato che Microsoft sta seguendo l’approccio dei plug-in ChatGPT di OpenAI, potrebbe essere utile esaminare il funzionamento di quel modello. Di seguito sono disponibili due video che illustrano il concetto di plug-in e come si differenzia dall’utilizzo tipico di ChatGPT.
L’approccio dei plug-in ChatGPT di OpenAI è interessante e funzionale, ma potrebbe non essere ottimale in termini di esperienza utente. L’utente deve selezionare il modello di plug-in desiderato prima di inserire una richiesta. Questo può funzionare bene se si utilizza sempre lo stesso plug-in, ma se non si sa quale plug-in possa offrire i migliori risultati per la query iniziale, potrebbe richiedere numerosi tentativi ed errori. Inoltre, se si deve passare da un prompt all’altro per ottenere risposte migliori da modelli diversi, si dovrà continuamente tornare indietro e avanti.
Detto ciò, questo approccio potrebbe rappresentare un problema minore per i casi d’uso aziendali, in cui gli utenti sono formati per il proprio lavoro e hanno un contesto specifico. Tuttavia, può risultare problematico per i consumatori che non sempre godono di questi vantaggi.