Mentre ci avviciniamo alla fine del 2023 e al periodo tradizionale di quiete delle vacanze invernali, il ritmo frenetico delle notizie e degli annunci generati dall’intelligenza artificiale continua senza sosta.

Un esempio lampante di questo dinamismo proviene da Microsoft Research, la divisione sperimentale di Microsoft nel campo dell’informatica. Oggi, hanno rivelato il loro nuovo modello di piccole dimensioni chiamato Small Language Model (SML) Phi-2. Questo programma di intelligenza artificiale basato su testo è “sufficientemente compatto da essere eseguito su un laptop o un dispositivo mobile”, come dichiarato in un post su X.

Ciò che rende Phi-2 notevole è il suo impressionante numero di parametri, ovvero 2,7 miliardi di connessioni artificiali tra neuroni. Questo gli conferisce prestazioni sorprendenti, paragonabili persino a modelli molto più grandi come il Llama 2-7B di Meta, con i suoi 7 miliardi di parametri, e il Mistral-7B, anch’esso da 7 miliardi di parametri.

In un confronto diretto, i ricercatori di Microsoft hanno evidenziato come Phi-2 superi il nuovo Gemini Nano 2 di Google, nonostante quest’ultimo abbia mezzo miliardo di parametri in più. Inoltre, Phi-2 offre risposte meno “tossiche” e prevenzioni contro i pregiudizi rispetto a Llama 2.

Tuttavia, c’è una limitazione significativa associata a Phi-2 al momento: la sua licenza permette l’uso solo per “scopi di ricerca” e non per scopi commerciali. Inoltre, è vincolato da una licenza personalizzata di Microsoft Research che specifica che Phi-2 può essere utilizzato esclusivamente per “scopi di ricerca non commerciali e non generativi di entrate”. Questo significa che le aziende che desiderano costruire prodotti basati su di esso dovranno cercare alternative.

Di Fantasy