Dopo essere stato uno dei primi plugin ad arrivare su ChatGPT, Wolfram è ora completamente integrato con LLM. Nell’ultimo aggiornamento alla versione 13.3, Wolfram Language ha aggiunto il supporto per la tecnologia LLM e ha incluso un modello di intelligenza artificiale nel Wolfram Cloud.
Questo aggiornamento dimostra come Wolfram stia gradualmente costruendo gli strumenti per rendere il linguaggio pronto per LLM. Il nuovo aggiornamento incorpora LLM direttamente nel linguaggio attraverso un sottosistema dedicato. Si basa anche sulla tecnologia delle funzioni LLM introdotta a maggio, che consente di “impacchettare” i poteri dell’intelligenza artificiale in una funzione richiamabile. Ora, gli utenti possono accedere direttamente a questo nuovo sottosistema.
Questi aggiornamenti offrono agli sviluppatori un modo completamente nuovo di interagire con i dati. L’approccio combina l’idea di Stephen Wolfram di programmazione in linguaggio naturale con la programmazione simbolica del linguaggio Wolfram, creando una potente combinazione. Inoltre, grazie all’API del linguaggio Wolfram, è possibile integrarlo con sistemi più ampi, offrendo un’enorme potenza attraverso un’interfaccia in linguaggio naturale.
Una delle forze del linguaggio Wolfram risiede nella sua capacità di programmazione simbolica. Utilizzando il codice, il linguaggio può eseguire numerose operazioni matematiche complesse, come algebra, manipolazioni di matrici ed equazioni differenziali. Per potenziare ulteriormente le capacità di risoluzione dei problemi logici del linguaggio, Stephen Wolfram ha deciso di integrare le funzionalità LLM nel sistema.
L’esperimento di Wolfram con LLM è iniziato con la creazione del plugin Wolfram per ChatGPT, che ha fornito al chatbot le capacità di programmazione simbolica del linguaggio. Successivamente, Stephen ha intrapreso un viaggio per portare il linguaggio simbolico a nuovi livelli, affermando: “Stiamo per utilizzare il linguaggio simbolico [Wolfram] per offrire un modo per utilizzare LLM come componente in uno stack software più ampio. È qualcosa che puoi fare in un modo molto bello”.
L’aggiornamento 13.3 sembra essere un passo in questa direzione, portando LLM direttamente nel linguaggio Wolfram attraverso un sottosistema dedicato. Dopo il plugin per il chatbot e la funzione di chiamata LLM, Stephen ha introdotto i “Chat Notebooks”, che consentono agli utenti di interagire facilmente con LLM all’interno del Wolfram Notebook utilizzando una casella di testo. In questo modo, gli utenti possono generare potente codice nel linguaggio Wolfram senza la necessità di conoscere la sintassi del linguaggio stesso.
Stephen considera questa interfaccia un esempio di “utilizzo di un LLM come interfaccia linguistica dotata di buon senso”, in quanto consente agli utenti di interagire con il linguaggio senza dover conoscere la sintassi specifica. Stephen ritiene che questo sia un passo naturale per le capacità esistenti del programma, affermando: “Quando fai qualcosa con cui sei familiare, sarà quasi sempre più veloce e migliore pensare direttamente in Wolfram Language e semplicemente inserire il codice desiderato del linguaggio computazionale. Tuttavia, se stai esplorando qualcosa di nuovo o stai iniziando un nuovo progetto, è probabile che LLM sia un modo davvero prezioso per guidarti verso la scrittura del primo codice”.
LLM integrato include anche funzionalità di autocorrezione che gli consentono di rilevare e correggere errori prima dell’esecuzione e fornisce frammenti di codice. Ciò significa che può anche aiutare a debuggare il codice esistente nel linguaggio Wolfram e può analizzare dettagli come la traccia dello stack e la documentazione degli errori per correggere codice non funzionante.
Inoltre, LLM integrato include diverse personalità, ognuna orientata a uno scopo specifico. Ad esempio, l’assistente di codice scrive e spiega il codice, mentre l’autore di codice genera solo il codice. Altre personalità, come Wolfie e Birdnado, rispondono all’utente con un certo “atteggiamento”.
Per espandere ulteriormente le funzionalità di LLM, Wolfram ha lanciato il repository di prompt, che offre prompt per ottenere funzionalità aggiuntive e prompt per la modifica. Sebbene Stephen abbia affermato che il linguaggio Wolfram continuerà a essere “sempre più integrato come strumento nei LLM”, il repository di prompt attualmente mostra le capacità dei nuovi strumenti di intelligenza artificiale del linguaggio.
Il repository di prompt è una piattaforma collaborativa che consente all’LLM nel linguaggio Wolfram di adottare molteplici personalità, ciascuna con casi d’uso specifici. Inoltre, la comunità ha contribuito con varie funzioni che possono estendere ulteriormente la funzionalità del linguaggio oltre alle sue funzioni integrate.
I prompt nel repository sono suddivisi in tre categorie principali: personalità, funzioni e modificatori. Le personalità definiscono lo stile di interazione con l’utente, le funzioni generano output dal testo di input e i modificatori applicano effetti all’output generato dall’LLM. Ognuna di queste funzioni può essere richiamata nel codice, consentendo agli sviluppatori di integrarle facilmente nel codice esistente o di estendere la funzionalità di un programma.
Il repository ha un ruolo fondamentale nell’accelerare i flussi di lavoro, consentendo agli sviluppatori di evitare litigi con LLM. Come afferma Wolfram, “A volte utilizzare solo la descrizione [del prompt] funziona molto bene. Ma spesso non è sufficiente. A volte è necessario specificare ulteriormente ciò che si desidera. E a volte ci sono semplicemente dei litigi con LLM da risolvere. E tutto questo richiede un certo grado di “ingegneria del prompt” perCiao! Ecco la riscrittura del tuo post:
“Dopo essere stato uno dei primi plugin ad arrivare su ChatGPT, Wolfram ha fatto un passo avanti nell’implementazione di LLM. Nell’ultimo aggiornamento della versione 13.3, il linguaggio Wolfram ha aggiunto il supporto per la tecnologia LLM e ha integrato un modello di intelligenza artificiale nel Wolfram Cloud.
Questo aggiornamento dimostra gli sforzi di Wolfram nel rendere il linguaggio pronto per LLM. Ora, gli LLM sono direttamente incorporati nel linguaggio attraverso un sottosistema appositamente creato. Questo sviluppo segue l’introduzione delle funzioni LLM nel mese di maggio, che consentono di utilizzare l’intelligenza artificiale in modo “confezionato” come una funzione richiamabile. Con il nuovo sottosistema, gli utenti possono ora interagire direttamente con gli LLM.
Grazie a questi nuovi aggiornamenti, gli sviluppatori hanno a disposizione un modo completamente nuovo per gestire i propri dati. Questo approccio unisce l’idea di Stephen Wolfram sulla programmazione in linguaggio naturale con la programmazione simbolica del linguaggio Wolfram, creando un potente strumento. Inoltre, grazie all’API del linguaggio Wolfram, è possibile collegarlo a sistemi più complessi, offrendo una potenza straordinaria attraverso un’interfaccia basata sul linguaggio naturale.
Il punto di forza del linguaggio Wolfram risiede nelle sue capacità di programmazione simbolica. Utilizzando il codice, il linguaggio può eseguire numerose operazioni matematiche complesse, come algebra, manipolazioni di matrici ed equazioni differenziali. Per potenziare le capacità logiche di risoluzione dei problemi del linguaggio, Stephen Wolfram ha deciso di integrare le funzionalità LLM nel bot.
L’esperimento di Wolfram con LLM è iniziato con il plugin Wolfram ChatGPT, che ha potenziato il chatbot con le capacità di programmazione simbolica del linguaggio. Da allora, Stephen ha intrapreso un percorso per portare il linguaggio simbolico a nuovi livelli, come ha dichiarato ad AIM: “Stiamo per utilizzare il linguaggio simbolico [Wolfram] per fornire un modo per utilizzare LLM come componente in uno stack software più ampio. È qualcosa che puoi fare in un modo molto bello”.
L’aggiornamento 13.3 sembra rappresentare un passo in questa direzione, introducendo direttamente gli LLM nel linguaggio Wolfram tramite un sottosistema LLM. Oltre al plugin per il chatbot e alla funzione di chiamata LLM, Stephen ha introdotto i Chat Notebooks. Questo consente agli utenti di interagire facilmente con gli LLM nel Wolfram Notebook tramite una casella di testo, permettendo loro di generare potenti codici nel linguaggio Wolfram. Stephen ha definito questa interfaccia come un esempio di “utilizzo di un LLM come interfaccia linguistica con buon senso”, poiché consente agli utenti di interagire con illinguaggio senza dover conoscere la sintassi specifica del linguaggio.
Stephen ritiene che questo approccio sia naturale per le capacità esistenti del programma. Afferma che se si è familiari con il linguaggio Wolfram, sarà più veloce e migliore pensare direttamente in esso e inserire il codice desiderato. Tuttavia, se si sta esplorando qualcosa di nuovo o si sta iniziando un nuovo progetto, LLM può essere un modo prezioso per guidare nella scrittura del primo codice.
L’LLM integrato include funzionalità di autocorrezione che rilevano e correggono errori prima dell’esecuzione, nonché frammenti di codice. Questo aiuta a debuggare il codice esistente nel linguaggio Wolfram e può analizzare dettagli come la traccia dello stack e la documentazione degli errori per correggere il codice non funzionante.
Inoltre, l’LLM integrato include diverse personalità, ognuna con un obiettivo specifico. Ad esempio, l’assistente di codice scrive e spiega il codice, mentre l’autore di codice genera solo il codice. Altre personalità, come Wolfie e Birdnado, possono rispondere all’utente con un certo “atteggiamento”.
Per espandere ulteriormente le capacità dell’LLM, Wolfram ha lanciato il repository di prompt, che offre prompt per ottenere funzionalità aggiuntive e prompt per la modifica. Stephen afferma che il linguaggio Wolfram continuerà a essere “sempre più integrato come strumento nei LLM”. Attualmente, il repository di prompt mostra le capacità dei nuovi strumenti di intelligenza artificiale del linguaggio.