Recentemente, Meta AI ha introdotto ‘Prompt Engineering with Llama 2’, una nuova risorsa per la comunità open source dedicata alle migliori pratiche nell’ingegneria dei prompt. Contemporaneamente, DeepLearning.AI di Andrew Ng ha lanciato un corso sull’ingegneria dei prompt per LLM open source, intitolato “Prompt Engineering for Open Source LLMs”. Anche giganti come IBM, Amazon, Google e Microsoft offrono formazione simile sull’ingegneria rapida per modelli open source.
L’ingegneria dei prompt è emersa come una delle professioni più discusse nel 2023, specialmente con l’adozione di ChatGPT di OpenAI da parte delle aziende. Queste ultime hanno iniziato ad assumere esperti capaci di guidare i chatbot a fornire risposte accurate, spesso offrendo loro stipendi elevati.
Questo trend ha stimolato la creazione di numerosi corsi di ingegneria dei prompt, principalmente focalizzati su modelli closed source come quelli di OpenAI. Tuttavia, con l’aumento dell’uso di LLM open source come LLaMA e Mistral di Meta, è diventato essenziale comprendere le differenze nell’ingegneria dei prompt per questi modelli.
Diverse aziende stanno sviluppando applicazioni di assistenza clienti e generazione di codice basate su tecnologia open source. Queste applicazioni devono interagire con codici proprietari specifici per ciascuna azienda, una sfida spesso complessa per i modelli generali a modello chiuso.
Yann LeCun ha recentemente espresso perplessità sull’utilità di modelli closed source di grandi dimensioni che non sono specifici per le esigenze aziendali, sottolineando il potenziale dei modelli open source.
Sharon Zhou, co-fondatrice e CEO di Lamini, in collaborazione con DeepLearning.AI, ha tenuto un corso sull’ingegneria dei prompt per LLM open source. Ha evidenziato come la configurazione di un modello open source differisca da quella closed source, influenzando l’API e, di conseguenza, il meccanismo dei prompt.
Zhou ha paragonato l’ingegneria dei prompt al modo in cui le persone scelgono di indossare i pantaloni, una metafora per sottolineare l’importanza di adattare i prompt ai diversi LLM. Ha chiarito che l’ingegneria dei prompt non è ingegneria del software, ma piuttosto un’abilità fondamentale che non richiede approcci complessi.
Ha inoltre discusso delle sfide nel mantenere la trasparenza nei prompt per ottimizzare le prestazioni dei modelli, sottolineando come molti framework tendano a complicare il processo.
Matt Baker, vicepresidente senior della strategia AI presso Dell, ha osservato che i modelli di grandi dimensioni non sono sempre utili per le aziende a meno che non siano adattati a casi d’uso specifici. Ha evidenziato l’importanza di modelli più piccoli e specializzati.
In conclusione, mentre le aziende continuano a utilizzare sia LLM open source che closed source, la tendenza si sta spostando verso l’ottimizzazione con dati aziendali specifici, richiedendo un adattamento nel modo in cui si utilizzano i modelli per fornire informazioni precise. Come dice Zhou, “indossa sempre i pantaloni giusti!”