GEPA: il prompt optimizer che insegna ai modelli LLM a migliorarsi da sé
Quando si tratta di ottimizzare sistemi complessi basati su LLM, il metodo tradizionale — il rinforzo tramite migliaia di tentativi basati su punteggi numerici — si rivela spesso troppo costoso,…
Nemotron-Nano 9B v2: il piccolo modello AI di NVIDIA che pensa solo se serve
In un’epoca in cui i modelli linguistici di grandi dimensioni sono spesso percepiti come l’apice della potenza computazionale, NVIDIA sceglie un percorso diverso: più raffinato, efficiente e controllato. Il protagonista…
Calcolare con intelligenza, non con forza: come Hugging Face aiuta le imprese a tagliare i costi dell’AI senza perdere performance
Nella tecnologia odierna, dominata dalla corsa per ottenere sempre più potenza computazionale, Hugging Face propone un’alternativa più fine e strategica. L’idea è semplice ma rivoluzionaria: non serve più “di più”…
Anthropic e il problema della memoria: Claude non dimentica (a comando)
Nel frenetico mondo delle intelligenze artificiali conversazionali, la capacità di “ricordare” informazioni rilevanti nel tempo rappresenta un enorme vantaggio, ma anche una delicata sfida. Claude, il chatbot di Anthropic, ha…