C’è una notizia che il progetto di Amazon per un enorme modello linguistico su larga scala chiamato “Olympus”, con ben 2 trilioni di parametri, sarà rilasciato entro i prossimi mesi. Anche se i dettagli precisi non sono stati ancora resi pubblici, sembra che i parametri potrebbero non essere all’altezza delle aspettative iniziali.
Secondo quanto riportato da The Verge, il team di intelligenza artificiale generale di Amazon (AGI) sta lavorando per superare il modello “Claude 3” di Antropic entro la metà dell’anno.
Si dice che Olympus stia ora ultimando i preparativi per il suo imminente debutto. I parametri del modello sono stati descritti come “molto grandi, nell’ordine dei centinaia di miliardi”.
Lo scorso novembre, Reuters e altre fonti hanno riferito che Amazon stava sviluppando Olympus con 2 trilioni di parametri e si prevedeva un lancio entro il 2023. Questo progetto ha suscitato grande interesse, soprattutto perché il numero di parametri previsto superava le stime fatte per modelli come “GPT-4” e “Gemini”.
Tuttavia, secondo le ultime informazioni da The Verge, sembra che il numero di parametri sia stato ridotto a centinaia di miliardi, senza una spiegazione chiara del motivo di questa diminuzione.
Nonostante ciò, Amazon ha investito ingenti risorse nello sviluppo di Olympus, con il dirigente Rohit Prasad, responsabile dell’intelligenza artificiale vocale di Amazon “Alexa”, che guida il progetto.
È degno di nota che Amazon abbia sostenuto finanziariamente il progetto con un totale di 4 miliardi di dollari, di cui 2,75 miliardi di dollari sono stati investiti in Antropic solo la scorsa settimana. Tuttavia, sembra che Amazon stia perseguendo l’obiettivo di superare Antropic con la creazione di un modello di dimensioni ancora più imponenti.
In risposta a queste dinamiche, The Verge ha notato che il rapporto tra Amazon e Anthropic potrebbe non essere così amichevole come quello tra Microsoft (MS) e OpenAI.