Google e Microsoft hanno rivelato l’onere dei costi della ricerca di un nuovo chatbot di intelligenza artificiale. Si prevede che il costo non sarà irrisorio nei prossimi due anni.

Il presidente di Alphabet John Hennessy ha dichiarato in un’intervista a Reuters il 22 (ora locale), “Quello che dobbiamo fare è ridurre i costi di inferenza”. Alphabet è la società madre di Google.

Ha anche aggiunto: “L’utilizzo dell’intelligenza artificiale basata su LLM (Large Language Model) costa 10 volte di più rispetto alla tradizionale ricerca per parole chiave.

Lo stesso vale per la SM. “È vero che i costi sono alti”, ha detto agli analisti il ​​CFO di Microsoft Amy Hood. “Se compensi i costi con aumenti incrementali nell’acquisizione di utenti e entrate pubblicitarie, pagherai alla grande”.

Richard Sozer, CEO di U.com, che ha già dichiarato un addebito parziale per la ricerca, ha affermato che l’introduzione di chatbot AI e IA generativa, come grafici e video, aumenta i costi del 30-50%.

Pertanto, un metodo di ricerca di chatbot basato su un’intelligenza artificiale super-grande richiede il supercalcolo, quindi è molto più costoso della ricerca convenzionale. Morgan Stanley costa 0,2 centesimi per query per Google, che lo scorso anno ha elaborato 3,3 trilioni di query di ricerca, e altri 6 miliardi di dollari entro il 2024 se l’IA generativa ne elabora la metà.

D’altra parte, secondo Semi-Analysis, una società di consulenza che ha calcolato il costo in base alle capacità del chip del supercomputer, Google dovrà pagare almeno 3 miliardi di dollari in più (circa 3,89 trilioni di won).

È risaputo che l’introduzione dei chatbot ha aumentato i costi e nuove società di ricerca hanno dichiarato uno dopo l’altro un servizio a pagamento. Oltre a U.com, la startup Niva, che la scorsa settimana ha introdotto la ricerca basata su chatbot, sta adottando un servizio di abbonamento mensile.

Secondo ArcInvest, una società globale di analisi degli investimenti, il costo dell’apprendimento automatico basato sull’intelligenza artificiale sta diminuendo del 70% ogni anno, scendendo a un livello in cui non ci sono quasi costi entro il 2030. Ma i primi anni sono ancora costosi.

Gli esperti stanno suggerendo modi per aumentare le prestazioni dei supercomputer che elaborano enormi quantità di dati e modi per ottenere risultati di ricerca di alta qualità con una piccola quantità di addestramento del set di dati come modi per ridurre i costi di inferenza.

In effetti, Reuters ha spiegato che i ricercatori di Alphabet e di altre società stavano cercando modi per formare LLM a basso costo. Google ha anche recentemente rivelato che una “versione più piccola di Lambda” eseguirà il chatbot Bard e “richiederà molta meno potenza di calcolo”.

Inoltre, secondo un funzionario che ha richiesto l’anonimato, è noto che OpenAI, che ha rilasciato ChatGPT, ha trovato un modo per ridurre i costi attraverso un codice che esegue in modo efficiente il chip. OpenAI non ha dato una risposta ufficiale.

Inoltre, il presidente Hennessy ha dichiarato in una conferenza la scorsa settimana: “Il modo in cui i chatbot si concentrano su un’area (servizio verticale) piuttosto che eseguire attività di ricerca estese contribuirà a ridurre i costi”.

Di Fantasy