È ben noto che Apple ha intrapreso un serio sforzo nello sviluppo di un massiccio modello linguistico (LLM). Uno dei principali obiettivi di questo sforzo è la trasformazione dell’assistente vocale “Siri” in un’intelligenza artificiale conversazionale avanzata, investendo milioni di dollari al giorno nel cosiddetto “Apple GPT”.
Apple mira a dotare “Siri” della capacità di elaborare comandi complessi attraverso semplici istruzioni vocali per gli utenti di iPhone. Questo significa che l’utente potrà chiedere a Siri di eseguire compiti complessi come “creare una GIF utilizzando le ultime 5 foto scattate e inviarla come messaggio di testo a un amico” tramite semplici comandi vocali, eliminando la necessità di compiere manualmente tutte le operazioni sul dispositivo.
La società è riuscita a raggiungere questo obiettivo in soli quattro anni, dopo che l’ex dipendente di Google, John Gianandrea, ha costituito un team dedicato allo sviluppo dell’intelligenza artificiale conversazionale.
Il team responsabile di questa impresa è noto come il team “Foundation Model” e comprende 16 membri. Si dice che abbiano sviluppato e testato diversi modelli di intelligenza artificiale internamente. Apple ha anche investito milioni di dollari al giorno nella formazione dei modelli di intelligenza artificiale di questo team, secondo fonti. Ad esempio, Sam Altman, CEO di OpenAI, ha dichiarato di aver speso più di 100 milioni di dollari in diversi mesi per addestrare GPT-4.
In precedenza, a luglio, Bloomberg aveva riferito che Apple aveva creato un piccolo team interno di ingegneri per costruire una base LLM chiamata “Ajax” e l’aveva utilizzata per testare il chatbot conversazionale chiamato “Apple GPT”, simile a ChatGPT. Ajax, con oltre 200 miliardi di parametri, è noto per avere prestazioni superiori a “GPT-3.5” di OpenAI.
Apple sta effettuando ricerche avanzate in campo di intelligenza artificiale, con squadre dedicate a svariate aree. La Visual Intelligence Unit sta sviluppando un modello di intelligenza artificiale in grado di generare immagini, mentre un altro gruppo lavora su un’intelligenza artificiale multimodale capace di riconoscere e generare non solo testo ma anche immagini e video.
Ciò che distingue Apple dagli altri attori del settore è la sua enfasi sulla protezione della tecnologia “AI on device”, cioè l’integrazione dell’intelligenza artificiale direttamente nei dispositivi, compreso l’iPhone. L’obiettivo principale è incorporare questa tecnologia nei prodotti che vengono venduti.
In merito alla data di rilascio, sembra che a partire da iOS 18, gli utenti potrebbero essere in grado di utilizzare la funzione di automazione del controllo vocale in più passaggi tramite Siri. È importante notare che l’attuale versione di iOS è la 16.5.