Dentro le strategie di integrazione AI di Apple e Microsoft

Quando OpenAI ha annunciato la sua app desktop ChatGPT per macOS alla conferenza Spring Update , ci sono state domande sul motivo per cui non è stata avviata con Windows. Dopotutto, Microsoft è il principale finanziatore di OpenAI e sarebbe naturale che ottenesse un accesso anticipato alle nuove funzionalità di ChatGPT.

Ora sappiamo perché. Il nuovo PC Copilot+ di Microsoft annunciato alla conferenza Build mostra un ricco set di funzionalità profondamente integrate nel sistema operativo e che utilizzano perfettamente modelli di intelligenza artificiale sul dispositivo e nel cloud. L’app desktop ChatGPT di OpenAI, attualmente solo per Mac, sembra banale in confronto.

Costruire un’intelligenza artificiale affidabile: la strategia di Microsoft per un’intelligenza artificiale generativa sicura e scalabile
Sia Apple che Microsoft hanno cercato di integrare funzionalità di intelligenza artificiale nelle loro applicazioni ma con strategie diverse. È ancora troppo presto per dire quale tabella di marcia vincerà. Ma per il momento Microsoft sembra essere molto più avanti.

La strategia di Apple è sempre stata quella di creare un prodotto molto raffinato con tecnologia all’avanguardia e molto margine per applicazioni e funzionalità software future.

Puoi vederlo nel Vision Pro, nel nuovo iPad Pro M4 e persino nei MacBook e iPhone che rilascia ogni anno. I nuovi dispositivi di solito hanno molta più memoria e potenza di calcolo di quella di cui la maggior parte delle persone ha bisogno per l’uso quotidiano.

A poco a poco, Apple rilascia aggiornamenti del sistema operativo e nuove funzionalità e software che sfruttano gli acceleratori e l’hardware specializzato.

Ad esempio, quando è stato annunciato il chip M1, nessuno pensava di eseguire modelli linguistici di grandi dimensioni (LLM) sui Mac. Ma ora c’è un’intera libreria e un set di strumenti per ottimizzare i modelli da eseguire sul silicone Apple, e il team di ricerca di Apple rilascia regolarmente modelli che possono essere eseguiti sui suoi dispositivi.

Tuttavia, il problema con l’approccio di Apple è che l’intelligenza artificiale generativa sul dispositivo non è ancora maturata. E anche se l’anno scorso si sono registrati progressi impressionanti nel campo, non abbiamo ancora raggiunto il punto in cui i modelli integrati sui dispositivi siano sufficientemente affidabili da eseguire in modo indipendente più attività. Questo è il divario che l’app ChatGPT per macOS colmerà finché Apple non troverà un modo per eseguire i propri modelli basati su cloud o l’intelligenza artificiale sul dispositivo non raggiungerà un punto in cui Apple non avrà più bisogno di modelli basati su cloud.

Il risultato è un mosaico di diversi strumenti di intelligenza artificiale che non si integrano perfettamente nel sistema operativo.

D’altro canto, Microsoft si concentra sulla fornitura di tecnologie IA all’avanguardia e poi capisce come avvicinarle il più possibile all’utente.

Innanzitutto, l’ investimento e la partnership con OpenAI mettono Microsoft in una posizione unica per integrare modelli di frontiera nei suoi prodotti.

Ma Microsoft ha anche lanciato una rete più ampia supportando modelli aperti come Llama e Mistral. Allo stesso tempo, Microsoft ha iniziato a rilasciare piccoli modelli linguistici (SLM) come Phi e Orca .

Al World Economic Forum, al CEO di Microsoft Satya Nadella è stato chiesto se la sua azienda fosse diventata troppo dipendente da OpenAI. Ecco come ha risposto:

“Sento che siamo molto capaci di controllare il nostro destino… I nostri prodotti non riguardano un modello. Ci interessa avere il miglior modello di frontiera, che oggi è GPT-4. Ma abbiamo anche Mixtral in Azure come modello come servizio. Usiamo Llama in alcuni punti. Abbiamo Phi, che è il miglior SLM di Microsoft. Quindi ci sarà diversità nelle capacità e nei modelli che avremo, in cui investiremo. Ma collaboreremo molto profondamente con OpenAI”.

Infine, Microsoft ha ridotto la propria dipendenza da OpenAI creando uno strato di astrazione attraverso il suo marchio Copilot. Gli utenti Microsoft interagiranno con Copilot su Windows. Dietro le quinte, l’assistente AI utilizzerà il modello più adatto al compito.

Queste funzionalità sono state messe in mostra durante Microsoft Build, dove i nuovi PC Copilot+ hanno mostrato un’ampia gamma di funzionalità di intelligenza artificiale, tra cui la creazione di immagini, didascalie in tempo reale, strumenti di produttività e sì, l’inquietante funzionalità Recall . Alcune di queste funzionalità vengono eseguite sul dispositivo, altre nel cloud e altre sono distribuite su entrambi.

Il campo continuerà ad evolversi, soprattutto perché Microsoft sta raddoppiando i suoi sforzi per portare chip ARM avanzati sui suoi laptop. L’hardware continuerà a diventare più potente, gli LLM sul dispositivo continueranno a diventare più efficienti e i modelli backend di Copilot cambieranno senza interrompere l’esperienza dell’utente.

La demo è stata così impressionante che Ben Thompson di Stratechery l’ha descritta come “in stile MacBook Air” e “a differenza dell’offerta Apple, in realtà significativamente integrata con l’intelligenza artificiale in un modo che non solo sembra utile oggi, ma crea anche le basi per essere notevolmente più utile come gli sviluppatori sfrutteranno le capacità di intelligenza artificiale di Microsoft in futuro.”

Dopo l’annuncio dell’app ChatGPT per macOS, alcuni utenti si sono rivolti ai social media per deridere Microsoft per aver investito 10 miliardi di dollari in OpenAI per rilasciare un’app macOS.

Ma alla luce degli annunci di Microsoft Build, sembra che ChatGPT sia diventato il cavallo di Troia di Microsoft nell’ecosistema Apple. ChatGPT funziona sul cloud di Azure e la più profonda integrazione di ChatGPT in macOS e iOS darà a Microsoft un punto d’appoggio più forte nell’esperienza utente di Apple. Sembra che Satya abbia vinto questo round. Ma la corsa non è finita. Dovremo vedere cosa rivelerà Apple al WWDC di giugno.

Di ihal