L’anno scorso, dopo l’uscita di ChatGPT, molti giganti della tecnologia erano freneticamente alla ricerca di chatbot basati su LLM da adottare o creare. In quel contesto, Apple ha deciso di vietare internamente l’uso di ChatGPT, citando preoccupazioni sulla privacy. In effetti, l’azienda aveva persino interrotto lo sviluppo di un chatbot basato su LLM.
Tuttavia, secondo recenti rapporti, il gigante tecnologico ha cambiato idea ed è riuscito a sviluppare un chatbot interno, soprannominato “Apple GPT” dai dipendenti. Sebbene Apple non abbia ancora deciso come rilasciarlo al pubblico, la società ha in programma di fare un importante annuncio sull’intelligenza artificiale l’anno prossimo.
Per garantire che il loro chatbot sia superiore agli altri sul mercato, Apple ha creato il proprio framework chiamato Ajax per sviluppare un chatbot basato su LLM, simile a ChatGPT di OpenAI e a Bard di Google. Questo framework viene eseguito su Google Cloud ed è stato creato utilizzando Google JAX, il framework di machine learning del gigante delle ricerche.
L’ecosistema di Apple e la fedeltà dei suoi consumatori rappresentano un grande vantaggio competitivo per l’azienda. Apple dispone di un ecosistema integrato che le offre un’opportunità significativa per sfruttare le capacità dei suoi chip M1 e M2 e sviluppare modelli LLM personalizzati e privati. Inoltre, l’azienda può contare su un vasto ecosistema di sviluppatori, a cui ha recentemente fornito un’architettura Transformers ottimizzata per Apple Silicon.
Oltre alla tecnologia, Apple è conosciuta anche per la sua estetica e per i principi di design, che potrebbero aiutarla a superare l’interfaccia utente semplice ma molto apprezzata di ChatGPT.
Qualunque sia la missione, è chiaro che integrare la tecnologia LLM sui dispositivi individuali rappresenta una sfida complessa. Tuttavia, il compito diventa ancora più impegnativo quando l’azienda si impegna a fornire tecnologie LLM mantenendo la privacy e la sicurezza degli utenti al centro delle proprie preoccupazioni. Tim Cook ha sottolineato che l’azienda intende incorporare l’intelligenza artificiale nelle sue offerte in modo ponderato e responsabile.
Forse è per questo motivo che il chatbot non è ancora in grado di produrre risultati adeguati. Secondo alcuni dipendenti anonimi di Apple, l’azienda ha stabilito che l’output del nuovo chatbot non può ancora essere utilizzato per creare funzionalità per i clienti finali. Sembra che Apple non si fidi ancora appieno della propria tecnologia.
L’annuncio recente della partnership tra Meta e Microsoft per il rilascio di Llama 2 potrebbe essere un campanello d’allarme per Apple in termini di integrazione di modelli linguistici per casi d’uso edge. Per favorire ulteriormente questa integrazione, Microsoft ha anche collaborato con Qualcomm per la possibile progettazione di chip per dispositivi Android. Considerando le dimensioni ridotte del modello Llama 2, Microsoft potrebbe riuscirci, cosa che forse non sarebbe stata possibile con i modelli enormi di OpenAI come GPT-4.
Nonostante il rapporto affermi che il chatbot di Apple non offra alcuna caratteristica distintiva aggiuntiva, è innegabile che Apple si distingua dai concorrenti presenti sul mercato. Durante la WWDC 2023, il team di Apple ha già annunciato molti miglioramenti basati sull’apprendimento automatico, tra cui le tastiere di riempimento automatico basate su Transformer per i dispositivi iOS.
Secondo un rapporto di marzo, Apple ha organizzato un evento interno focalizzato sull’IA e sui modelli linguistici di grandi dimensioni. Alcuni partecipanti includevano il team di sviluppo di Siri e hanno riferito che si stavano testando “concetti che generano linguaggio”. Inoltre, 9to5Mac ha riferito che Apple ha introdotto un framework chiamato “Siri Natural Language Generation” in tvOS 16.4. Rapporti recenti indicano anche che Apple sta cercando attivamente esperti nel campo dell’IA generativa, pubblicando offerte di lavoro per professionisti con una solida conoscenza dei modelli linguistici di grandi dimensioni e dell’IA generativa.
Dopo tutto ciò, il miglior caso d’uso per l’integrazione di questa tecnologia simile a GPT in Apple sarebbe Siri. Nonostante gli annunci, Siri non ha subito molte modifiche significative dalla sua introduzione. Gli sviluppatori hanno cercato di integrare le funzionalità di ChatGPT all’interno di Siri. Ora, Apple ha l’opportunità di farlo nativamente.
Al momento, l’app ChatGPT di OpenAI è disponibile solo su iOS. Se Apple sviluppa il proprio chatbot in grado di funzionare nativamente nel proprio ecosistema, OpenAI potrebbe dover prestare attenzione alle mosse future, poiché Apple potrebbe semplicemente rimuovere l’app dall’App Store. Forse l’app ChatGPT è stata un campanello d’allarme anche per Apple, che ha deciso di entrare nel campo dei modelli linguistici di grandi dimensioni.
Apple si era allontanata dai modelli linguistici di grandi dimensioni, seguendo un percorso simile a quello di Meta. Tuttavia, ora che Meta è considerata uno dei principali attori nel mercato open source, non ci si può aspettare niente di meno da Apple, che si sta muovendo in ritardo. Apple è sempre stata molto attenta ai dati degli utenti e ha affermato di non voler correre rischi inutili in questa area.