Nel 2023, Apple non ha fatto notizia come altre aziende nella corsa all’intelligenza artificiale generativa, ma ha lavorato efficacemente e silenziosamente in questo campo. Di recente, i ricercatori di Apple hanno rilasciato documenti, modelli e strumenti di programmazione importanti per l’intelligenza artificiale sui dispositivi.
Apple non punta sui modelli linguistici di grandi dimensioni (LLM) nel cloud, ma ha il controllo completo del suo hardware e software, il che le permette di ottimizzare l’intelligenza artificiale per i suoi dispositivi. Hanno fatto progressi nell’eseguire LLM sui dispositivi con meno memoria, come smartphone e laptop, usando una tecnica che utilizza sia la memoria DRAM che quella flash.
Apple ha anche pubblicato documenti su come ridurre il carico di lavoro dei LLM senza perdere prestazioni. Questo è importante perché i dispositivi più piccoli potrebbero usare LLM senza compromettere la velocità o la qualità.
Recentemente, Apple ha lanciato alcuni modelli generativi open source. Uno di questi, Ferret, è un LLM multimodale che può focalizzarsi su aree specifiche di un’immagine, utile per interazioni tramite la fotocamera dell’iPhone. Un altro modello, MGIE, modifica le immagini seguendo comandi in linguaggio naturale, utile per le future versioni di dispositivi iOS.
Sebbene Apple non sia famosa per il suo impegno nell’open source, la pubblicazione di questi modelli aiuta a promuovere le sue tecnologie e a preparare gli sviluppatori per future applicazioni sui dispositivi Apple.
Apple ha anche rilasciato MLX, una libreria per il machine learning ottimizzata per i processori Apple e che facilita l’utilizzo di modelli di machine learning. Questa libreria è in linea con la ricerca di Apple per eseguire modelli avanzati su dispositivi con limiti di memoria.
In sintesi, Apple sta creando le fondamenta per diventare un attore chiave nell’intelligenza artificiale generativa sui dispositivi, grazie a una forte integrazione tra ricerca, ingegneria e hardware. Anche se non hanno un equivalente diretto di GPT-4, hanno le risorse per sviluppare tecnologie simili per i loro dispositivi.