È stato riportato che Apple ha inaugurato un laboratorio segreto di intelligenza artificiale (AI) in Svizzera, focalizzato sulla tecnologia dell’intelligenza artificiale generativa. Si è scoperto che Apple ha reclutato numerosi esperti di intelligenza artificiale, tra cui molti provenienti da Google, noti per aver sviluppato il modello multimodale immagine-testo più avanzato chiamato “MM1”, presentato a marzo.
Secondo quanto riportato dal Financial Times, dopo un’analisi di diversi anni di offerte di lavoro, profili dei dipendenti e documenti di ricerca, sono stati reclutati almeno 36 esperti di intelligenza artificiale da parte di Apple.
Si dice che Apple abbia aperto un laboratorio segreto a Zurigo, in Svizzera, per sostenere questa ricerca. Il team include membri provenienti da Google, Microsoft, Amazon e Meta, sotto la guida di John Gianandrea, che è entrato in Apple nel 2018 provenendo da Google. Tra questi, la maggior parte sembra provenire da Google.
È interessante notare che persino a Zurigo molti non sono a conoscenza dell’esistenza di questo istituto di ricerca. Sebbene la ricerca sia stata condotta in segreto, è diventata pubblica grazie all’articolo “MM1” pubblicato il mese scorso.
Anche se il modello MM1 non genera immagini, è noto per le sue eccezionali capacità nella comprensione e descrizione di immagini tramite linguaggio naturale (VQA) con soli 30 miliardi di parametri. Nei test, MM1 ha superato parzialmente sia il modello “GPT-4V” di OpenAI che “Gemini Ultra” di Google.
Inoltre, anziché un singolo modello, sono stati creati diversi modelli, ciascuno all’avanguardia per una specifica situazione, e sono stati combinati in un’unica architettura chiamata “Mixed Experts” (MoE). Questi modelli comprendono varianti con 3 miliardi di parametri (3B), 7 miliardi di parametri (7B) e 30 miliardi di parametri (30B).
Questo modulo ottimizzato per l’intelligenza artificiale su dispositivo è il focus di Apple e potrebbe essere presto integrato negli iPhone e in altri dispositivi, consentendo di leggere foto e generare descrizioni.
Apple prevede di fare una grande presentazione sull’intelligenza artificiale alla Worldwide Developers Conference (WWDC) di giugno.
Mentre il Large Language Model (LLM) basato su cloud che sarà collegato all’assistente vocale “Siri” utilizza i modelli di OpenAI o Google, Apple si concentra sullo sviluppo di modelli di intelligenza artificiale su dispositivo, come MM1.