Il browser web Opera sta conducendo test per integrare il supporto locale dei modelli linguistici di grandi dimensioni (LLM) direttamente sui dispositivi. Questo rappresenta il primo controllo LLM incorporato in un browser, consentendo l’accesso alle funzionalità di intelligenza artificiale generativa senza dipendere dal cloud per l’elaborazione dei dati. Questa caratteristica funge da alternativa al suo assistente AI generativo chiamato Aria.
I modelli di intelligenza artificiale generativa supportati localmente includono Gemma di Google, Mixtral di Mistral AI, Llama di Meta e Vicuna, un modello basato su Llama 2. Utilizzando LLM locali, i dati degli utenti sono mantenuti sui loro dispositivi, consentendo loro di sfruttare l’intelligenza artificiale generativa senza dover inviare informazioni a un server esterno.
Questa nuova funzionalità è parte del programma AI Feature Drops di Opera. Per provarlo, è necessario avere una versione aggiornata di Opera Developer per scaricare il LLM desiderato, il quale potrebbe richiedere da due a dieci gigabyte di spazio di archiviazione. Una volta scaricato, l’LLM locale sostituirà Aria fino a quando l’utente deciderà di tornare indietro.
Krystian Kolondra, vicepresidente esecutivo di Opera, ha spiegato che l’introduzione del supporto LLM sul dispositivo fa parte dell’impegno continuo dell’azienda nello sviluppo dell’intelligenza artificiale. Questo progetto segue il lancio del browser Opera One orientato all’intelligenza artificiale lo scorso anno e dimostra l’adozione rapida di strumenti sempre più avanzati nell’ambito dell’intelligenza artificiale generativa. Aria è uno dei risultati principali di questa strategia, funzionando come assistente per la ricerca di informazioni, riassunti del contenuto web e composizione di testi. Gli aggiornamenti successivi hanno migliorato le capacità di scrittura di Aria e hanno permesso agli utenti di personalizzarne lo stile di scrittura.