Quest’anno l’intelligenza artificiale sta diventando sempre più presente nelle grandi imprese. I sondaggi mostrano che sia i dirigenti che i lavoratori sono più ottimisti e interessati che mai a utilizzare gli strumenti di intelligenza artificiale. Negli ultimi sei mesi, l’introduzione di ChatGPT di OpenAI ha reso ancora più accessibile l’interazione con modelli linguistici di grandi dimensioni (LLM) grazie a un’interfaccia utente intuitiva.

Tuttavia, ci sono anche alcune preoccupazioni che sono emerse quando le aziende e i loro dipendenti hanno iniziato a sperimentare l’uso sicuro della generazione di intelligenza artificiale. Ad esempio, ci sono stati casi in cui i dipendenti di Samsung hanno condiviso informazioni riservate, o avvocati che hanno consultato ChatGPT solo per ricevere trucchi e casi giudiziari inventati da utilizzare nelle loro argomentazioni. Recentemente, un “chatbot del benessere” è stato messo offline dopo aver fornito risposte “dannose” relative a disturbi alimentari e dieta ad almeno un utente.

Fortunatamente, ci sono fornitori di software che stanno cercando di affrontare questi problemi. Uno di questi è Armilla AI, una società fondata da Dan Adamson, ex capo dello sviluppo software senior di Microsoft, Karthik Ramakrishnan, ex senior manager di Deloitte Canada, e Rahm Hafiz, ricercatore di PNL e appaltatore governativo. Insieme, vantano 50 anni di esperienza nell’ambito dell’intelligenza artificiale. La società è anche supportata dall’acceleratore di startup YCombinator.

Oggi, Armilla annuncia il lancio del suo nuovo prodotto: AutoAlign, una piattaforma web per ottimizzare modelli LLM open source popolari come LLaMA e Red Pajama, nonché LLM interni con interfacce HuggingFace, al fine di ridurre le risposte allucinate e dannose e di eliminare i pregiudizi.

“Questo strumento è stato progettato per i costruttori di strumenti che lavorano all’interno delle aziende o per loro”, afferma Adamson. “Non si tratta solo di utilizzare questi modelli in modo superficiale, ma di testarli e valutarli prima di implementarli all’interno dell’organizzazione o per i clienti.”

Adamson sottolinea che AutoAlign è una soluzione “low-code”, il che significa che può essere implementata da persone all’interno di un’azienda anche senza una grande competenza tecnica. Tuttavia, avverte che è utile avere una certa comprensione dei problemi legati all’IA generativa.

Lo strumento può essere installato su server cloud privati dell’organizzazione, dove può rimanere completamente interno o essere reso disponibile ai clienti, garantendo comunque la sicurezza delle informazioni personali identificabili (PII) e di altri dati sensibili attraverso la crittografia.

Adamson ha dimostrato diverse funzionalità di AutoAlign. In un esempio, ha mostrato un modello LLM open source che, quando interrogato con il testo “l’amministratore delegato era in anticipo a causa di…”, ha restituito una risposta che descriveva la persona come un “uomo alto e magro”.

Tuttavia, per le aziende che vogliono evitare l’utilizzo di un modello che assume che l’amministratore delegato sia di sesso maschile, AutoAlign consente all’utente di creare nuovi “obiettivi di allineamento”, come ad esempio risposte che non presuppongono il genere in base alla professione, ottimizzando così l’addestramento del modello per soddisfare questi obiettivi. Adamson ha mostrato come lo stesso modello, dopo essere stato ottimizzato con AutoAlign, restituisse la forma neutra “loro” invece di un pronome maschile quando interrogato con lo stesso testo.

In un’altra dimostrazione, Adamson ha mostrato l’effetto di AutoAlign su un modello che suggeriva la professione di una persona. Con la frase “mia figlia è andata a scuola per diventare un…”, il modello di base ha suggerito “infermiera”, mentre il modello ottimizzato con AutoAlign ha suggerito “dottore”.

La piattaforma consente inoltre alle organizzazioni di imporre limitazioni sui modelli LLM commerciali come ChatGPT-3.5 e 4 di OpenAI, che attualmente non possono essere modificati o riqualificati dalle aziende stesse.

Adamson ha dato un esempio di un noto “jailbreaking” che coinvolge l’inganno del modello per ottenere informazioni pericolose che vanno oltre le sue protezioni integrate. Ha affermato che AutoAlign può essere utilizzato per impedire ai modelli di fornire risposte dannose agli utenti. Ha mostrato come un utente possa indurre un modello a fornire istruzioni su come creare un’arma incendiaria come il napalm.

“Tuttavia, applicando i guardrail di AutoAlign per evitare contenuti dannosi, possiamo rilevare la risposta dannosa fornita dal modello LLM prima che venga mostrata all’utente e bloccarla con una risposta standard che ne spiega il motivo”, ha spiegato Adamson.

Adamson ha sottolineato che i guardrail di AutoAlign possono anche rilevare e prevenire le allucinazioni generate dall’IA nelle imprese. Ha mostrato come sia possibile impostare un guardrail per controllare le informazioni rispetto a Wikipedia o ad altre fonti, in modo da evitare che le allucinazioni siano presentate agli utenti finali.

Inoltre, Adamson ha affermato che i guardrail sono essenziali per mantenere sicure e protette le informazioni PII e altre informazioni proprietarie mentre si utilizzano modelli LLM pubblici e accessibili commercialmente.

“L’approccio dei guardrail consiste nell’avere un componente che si trova tra il modello e l’utente finale, che può modificare gli input o gli output o impedire che certi contenuti vengano visualizzati. Questo è particolarmente utile per le informazioni PII che non si desidera siano divulgate attraverso la rete”, ha spiegato Adamson.

Alcuni dei clienti di Armilla hanno già avuto la possibilità di testare AutoAlign, e l’azienda prevede di renderlo disponibile su base più ampia tramite un abbonamento annuale con un prezzo di “$ 10.000 e oltre”, a seconda del volume di dati e dei requisiti di implementazione specifici dei clienti.

Adamson ha rifiutato di rivelare quali organizzazioni stiano già utilizzando AutoAlign, citando accordi di riservatezza. Tuttavia, ha menzionato che Armilla ha lavorato principalmente con clienti nei settori dei servizi finanziari, delle risorse umane e dei media, oltre ad aziende di software per la generazione visiva per campagne di branding. Sebbene l’azienda sia originariamente concentrata in Nord America, sta espandendo la propria presenza anche nell’Unione Europea, e Adamson ha assicurato che il software è conforme al GDPR.

Di Fantasy