Non è un segreto che l’intelligenza artificiale, in particolare i Large Language Models (LLM), possa occasionalmente produrre risultati imprecisi o addirittura potenzialmente dannosi. Queste anomalie, conosciute come “allucinazioni dell’intelligenza artificiale”, rappresentano una preoccupazione significativa per le aziende che stanno valutando l’integrazione dei LLM nei loro processi, a causa dei rischi finanziari, reputazionali e legali che comportano.

Affrontando questa preoccupazione fondamentale, Vianai Systems, un leader nell’ambito dell’intelligenza artificiale centrata sull’essere umano, ha presentato la sua ultima soluzione: il toolkit veryLLM. Questo toolkit open source mira a fornire sistemi di intelligenza artificiale più affidabili, trasparenti e trasformativi per le aziende.

Le allucinazioni dell’intelligenza artificiale, che vedono i LLM generare contenuti falsi o offensivi, sono state una sfida persistente. Molte aziende, temendo le possibili conseguenze, hanno evitato di adottare i LLM nei loro processi aziendali centrali. Tuttavia, con il lancio di veryLLM sotto la licenza open source Apache 2.0, Vianai mira a instillare fiducia e promuovere l’adozione dell’intelligenza artificiale fornendo una soluzione a questi problemi.

Fondamentalmente, il toolkit veryLLM permette una comprensione più approfondita di ogni frase generata dai LLM. Ciò avviene attraverso una serie di funzionalità che classificano le dichiarazioni in base alle fonti di contesto utilizzate per addestrare i LLM, come Wikipedia, Common Crawl e Books3. Con il rilascio iniziale di veryLLM basato principalmente su una selezione di articoli di Wikipedia, questo approccio fornisce una base solida per il processo di verifica del toolkit.

Il toolkit è stato progettato per essere flessibile, modulare e compatibile con tutti i LLM, semplificandone l’implementazione in qualsiasi applicazione che fa uso di tali modelli. Questo contribuirà a migliorare la trasparenza delle risposte generate dall’intelligenza artificiale e supporterà sia i modelli linguistici attuali che quelli futuri.

Il Dottor Vishal Sikka, Fondatore e CEO di Vianai Systems e consulente presso il Center for Human-Centered Artificial Intelligence dell’Università di Stanford, ha sottolineato l’importanza delle allucinazioni dell’IA come una seria minaccia per le imprese e ha dichiarato: “Le allucinazioni legate all’intelligenza artificiale rappresentano seri rischi per le aziende, frenando la loro adozione di questa tecnologia. Come studioso di intelligenza artificiale con molti anni di esperienza, è evidente che non possiamo permettere che questi potenti sistemi siano oscuri riguardo alle basi dei loro risultati. Dobbiamo risolvere questo problema con urgenza. La nostra libreria veryLLM rappresenta un primo passo importante verso l’instaurazione di trasparenza e sicurezza nei risultati dei LLM, una trasparenza che sviluppatori, data scientist e fornitori di LLM possono utilizzare nelle loro applicazioni di intelligenza artificiale. Siamo entusiasti di offrire queste funzionalità e molte altre tecniche anti-allucinazioni alle aziende di tutto il mondo”.

Inoltre, hila™ Enterprise, un altro prodotto di spicco di Vianai, si concentra sull’implementazione precisa e trasparente di soluzioni linguistiche aziendali significative in settori come finanza, contratti e legge. Questa piattaforma integra il codice veryLLM insieme ad altre tecniche avanzate di intelligenza artificiale, riducendo al minimo i rischi associati all’uso dell’IA e consentendo alle aziende di sfruttare appieno il potenziale di trasformazione di sistemi di intelligenza artificiale affidabili.

Vianai Systems è una pioniera nell’ambito dell’intelligenza artificiale orientata all’essere umano e vanta una clientela che include alcune delle aziende più rispettate al mondo. L’eccezionale competenza del loro team nella creazione di piattaforme aziendali e applicazioni innovative li distingue, e il loro sostegno proviene da alcuni dei più visionari investitori a livello mondiale.

Di Fantasy