Fujitsu ha annunciato il lancio di due nuove tecnologie di fiducia AI per migliorare l’affidabilità delle risposte dei modelli di AI conversazionale. Le tecnologie di recente sviluppo includono una tecnica per rilevare allucinazioni nei modelli di intelligenza artificiale conversazionale e una tecnica sviluppata congiuntamente nel suo piccolo laboratorio di ricerca presso l’Università Ben Gurion per rilevare gli URL dei siti di phishing impiantati nelle risposte dell’IA attraverso attacchi avvelenanti che iniettano false informazioni.
La prima tecnologia, denominata “Tecnica di rilevamento delle allucinazioni per l’IA conversazionale”, si basa sull’osservazione che l’intelligenza artificiale conversazionale genera spesso informazioni errate per nomi e numeri propri e che i contenuti delle risposte tendono a differire con domande ripetute.
La tecnologia suddivide innanzitutto la risposta dell’intelligenza artificiale in tre parti (soggetto, predicato, oggetto, ecc.) e quindi identifica automaticamente le entità denominate all’interno della risposta. Come passo successivo, la tecnologia lascia vuote queste entità nominate e chiede ripetutamente all’intelligenza artificiale esterna di definire in modo più accurato queste espressioni specifiche.
Fujitsu ha effettuato un benchmark di questa tecnologia utilizzando dati aperti, incluso il WikiBio GPT-3 Hallucination Dataset e ha scoperto che potrebbe migliorare l’accuratezza del rilevamento (AUC-ROC) di circa il 22% rispetto ad altri sistemi all’avanguardia. metodi artistici per rilevare le allucinazioni dell’IA, come SelfCheckGPT.
La seconda tecnologia, denominata “Tecnica per rilevare gli URL di phishing per l’IA conversazionale”, sfrutta una tecnica sviluppata congiuntamente da Fujitsu e dall’Università Ben-Gurion del Negev presso il Fujitsu Small Research Lab istituito presso l’Università Ben-Gurion.
La tecnologia sfrutta la tendenza secondo cui entità ostili spesso attaccano un singolo tipo di modello di intelligenza artificiale e rileva dati dannosi elaborando le informazioni con vari modelli di intelligenza artificiale diversi e valutando la differenza nella logica alla base del risultato del giudizio.
La tecnologia può essere utilizzata non solo per il rilevamento di URL di phishing, ma anche per prevenire attacchi generali volti a ingannare i modelli di intelligenza artificiale che utilizzano dati tabulari e può quindi essere utilizzata anche per evitare attacchi ad altri servizi.
Il lancio di queste nuove tecnologie da parte di Fujitsu rappresenta un passo importante nello sviluppo di sistemi di intelligenza artificiale conversazionale più affidabili. Le tecnologie possono aiutare a proteggere gli utenti da informazioni errate o dannose e possono quindi contribuire a migliorare la sicurezza e l’affidabilità dell’intelligenza artificiale conversazionale.
In che modo le nuove tecnologie di Fujitsu contribuiranno a migliorare l’affidabilità dell’intelligenza artificiale conversazionale? Le nuove tecnologie di Fujitsu contribuiranno a migliorare l’affidabilità dell’intelligenza artificiale conversazionale in due modi:
- Riducendo il rischio di allucinazioni: La tecnica di rilevamento delle allucinazioni di Fujitsu può aiutare a identificare e correggere le risposte errate generate dall’intelligenza artificiale conversazionale. Ciò può aiutare a garantire che le risposte siano accurate e pertinenti.
- Migliorando la rilevazione degli attacchi avvelenanti: La tecnica di rilevamento degli URL di phishing di Fujitsu può aiutare a identificare e prevenire gli attacchi avvelenanti che possono essere utilizzati per indurre l’intelligenza artificiale conversazionale a generare risposte errate o dannose. Ciò può aiutare a proteggere gli utenti da informazioni errate o dannose.
In generale, le nuove tecnologie di Fujitsu rappresentano un importante passo avanti nello sviluppo di sistemi di intelligenza artificiale conversazionale più affidabili e sicuri.