Microsoft ha lanciato un nuovo strumento di sviluppo per contrastare il jailbreak dell’intelligenza artificiale generativa (AI) e rilevare le allucinazioni, con l’obiettivo di fermare la diffusione di false informazioni prima delle elezioni.
Il nuovo strumento, annunciato attraverso il blog ufficiale di Microsoft, è parte di Azure AI e mira a garantire la sicurezza e l’affidabilità delle applicazioni di intelligenza artificiale generativa. Tra le sue caratteristiche ci sono i “Prompt Shields”, che identificano e bloccano gli attacchi immediati prima che influenzino il modello, il “Groundedness Detection”, che individua le allucinazioni nell’output del modello, e i “Safety Systems”, che guidano il comportamento del modello verso risultati sicuri e responsabili.
Il rilascio di questo strumento è previsto a breve, con alcune funzionalità già disponibili come anteprime.
Sarah Bird, chief product officer di Microsoft per l’intelligenza artificiale responsabile, ha sottolineato che la maggior parte degli utenti non ha familiarità con gli attacchi sollecitati o i contenuti che incitano all’odio, ma che questo strumento può aiutare a identificare e mitigare tali problemi.
Il nuovo strumento di Microsoft mira anche a prevenire la creazione di deepfake e immagini storicamente imprecise di celebrità, che sono diventate una preoccupazione crescente. Inoltre, consentirà agli amministratori di sistema di individuare chi tenta di generare output non sicuri.
Questa funzione può essere applicata immediatamente a modelli come “GPT-4” e “Llama 2” offerti da Azure, mentre alcuni modelli open source richiedono specifiche manuali.
Questo annuncio arriva dopo che, a febbraio, 20 grandi aziende tecnologiche, inclusa Microsoft, hanno concordato di prendere misure congiunte per prevenire l’abuso elettorale dei contenuti generati dall’intelligenza artificiale. Tuttavia, secondo un sondaggio del Center for Countering Digital Hate (CCDH), le false informazioni legate alle elezioni rimangono una vulnerabilità, nonostante gli sforzi delle aziende tech.
Inoltre, sono emerse rivelazioni interne secondo cui Microsoft aveva problemi con l’intelligenza artificiale per la generazione di immagini, ma l’azienda sembra ora impegnata a risolverli.