Microsoft ha sviluppato nuove soluzioni ibride per contrastare gli attacchi “prompt injection” nei sistemi di intelligenza artificiale. Queste soluzioni, parte del sistema di intelligenza artificiale Azure, comprendono strumenti come il “rilevamento della radicatezza” e gli “scudi tempestivi”, progettati per identificare e prevenire tentativi dannosi di manipolare i modelli di intelligenza artificiale.
Inoltre, Microsoft sta per lanciare nuovi messaggi di sicurezza per guidare il comportamento dei modelli verso risultati sicuri e responsabili. Questi messaggi aiuteranno a valutare la sicurezza delle app, esponendo la vulnerabilità agli attacchi di jailbreak e ai contenuti rischiosi.
L’obiettivo di Microsoft è migliorare la sicurezza nell’utilizzo dell’intelligenza artificiale generativa, affrontando rischi come l’inserimento di prompt dannosi e l’iniezione tempestiva di dati. Queste nuove funzionalità offrono protezione contro vettori di attacco emergenti e monitoraggio in tempo reale per bloccare contenuti o utenti offensivi.
Microsoft è impegnata a promuovere un’intelligenza artificiale responsabile e sicura. Questi strumenti sono il risultato di approfondite ricerche e progressi tecnologici, alimentati dall’esperienza dell’azienda con prodotti come Copilot e dall’investimento multimiliardario in OpenAI.
In sintesi, le nuove soluzioni di Microsoft aiutano a proteggere gli utenti dagli attacchi dannosi e a migliorare l’affidabilità delle app di intelligenza artificiale generativa. La società continua a lavorare per garantire un utilizzo sicuro e responsabile dell’intelligenza artificiale in tutti i settori.