Microsoft ha annunciato nuove funzionalità di sicurezza per l’intelligenza artificiale, puntando a rispondere alle crescenti preoccupazioni su sicurezza, privacy e affidabilità dell’IA. L’azienda chiama questa iniziativa “AI affidabile”, segnalando un impegno per uno sviluppo più responsabile della tecnologia.
Questo annuncio arriva in un momento in cui molte aziende stanno adottando soluzioni AI, portando sia opportunità che sfide. Le nuove funzionalità di Microsoft includono:
- Inferenza riservata per il servizio Azure OpenAI.
- Sicurezza GPU migliorata.
- Strumenti avanzati per valutare gli output generati dall’IA.
Una delle novità principali è un nuovo strumento di “correzione” in Azure AI Content Safety, progettato per affrontare il problema delle allucinazioni dell’IA, cioè i casi in cui l’IA produce informazioni errate. Sarah Bird, leader del progetto, ha spiegato che quando il sistema rileva una discrepanza, fornisce feedback che aiutano l’IA a migliorare la sua risposta nel secondo tentativo.
Microsoft sta anche migliorando la “sicurezza dei contenuti incorporati”, consentendo che i controlli di sicurezza vengano eseguiti direttamente sui dispositivi, anche offline. Questo è particolarmente importante per applicazioni come Copilot, che integra l’IA nel sistema operativo dei PC.
L’iniziativa di Microsoft riflette una crescente consapevolezza sui rischi associati ai sistemi di IA avanzati e la volontà di posizionarsi come leader nello sviluppo di tecnologie responsabili. Tuttavia, implementare queste funzionalità presenta sfide, in particolare riguardo all’impatto sulle prestazioni.
Microsoft ha già avviato collaborazioni con il Dipartimento dell’Istruzione di New York e quello dell’Australia Meridionale per sviluppare strumenti didattici basati sull’IA, utilizzando le nuove funzionalità di sicurezza.
Con queste nuove misure, Microsoft potrebbe stabilire un nuovo standard per il settore tecnologico. Mentre le preoccupazioni etiche e di sicurezza sull’IA aumentano, le aziende che dimostrano un impegno per uno sviluppo responsabile dell’IA potrebbero ottenere un vantaggio competitivo.
Tuttavia, esperti avvertono che queste funzionalità non risolvono tutti i problemi legati all’IA. La rapida evoluzione della tecnologia richiede vigilanza e innovazione continua nel campo della sicurezza.
L’iniziativa “Trustworthy AI” di Microsoft è un passo significativo per affrontare le preoccupazioni riguardo all’adozione dell’IA. Anche se non può eliminare completamente i timori sulla sicurezza, dimostra che i principali attori della tecnologia stanno prendendo sul serio queste questioni.