Amazon Web Services (AWS) sta introducendo una nuova API chiamata Guardrails API, progettata per consentire ai clienti di applicare barriere di protezione personalizzate ai modelli di intelligenza artificiale (AI). Prima disponibile solo su Amazon Bedrock, questa API ora permette agli utenti di collegare qualsiasi modello AI, incluso quelli di OpenAI, e di regolare parametri come l’uso di linguaggio offensivo o sessualizzato.
Vasi Philomin, vicepresidente di AWS per l’intelligenza artificiale generativa, ha spiegato che l’obiettivo di questa API è fornire ai clienti maggiore controllo e sicurezza nell’utilizzo di modelli AI, indipendentemente dal tipo di modello o dall’organizzazione aziendale. Questo è parte dell’impegno di AWS a offrire scelta e flessibilità nel campo dell’intelligenza artificiale.
Inoltre, AWS ha introdotto una nuova funzionalità chiamata Contextual Grounding all’interno della Guardrails API, che aiuta a verificare la correttezza delle risposte AI, riducendo significativamente il rischio di errori dovuti a interpretazioni errate dei dati aziendali.
Matt Wood, vicepresidente tecnologico di AWS, ha sottolineato che queste innovazioni consentono ai clienti di costruire sistemi più sofisticati utilizzando l’intelligenza artificiale generativa, riducendo al minimo il rischio di risposte erronee o inattendibili.
AWS ha anche ampliato le capacità di Bedrock per includere una memoria estesa per gli agenti AI, permettendo loro di ricordare informazioni tra le interazioni. Inoltre, è stata aggiunta la capacità di interpretazione del codice per analizzare dati complessi attraverso modelli AI.
Questi sviluppi mirano a fornire agli sviluppatori e alle aziende più strumenti e capacità per sfruttare appieno il potenziale dell’intelligenza artificiale generativa, in linea con la visione di AWS di trasformare le operazioni aziendali attraverso l’AI.