La necessità di standard condivisi per la comunicazione tra agenti autonomi è diventata sempre più evidente. Mentre protocolli come l’Agent-to-Agent (A2A) di Google e il Model Context Protocol (MCP) di Anthropic hanno fatto passi significativi, un gruppo di ricercatori della Carnegie Mellon University ha proposto una nuova architettura: il Layered Orchestration for Knowledgeful Agents (LOKA). LOKA si distingue per la sua attenzione all’identità, all’etica e alla responsabilità degli agenti, mirando a creare un ecosistema di agenti AI interoperabili e affidabili.
Il cuore di LOKA è il concetto di “Universal Agent Identity Layer” (UAIL), che assegna a ciascun agente un identificativo decentralizzato e crittograficamente verificabile. Questo permette agli utenti e ad altri agenti di autenticare l’identità dell’agente, garantendo trasparenza e fiducia nelle interazioni. In un contesto in cui gli agenti operano in ambienti distribuiti e spesso sconosciuti, avere un’identità chiara e verificabile è fondamentale per prevenire abusi e garantire la sicurezza.
LOKA adotta un’architettura a strati che definisce chiaramente le funzioni e le responsabilità di ciascun componente:
- Identità: Ogni agente possiede un identificativo unico e verificabile, basato su standard come i Decentralized Identifiers (DIDs).
- Comunicazione: Gli agenti possono scambiarsi messaggi semanticamente ricchi, comprendenti intenzioni e compiti da svolgere.
- Etica: Un framework decisionale etico consente agli agenti di comportarsi in modo responsabile, adattandosi a vari standard etici a seconda del contesto.
- Sicurezza: La crittografia resistente ai quantum garantisce la protezione dei dati e delle comunicazioni tra gli agenti.
Questa struttura stratificata consente a LOKA di affrontare in modo sistematico le sfide dell’interoperabilità tra agenti AI, fornendo un quadro coerente per la loro integrazione in ecosistemi complessi.
Una delle innovazioni principali di LOKA è l’integrazione di un protocollo di consenso etico decentralizzato (DECP). Questo permette agli agenti di prendere decisioni in modo condiviso, basandosi su principi etici comuni, ma adattabili al contesto specifico. Inoltre, LOKA enfatizza la necessità di rendere gli agenti responsabili delle loro azioni, fornendo meccanismi per tracciare e verificare le decisioni prese. Questo è particolarmente importante in scenari in cui le azioni degli agenti possono avere impatti significativi su individui o comunità.
Sebbene LOKA operi come un’entità indipendente, si inserisce in un panorama di protocolli emergenti come A2A e MCP. Mentre A2A si concentra sull’interoperabilità tra agenti di diversi fornitori e MCP facilita l’accesso a dati e strumenti esterni, LOKA aggiunge un livello superiore, affrontando le questioni di identità, etica e responsabilità. In questo senso, LOKA non compete direttamente con questi protocolli, ma li integra, offrendo un framework più completo per la governance degli agenti AI.
L’adozione di LOKA potrebbe segnare un punto di svolta nella creazione di ecosistemi di agenti AI affidabili e responsabili. Fornendo un’infrastruttura che garantisce identità verificabili, decisioni etiche condivise e trasparenza nelle azioni, LOKA potrebbe facilitare l’integrazione degli agenti AI in una varietà di settori, dalla sanità all’istruzione, dalla finanza alla pubblica amministrazione. Tuttavia, la sua implementazione richiederà un impegno coordinato tra ricercatori, sviluppatori e regolatori per garantire che le sue linee guida siano adottate e rispettate a livello globale.