La società di ricerca sull’IA Anthropic ha chiesto al National Institute of Standards and Technology (NIST) un finanziamento di 15 milioni di dollari per supportare gli sforzi dell’agenzia per la misurazione e gli standard dell’IA. Il NIST ha lavorato per anni alla misurazione dei sistemi di intelligenza artificiale e allo sviluppo di standard tecnici, tra cui il Face Recognition Vendor Test e il recente AI Risk Management Framework.
L’idea di Anthropic di richiedere finanziamenti federali per il NIST è stata descritta come “pronta per la pala” a disposizione dei responsabili politici, in contrasto con altre proposte più ambiziose come la richiesta di una “agenzia internazionale” per l’intelligenza artificiale, proposte legislative per un “regime normativo” dell’IA e una lettera aperta per “sospendere” temporaneamente lo sviluppo dell’IA.
Il cofondatore di Anthropic, Jack Clark, ha spiegato che un aumento dei finanziamenti federali per il NIST è uno dei modi migliori per incanalare il sostegno per l’innovazione tecnologica sicura. Se il NIST è finanziato meglio, ci sarà un lavoro più solido sulla misurazione e la valutazione in un luogo che riunisce naturalmente governo, università e industria. Inoltre, ci saranno più persone coinvolte nella conversazione sull’IA, il che migliorerà la discussione.
Clark ha sottolineato che la ricerca sull’IA è passata dall’essere prevalentemente un esercizio accademico a un esercizio industriale, il che significa che molti sistemi costosi sono guidati da questa minoranza di attori, che sono per lo più nel settore privato. Pertanto, creare un’infrastruttura governativa che offra al governo e al mondo accademico un modo per addestrare i sistemi alla frontiera e costruirli e comprenderli da soli è un modo importante per migliorare la situazione.
Infine, Clark ha affermato che la ricerca sul comportamento di output dei sistemi di intelligenza artificiale, sull’interpretabilità e su come dovrebbe essere il livello di trasparenza è importante. Un posto come il NIST potrebbe aiutare a creare un set di dati pubblici standard di riferimento, che tutti finiscono per utilizzare come parte del sistema o come input nel sistema.
In generale, Clark ha dichiarato di essere entrato nel lavoro sulla politica dell’IA perché ne vedeva la crescente importanza come una “gigantesca conversazione a livello di società”. Lavorare con i responsabili politici riguarda principalmente la comprensione delle domande che hanno e il tentativo di essere utili, ha aggiunto.
Clark ha anche affermato che le domande dei responsabili politici riguardano spesso questioni come “Dove si posizionano gli Stati Uniti con la Cina sui sistemi di intelligenza artificiale?” o “Cos’è l’equità nel contesto dei sistemi di testo di intelligenza artificiale generativa?”. Pertanto, rispondere a queste domande e cercare di incontrare i responsabili politici dove si trovano è essenziale per essere utili e poi utilizzare la conversazione per parlare di questioni più ampie.
Infine, Clark ha affermato che è essenziale che l’IA sia sviluppata in modo sicuro e responsabile, e che il finanziamento del NIST potrebbe essere un passo importante verso questo obiettivo. Con l’aumento della velocità e della portata dell’innovazione dell’IA e dei relativi rischi, è necessario che governi, industrie e accademici collaborino per garantire che l’IA sia sviluppata in modo sicuro e responsabile per il bene della società.