Nel cuore della Corea del Sud, un’istituzione emerge con lo sguardo rivolto al futuro: l’ETRI, che nei giorni scorsi ha annunciato un passo audace e lungimirante. Non si tratta di un nuovo algoritmo o di hardware all’avanguardia, ma di qualcosa di più profondo: la guida verso la codificazione internazionale di principi fondamentali per la sicurezza e la fiducia nell’IA.
Tra le due innovazioni principali presentate, spicca l’AI Red‑Team Testing. Molto più di un semplice audit, questa metodologia – che l’ETRI propone all’interno dello standard ISO/IEC AWI TS 42119‑7 – prevede test intenzionalmente ostili per scoprire vulnerabilità nei sistemi IA. In pratica, si tratta di simulare attacchi reali: generative AI che forniscano informazioni false, bypass di protezioni progettate per tutelare l’utente, e scenari d’uso che rivelino i punti deboli prima che vengano sfruttati con intenti malevoli.
L’ETRI, in qualità di editor per questo standard in divenire, si occupa di definire procedure di test applicabili a settori critici come medicina, finanza e difesa, riflettendo la necessità di modelli IA affidabili in contesti in cui errori o manipolazioni possono avere conseguenze gravi.
Ma l’impegno dell’ETRI non si limita all’identificazione dei rischi: un altro traguardo fondamentale è la proposta del concetto di “Trustworthiness Fact Labels” (TFL). L’idea è semplice, eppure rivoluzionaria: fornire all’utente una sorta di “tabella nutrizionale” dell’IA, con informazioni chiare su affidabilità, robustezza, equità, spiegabilità e altri tratti essenziali.
Questo sistema di etichettatura – parte della serie di standard ISO/IEC 42117 – permetterà sia l’auto-dichiarazione da parte delle aziende sia la verifica da parte di terzi. E, in linea con l’attenzione crescente all’impatto ambientale, si pensa anche a includere indicatori come la carbon footprint dell’IA, riflettendo una visione in equilibrio tra tecnologia e responsabilità sociale.
Questa doppia sfida – test aggressivi per sicurezza e trasparenza per fiducia – non è un’operazione isolata. Fa parte di una strategia ambiziosa, che mira a posizionare la Corea del Sud non più come semplice seguace della tecnologia, ma come leader nella definizione delle regole globali dell’IA.
L’iniziativa si inserisce nell’orizzonte più ampio delle politiche nazionali di “Sovereign AI” e “AI G3 Leap”, con l’ETRI a fare da pilastro per lo sviluppo di tecnologie robuste, etiche e competitive sul piano internazionale.
L’ETRI non agisce da solo. È in corso la collaborazione con enti come la Seoul Asan Medical Center per sviluppare metodologie specifiche di red-team testing in ambito medico, accompagnata da workshop tecnici e challenge pratiche — che coinvolgeranno medici, esperti di sicurezza e cittadini — per mettere davvero alla prova i dispositivi IA sanitari.
Inoltre, è in atto una rete di collaborazione con grandi attori del settore come Naver, KT, LG AI Research, Upstage, e altri, al fine di costruire una base condivisa di standard e cooperazione internazionale
Per l’Europa e l’Italia, dove il concetto di “trustworthy AI” sta già plasmando le politiche (penso al Regolamento AI Act), l’approccio dell’ETRI è un segnale rilevante: la trasparenza non è solo un criterio regolatorio, ma un valore che va comunicato e reso accessibile.
Immaginare un mondo in cui un’etichetta sull’affidabilità dell’IA permetta al cittadino di scegliere con consapevolezza — esattamente come per i prodotti alimentari — è un passaggio fondamentale. Così come lo è lo sviluppo di test “adversariali” rigorosi per garantire che ciò che promette un’IA sia davvero ciò che consegna.