Negli ultimi anni, le città intelligenti sono diventate sempre più dipendenti da sistemi tecnologici avanzati che gestiscono infrastrutture, servizi pubblici e processi decisionali quotidiani. Dal regolare il flusso del traffico con semafori adattivi, alla gestione dinamica delle reti energetiche, fino all’assegnazione automatizzata di alloggi, sussidi o benefici sociali, i sistemi basati su intelligenza artificiale (AI) elaborano enormi quantità di dati provenienti da cittadini, veicoli, sensori e infrastrutture per rendere la vita urbana più efficiente e reattiva. Tuttavia, questa crescente automazione ha messo in luce un problema profondo: la fiducia dei cittadini nelle decisioni prese da algoritmi che nessuno può realmente ispezionare o comprendere. Le persone cominciano a chiedersi come vengono raccolti, combinati e utilizzati i loro dati, mentre gruppi attivisti e regolatori sollevano dubbi sulla possibile presenza di pregiudizi o discriminazioni nei processi decisionali “black box” che caratterizzano molti sistemi di AI contemporanei.
La sfida non riguarda solo l’efficienza tecnologica ma la legittimità e l’accettabilità sociale. I cittadini non vogliono più semplici assicurazioni verbali o report superficiali: vogliono prove verificabili che le decisioni automatiche siano giuste, conformi alle leggi, rispettose della privacy e dei diritti fondamentali. In altre parole, desiderano la possibilità di verificare le decisioni, non soltanto di fidarsi a prescindere. È qui che entra in gioco un concetto innovativo, quello della “città verificabile”, basato su Zero-Knowledge Machine Learning (ZKML), una tecnologia emergente che promette di colmare il divario tra automazione urbana e fiducia pubblica.
Lo ZKML si fonda su un principio crittografico chiamato “zero-knowledge proof”, che permette di dimostrare la veridicità di un’affermazione senza rivelare le informazioni sensibili sottostanti. In un contesto urbano, questo significa che un residente potrebbe dimostrare di essere idoneo per un determinato servizio o sussidio senza dover condividere dati personali come reddito, posizione o identità. Allo stesso modo, un modello di AI può generare non solo una predizione o una decisione, ma anche una prova crittografica che attesta che tale decisione è stata presa seguendo regole prestabilite, senza utilizzare dati sensibili né violare norme di equità o regolamentazioni vigenti. In questo modo, lo ZKML trasforma modelli opachi in sistemi verificabili, rendendo possibile che cittadini, auditor e autorità di controllo possano confermare l’adeguatezza di un processo automatico senza accedere ai dati riservati.
Una città verificabile non è solo un concetto astratto, ma una visione concreta di come l’infrastruttura tecnologica urbana possa essere ripensata per restituire fiducia. Nel modello architetturale proposto, i dispositivi a livello periferico — come sensori del traffico, contatori intelligenti o terminali di servizio pubblico — eseguono modelli di machine learning e generano prove crittografiche insieme alle loro decisioni. Queste prove vengono poi raccolte da una piattaforma centrale che ne verifica la validità e le conformità alle politiche e alle leggi applicabili, senza necessità di immagazzinare o trasmettere i dati grezzi. Uno strato di integrità mantiene registri immutabili delle prove, permettendo verifiche indipendenti anche a regolatori, tribunali o organizzazioni civiche. Interfacce intuitive rivolte ai cittadini traducono queste prove tecniche in garanzie comprensibili, mostrando quali processi sono verificabili e in che modo essi rispettano criteri di equità, privacy e legalità.
Il risultato è che la città non appare più come un ecosistema di decisioni opache ma come una struttura trasparente e responsabile: ogni processo automatizzato può essere controllato senza compromettere la riservatezza dei dati individuali. In ambiti come la gestione del traffico, lo ZKML può dimostrare che gli algoritmi regolano il flusso veicolare senza penalizzare in modo sproporzionato determinati gruppi socio-economici. Nei servizi di sicurezza pubblica, la tecnologia consente di attestare che attributi sensibili come razza o religione non sono stati utilizzati nei modelli predittivi. E nei programmi sociali, la verifica crittografica dell’idoneità protegge sia la privacy dei residenti sia l’integrità del sistema di erogazione dei benefici.
Naturalmente, adottare lo ZKML su larga scala comporta sfide significative. La generazione di prove crittografiche richiede risorse computazionali e può introdurre latenza, mentre l’integrazione con infrastrutture legacy non progettate per la verificabilità richiede pianificazione e investimenti. Occorre anche educare il pubblico e aggiornare normative e contratti pubblici per sostenere l’adozione di standard di verifica. Tuttavia, con un approccio graduale e progetti pilota mirati, le città possono iniziare a costruire fiducia attraverso risultati tangibili, mostrando non solo che i sistemi sono “smart” ma anche che sono giusti, sicuri e verificabili.
