Nel contesto urbano di Roma, dove questioni come la micro-criminalità, la devianza giovanile e le collusioni tra economia legale e illegale risultano sempre più complesse, emerge un’innovazione che punta a incidere sul modo in cui si analizza e si governa la sicurezza: il progetto “Socrates”, che introduce strumenti di intelligenza artificiale (IA) nella prevenzione e nell’analisi del crimine.
Questo progetto rappresenta non soltanto una novità tecnologica, ma anche un terreno dove si intrecciano speranze, dilemmi etici e interrogativi sul ruolo della macchina nell’ambito della giustizia urbana.
L’idea fondante del progetto è semplice nella sua formulazione: utilizzare algoritmi, modelli predittivi e sistemi di incrocio dati per identificare aree, fenomeni e dinamiche criminali con maggiore tempestività e precisione rispetto ai metodi tradizionali. In una regione come il Lazio, definita «territorio a criminalità mista» dove coesistono microdelitti, traffici e penetrazioni di organizzazioni mafiose, l’utilizzo dell’IA promette di dare un contributo operativo significativo.
Tuttavia, il fatto che una macchina – o piuttosto un sistema informatizzato di analisi – venga chiamata a “misurare” il crimine solleva questioni ben più profonde di quelle tecniche. In primo luogo, bisogna considerare che un sistema di IA non opera in un vuoto: i dati che gli vengono forniti, le variabili che vengono selezionate, le metriche che si considerano, sono frutto di scelte umane. Nel passaggio dalla realtà urbana – con le sue complessità e sfumature – al modello algoritmico, si corre il rischio che le dimensioni più sottili della devianza o della marginalità restino invisibili. Così, se il sistema “vede” soprattutto i numeri dei reati denunciati, potrebbe non cogliere i segnali di allarme che non entrano nella statistica ufficiale. E ciò può significare che l’agire della macchina rafforzi una lettura limitata della realtà anziché ampliarla.
In secondo luogo, la diffusione di strumenti predittivi per la sicurezza urbana richiama la questione della trasparenza e della responsabilità: se un algoritmo suggerisce che una certa zona è “ad alto rischio”, quali saranno le conseguenze operative? Interventi più pesanti delle forze dell’ordine? Maggiore sorveglianza? E come si bilancia tutto ciò con i diritti dei cittadini, con la presunzione d’innocenza e con l’equità del trattamento? Non basta che la macchina funzioni bene: occorre che i processi che ne scaturiscono siano giusti, proporzionati, controllabili.
Un ulteriore elemento di riflessione riguarda il concetto di “welfare criminale”, ovvero delle politiche sociali e preventive che accompagnano l’azione repressiva. Se il progetto Socrates costituisce uno strumento potente per l’analisi, la vera sfida sarà che dalla rilevazione si passi all’intervento: non solo nella repressione, ma nella prevenzione, nel sostegno alle aree fragili, nella mitigazione delle cause che generano violenza e illegalità. In questo senso, l’intelligenza artificiale può essere un motore, ma non può sostituire la dimensione relazionale, educativa, comunitaria. Non è sufficiente “calcolare” il rischio: bisogna “abbatterlo” insieme con la città, le comunità, i servizi sociali.
Infine, va considerato che la sperimentazione di un sistema come Socrates può avere un forte valore simbolico: indica che la tecnologia approda anche ai problemi più radicati, che le amministrazioni e le istituzioni cercano strade nuove per governare la complessità urbana. Ma contemporaneamente impone che la società civile, gli operatori, i cittadini siano parte attiva: la fiducia nel sistema, la conoscenza delle sue logiche, la partecipazione alle decisioni diventano elementi centrali perché l’adozione dell’IA non generi distacco, ossia “i dati che decidono al posto nostro”.
Il progetto Socrates a Roma rappresenta una frontiera della “governance urbana assistita dalla macchina”. È un’opportunità reale per migliorare l’analisi dei fenomeni criminali e per rendere più efficaci le politiche di prevenzione. Ma è anche un banco di prova per la collettività: perché l’intelligenza artificiale, quando entra nel campo della giustizia e della sicurezza, non è solo questione di bit e algoritmi. È questione di democrazia, di trasparenza, di diritti e responsabilità.
