Da quando le tecnologie basate sull’intelligenza artificiale hanno preso piede nelle imprese e nelle professioni, molte questioni si sono affacciate nel campo giuridico: responsabilità, trasparenza, limiti all’uso e tutela dei soggetti coinvolti. Con la Legge n. 132 del 23 settembre 2025, l’Italia ha deciso di fare un passo concreto verso una regolamentazione normativa, introducendo un obbligo informativo che entra in vigore il 10 ottobre 2025. Da quel giorno, coloro che impiegano sistemi di IA – siano essi datori di lavoro o professionisti – dovranno informare lavoratori, rappresentanze sindacali e clienti sull’uso di tali sistemi.
L’idea che emerge è semplice ma profonda: la tecnologia può supportare, ma non può operare nell’ombra. Il legislatore ha inteso che quando si usano strumenti decisionali o di valutazione automatizzata, chi subisce i loro effetti – il lavoratore o il cliente – ha il diritto di sapere. E ciò vale non solo per l’adozione di algoritmi avanzati ma anche per il modo in cui questi algoritmi sono programmati, quali dati utilizzano, e quali margini di correzione o controllo sono previsti.
Per le imprese, l’obbligo di informare non è facoltativo: chi adotta sistemi di IA nei rapporti di lavoro deve comunicare per iscritto tali utilizzi sia al lavoratore direttamente interessato che alle rappresentanze sindacali (RSA, RSU o – in mancanza – al sindacato territoriale). Questo obbligo si colloca nel più ampio contesto della normativa sulla trasparenza nei luoghi di lavoro, in particolare del D.Lgs. 104/2022 (cd. “Decreto Trasparenza”) che ha già previsto il diritto del lavoratore a essere informato sui criteri di valutazione automatizzata. La novità della legge 132/2025 è che rende vincolante e strutturato quell’obbligo nei casi in cui l’IA entri concretamente nelle dinamiche di assunzione, assegnazione di compiti, monitoraggio e valutazione delle prestazioni.
Il datore di lavoro dovrà dettagliare aspetti sostanziali: su quali elementi del rapporto incide l’algoritmo, qual è la logica che lo governa, quali dati e parametri sono stati utilizzati, quali misure sono state prese per prevenire errori o discriminazioni, e chi risponda in caso di necessità di intervento umano. Serve chiarezza su accuratezza, sicurezza, robustezza del sistema e – cosa non meno importante – sui possibili rischi discriminatori, anche impliciti.
I dipendenti potranno, a loro volta, richiedere informazioni per iscritto, e l’azienda avrà 30 giorni per rispondere. L’informativa deve essere consegnata al momento dell’instaurazione del rapporto di lavoro, comunque prima dell’effettivo inizio dell’attività, e dovrà essere mantenuta accessibile, con prove della comunicazione conservate per cinque anni dopo la fine del rapporto. Qualsiasi modifica rilevante al sistema (ad esempio variazioni di parametri o modalità) dovrà essere notificata con almeno 24 ore di preavviso.
Non va sottovalutato che, laddove l’IA sia usata come mezzo di controllo a distanza o di valutazione del comportamento, possono entrare in gioco anche le disposizioni dell’articolo 4 dello Statuto dei Lavoratori, che limita l’uso di sistemi di controllo nei luoghi di lavoro, richiedendo accordi sindacali o autorizzazioni specifiche.
Anche per chi esercita una professione intellettuale, la legge 132/2025 prevede obblighi già attivi dal 10 ottobre. In questo caso non si parla di imposizione punitiva forte, ma di un vincolo “soft” che si realizza attraverso l’inserimento di clausole deontologiche e l’obbligo di informare il cliente sull’uso di IA nel corso dell’incarico. Nel testo normativo, l’IA nelle professioni può essere usata solo come strumento di supporto, non per automatizzare la funzione centrale del professionista. Il compito dell’operatore è mantenere il controllo sul processo e sulle conseguenze dell’output prodotto.
In concreto, al cliente dovrà essere consegnata un’informativa chiara, semplice ed esaustiva al momento dell’incarico, che spieghi se e come l’IA verrà usata, quali sistema e quali limiti. Al momento non sono previste sanzioni specifiche, ma l’obbligo troverà posto nei codici deontologici dei vari ordini professionali, che potranno disciplinare le conseguenze in caso di inadempimento. Alcune organizzazioni (come Confprofessioni e l’Associazione Nazionale Forense) hanno già predisposto moduli informativi da allegare alle lettere di incarico per ottemperare sin da subito all’obbligo.
Un episodio recente – la sentenza n. 2120/2025 del Tribunale di Torino – ha mostrato come l’uso inadatto dell’IA in ambito legale possa già essere oggetto di sanzione: un avvocato è stato condannato per lite temeraria a causa di un atto difensivo generato in gran parte da un sistema automatizzato, che risultava confuso, privo di logica e sostanzialmente privo di coerenza. Questo caso sottolinea come il controllo e il filtro umano siano imprescindibili quando ci si affida all’IA in ambiti sensibili.
La legge 132/2025 configura un modello in cui l’intelligenza artificiale non è concepita come un fine autonomo, bensì come uno strumento da governare con responsabilità. L’obbligo informativo punta a promuovere una cultura di trasparenza, consapevolezza e tutela: non si tratta di ostacolare l’innovazione, ma di indirizzarla dentro binari che salvaguardino dignità, diritti e sicurezza delle persone. Il legislatore sembra voler ribadire che, anche se l’IA può aiutare, la valutazione di merito deve restare prerogativa umana.