DM n. 180 del 17 dicembre 2025: cosa cambia e come prepararsi
Con il Decreto ministeriale n. 180 del 17 dicembre 2025, il Ministero del Lavoro e delle Politiche Sociali ha adottato ufficialmente le “Linee guida per l’implementazione dell’Intelligenza Artificiale nel mondo del lavoro”, con l’obiettivo di promuovere un’adozione consapevole dell’IA, tutelando i diritti dei lavoratori, favorendo innovazione sostenibile e garantendo conformità normativa.
Non si tratta di un semplice documento “tecnologico”: le Linee guida nascono da una consultazione pubblica (aperta tramite la piattaforma della Presidenza del Consiglio) e mirano a diventare un riferimento operativo per imprese, professionisti e lavoratori, in un quadro europeo ormai strutturato (in primis AI Act e GDPR).
Perché è rilevante anche per le PMI
Il DM chiarisce che le Linee guida sono pensate come “indirizzi operativi e principi guida” e che potranno essere aggiornate nel tempo, anche per effetto dell’evoluzione tecnologica e normativa.
In altre parole: non è solo “buona prassi”, ma un tracciato istituzionale che le aziende potranno usare (e che i lavoratori potranno invocare) per valutare se l’adozione dell’IA è stata gestita in modo corretto, trasparente e rispettoso.
La “roadmap” in 6 fasi: dall’idea al monitoraggio continuo
Uno dei passaggi più pratici delle Linee guida è la proposta di una roadmap in sei fasi per accompagnare l’impresa lungo l’intero ciclo di adozione dell’IA, con un approccio di change management e attenzione agli impatti su organizzazione, competenze e cultura aziendale.
Le fasi indicate sono:
- – Valutazione preliminare e “AI readiness” (obiettivi, maturità digitale, contesto)
- – Pianificazione strategica e governance (ruoli, responsabilità, regole interne)
- – Sperimentazione / progetti pilota (test controllati, criteri di successo)
- – Implementazione e scaling (integrazione stabile nei processi)
- – Monitoraggio, risk management e miglioramento continuo (audit, performance, impatti)
- – Valorizzazione del capitale umano (formazione, riqualificazione, inclusione)
Impatto “legal & HR”: i punti che un datore di lavoro non può trascurare
Le Linee guida richiamano esplicitamente i principali “pilastri” normativi che entrano in gioco quando l’IA impatta su selezione, valutazione, monitoraggio e gestione del personale.
1) AI Act e sistemi “ad alto rischio”
Viene richiamato il Regolamento (UE) 2024/1689 (AI Act) e il fatto che alcuni sistemi utilizzati, ad esempio, per selezione, monitoraggio e valutazione del personale possono rientrare tra quelli a più alta attenzione regolatoria.
2) GDPR: stop alle decisioni “solo algoritmiche” (senza garanzie)
Le Linee guida collegano l’uso dell’IA al GDPR (in particolare ai limiti sulle decisioni esclusivamente automatizzate e alla necessità di tutele e supervisione umana).
3) Statuto dei Lavoratori, art. 4: attenzione al controllo a distanza
Nel mondo reale, molti strumenti “smart” (anche non dichiarati come IA) possono diventare strumenti di controllo: performance analytics, tracciamenti, scoring, sistemi di assegnazione turni con logiche predittive, ecc.
Le Linee guida richiamano lo Statuto dei Lavoratori (art. 4) come presidio centrale quando l’IA finisce per incidere su controllo/monitoraggio dell’attività.
4) Salute e sicurezza: possibile aggiornamento del DVR
Altro punto spesso sottovalutato: l’introduzione dell’IA può incidere su stress lavoro-correlato, ritmi, sorveglianza percepita, carichi cognitivi, e quindi richiedere valutazioni e misure organizzative. Le Linee guida segnalano che l’adozione di sistemi IA può comportare l’aggiornamento del DVR.
5) Trasparenza retributiva e algoritmi (Pay Transparency)
Il documento collega il tema anche alla Direttiva (UE) 2023/970 (in recepimento), evidenziando il tema informativo sui sistemi decisionali automatizzati nei processi HR, con focus su parità e non discriminazione.
Formazione e incentivi: la transizione (anche) si finanzia
Le Linee guida dedicano sezioni specifiche a competenze e strumenti economici. Tra i riferimenti operativi, viene citato il Fondo Nuove Competenze (3ª edizione) come leva per sostenere percorsi formativi, con focus su competenze digitali e IA.
Monitoraggio e aggiornamento: nasce (e conta) l’Osservatorio MLPS
Il DM stabilisce che le Linee guida sono soggette ad aggiornamento a cura dell’Osservatorio sull’adozione dei sistemi di IA nel mondo del lavoro (istituito dalla L. 23 settembre 2025, n. 132).
Le Linee guida prevedono un sistema di monitoraggio e revisione periodica, con evidenze, dati e consultazioni.
Checklist operativa per le aziende: 8 cose da fare “subito” (prima del tool)
- – Mappare dove l’IA è (o sarà) usata in HR/operations (anche software “non dichiarati” IA).
- – Classificare il rischio (logica AI Act) e definire le misure di mitigazione (supervisione umana, audit, trasparenza).
- – Definire una governance: ruoli, responsabilità, regole interne e approvazioni.
- – Verificare impatti privacy: base giuridica, minimizzazione, informative, e (se serve) valutazioni d’impatto coerenti.
- – Valutare art. 4 Statuto (e quindi accordo/autorizzazione, trasparenza e policy sugli strumenti).
- – Considerare impatti su salute e sicurezza e aggiornamento DVR quando necessario.
- – Avviare formazione e riqualificazione (anche usando strumenti come Fondo Nuove Competenze).
- – Preparare un piano di monitoraggio: audit periodici, canali di segnalazione criticità, miglioramento continuo.
Un “plus” utile: vademecum su IA generativa per PMI e professionisti
Nel documento è presente anche una appendice dedicata a un vademecum per l’uso consapevole dell’IA generativa nelle PMI e tra i professionisti: un segnale chiaro che il legislatore guarda non solo ai grandi sistemi HR, ma anche all’uso quotidiano di strumenti generativi in azienda (testi, report, customer care, marketing, ecc.).
Come possiamo supportare le aziende
Alla luce del DM 180/2025, molte imprese avranno bisogno di un approccio integrato legale–HR–organizzativo: mappatura dei processi, policy interne, governance, gestione art. 4, privacy e formazione. Le Linee guida, infatti, spingono verso un modello di adozione dell’IA responsabile, tracciabile e umano-centrico, dove l’innovazione diventa sostenibile perché non scarica i rischi su lavoratori e organizzazione, ma li governa.



