L’intelligenza artificiale sta entrando con sempre maggiore continuità nei processi produttivi e organizzativi, e per questo il suo utilizzo deve essere letto anche alla luce della disciplina sulla salute e sicurezza sul lavoro. In Italia il riferimento resta il Dlgs 81/2008, che all’art. 28 impone di valutare tutti i rischi per la sicurezza e la salute dei lavoratori, senza escludere quelli che possono derivare dall’introduzione di nuovi strumenti digitali, sistemi automatizzati e modelli decisionali assistiti da algoritmi.
Su questo quadro nazionale si innesta il regolamento UE 2024/1689, cioè l’AI Act, che introduce un approccio basato sul rischio e stabilisce regole differenziate per i sistemi di intelligenza artificiale, con particolare attenzione a quelli che possono incidere su sicurezza, diritti fondamentali e organizzazione del lavoro. In parallelo, il legislatore italiano è intervenuto con la legge 23 settembre 2025, n. 132, mentre il Ministero del lavoro ha adottato con decreto n. 180 del 17 dicembre 2025 le Linee guida per l’implementazione dell’intelligenza artificiale nel mondo del lavoro, finalizzate a promuovere un’adozione consapevole della tecnologia, tutelando i diritti dei lavoratori e garantendo conformità normativa.
Intelligenza artificiale tra prevenzione, dati e controllo umano
L’intelligenza artificiale può offrire un contributo importante alla prevenzione, perché consente di passare da una logica solo reattiva a una più predittiva. La notizia richiama proprio questo cambio di prospettiva: l’IA può aiutare a leggere dati, individuare anomalie, anticipare criticità e supportare decisioni organizzative più tempestive. In concreto, le applicazioni più rilevanti riguardano il monitoraggio dei rischi, la manutenzione predittiva, l’analisi degli incidenti, l’uso di sensori intelligenti e dispositivi indossabili, oltre a sistemi capaci di segnalare in tempo reale situazioni potenzialmente pericolose.
Anche sul piano internazionale, il tema è ormai centrale: l’ILO ha evidenziato che sensori alimentati da IA, wearable e sistemi di monitoraggio intelligenti possono migliorare la rilevazione dei pericoli e rendere più proattiva la gestione della sicurezza. Ma accanto alle opportunità emergono rischi nuovi, che non possono essere sottovalutati: opacità delle decisioni automatizzate, errori dovuti a dati incompleti o distorti, eccesso di controllo, aumento dello stress, compressione dell’autonomia professionale e criticità in materia di privacy. Lo stesso quadro europeo chiarisce che alcune pratiche sono vietate, come il riconoscimento delle emozioni nei luoghi di lavoro, mentre altri sistemi usati per la gestione dei lavoratori possono rientrare nelle categorie ad alto rischio e richiedere cautele molto più rigorose.
Le ricadute su imprese, lavoratori e DVR
Le imprese devono quindi affrontare il tema con un approccio organizzativo e non soltanto tecnologico. L’introduzione di strumenti di intelligenza artificiale richiede prima di tutto una mappatura chiara degli utilizzi aziendali, per capire se si tratta di sistemi che supportano la sicurezza, di strumenti che incidono sulla gestione del personale oppure di soluzioni che producono effetti indiretti sulla salute dei lavoratori.
Da qui discende la necessità di aggiornare la valutazione dei rischi, verificare l’impatto su procedure, formazione, sorveglianza organizzativa e protezione dei dati, e definire modalità effettive di supervisione umana. Questo è un punto decisivo, perché l’impianto europeo insiste sul fatto che i sistemi ad alto rischio debbano poter essere controllati da persone adeguatamente formate, senza che la decisione finale venga delegata ciecamente all’algoritmo. Per i lavoratori, un uso corretto dell’IA può significare minore esposizione a compiti pericolosi, più supporto nelle attività ripetitive e maggiore capacità di prevenire eventi avversi.
Al contrario, un’adozione poco governata può accentuare pressioni, sorveglianza invasiva e rischi psicosociali. Per questo la partecipazione dei lavoratori e dei loro rappresentanti resta essenziale: il coinvolgimento nella progettazione e nell’attuazione dei sistemi digitali migliora trasparenza, fiducia e qualità della prevenzione. In sintesi, l’intelligenza artificiale può rafforzare la sicurezza sul lavoro solo se viene integrata in un sistema di regole, responsabilità e controlli coerente con il Dlgs 81/2008 e con il nuovo quadro europeo.


