IA e medicina del lavoro rappresentano un binomio destinato a trasformare profondamente la gestione della salute e della sicurezza nei contesti professionali. L’introduzione di sistemi basati sull’intelligenza artificiale impone un aggiornamento del quadro normativo esistente, ponendo l’accento sulla necessità di integrare le nuove tecnologie con le tutele già previste. Il riferimento principale in Italia resta il Dlgs 81/2008, che affida al datore di lavoro la responsabilità della valutazione di tutti i rischi, inclusi quelli emergenti dalla digitalizzazione.
A questo si affianca il nuovo AI Act europeo, il primo regolamento al mondo sull’intelligenza artificiale, che classifica le applicazioni in base al livello di rischio (da minimo a inaccettabile), imponendo requisiti stringenti per i sistemi ad alto rischio, molti dei quali applicabili ai contesti lavorativi. Infine, l’impiego di algoritmi per la gestione del personale, specialmente se monitorano dati sanitari o biometrici, deve rispettare rigorosamente i principi del GDPR per la protezione dei dati personali.
Opportunità e rischi della IA e medicina del lavoro
L’adozione dell’intelligenza artificiale nei processi di medicina del lavoro apre a significative opportunità per l’innalzamento degli standard di sicurezza. I sistemi di IA possono analizzare enormi quantità di dati per identificare pattern e prevedere il rischio di infortuni o l’insorgenza di patologie professionali, permettendo interventi preventivi mirati. Strumenti come i dispositivi indossabili (wearables) possono monitorare in tempo reale i parametri vitali o posturali dei lavoratori in mansioni ad alto rischio, segnalando affaticamento o esposizioni pericolose.
Inoltre, l’IA può personalizzare i programmi di formazione sulla sicurezza, adattandoli alle specifiche esigenze del singolo lavoratore, e automatizzare compiti amministrativi, liberando risorse per il medico competente. Tuttavia, l’implementazione di queste tecnologie comporta rischi rilevanti. I sistemi algoritmici possono perpetuare o amplificare bias discriminatori, se addestrati su dati non rappresentativi.
La sorveglianza continua, sebbene finalizzata alla sicurezza, genera seri interrogativi sulla privacy e può indurre stress psicosociale, senso di controllo eccessivo e isolamento. Esiste anche il rischio di dequalificazione delle mansioni e di una ridotta autonomia decisionale dei lavoratori, gestiti da algoritmi.
Gli obblighi per aziende e medici competenti
L’integrazione dell’IA richiede un approccio proattivo da parte delle aziende e dei professionisti della sicurezza. Il datore di lavoro ha l’obbligo di aggiornare il documento di valutazione dei rischi (DVR), considerando specificamente i nuovi rischi introdotti dagli strumenti di intelligenza artificiale, da quelli fisici (interazione uomo-robot) a quelli psicosociali (controllo algoritmico, intensificazione dei ritmi).
Il medico competente assume un ruolo centrale: deve essere coinvolto in questa valutazione e nella gestione dei dati sanitari raccolti tramite le nuove tecnologie, garantendo la corretta finalità della sorveglianza sanitaria. È fondamentale assicurare la trasparenza dei sistemi: i lavoratori devono essere informati su come funzionano gli algoritmi, quali dati vengono raccolti e come vengono utilizzate le informazioni. Per garantire un’implementazione etica e sostenibile, è cruciale adottare un approccio antropocentrico, che preveda il coinvolgimento attivo dei lavoratori e dei loro rappresentanti nelle fasi di progettazione e implementazione.


