Intelligenza artificiale e sicurezza: la guida ai nuovi rischi

Intelligenza artificiale e sicurezza: la guida ai nuovi rischi

L’intelligenza artificiale e sicurezza sul lavoro rappresentano un binomio che sta ridefinendo i paradigmi della prevenzione aziendale. L’introduzione di sistemi di IA nei processi produttivi non è solo un’evoluzione tecnologica, ma una trasformazione profonda che impone un ripensamento radicale della gestione della salute e della sicurezza.

Il dibattito scientifico e istituzionale, basato su una vasta raccolta di fonti europee e italiane, si sta concentrando sul superamento della semplice previsione degli impatti futuri per affrontare le conseguenze dirette sulla salute e l’incolumità dei lavoratori. Questo richiede un’integrazione complessa tra le tutele consolidate previste dal Dlgs 81/2008 e il nuovo quadro normativo, che mira a regolamentare l’uso dell’IA in base al livello di rischio.

L’obiettivo primario è garantire che l’innovazione tecnologica sia governata da un approccio che ponga la persona al centro. È fondamentale assicurare che le nuove tecnologie siano strumenti efficaci per migliorare la qualità e la sicurezza del lavoro, e non per introdurre nuove forme di precarietà, controllo o rischio. La sfida è passare dalla teoria alla pratica, analizzando come la digitalizzazione e l’interazione uomo-macchina modifichino concretamente le dinamiche di prevenzione quotidiane.

Intelligenza artificiale e sicurezza: la nuova valutazione dei rischi

L’introduzione dell’intelligenza artificiale impone un aggiornamento metodologico e sostanziale del documento di valutazione dei rischi (DVR). La valutazione non può più limitarsi ai rischi tradizionali di macchine e impianti, ma deve estendersi alle nuove frontiere tecnologiche e alle complesse interferenze che si creano tra uomo, ambiente e algoritmi.

Emergono nuovi rischi specifici, spesso difficili da identificare, legati alla logica progettuale dei sistemi di IA, che possono influenzare i ritmi di lavoro, il processo decisionale e l’autonomia operativa del lavoratore. È cruciale analizzare i rischi derivanti dalla manutenzione di sistemi intelligenti “opachi” (black box) e quelli legati alla collaborazione in spazi condivisi (cobot).

Oltre ai rischi fisici, un recente studio approfondisce il significativo impatto sul benessere psico-fisico. L’uso di sistemi di IA per la gestione algoritmica, l’assegnazione dei compiti e il controllo delle prestazioni può generare nuovi e intensi fattori di stress lavoro-correlato, ansia e tecnostress. Inoltre, la digitalizzazione sta consolidando nuovi modelli organizzativi, come il lavoro su piattaforma (ad esempio i riders), che pongono sfide inedite per l’applicazione delle tutele di sicurezza e salute, richiedendo un ripensamento completo delle misure di prevenzione.

Aspetti giuridici ed etici dell’IA sul lavoro

L’integrazione dell’intelligenza artificiale nei luoghi di lavoro solleva complesse questioni giuridiche ed etiche, che richiedono un’attenta analisi. La normativa sulla salute e sicurezza deve ora confrontarsi con i temi emergenti della tutela della privacy dei lavoratori (controllo e monitoraggio), della trasparenza degli algoritmi decisionali e, soprattutto, della corretta attribuzione delle responsabilità in caso di infortunio causato da una decisione autonoma della macchina.

Un recente studio approfondisce questi aspetti, sottolineando la necessità di un quadro normativo chiaro che definisca gli obblighi e i confini tra progettisti, fornitori e datori di lavoro. Al centro del dibattito vi è la creazione di un ecosistema digitale che sia sostenibile e che resti antropocentrico. L’intelligenza critica dell’uomo, sia nella fase di progettazione che in quella di impiego quotidiano, deve rimanere il fulcro decisionale. Questo è essenziale per garantire che le nuove tecnologie siano strumenti di miglioramento e non cause di nuove disuguaglianze, di discriminazione algoritmica o di un ritorno a organizzazioni del lavoro arretrate mascherate da innovazione tecnologica.

Formazione e partecipazione come strumenti di governo

Per governare efficacemente l’impatto dell’IA, un approccio verticistico, calato dall’alto, si rivela inadeguato e potenzialmente controproducente. È indispensabile un processo di gestione del cambiamento che coinvolga attivamente tutte le figure della prevenzione aziendale, in un’ottica di condivisione.

La partecipazione dei lavoratori e dei loro rappresentanti (RLS) diventa strategica e deve essere anticipata, non solo nella fase di valutazione dei rischi (come previsto dal Dlgs 81/08), ma anche in quella di progettazione, acquisto e implementazione delle nuove tecnologie. Questo coinvolgimento assicura che gli strumenti siano adatti alle reali esigenze operative.

Parallelamente, la formazione assume un doppio ruolo cruciale: da un lato, l’IA può essere un potente strumento per l’addestramento, ad esempio attraverso simulatori avanzati per la guida di carrelli elevatori; dall’altro, è necessaria una formazione mirata e specifica per i lavoratori che dovranno utilizzare e interagire con i sistemi di IA. In questo contesto, si rafforza il ruolo del medico competente, chiamato non solo a monitorare i nuovi rischi psico-fisici, ma a collaborare attivamente alla progettazione di un ambiente di lavoro sostenibile.

Come possiamo aiutarti?