Header_news

IA sul lavoro: nuove opportunità, ma quali rischi?

15 Maggio 2025

Share

Il Ministero del Lavoro e delle Politiche Sociali ha avviato la stesura delle “Linee Guida per l’Implementazione dell’Intelligenza Artificiale (IA) nel Mondo del Lavoro” che si propongono di fornire a imprese, lavoratori, enti di formazione e intermediari un quadro chiaro e aggiornato sull’uso dell’IA nel mercato del lavoro, mettendo in evidenza opportunità e rischi, nel rispetto delle normative vigenti.

Le Linee guida del Ministero si collocano sulla scia delle linee guida pubblicate dalla Commissione europea il 4 febbraio 2025, volte a garantire l’applicazione coerente, efficace e uniforme del Regolamento UE 2024/1689 (IA Act) e che contengono gli orientamenti relativi alle pratiche di IA ritenute inaccettabili a causa dei loro potenziali rischi per i valori e i diritti fondamentali europei. Il documento del Ministero, che sarà oggetto di dialogo anche con le parti sociali, è stato posto in pubblica consultazione fino al prossimo 21 maggio attraverso il Portale ParteciPA.

Viene sottolineato dal Ministero come l’IA può rappresentare un potente strumento di crescita e innovazione, ma la sua implementazione deve avvenire in modo responsabile e consapevole, garantendo la tutela dei lavoratori, la trasparenza nei processi decisionali e l’equità nell’accesso alle nuove tecnologie.

Particolari rischi derivano dai bias algoritmici (errori dovuti da assunzioni errate nel processo di apprendimento automatico), che possono introdurre discriminazioni nelle selezioni del personale, nelle valutazioni delle performance o nelle opportunità di carriera.

Diventa peraltro fondamentale garantire che l’IA venga adottata nel rispetto della privacy dei lavoratori, soprattutto quando sono analizzati dati sensibili, e che il suo addestramento non sia informato da stereotipi discriminatori.

A tal proposito, il Regolamento UE 2024/1689 all’art. 5  vieta una serie di pratiche che impiegano l’intelligenza artificiale capaci di generare un rischio inammissibile per i diritti delle persone. Detta noma comprende tra i propri divieti i sistemi che utilizzano tecniche subliminali che sfruttano le vulnerabilità di una persona fisica, le tecniche di social scoring , le valutazioni del rischio relative a persone fisiche al fine di valutare la probabilità che un individuo commetta un reato, lo scraping (estrazione automatica dai siti web) non mirato di immagini facciali da internet o da filmati di telecamere a circuito chiuso, i sistemi di categorizzazione biometrica e i sistemi di identificazione biometrica remota in tempo reale in spazi accessibili al pubblico.

Fra le pratiche vietate, dunque, la lett. c) dell’art. 5, menziona il cosiddetto social scoring, ossia la  “… immissione sul mercato, la messa in servizio o l’uso di sistemi di IA per la valutazione o la classificazione delle persone fisiche o di gruppi di persone per un determinato periodo di tempo sulla base del loro comportamento sociale o di caratteristiche personali o della personalità note, inferite o previste …”.

Il “social scoring” è un meccanismo, già in uso in alcuni stati, per cui le persone vengono valutate e classificate in base al loro comportamento sociale, con ricadute concrete sulla vita quotidiana.

Il Regolamento Europeo interviene in modo netto, vietando ogni sistema di AI che assegna punteggi basati su tratti personali o comportamenti sociali, se tali punteggi producono effetti negativi in ambiti non pertinenti. Il divieto si applica anche se il trattamento sfavorevole è “solo” sproporzionato rispetto al comportamento valutato. Un esempio emblematico può essere quello di un algoritmo che, monitorando i social network, assegna un punteggio basso a un utente in ragione delle sue interazioni online e, in base a questo punteggio, limita il suo accesso a un mutuo o a una polizza assicurativa, pur in assenza di qualsiasi collegamento tra i post pubblicati e il profilo di rischio economico.

La tutela non si ferma alle discriminazioni per età, etnia, genere, religione, ma si estende a qualsiasi trattamento ingiusto o penalizzante, anche solo in termini di maggiore controllo o sorveglianza. Il divieto non si applica a ogni forma di classificazione algoritmica, ma esclusivamente ai sistemi che generano effetti negativi pregiudizievoli o sfavorevoli per le persone fisiche o gruppi, in ambiti diversi da quelli in cui è stato originariamente calcolato il punteggio oppure generi un trattamento pregiudizievole o sfavorevole di determinate persone fisiche o di gruppi di persone che sia ingiustificato o sproporzionato rispetto al loro comportamento sociale o alla sua gravità”.

Tale precisazione è fondamentale per evitare un’applicazione eccessivamente restrittiva della normativa, ma allo stesso tempo apre a possibili ambiguità.

Tuttavia, l’assenza di effetti “dannosi” nel caso concreto e, quindi, il mancato perfezionamento della pratica di IA vietata ai sensi dell’art. 5, lett.c, non pregiudica affatto l’applicazione di altre disposizioni dello stesso AI Act o di altre fonti normative e, in primo luogo, del GDPR.

Il social scoring può intervenire anche nell’area del lavoro e, in particolare nell’ambito della selezione del personale. I sistemi IA, ad esempio, potrebbero estrapolare dati dai profili social dei candidati alla selezione e in tali situazioni potrebbe essere eccepita la   violazione del divieto proprio per l’utilizzo di dati ricavati dai social media, in cui l’attività dei candidati è finalizzata a coltivare relazioni sociali, affettive e, quindi, riguardanti comportamenti tenuti in contesti sociali diversi da quello lavorativo. Se un’azienda, ad esempio, usa un sistema AI per dedurre l’orientamento sessuale di un candidato a partire da una fotografia, o per ipotizzare le sue idee politiche per scopi pubblicitari, quella pratica è vietata. Allo stesso modo, qualunque tentativo di profilazione etnica o religiosa che parta da immagini biometriche, anche in assenza di un’intenzione discriminatoria manifesta, rientra nel divieto. Il rischio che si vuole evitare è quello di creare discriminazioni algoritmiche, apparentemente oggettive, ma in realtà basate su generalizzazioni e pregiudizi.

Un ulteriore esempio presentato direttamente dalle Linee guida emanate dalla Commissione europea al fine di agevolare l’interpretazione e applicazione dei divieti posti dall’art. 5 dell’AI Act riguarda il caso di un’azienda di ricerca e selezione del personale che utilizza un sistema di intelligenza artificiale per assegnare un punteggio ai disoccupati sulla base di un colloquio e di una valutazione basata sull’intelligenza artificiale incorre nel divieto qualora il punteggio attribuito ai disoccupati tramite il sistema sia legato anche a variabili raccolte o dedotte da dati e contesti senza apparente connessione con lo scopo della valutazione, come lo stato civile, i dati sanitari relativi a  malattie croniche, le dipendenze, ecc.

Altra ipotesi a rischio è individuabile nella prassi di attribuire dei punteggi ai lavoratori anche sulla base di giudizi espressi da clienti dell’azienda, prassi presente soprattutto nelle piattaforme digitali della gig economy.  Nelle suddette Linee guida viene operata una distinzione fra social scoring e valutazioni individuali degli utenti che valutano la qualità di un servizio reso, ad esempio, da un autista in una piattaforma di car-sharing online. Tali valutazioni, secondo le Linee guida, sono la mera aggregazione di punteggi umani individuali che non coinvolgono necessariamente l’IA, a meno che i dati non siano combinati con altre informazioni e analizzati dal sistema di IA per valutare o classificare gli individui in modo da soddisfare tutte le condizioni richieste per potere applicare l’articolo 5,  lett c), dell’AI Act.

Dunque, la valutazione delle azioni vietate richiederà una verifica caso per caso, tenendo debitamente conto della situazione specifica. Pertanto, gli esempi forniti nelle Linee Guida sono meramente indicativi e non pregiudicano la necessità di tale valutazione in ciascun caso.

Vuoi saperne di più?

Contattaci