1. Introduzione

Lo scorso 1° dicembre 2024 è entrata in vigore la Direttiva (UE) 2024/2831 del 24 ottobre 2024 relativa al miglioramento delle condizioni di lavoro nel lavoro mediante piattaforme digitali e che gli Stati membri sono tenuti a recepire entro il 2 dicembre 2026.

La direttiva in esame si propone di migliorare, favorendo il dialogo sociale nonché l’informazione e la consultazione dei rappresentanti dei lavoratori, le condizioni di lavoro e il regime di protezione dei dati personali dei lavoratori che prestino la propria attività per il tramite di una piattaforma digitale secondo le direttrici di seguito riportate:

  • introduzione di misure che consentano di qualificare correttamente il rapporto di lavoro. Al riguardo, l’individuazione di principi e criteri in forza dei quali redimere la questione (insidiosa) che afferisce alla natura giuridica dei rapporti di lavoro è affidata a ciascuno Stato membro che, in sede di recepimento della direttiva in esame, delineerà un apposito disciplinamento in materia di situazione occupazionale (employment status) secondo le indicazioni di cui all’art. 4, par. 2, regolando altresì il regime di presunzione legale in forza del quale debba essere presunta l’esistenza di un rapporto contrattuale tra la piattaforma digitale e il lavoratore quando sia accertata la sussistenza di elementi fattuali sulla cui base è possibile riscontrare l’esercizio di un potere di direzione e controllo da parte della piattaforma stessa;
  • promozione dei principi di i) trasparenza – anche quando trattasi di attività di lavoro ‘transfrontaliera’ -, ii) equità e iii) responsabilità nella gestione algoritmica del lavoro, garantendo al contempo la tutela della salute e sicurezza dei lavoratori, la supervisione umana dei sistemi di monitoraggio e decisionali automatizzati e il riesame umano, perché possano essere discussi e chiariti fatti, circostanze e motivi correlati ad una decisione assunta dal sistema decisionale automatizzato o da questo sostenuta[1]. La direttiva in esame introduce dunque disposizioni volte a preservare i diritti e le condizioni di lavoro di coloro che svolgono un’attività di lavoro mediante una piattaforma digitale, esigendo che il funzionamento dei sistemi automatizzati decisionali e di monitoraggio sia governato (due diligence), intervenendo tempestivamente, ove necessario, sulle logiche che presiedono al loro funzionamento e imprimendo all’organizzazione di lavoro gli opportuni adattamenti e trasformazioni.

La direttiva trova applicazione con riferimento alle piattaforme digitali che organizzino un’attività di lavoro svolta nell’ambito territoriale dell’Unione europea, prescindendo dal luogo di stabilimento della piattaforma digitale stessa.

In via preliminare, è opportuno precisare che il presente approfondimento prende in esame principalmente le norme che concernono la gestione algoritmica, considerando altresì che, avvalendosi le piattaforme di lavoro digitali di sistemi di intelligenza artificiale, si è ritenuto opportuno portare in evidenza talune rilevanti ‘intersezioni’ con il regolamento (UE) 2024/1689 del 13 giugno 2024, recante regole armonizzate sull’intelligenza artificiale.

 

  1. Impianto definitorio (art. 2)

È stabilito che per ‘piattaforma di lavoro digitale’ debba intendersi una persona fisica o giuridica che, dotata di un’organizzazione propria del lavoro e impiegando sistemi di monitoraggio o decisionali automatizzati, offre, su richiesta del fruitore, un servizio che, almeno in parte, è fornito a distanza per mezzo di strumenti elettronici quali, ad esempio, un sito web o un’applicazione mobile.

L’organizzazione del lavoro comporta il ricorso ad un’attività di lavoro resa dal lavoratore a titolo oneroso, per via telematica o in luogo determinato.

Poiché una piattaforma digitale rientra nell’ambito d’applicazione della direttiva in esame, è opportuno precisare che per sistemi automatizzati di i) monitoraggio o ii) decisionali devono rispettivamente intendersi:

  • un sistema utilizzato per effettuare per mezzo di strumenti elettronici le attività di monitoraggio o di supervisione od ancora di valutazione dell’attività di lavoro svolta mediante la piattaforma digitale, anche raccogliendo dati personali;
  • un sistema impiegato per prendere o sostenere, tramite strumenti elettronici, decisioni che incidono significativamente sulle persone che svolgono un’attività di lavoro mediante la piattaforma digitale e, in particolare, sulle condizioni di lavoro. Trattasi, ad esempio, delle decisioni che condizionano l’assunzione del lavoratore, l’accesso di questi ad incarichi di lavoro e l’organizzazione del lavoro, la misura della retribuzione o del corrispettivo, la tutela della salute e sicurezza, l’orario di lavoro, l’accesso ad un programma formativo, la promozione o, più in generale, la situazione contrattuale, così come il licenziamento o la limitazione, sospensione o chiusura dell’account

L’impianto definitorio contempla inoltre le definizioni di:

‘lavoro mediante piattaforma digitale’, cioè il lavoro organizzato tramite una piattaforma di lavoro digitale e svolto nell’ambito territoriale dell’Unione europea da un individuo sulla base di un rapporto contrattuale tra la piattaforma di lavoro digitale – o un intermediario – e l’individuo, indipendentemente dal fatto che esista un rapporto contrattuale tra l’individuo o un intermediario e il destinatario del servizio;

‘lavoratore di piattaforma digitale’ (platform worker), intendendosi per tale il lavoratore che svolga la propria attività di lavoro sulla base di un contratto di lavoro (employment contract) o un rapporto di lavoro (employment relationship) instaurato con la piattaforma di lavoro digitale;

‘persona che svolge un lavoro mediante piattaforme digitali’ ossia il lavoratore che svolge un’attività di lavoro per il tramite di una piattaforma digitale, a prescindere dalla natura del rapporto contrattuale instaurato tra le parti interessate;

‘intermediario’, cioè la persona fisica o giuridica che, ‘al fine di rendere disponibile il lavoro mediante piattaforme digitali a una piattaforma di lavoro digitale o per mezzo di questa i) instaura un rapporto contrattuale con tale piattaforma di lavoro digitale e un rapporto contrattuale con la persona che svolge un lavoro mediante la piattaforma digitale oppure ii) rientra in una catena di subappalto tra tale piattaforma di lavoro digitale e la persona che svolge un lavoro mediante piattaforme digitali. In sede di recepimento della direttiva in esame, lo Stato membro adotterà misure atte a garantire che, quando una piattaforma di lavoro digitale si avvalga di intermediari, le persone che svolgono un lavoro mediante piattaforme digitali e che hanno un rapporto contrattuale con un intermediario beneficino dello stesso livello di protezione che la direttiva europea assicura ai lavoratori di una piattaforma di lavoro digitale.

 

  1. Gestione algoritmica e supervisione umana

Il Capo III della direttiva reca la disciplina in materia di gestione algoritmica (algorithmic management), introducendo:

  • limitazioni al trattamento dei dati personali effettuato mediante sistemi di monitoraggio e decisionali automatizzati, in considerazione del fatto che ‘non si può presumere che il consenso delle persone che svolgono un lavoro mediante piattaforme digitali al trattamento dei loro dati personali sia dato liberamente’, dal momento che sovente le persone che svolgono un lavoro mediante una piattaforma digitale ‘non hanno una reale libertà di scelta o non possono rifiutare o revocare il consenso senza pregiudicare il loro rapporto contrattuale, visto lo squilibrio di potere tra la persona che svolge un lavoro mediante piattaforme digitali e la piattaforma di lavoro digitale’;
  • l’obbligo di valutazione d’impatto sulla protezione dei dati;
  • obblighi d’informazione e di supervisione umana (human oversight) circa il funzionamento e gli impatti prodotti dai sistemi automatizzati di monitoraggio e decisionali;
  • l’obbligo di riesame umano (human review);
  • l’obbligo di valutazione dei rischi d’infortunio sul lavoro, anche di natura psicosociale ed ergonomica;
  • obblighi d’informazione e consultazione dei rappresentanti dei lavoratori.

La gestione algoritmica costituisce un tratto distintivo del funzionamento di una piattaforma di lavoro digitale che rientri nell’ambito d’applicazione della Direttiva (UE) 2024/2831 del 23 ottobre 2024, comportando il governo dei sistemi di monitoraggio e decisionale automatizzati utilizzati al fine di organizzare, almeno in parte, l’attività di lavoro sia di coloro che prestano un’attività di lavoro mediante la piattaforma stessa che dei lavoratori della piattaforma.

Ferme restando le intersezioni con il Regolamento (UE) 2016/679 relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, un raccordo sistematico deve essere altresì operato con quanto disposto dal Regolamento (UE) 2024/1689 del 13 giugno 2024, che, in vigore dal 1° agosto 2024, stabilisce regole armonizzate sull’intelligenza artificiale. Infatti, gli obblighi più sopra elencati mirano a dissolvere, almeno in parte, l’opacità che caratterizza i principi di funzionamento di una piattaforma di lavoro digitale dotata di sistemi di intelligenza artificiale, introducendo, come anticipato, strumenti di prevenzione e rimediali attraverso i quali poter adeguare e correggere il funzionamento di sistemi d’intelligenza artificiale laddove gli esiti dell’elaborazione abbiano prodotto e possano comportare violazioni di disposizioni vigenti, incidendo negativamente sulle condizioni di lavoro.

 

3.1 Limitazioni per la raccolta e il trattamento di dati personali (art. 7)

Il ricorso a sistemi di monitoraggio e/o decisionali automatizzati da parte della piattaforma di lavoro digitale comporta la necessità di adottare opportune limitazioni con riguardo al trattamento dei dati personali del soggetto che svolge la propria attività di lavoro mediante una piattaforma digitale. Al riguardo, alla piattaforma digitale è preclusa la possibilità di trattare dati personali:

  • per desumere l’origine razziale o etnica, lo status di migrante, le opinioni politiche, le convinzioni religiose o filosofiche, la disabilità, lo stato di salute, comprese le malattie croniche o la sieropositività, lo stato emotivo o psicologico, l’adesione a un sindacato, la vita sessuale o l’orientamento sessuale di una persona;
  • biometrici di una persona che svolge un lavoro mediante piattaforme digitali al fine di accertarne l’identità attraverso il confronto con dati biometrici di persone fisiche conservati in una banca dati. Al proposito, si consideri che il trattamento di dati biometrici può costituire, sin dal 2 febbraio 2025, una pratica vietata in forza dell’art. 5, par. 2 del Regolamento (UE) 2024/1689. Ai sensi dell’art. 4, punto 14) del Regolamento (UE) 2016/679 del 27 aprile 2016, si considerano dati biometrici i dati personali ottenuti da un trattamento tecnico specifico relativi alle caratteristiche fisiche, fisiologiche o comportamentali di una persona fisica che ne consentono o confermano l’identificazione univoca, quali l’immagine facciale o i dati dattiloscopici;
  • afferenti allo stato emotivo o psicologico della persona e a conversazioni private, anche quando trattasi di scambi intrattenuti con altre persone che svolgono un lavoro mediante piattaforme digitali o con i rappresentanti delle persone che svolgono un lavoro mediante piattaforme digitali;
  • per prevedere l’esercizio di diritti fondamentali, compresi la libertà di associazione, il diritto di negoziazione e di azioni collettive o il diritto all’informazione e alla consultazione stabiliti dagli artt. 12, 27 e 31 della Carta dei diritti fondamentali dell’Unione europea.

È altresì preclusa la raccolta di dati personali di una persona che svolge un lavoro mediante una piattaforma digitale quando non stia svolgendo un’attività di lavoro mediante essa o non si stia proponendo di svolgerlo.

 

3.2 Valutazione d’impatto sulla protezione dei dati (art. 8)

Poiché il trattamento dei dati personali condotto avvalendosi di sistemi di monitoraggio o decisionali automatizzati può esporre i diritti e le libertà delle persone fisiche ad un rischio elevato di compromissione, è stabilito che, in qualità di titolare del trattamento dei dati personali, la piattaforma digitale effettui una valutazione d’impatto sulla protezione dei dati ai sensi dell’art. 35 del Regolamento (UE) 2016/679, ricomprendendo nel perimetro di tale valutazione anche le limitazioni imposte in relazione al trattamenti dei dati personali dall’art. 7 della direttiva in commento.

Nonostante la Direttiva (UE) 2024/2831 non contenga alcun espresso rinvio al Regolamento (UE) 2024/1689, deve ritenersi che da questo non possa prescindersi in quanto l’impiego di sistemi di monitoraggio e decisionali automatizzati da parte della piattaforma digitale obbliga all’osservanza delle disposizioni in esso contenute. Al proposito, è peraltro ragionevole ritenere che il sistema d’intelligenza artificiale utilizzato per il funzionamento della piattaforma digitale sia qualificato come sistema ‘ad alto rischio’, comportando l’applicazione del Capo III del Regolamento stesso. Infatti, un sistema è ritenuto ‘ad alto rischio’ quando sia utilizzato per:

  • ‘l’assunzione o la selezione di persone fisiche, in particolare per pubblicare annunci di lavoro mirati, analizzare o filtrare le candidature e valutare i candidati’;
  • ‘adottare decisioni riguardanti le condizioni dei rapporti di lavoro, la promozione o cessazione dei rapporti contrattuali di lavoro, per assegnare compiti sulla base del comportamento individuale o dei tratti e delle caratteristiche personali o per monitorare e valutare le prestazioni e il comportamento delle persone nell’ambito di tali rapporti di lavoro’ (art. 6, par. 2 e Allegato III, punto 4 del Regolamento (UE) 2024/1689 del 13 giugno 2024.

Tale precisazione è opportuna in quanto dall’impiego di sistemi automatizzati di monitoraggio o decisionali che contemplino l’utilizzo di sistemi di IA ad alto rischio derivano obblighi per la piattaforma di lavoro digitale che possono incidere significativamente, oltre che sul piano giuridico e contrattuale, anche sul suo assetto organizzativo e sul suo funzionamento.

Al proposito, e ipotizzando che la piattaforma di lavoro digitale possa essere qualificata quale utilizzatrice (deployer) di un sistema di IA ad alto rischio, è opportuno evidenziare come in tema di valutazione d’impatto – e non solo – tra la Direttiva 2024/2831 e il Regolamento (UE) 2024/1689 sussistono imprescindibili sovrapposizioni.

È il caso, ad esempio, di quanto disposto dall’art. 26, par. 9 del Regolamento (UE) 2024/1689, che impone al deployerdi un sistema ad alto rischio – cioè la piattaforma digitale – di effettuare una valutazione d’impatto sulla protezione dei dati ai sensi del citato art. 35 Regolamento (UE) 2016/679, in osservanza altresì di quanto espressamente disposto in materia dall’art. 27 del Regolamento (UE) 2024/1689 stesso.

Dunque, al disciplinamento dell’attività di valutazione d’impatto circa il trattamento dei dati personali da parte di una piattaforma di lavoro digitale che ricorra a sistemi di IA ad alto rischio concorrono sia l’art. 8 della Direttiva 2024/2831 che l’art. 27 del Regolamento (UE) 2024/1689, entrambi a loro volta operanti un rinvio all’art. 35 del Regolamento (UE) 2016/679.

È evidente come nel caso di specie l’attività di valutazione d’impatto non possa prescindere da un’armonizzazione delle disposizioni testé richiamate, considerando, in particolare, che l’art. 27, par. 1 del Regolamento (UE) 2024/1689 prevede che la valutazione comprenda i seguenti elementi:

  1. una descrizione dei processi che contemplano l’utilizzo del sistema di IA ad alto rischio, indicando altresì il periodo nel corso del quale il sistema di IA sarà utilizzato e la frequenza del suo utilizzo;
  2. le categorie di persone fisiche e gruppi verosimilmente interessati dal ricorso al sistema di IA e i rischi specifici di danno a cui questi sono esposti, avendo in considerazione le informazioni che il fornitore del sistema ha reso all’utilizzatore stesso in ossequio all’art. 13 del Regolamento (UE) 2024/1689;
  3. una descrizione delle misure da adottare perché sia garantita, nel rispetto delle istruzioni per l’uso del sistema, l’osservanza di quanto disposto in materia di sorveglianza umana dal richiamato dall’art. 14 del Regolamento (UE) 2024/1689 stesso;
  4. le misure individuate nell’ipotesi di realizzazione del rischio oggetto di valutazione.

 

3.3 Trasparenza dei sistemi di monitoraggio e decisionali automatizzati (art. 9)

In sede di recepimento della Direttiva in esame, dovranno essere contemplati obblighi d’informazione circa i sistemi di monitoraggio e decisionali automatizzati, affinché le persone che svolgono un’attività di lavoro mediante la piattaforma digitale siano rese edotte in relazione a:

  1. l’attività di monitoraggio automatizzato, precisando se il sistema è in uso – o se è prossimo ad essere utilizzato – e per il perseguimento di quali finalità esso è adottato. È altresì stabilito che siano rese informazioni su i) le modalità di funzionamento del sistema di monitoraggio, ii) le categorie di dati e azioni oggetto di monitoraggio e di valutazione, iii) i destinatari (o le categorie di destinatari) dei dati personali trattati dal sistema e iv) l’eventualità che i dati personali siano trasmessi o trasferiti;
  2. i processi decisionali automatizzati in uso – o che la piattaforma digitale intende utilizzare -, indicando i) le categorie di decisioni che il sistema assume o agevola, ii) le categorie di dati e i principali parametri considerati ai fini dell’assunzione di una decisione automatizzata, iii) le ragioni in forza delle quali è assunta la decisione di limitare, sospendere o chiudere l’account della persona che svolge un lavoro mediante piattaforme digitali o di non retribuire il lavoro svolto da essa nonché iv) le decisioni automatizzate che riguardano la situazione contrattuale o che possono produrre un effetto pregiudizievole o incidere su questa.

Tali informazioni dovranno essere rese in forma scritta, anche in forma elettronica, in modo da risultare intelligibili e facilmente accessibili, espresse in un linguaggio semplice e chiaro.

L’obbligo informativo in parola è stabilito sia adempiuto al più tardi il primo giorno di lavoro o con anticipo rispetto all’introduzione di modifiche che incidono sulle condizioni di lavoro, sull’organizzazione del lavoro o sul monitoraggio dell’esecuzione dell’attività di lavoro e, in ogni caso, ogni qual volta la persona che svolge un’attività di lavoro tramite la piattaforma digitale ne faccia espressa richiesta. Analoghi obblighi d’informazione dovranno essere altresì contemplati con riguardo ai rappresentanti dei lavoratori e alle autorità nazionali competenti che ne facciano richiesta.

Inoltre, è stabilito che le persone che svolgono un lavoro mediante piattaforme digitali hanno diritto alla portabilità dei dati personali generati attraverso l’esecuzione dell’attività di lavoro, comprendendo nel novero dei dati le valutazioni e le recensioni, senza che siano pregiudicati i diritti alla riservatezza del destinatario del servizio reso tramite la piattaforma digitale di lavoro.

L’art. 9 del Regolamento in commento manifesta evidenti assonanze con quanto già disposto dall’art. 1-bis del D.Lgs. 26 maggio 1997, n. 152 recante norme in materia di ‘ulteriori obblighi informativi nel caso di utilizzo di sistemi decisionali o di monitoraggio automatizzati’ e introdotto, a decorrere dal 13 agosto 2022, in forza dell’art. 4, c. 1, lett. b) del D.Lgs. 27 giugno 2022, n. 104.

Tale disposizione già prescrive, fermo restando quanto disposto dall’art. 4 della Legge 20 maggio 1970, n. 300 con riguardo al potere di controllo che il datore di lavoro può esercitare, che il datore di lavoro stesso e il committente informino il lavoratore circa l’utilizzo di sistemi decisionali o di monitoraggio automatizzati, fornendo prima dell’inizio dell’attività lavorativa un articolato novero di informazioni tra cui:

  • gli scopi e le finalità sottesi all’adozione di tali sistemi nonché gli aspetti del rapporto di lavoro che possono esserne condizionati;
  • le logiche e il funzionamento dei sistemi e le categorie di dati e i parametri utilizzati per i) programmare o ii) addestrare i sistemi stessi;
  • le misure di controllo adottate con riguardo alle decisioni automatizzate, precisando quali processi di correzione siano previsti;
  • le metriche utilizzate per misurare il livello di accuratezza del sistema e gli impatti che possono comportare effetti discriminatori.

L’art. 1-bis del D.Lgs. 26 maggio 1997, n. 152 trova peraltro già applicazione ai lavoratori subordinati della piattaforma digitale, sempre che il sistema sia integralmente automatizzato. Il recepimento della direttiva in esame comporterà modificazioni a tale disposizione, dal momento che essa trova applicazione anche quando il sistema automatizzato di monitoraggio o decisionale non sia integralmente automatizzato, anche perché una tale ipotesi risulterebbe essere in contrasto con quanto stabilito in tema di revisione umana dall’art. 11 della direttiva stessa.

Per quanto concerne gli obblighi d’informazione, un ulteriore ambito di sovrapposizione si rinviene nell’obbligo d’informare i rappresentanti dei lavoratori dell’intenzione di utilizzare sistemi automatizzati di monitoraggio e decisionali prima che questi siano effettivamente impiegati e, in ogni caso, quando a detti sistemi siano apportate modificazioni tali da incidere sule condizioni di lavoro e l’organizzazione del lavoro. Analogo obbligo d’informazione è infatti disposto dall’art. 26, par. 7 del Regolamento (UE) 2024/1689 del 13 giugno 2024, ai sensi del quale alla piattaforma di lavoro digitale è fatto obbligo di informare i rappresentanti dei lavoratori e i lavoratori interessati circa l’imminente immissione in servizio di un sistema di IA ad alto rischio.

 

3.4 Supervisione umana (art. 10)

Avvalendosi di sistemi di monitoraggio e decisionali automatizzati, la piattaforma digitale sarà tenuta a sorvegliare il funzionamento del sistema, effettuando almeno con cadenza biennale, la valutazione d’impatto, anche con riferimento i) alle condizioni di lavoro delle persone che svolgono un’attività di lavoro tramite la piattaforma digitale e ii) alla parità di trattamento sul lavoro.

Sarà fatto obbligo alla piattaforma digitale di disporre di risorse umane che possano garantire una efficace supervisione del sistema e siano in grado di valutare opportunamente gli effetti derivanti dall’utilizzo di sistemi di monitoraggio e decisionali automatizzati, prevenendo il prodursi di effetti distorsivi così come la violazione di norme vigenti.

Il soggetto incaricato di svolgere l’attività di supervisione umana deve poter vantare requisiti soggettivi in termini di competenza, formazione e autorità necessarie che consentano di esercitare la funzione affidata, sì da poter rigettare le decisioni assunte o proposte dal sistema automatizzato. La direttiva nulla dispone con riguardo alla composizione – monocratica o collegiale – dell’organo a cui la piattaforma digitale affida lo svolgimento dell’attività di supervisione. È ragionevole ritenere che le risorse umane dedicate siano proporzionali alla complessità dell’organizzazione e alla natura dei sistemi automatizzati impiegati.

Con riferimento al supervisore umano, la direttiva dispone sia previsto un sistema di protezione contro il licenziamento e l’adozione di misure disciplinari e altri trattamenti sfavorevoli per aver esercitato le funzioni attribuitegli.

Nell’ipotesi in cui l’attività di supervisione umana consenta di rilevare un elevato rischio di discriminazione sul lavoro a motivo dell’utilizzo del sistema automatizzato ovvero si accerti che da talune decisioni individuali adottate o confortate dal sistema automatizzato è derivata la violazione dei diritti di una persona che svolge un lavoro mediante piattaforme digitali, la piattaforma di lavoro digitale è tenuta ad adottare misure correttive del sistema automatizzato o, quando non sia possibile apportare le opportune modifiche, a cessarne l’utilizzo.

Gli esiti dell’attività di supervisione umana sono trasmessi ai rappresentanti dei lavoratori delle piattaforme digitali (platform workers) e rese disponibili alle persone che svolgono un lavoro mediante piattaforme digitali nonché alle autorità nazionali competenti previa richiesta.

In ogni caso, la decisione di i) limitare, ii) sospendere o iii) risolvere il rapporto contrattuale od ancora di iv) chiudere l’account di una persona che svolge un lavoro mediante piattaforme digitali – o qualsivoglia altra decisione che arrechi un pregiudizio equivalente – è fatto obbligo sia assunta da un essere umano.

Fermo restando quanto disposto dall’art. 10 del Regolamento in parola, è evidente come le norme in esso contenute presentino ampi spazi di sovrapposizione con quanto disposto in tema di sorveglianza umana dall’art. 26, par. 2 e dall’art. 14 del Regolamento (UE) 2024/1689 del 13 giugno 2024.

Come più sopra precisato con riguardo alla valutazione d’impatto sui dati personali, anche in relazione all’attività di supervisione umana effettuata da una piattaforma digitale che ricorra a sistemi di IA ad alto rischio è necessario siano date un’interpretazione e un’applicazione armonizzata e coerente delle citate disposizioni, definendo adeguate procedure e misure di attuazione.

Si consideri che una lettura e un’interpretazione che combinino tali disposizioni non possono che comportare la ridefinizione del modello organizzativo della piattaforma digitale, specie quando il sistema di IA ad alto rischio reperito sul mercato dalla piattaforma di lavoro digitale sia stato da questa modificato e adattato alle proprie esigenze, comportando così l’acquisizione della qualifica di fornitore oltre che di deployer di un sistema di IA ad alto rischio.

 

3.5 Riesame umano (art. 11)

È sancito il diritto per la persona che svolga un’attività di lavoro mediante la piattaforma digitale di ottenere da questa, senza indebito ritardo, una spiegazione – in forma orale o scritta, trasparente e intelleggibile, facendo ricorso ad un linguaggio chiaro e semplice – in merito ad una decisione che sia stata assunta o confortata da un sistema decisionale automatizzato.

È altresì fatto obbligo alla piattaforma digitale d’individuare una persona di contatto alla quale la persona che svolga un’attività di lavoro tramite la piattaforma stessa possa rivolgersi per ricevere chiarimenti circa fatti, circostanze e motivi di una decisione presa o avvalorata da un sistema decisionale automatizzato.

Alla persona che svolga un’attività di lavoro tramite la piattaforma digitale è fornito, senza indebito ritardo e non oltre il termine in concomitanza del quale la decisione produce effetti giuridici, la motivazione relativa a qualsiasi decisione assunta con l’ausilio di un sistema decisionale automatizzato e che comporti:

  1. la limitazione, la sospensione o la chiusura dell’account;
  2. la mancata retribuzione per l’attività di lavoro prestata;
  3. una variazione della situazione contrattuale;
  4. la realizzazione di effetti analoghi a quelli di cui alle precedenti lettere a), b) e c);
  5. la modificazione di elementi essenziali del rapporto di lavoro o di altro rapporto contrattuale.

La persona che svolga un’attività di lavoro tramite la piattaforma digitale ha il diritto di chiedere alla piattaforma di lavoro digitale di riesaminare una decisione assunta mediante il sistema decisionale automatizzato, esigendo una risposta scritta, anche in forma elettronica, sufficientemente precisa e adeguatamente motivata mediante un documento scritto, senza indebito ritardo e comunque entro due settimane dal ricevimento della richiesta.

La decisione assunta per mezzo del sistema automatizzato o da questo presa direttamente e che violi un diritto della persona che svolge un lavoro mediante la piattaforma digitale, è rettificata senza ritardo e in ogni caso entro due settimane dalla sua adozione. Nel caso in cui non sia possibile operare una rettifica, la persona ha titolo ad essere risarcita del danno subito.

La piattaforma digitale deve poter essere in grado di adottare i correttivi necessari e apportare modifiche al sistema decisionale automatizzato.

Le norme stabilite in materia di revisione umana non trovano applicazione nei confronti del lavoratore che svolga l’attività di lavoro tramite la piattaforma digitale e che al contempo sia ‘utente commerciale’.

 

3.6 Tutela della salute e sicurezza (art. 12)

Fermo restando l’impianto normativo vigente in materia di tutela della salute e sicurezza nei luoghi di lavoro, è stabilito che con riferimento ai lavoratori della piattaforma digitale (platform workers) questa sia tenuta a:

  • valutare i rischi per la salute e sicurezza derivanti dall’impiego di sistemi di monitoraggio e decisionali automatizzati, comprendendo nell’attività di valutazione oltre ai rischi d’infortunio sul lavoro anche i rischi ergonomici e di natura psicosociale. In ogni caso, non possono essere impiegati sistemi automatizzati che esercitino un’indebita pressione su lavoratori delle piattaforme digitali o espongano gli stessi ad un rischio per la sicurezza e la salute fisica e mentale. Fonti di stress e d’ansia possono rinvenirsi in una combinazione di fattori che caratterizzano l’organizzazione del lavoro di una piattaforma digitale. Ad esempio, i) l’apprendimento limitato sul posto di lavoro, ii) la limitata influenza del lavoratore rispetto ai compiti affidategli e determinata dall’uso di algoritmi non trasparenti, iii) l’intensificazione del lavoro e iv) l’insicurezza provocata dal ricorso a sistemi di monitoraggio automatizzati o di sistemi decisionali automatizzati. Dunque, la piattaforma di lavoro digitale dovrebbe:
  • ‘analizzare tali rischi, valutare se le misure di prevenzione dei rischi dei sistemi siano adeguate ad affrontarli e adottare adeguate misure di prevenzione e protezione’;
  • ‘evitare che l’uso di tali sistemi si traduca in pressioni indebite sui lavoratori o metta a rischio la loro salute;
  • ‘mettere a disposizione dei lavoratori delle piattaforme digitali, dei loro rappresentanti e delle autorità competenti la valutazione dei rischi e delle misure di attenuazione’ (considerandum 50). Con riguardo ai rischi per la salute e sicurezza, nell’ambito del lavoro svolto per il tramite di una piattaforma digitale rilevano altresì i profili di rischio derivanti da fenomeni di distorsione dell’automazione (automation bias), realizzati quando si affermino tendenze a fare automaticamente affidamento o eccessivo affidamento sull’elaborato (output) prodotto dal sistema di IA ad alto rischio; tale rischio è particolarmente grave e insidioso quando la distorsione si formi in relazione ad un sistema automatizzato decisionale (art. 14, par. 4, lett. b) del Regolamento 2024/1689 del 13 giugno 2024).
  • valutare se le garanzie offerte in materia prevenzionistica con riguardo al funzionamento dei sistemi automatizzati sono adeguate ai rischi individuati, anche in relazione all’ambiente di lavoro;
  • introdurre adeguate misure di prevenzione e protezione, recependo, ad esempio, le indicazioni e le considerazioni di colui che è stato designato per lo svolgimento dell’attività di sorveglianza umana o di revisione umana. Al riguardo, è opportuno considerare come gli artt. 28, c. 1 e 29, c. 3 del D.Lgs. 9 aprile 2008, n. 81 prevedono che la valutazione dei rischi:
  • sia condotta con riguardo a tutti i rischi per la sicurezza e la salute dei lavoratori, ivi compresi quelli riguardanti gruppi di lavoratori esposti a rischi particolari, tra cui anche quelli collegati allo stress lavoro-correlato e quelli riguardanti le lavoratrici in stato di gravidanza nonché quelli connessi alle differenze di genere, all’età, alla provenienza da altri Paesi e quelli connessi alla specifica tipologia contrattuale attraverso cui viene resa la prestazione di lavoro;
  • sia immediatamente rielaborata quando siano introdotte modifiche del processo produttivo o della organizzazione del lavoro significative ai fini della salute e sicurezza dei lavoratori, o in relazione al grado di evoluzione della tecnica, della prevenzione o della protezione o a seguito di infortuni significativi o quando i risultati della sorveglianza sanitaria ne evidenzino la necessità.

Dunque, il disposto di cui all’art. 12, par. 1 della direttiva in commento indica espressamente fonti di rischio che afferiscono in via esclusiva alla piattaforma di lavoro digitale e ai lavoratori della stessa e che ad un’interpretazione letterale delle citate disposizioni risultano già essere operanti nella fattispecie in esame gli obblighi di cui ai precedenti punti 1), 2) e 3) sono adempiuti assicurando l’informazione, la consultazione e l’effettiva partecipazione dei lavoratori e dei loro rappresentanti.

Perché sia garantita la sicurezza e la salute dei lavoratori delle piattaforme digitali anche in relazione alle ipotesi di violenza e molestie, gli Stati membri provvedono affinché le piattaforme di lavoro digitali adottino misure preventive, istituendo, ad esempio, canali di segnalazione efficaci.

 

 

 

Si rimane a disposizione per qualsiasi eventuale ulteriore confronto si dovesse ritenere opportuno.