Il Garante per la protezione dei dati personali ha inflitto una pesante sanzione di 5 milioni di euro a Foodinho, società del gruppo Glovo, per violazioni gravi del Regolamento europeo sulla privacy (GDPR) elancia un segnale forte sul trattamento dei dati personali e sulla protezione dei diritti dei rider nella cornice di una società degli algoritmi.
Il provvedimento arriva a seguito di un’istruttoria complessa che ha messo in luce un trattamento illecito dei dati personali di oltre 35.000 rider attraverso la piattaforma digitale utilizzata dalla società per la gestione delle consegne. E gli accertamenti sono iniziati a seguito della morte del rider fiorentino Sebastian avvenuta durante una consegna e della notifica, inumana, della disattivazione dell’account arrivata il 3 ottobre 2022, due giorni dopo il decesso all’ospedale di Careggi.
In un’epoca in cui la digitalizzazione sta modificando radicalmente il modo di lavorare, la sanzione del Garante rappresenta un passo importante per riequilibrare i diritti di lavoratori e aziende e riaffermare la centralità dei diritti e della dignità dei lavoratori come valore fondamentale.
Le indagini hanno rivelato una serie di problematiche legate alla gestione automatizzata dei lavoratori, che pongono seri interrogativi sulla trasparenza e sul rispetto dei diritti fondamentali.
Tra le irregolarità, emerge un utilizzo intrusivo dei sistemi automatizzati, come nel caso della geolocalizzazione dei rider. Questo tracciamento non si limitava all’orario di lavoro, ma continuava anche quando l’app era in background o addirittura disattivata, fino ad agosto 2023. Una pratica che va ben oltre i limiti del monitoraggio consentito, sollevando preoccupazioni per una sorveglianza continua che non rispetta la privacy dei lavoratori.
Particolarmente problematico è anche il sistema automatizzato utilizzato per la gestione dei turni e delle consegne, in particolare il cosiddetto “sistema di eccellenza”, che assegna punteggi ai rider, determinando chi ha priorità nell’accesso ai turni.
Così come il processo automatizzato che decide la distribuzione degli ordini. Entrambi i sistemi sono stati implementati senza rispettare le garanzie previste dal GDPR, in particolare l’obbligo di garantire ai lavoratori il diritto di ricevere una revisione umana delle decisioni prese dai sistemi, di contestare le scelte e di esprimere la propria opinione.
Un sistema che non si limita a registrare, facilitare, ottimizzare, ma decide, punisce, premia, tutto in modo automatico, senza che vi sia spazio per il contraddittorio o l’intervento umano.
In sostanza, un sistema che si autoalimenta e che non prevede nessuna forma di revisione umana, mostrando chiaramente come la tecnologia venga spesso usata come una sorta di “omni-controllore”, sopra le leggi e sopra la dignità dei lavoratori.
Uno degli elementi centrali nella vicenda è stato l’uso della geolocalizzazione. Fino all’estate del 2023, infatti, la società inviava i dati di posizione dei rider a terzi, senza che questi fossero informati adeguatamente.
La violazione ha riguardato non solo il periodo lavorativo, ma anche quello extra-lavorativo, un comportamento che ha suscitato preoccupazioni per la sorveglianza continua sui lavoratori, invadendo il loro diritto alla riservatezza.
L’applicazione, infatti, tracciava la posizione dei rider anche quando questi non erano attivi sulla piattaforma, sollevando il sospetto che la società potesse monitorare continuamente i propri collaboratori.
Le misure imposte dal Garante includono anche l’obbligo per Foodinho di garantire che i rider siano informati in tempo reale dell’attivazione del GPS sui loro dispositivi. L’app dovrà includere un’icona che segnala quando la geolocalizzazione è in funzione, e disattivarla quando l’applicazione è in background, per evitare che i dati possano essere raccolti senza il consenso del lavoratore.
Il provvedimento arriva in un momento cruciale, con la recente pubblicazione della Direttiva UE 2024/2831, che mira a migliorare le condizioni di lavoro e a proteggere i dati personali delle persone che svolgono un lavoro mediante piattaforme digitali.
La normativa europea, infatti, stabilisce misure più rigorose per il trattamento dei dati dei lavoratori delle piattaforme, introducendo nuove garanzie per tutelare i diritti dei rider contro gli algoritmi che condizionano la loro vita professionale.
Infatti, se non regolamentate, tali piattaforme di lavoro basate su sistemi di monitoraggio automatizzati e i sistemi decisionali automatizzati, possono anche dar luogo a una sorveglianza mediante la tecnologia, accrescere gli squilibri di potere e l’opacità del processo decisionale e comportare rischi per condizioni di lavoro dignitose, per la salute e la sicurezza sul luogo di lavoro, per la parità di trattamento e per il diritto alla riservatezza.
“Ogni tecnologia sufficientemente avanzata non è distinguibile dalla magia”. Nella società degli algoritmi, questa affermazione di Arthur C. Clarke si concretizza nel trattamento automatizzato dei dati dei rider, come la chiusura degli account o l’attribuzione di punteggi che determinano la loro capacità di accedere ai turni di lavoro.
Gli algoritmi, sebbene progettati per semplificare e ottimizzare i processi, in realtà possono diventare strumenti opachi e incontestabili che influenzano la vita dei lavoratori senza che essi possano realmente interagire o difendersi.
Nel caso di Foodinho, i sistemi automatizzati che assegnano priorità nei turni o decidono se un rider è idoneo a ricevere nuovi incarichi non sono accompagnati da alcun intervento umano. La decisione di disattivare un account o assegnare un punteggio basso si basa esclusivamente su parametri imposti dall’algoritmo, senza che i lavoratori abbiano la possibilità di contestare o modificare tali decisioni.
Qui risiede il rischio di un sistema che, pur essendo razionale e fondato su dati, non tiene conto delle sfumature individuali, degli errori o delle difficoltà particolari che potrebbero influenzare il comportamento di un rider in un dato momento.
Il “fattore umano” diventa quindi indispensabile per equilibrare il processo decisionale automatizzato.
È necessario che ogni decisione influenzata dall’algoritmo possa essere verificata da un operatore umano, formato e responsabile, che possa correggere eventuali ingiustizie o errori che l’intelligenza artificiale non riesce a interpretare.
L’assenza di questa possibilità di intervento umano rende il sistema paradossalmente più rigido e meno giusto, poiché privo di un meccanismo di revisione che rispetti i diritti dei lavoratori e consenta loro di essere ascoltati.
E tale intervento umano è richiesto, come detto, non solo dal GDPR ma anche Direttiva UE 2024/2831, la quale nella parte della gestione algoritmica pone una precisa limitazione del trattamento dei dati personali mediante sistemi di monitoraggio automatizzati o di sistemi decisionali automatizzati ed i motivi alla base delle decisioni di limitare, sospendere o chiudere l’account della persona che svolge un lavoro mediante piattaforme digitali o di non retribuire il lavoro svolto dalla stessa nonché delle decisioni in merito alla sua situazione contrattuale o di qualsiasi decisione con effetto equivalente o pregiudizievole e tutte le decisioni prese o sostenute da sistemi automatizzati che incidano in qualsiasi modo sui lavoratori.
Tuttavia, restano dubbi sull’effettiva implementazione di questa necessaria revisione umana. Come può un lavoratore contestare una decisione presa da un algoritmo creato e gestito da una multinazionale, quando spesso non dispone né delle risorse né della rappresentanza per farlo? L’accesso alla comprensione e alla revisione di un sistema algoritmico complesso e opaco è limitato, e i rider si trovano spesso a fronteggiare decisioni di cui ignorano le basi.
Il timore, dunque, è che l’introduzione di un obbligo di intervento umano possa ridursi a una mera formalità, destinata a soddisfare un adempimento normativo senza offrire una vera protezione ai lavoratori.
Senza un’efficace infrastruttura di supporto e senza una reale volontà di rendere il sistema trasparente e giusto, l’automazione rischia di restare incontestata e incontestabile, lasciando intatte le disuguaglianze strutturali tra i lavoratori e le grandi piattaforme.
E a tali dubbi la Direttiva UE 2024/2831 risponde ponendo un obbligo di effettuare una valutazione d’impatto con la partecipazione dei rappresentanti dei lavoratori, l’introduzione della figura del supervisore delle decisioni degli algoritmi e la modifica o la cessazione del sistema di monitoraggio automatizzato o del sistema decisionale automatizzato.
Tuttavia, considerando che la burocrazia non risolve problemi, ma crea solo l’illusione di averli risolti rimangono i dubbi se basteranno davvero questi obblighi per affrontare le disuguaglianze di una società dominata dagli algoritmi.