Robotica

ErgoCub, quando i robot migliorano la sicurezza sul lavoro

Un progetto della durata di tre anni realizzato dall’Istituto Italiano di Tecnologia (IIT) e l’INAIL, avviato a marzo 2021. Grazie a una tuta indossabile è possibile registrare il movimento del corpo umano e leggerne gli sforzi, identificando così possibili rischi per la salute del lavoratore e facilitarne l’attività lavorativa migliorando l’interazione tra lavoratori e robot

Pubblicato il 18 Giu 2021

Francesco Saraniti

Avvocato stabilito specializzato in diritto delle nuove tecnologie, Lead Auditor ISO/IEC 27001:2013

ErgoCub è un progetto congiunto della durata di tre anni fra l’Istituto Italiano di Tecnologia (IIT) e l’INAIL, avviato a marzo 2021. L’obiettivo di questa nuova partnership è migliorare la sicurezza nei luoghi di lavoro sia in ambito industriale che ospedaliero attraverso l’ausilio di robot umanoidi collaborativi che possono interagire come fossero compagni di lavoro. Un progetto ambizioso, che però genera alcuni problemi di privacy relativi ai dati sulla salute dei lavoratori.

ErgoCub, cos’è

ErgoCub è la nuova tappa di una esperienza già maturata in ambito europeo con il progetto AnDy, Advancing Anticipatory Behaviors in Dynamic Human-Robot Collaboration, all’interno del Programma per la Ricerca e l’Innovazione dell’Unione Europea Horizon 2020.

Nel progetto AnDy gli scenari considerati sono stati:

cobot: robot industriali certificati per lavorare a stretto contatto con l’uomo;

exoskeleton: atti a rafforzare e guidare il corpo delle persone nelle attività lavorative;

humanoid: robot in grado di eseguire compiti che anticipano il comportamento umano.

ErgoCub: sicurezza negli ambienti di lavoro e tutela dei dati

Con ErgoCub, sia IIT che INAIL puntano a trasferire i risultati tecnologici ottenuti con il progetto AnDy mediante una tuta indossabile per registrare il movimento del corpo umano e leggerne gli sforzi, identificando così possibili rischi per la salute del lavoratore e di facilitarne l’attività lavorativa migliorando l’interazione tra lavoratori e robot.

La tuta indossabile potrà entrare in comunicazione con i robot umanoidi – al momento pensati nel numero di due – trasmettendo dati quali: il movimento del corpo umano, le sollecitazioni fisiche, i parametri vitali (battito cardiaco, frequenza respiratoria, temperatura).

I modelli di ergoCub sono implementati mediante una pelle artificiale che ha lo scopo di misurare le interazioni con l’ambiente, cosa che permetterà ad essi di intervenire in modo adeguato e sicuro per il lavoratore. Si tratta di un progetto ambizioso, che permetterà alla robotica di migliorare la sicurezza negli ambienti di lavoro, come affermato da Giorgio Metta, direttore dell’IIT.

È chiaro che, a fronte di un’implementazione così radicale nella vita dei lavoratori, dovranno corrispondere più forti “tutele dei diritti” degli stessi sul posto di lavoro.

L’uso di robot collaborativi che hanno la capacità di raccogliere, elaborare e utilizzare un ampio tipo di flusso di dati (movimento, sollecitazioni fisiche, parametri vitali) pongono diverse questioni giuridiche, alcune delle quali sono:

– il trattamento, che comprende anche la conservazione e la cancellazione dei dati sanitari di un lavoratore, rilevati mediante dispositivi indossabili, che però non deve sconfinare in una sorveglianza sanitaria dello stesso e che deve essere ispirato a una privacy by design e by default;

– la tutela del lavoratore in caso di data breach di dati relativi alla salute;

– attacchi a un sistema di machine learning (adversarial machine learning e data poisoning).

Le questioni sopra esposte necessitano di una breve introduzione di natura definitoria sulla tipologia di dato che verrà trattato da ergoCub, il c.d. dato relativo alla salute.

dati salute

Il problema dei dati relativi alla salute: trattamento e retention

Il GDPR definisce nell’art. 4 n. 15, come dati relativi alla salute “i dati personali attinenti alla salute fisica o mentale di una persona fisica, compresa la prestazione di servizi di assistenza sanitaria, che rivelano informazioni relative al suo stato di salute”.

Il considerando 35 GDPR amplia questa definizione specificando che “nei dati personali relativi alla salute dovrebbero rientrare tutti i dati riguardanti lo stato di salute dell’interessato che rivelino informazioni connesse allo stato di salute fisica o mentale passata, presente o futura dello stesso. […] un numero, un simbolo o un elemento specifico attribuito a una persona fisica per identificarla in modo univoco a fini sanitari; le informazioni risultanti da esami e controlli effettuati su una parte del corpo o una sostanza organica, compresi i dati genetici e i campioni biologici; e qualsiasi informazione riguardante, ad esempio, una malattia, una disabilità, il rischio di malattie, l’anamnesi medica, i trattamenti clinici o lo stato fisiologico o biomedico dell’interessato, indipendentemente dalla fonte, quale, ad esempio, un medico o altro operatore sanitario, un ospedale, un dispositivo medico o un test diagnostico in vitro.

Trattamento

Il legislatore europeo è stato molto attento in fase di stesura del GDPR nella tutela di questa tipologia di dato, espressamente vietando nell’art. 9 par. 1 il trattamento dei dati relativi alla salute, eccetto che in determinati casi che, l’Autorità per la Protezione dei Dati Personali italiano sintetizza, all’interno del documento “Chiarimenti sull’applicazione della disciplina per il trattamento dei dati relativi alla salute in ambito sanitario – 7 marzo 2019[1]” in:

motivi di interesse pubblico rilevante sulla base del diritto dell’Unione o degli Stati membri (art. 9, par. 2, lett. g) del Regolamento), individuati dall’art. 2-sexies del Codice;

motivi di interesse pubblico nel settore della sanità pubblica, quali la protezione da gravi minacce per la salute a carattere transfrontaliero o la garanzia di parametri elevati di qualità e sicurezza dell’assistenza sanitaria e dei medicinali e dei dispositivi medici, sulla base del diritto dell’Unione o degli Stati membri che preveda misure appropriate e specifiche per tutelare i diritti e le libertà dell’interessato, in particolare il segreto professionale (art. 9, par. 2, lett. i) del Regolamento e considerando n. 54) (es. emergenze sanitarie conseguenti a sismi e sicurezza alimentare);

– finalità di medicina preventiva, diagnosi, assistenza o terapia sanitaria o sociale ovvero gestione dei sistemi e servizi sanitari o sociali (di seguito “finalità di cura”) sulla base del diritto dell’Unione/Stati membri o conformemente al contratto con un professionista della sanità, (art. 9, par. 2, lett. h) e par. 3 del Regolamento e considerando n. 53; art. 75 del Codice) effettuati da (o sotto la responsabilità di) un professionista sanitario soggetto al segreto professionale o da altra persona anch’essa soggetta all’obbligo di segretezza.

L’autorità Garante italiana ribadisce, ulteriormente, che “gli eventuali trattamenti attinenti, solo in senso lato, alla cura, ma non strettamente necessari, richiedono, quindi, anche se effettuati da professionisti della sanità, una distinta base giuridica da individuarsi, eventualmente, nel consenso dell’interessato o in un altro presupposto di liceità (artt. 6 e 9, par. 2, del Regolamento).

Tra i trattamenti in ambito sanitario che richiedono il consenso esplicito dell’interessato rientrano ad esempio:

– trattamenti connessi all’utilizzo di App mediche, attraverso le quali autonomi titolari raccolgono dati, anche sanitari dell’interessato, per finalità diverse dalla telemedicina oppure quando, indipendentemente dalla finalità dell’applicazione, ai dati dell’interessato possano avere accesso soggetti diversi dai professionisti sanitari o altri soggetti tenuti al segreto professionale[2];

– trattamenti preordinati alla fidelizzazione della clientela;

– trattamenti effettuati in campo sanitario da persone giuridiche private per finalità promozionali o commerciali;

– trattamenti effettuati da professionisti sanitari per finalità commerciali o elettorali;

– trattamenti effettuati attraverso il Fascicolo sanitario elettronico.

Data Retention

Per quanto concerne i tempi di conservazione del dato personale è necessario fare un passo indietro, in quanto, la conservazione costituisce di per sé un trattamento come si legge in ambito definitorio all’interno dell’art. 4, par. 1, n. 2 GDPR.

L’art. 5, paragrafo 1, lett. e), del GDPR introduce il c.d. principio di “limitazione della conservazione” secondo cui l’arco temporale di conservazione dei dati personali, individuato da parte del titolare del trattamento, deve essere necessariamente proporzionato alle finalità per le quali i dati sono raccolti, cosa che viene ribadita anche in seno di considerando n. 39: “I dati personali dovrebbero essere adeguati, pertinenti e limitati a quanto necessario per le finalità del loro trattamento. Da qui l’obbligo, in particolare, di assicurare che il periodo di conservazione dei dati personali sia limitato al minimo necessario. […] Onde assicurare che i dati personali non siano conservati più a lungo del necessario, il titolare del trattamento dovrebbe stabilire un termine per la cancellazione o per la verifica periodica. […] I dati personali dovrebbero essere trattati in modo da garantirne un’adeguata sicurezza e riservatezza, anche per impedire l’accesso o l’utilizzo non autorizzato dei dati personali e delle attrezzature impiegate per il trattamento”.

Il periodo del tempo di conservazione deve essere fornito all’interessato (i.e. il lavoratore) attraverso la c.d informativa, prima che il trattamento abbia inizio, ex art. 13 GDPR e al fine di garantire un trattamento corretto e trasparente fornire “il periodo di conservazione dei dati personali oppure, se non è possibile, i criteri utilizzati per determinare tale periodo”.

Ora, per quanto concerne il dato relativo alla salute bisognerà tenere conto dei tempi di conservazione previsti dalla legge (che variano a seconda della documentazione sanitaria) essi costituiscono i tempi “minimi”, mentre, quelli previsti dal GDPR sono da considerare come i tempi “massimi”.

Al riguardo il Garante dispone: “nel caso in cui i tempi di conservazione di specifici documenti sanitari non siano stabiliti da una disposizione normativa, il titolare del trattamento, in virtù del principio di responsabilizzazione, dovrà individuare tale periodo in modo che i dati siano conservati, in una forma che consenta l’identificazione degli interessati, per un arco di tempo non superiore al conseguimento delle finalità per le quali i dati sono trattati (principio di limitazione della conservazione, art. 5, par. 1, lett. e) del Regolamento) e indicare tale periodo (o i criteri per determinarlo) tra le informazioni da rendere all’interessato”[3].

Cancellazione dei dati relativi alla salute

Infine, un discorso a parte dovrebbe essere fatto anche per la cancellazione del dato sanitario che, in questo caso, verrà trattato da un sistema automatizzato e, probabilmente, verrà memorizzato su di un supporto elettronico o sul cloud, che apre scenari relativi al trasferimento transfrontaliero, per cui sarà necessario prevedere il coinvolgimento di tutte le terzi parti coinvolte nella gestione e archiviazione.

Wearable e privacy

Alcune parole devono essere spese circa il trattamento di dati personali dei dipendenti mediante dispositivi indossabili[4], nel caso di ErgoCub i dati relativi alla salute vengono rilevati – come si legge nella notizia Ansa – attraverso una tuta indossabile (sviluppata dall’IIT) per registrare il movimento del corpo umano e leggerne gli sforzi, identificando così possibili rischi per la salute del lavoratore e di facilitarne l’attività lavorativa migliorando l’interazione tra lavoratori e robot.

Si tratta di dati relativi alla salute (considerando n. 35 GDPR) e di un trattamento che, qualora non sia ben individuato attraverso una informativa chiara e comprensibile per i lavoratori (art. 13 GDPR), può divenire invasivo della sfera di autodeterminazione ed esporre coloro che vengono monitorati da dispositivi indossabili a forme di discriminazioni inaccettabili.

A tal fine dovranno essere specificate le modalità di funzionamento, in modo da scongiurare che tale strumento possa divenire un controllo a distanza dei lavoratori e che i dati raccolti siano anonimizzati.

Il rischio di data breach dei dati relativi alla salute

L’articolo 4, par. 1, n. 12 del GDPR definisce una violazione di dati personali (data breach) come una “violazione di sicurezza che comporta accidentalmente o in modo illecito la distruzione, la perdita, la modifica, la divulgazione non autorizzata o l’accesso ai dati personali trasmessi, conservati o comunque trattati”.

Si è in presenza di distruzione dei dati nel caso di indisponibilità permanente degli stessi e impossibilità di ripristino.

Si ha una perdita dei dati personali quando, sebbene i dati potrebbero ancora esistere, il titolare del trattamento ne ha perso il controllo o la possibilità di accedervi, ovvero non ne è più in possesso.

Si verifica una modifica dei dati personali quando questi ultimi sono stati alterati in maniera impropria o non autorizzata, ovvero sono stati corrotti o non sono più completi.

Divulgazione non autorizzata sarebbe un trattamento non autorizzato o illecito o l’accesso da parte di un soggetto che non è autorizzato a riceverli o accedervi, nonché qualsiasi altra forma di trattamento che violi i principi del Regolamento.

Quindi la classificazione delle violazioni può, sia singolarmente che contemporaneamente, riguardare i principi di riservatezza, integrità, disponibilità dei dati personali.

Nel caso di specie, sarà necessario adottare tutte le precauzioni tecnologiche e di “awareness” del fattore umano in modo che si possa ridurre ad un rischio residuo (cioè il più basso possibile) la probabilità di data breach, soprattutto per la tipologia di dato che verrà trattato. Consci che, nella gestione dei rischi, essi non potranno ridursi a zero.

Adversarial machine learning e data poisoning: il rischio di cyberattacchi

L’Organizzazione Mondiale della Sanità, nel documento “Global strategy on digital health 2020-2025” sottolinea che i dati sanitari devono essere classificati come dati personali sensibili che richiedono il più alto standard di sicurezza possibile.

Concetto che viene ripreso a più riprese all’interno del GDPR, a titolo esemplificativo nel considerando 39 GDPR si legge: “I dati personali dovrebbero essere trattati in modo da garantirne un’adeguata sicurezza e riservatezza, anche per impedire l’accesso o l’utilizzo non autorizzato dei dati personali e delle attrezzature impiegate per il trattamento.”

I modelli di apprendimento automatico non sono esenti dalla possibilità di subire attacchi, esistono tecniche di avvelenamento dei dati che, se applicate con successo, possono fornire l’accesso a backdoor presenti nei modelli di machine learning e consentire loro di aggirare i sistemi controllati dagli algoritmi di intelligenza artificiale.

L’adversarial machine learning è il campo di studio che si occupa di scoprire correlazioni problematiche nei modelli di apprendimento automatico.

L’attacco contraddittorio comporta che l’attaccante creando una serie di modifiche a un input causa la classificazione errata del modello di destinazione.

Il data poisoning, invece, prende di mira i dati utilizzati per addestrare l’apprendimento automatico e avviene in due modi:

– impiantare intenzionalmente esempi contaminati che contengano un “trigger”, ad esempio una casella bianca come innesco del contraddittorio, per attivarlo l’attaccante deve fornire un’immagine che contenga l’innesco nella posizione corretta e avrà ottenuto una backdoor al modello.

In questo tipo di attacco: l’aggressore deve avere accesso alla pipeline di formazione del modello di apprendimento automatico, oppure distribuire modelli avvelenati online;

– il TrojanNet che attraverso l’inserimento di alcune minuscole macchie di pixel, crea una semplice rete neurale artificiale per rilevare una serie di piccole patch e non modifica il modello di apprendimento automatico, l’ulteriore vantaggio di questa tipologia di attacco è che non richiede l’accesso al modello originale ed è compatibile con molti diversi tipi di algoritmi di intelligenza artificiale, comprese le Api black-box che non forniscono l’accesso ai dettagli dei loro algoritmi.

Conclusioni

Da quanto esposto è evidente che ErgoCub ha in sé tutte le chance di migliorare la sicurezza negli ambienti di lavoro attraverso la robotica, ma nello stesso tempo dovrà essere ispirato al rispetto dei migliori standard di sicurezza tecnologica per tutelare nel migliore dei modi i dati personali trattati, relativi alla salute dei lavoratori.

Se, da una parte, l’idea di collaborazione tra ITT e INAIL ha chiari motivi di voler intervenire sul versante della protezione e prevenzione degli infortuni sul posto di lavoro, nello stesso tempo solleva, come abbiamo visto, delle notazioni di carattere normativo sul versante dell’utilizzo della nuova frontiera collaborativa tra uomo e robotica umanoide.

Trattamento, conservazione, cancellazione dei dati non possono e non devono sconfinare in una sorveglianza del lavoratore sul posto di lavoro, né tantomeno in un controllo dei suoi dati sanitari per accelerarne la “dismissione” in una sorta di demansionamento cautelativo da parte di un datore di lavoro efficientista.

C’è poi il versante della tutela dei dati da possibili manomissioni o alterazione da parte di terzi, della loro collocazione (supporto elettronico o sul cloud) che apre inquietanti scenari di trasferimento transfrontaliero degli stessi, con coinvolgimento di tutte le terze parti coinvolte nella gestione e archiviazione.

Possiamo permetterci, senza le dovute cautele, data breach – la cui incidenza non può essere aprioristicamente scongiurata – di dati relativi alla salute di centinaia di migliaia di lavoratori? E se l’attacco provenisse da adversarial machine learning o data poisoning come difendere i dati sanitari del lavoratore?

Note

  1. doc. web n. 9091942
  2. cfr. Faq CNIL del 17 agosto 2018 sulle applicazioni mobili in sanità.
  3. Chiarimenti sull’applicazione della disciplina per il trattamento dei dati relativi alla salute in ambito sanitario – 7 marzo 2019
  4. Trattamento di dati personali dei dipendenti mediante dispositivi indossabili – 28 febbraio 2019

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

S
Francesco Saraniti
Avvocato stabilito specializzato in diritto delle nuove tecnologie, Lead Auditor ISO/IEC 27001:2013

Articoli correlati