L’intelligenza artificiale a servizio della lotta alla pandemia: profili data protection

Condividi

È evidente che la situazione di emergenza senza precedenti che stiamo vivendo ci ha effettivamente e forzatamente immesso, catapultati senza quasi accorgercene nella dimensione digitale. Fino ad oggi si era sempre parlato di rivoluzionare gli ambienti in cui viviamo e le attività che svolgiamo, in ottica “smart”: smart working, smart city, smart lesson e didattica a distanza, erano concetti tanto decantati, ma che sembravano per molte realtà ancora lontani.

Siamo entrati in una nuova epoca e le nuove epoche sono foriere di cambiamenti, ci pongono dinanzi a nuove sfide e alla risoluzione di nuovi problemi. Uno degli interrogativi più grandi di questa nuova epoca è: come si proteggono i dati? In che modo è garantita la protezione dei dati nell’epoca digitale, ossia in un’epoca che vive grazie ai dati e alla condivisione delle informazioni, che tende a trasformare tutto in dati, anche noi stessi? L’interrogativo si fa ancora più ampio nel momento in cui consideriamo che molti di questi dati sono caratterizzati dall’essere riferibili a persone fisiche identificate o identificabili, sono cioè dati personali. La problematica è evidente soprattutto con riferimento all’utilizzo dei sistemi di intelligenza artificiale (AI) che operano e si allenano proprio grazie a grandi moli di dati e che iniziano ad entrare orami sempre più significativamente nelle nostre vite. L’AI ormai viene in soccorso all’uomo in molteplici attività e circostanze differenti per agevolarne e migliorarne le condizioni. Non a caso è stata ampiamente utilizzata per sostenere la lotta contro la pandemia.

Il primo contributo dell’intelligenza artificiale è sicuramente quello alla ricerca di una cura e quindi l’assistenza ai ricercatori per progettare un vaccino. Le previsioni sulla struttura del virus generato dall’IA hanno già risparmiato agli scienziati mesi di sperimentazione.

L’intelligenza artificiale si è rivelata utile inoltre per la condivisione della conoscenza: gli strumenti di AI possono essere utilizzati, tra le altre cose, per analizzare le migliaia di documenti di ricerca pubblicati in tutto il mondo sulla pandemia; se si pensa che nelle settimane successive alla comparsa del nuovo coronavirus in Cina, nel dicembre 2019, sono stati pubblicati quasi 2.000 articoli di ricerca sulla pandemia, capiamo come lo studio di tutta questa letteratura scientifica rappresenti una vera e propria sfida per gli addetti ai lavori.

L’Intelligenza artificiale è stata utilizzata per predire l’evoluzione della pandemia: negli USA un team di ricercatori che lavora con il Boston Children’s Hospital ha sviluppato un’AI per tracciare la diffusione del coronavirus attraverso un sistema che integra i dati delle ricerche di Google, dei social media, dei blog e dei forum di discussione, in modo da identificare i primi segni di un focolaio. Il Centro internazionale di ricerca per l’intelligenza artificiale (IRCAI) in Slovenia, con il patrocinio dell’UNESCO, ha lanciato Corona Virus Media Watch, una piattaforma che fornisce aggiornamenti sulla base di una selezione di informazioni raccolte dai media e online e che rappresenta senz’altro un utile strumento per osservare le tendenze emergenti relative al Covid-19 in tutto il mondo.

L’intelligenza artificiale come strumento di controllo della popolazione tramite dati dei device e geolocalizzazione, infine, rappresenta l’aspetto maggiormente discusso a livello mondiale e attuato in alcuni Paesi dell’Est. In Europa e in Italia la questione è altresì ampiamente dibattuta e riguarda l’impiego di un’app di contact tracing volta a tracciare la catena dei contatti avuti da un soggetto affetto da Covid-19.

È evidente che bisogna fare il possibile per contrastare l’enorme tragedia senza precedenti. Nelle emergenze tutte le libertà vengono compresse, ma in modo ragionevole e proporzionato, soprattutto perché alla fine dell’emergenza potremmo essere chiamati a renderne conto. Pertanto, le misure di emergenza, comprese quelle che utilizzano soluzioni di AI, dovrebbero essere progettate in modo quanto meno invasivo possibile dei diritti e libertà degli individui. L’AI ha un enorme potenziale e può sicuramente contribuire a migliorare la condizione dell’umanità, ma deve essere posta a servizio dell’uomo e non pregiudicarne i diritti e le libertà. È ragionevole ritenere che ciascuna delle soluzioni di AI sopra elencate comporti un trattamento di dati personali (dati biometrici, di geolocalizzazione, riconoscimento facciale, dati sanitari) e che pertanto, nel ricorso a tali soluzioni, le norme data protection non possono essere sorpassate o irragionevolmente compresse, ma occorre un’attenta valutazione e un’opera di bilanciamento.

È opportuno, pertanto, passare in rassegna alcune norme e istituiti che possono venirci in aiuto nella valutazione della conformità di una soluzione di AI.

  • Considerando 4 del GDPR: “Il trattamento dei dati personali dovrebbe essere al servizio dell’uomo. Il diritto alla protezione dei dati di carattere personale non è una prerogativa assoluta, ma va considerato alla luce della sua funzione sociale e va contemperato con altri diritti fondamentali, in ossequio al principio di proporzionalità”. Ciò vuol dire che il diritto alla protezione dei dati non è assoluto e può retrocedere in caso di diritti prevalenti, come la tutela della salute, in virtù di un bilanciamento di interessi. Tuttavia non può essere compresso irragionevolmente, ma secondo dei principi e criteri di ragionevolezza.
  • Art 5. GDPR che elenca i principi generali in materia di data protection (liceità, trasparenza, minimizzazione, limitazione delle finalità, limitazione della conservazione, esattezza e qualità dei dati, sicurezza dei dati etc.) da osservare nell’implementazione di soluzioni tecnologiche e che va letto in combinato disposto con l’art. 25 che appunto suggerisce di incorporare i principi data protection fin dalla progettazione e per impostazione predefinita all’interno delle soluzioni di AI.
  • Di fondamentale importanza è lo svolgimento di una valutazione di impatto ex art. 35 GDPR volta appunto ad individuare l’impatto dei trattamenti, effettuati per il tramite di soluzioni AI, sui diritti e le libertà degli interessati e ad identificare misure di mitigazione del rischio.
  • È importante garantire e rendere effettivo l’esercizio dei diritti degli interessati: con riguardo all’utilizzo di sistemi di AI, infatti, l’interessato deve essere informato sul loro funzionamento, su come i suoi dati sono trattati, sugli eventuali effetti del trattamento, e in particolare deve essere edotto sulla possibilità di agire e opporsi in caso di un trattamento non corretto e in particolare in caso di processo decisionale automatizzato ex art. 22 GDPR. All’interessato deve essere garantito il ricorso a mezzi giurisdizionali per difendersi in giudizio da eventuali decisioni e valutazioni dell’algoritmo che abbiano dato adito a discriminazioni. L’imposizione di obblighi a carico del cittadino non può dipendere dall’esclusiva valutazione dell’algoritmo, ma deve essere garantito l’intervento umano.

 

L’emergenza che stiamo vivendo ha reso evidente a tutti l’esistenza di un problema di protezione dati, specie in ambito sanitario, dove oggetto del trattamento sono i dati relativi alla salute e laddove un dato non accurato e un trattamento non corretto e adeguato può comportare conseguenze rilevanti in termini di cure e quindi sul diritto alla salute degli individui. Da ciò emerge ancora maggiormente un concetto, più volte ribadito anche dal Prof. Franco Pizzetti, ossia che la privacy non rappresenta più un diritto meramente individuale, prerogativa del singolo, ma si impregna di un valore di tipo pubblicistico, diventa un interesse collettivo. La società in cui viviamo non può permettersi di non affrontare il tema della protezione dei dati personali, che anzi diventa un elemento essenziale della nuova società digitale.

In conclusione possiamo dedurre che non serve rinunciare del tutto alla nostra privacy per tutelare la salute pubblica: è possibile coniugare entrambe le esigenze, anzi i principi sulla protezione dei dati, in particolare la minimizzazione, la necessità, l’accuratezza e la qualità dei dati, possono giocare un ruolo molto importante nell’individuazione e sperimentazione di soluzioni, anche tecnologiche, di aiuto nella lotta alla pandemia.

Le parole chiavi sono per un corretto bilanciamento di diritti sono proporzionalità, temporaneità ed effettività: le misure adottate e le scelte effettuate in questo periodo devono essere proporzionate e limitate allo stato emergenziale, ma soprattutto necessarie ed efficaci: a mio parere possiamo e dobbiamo accettare una compressione dei nostri diritti e libertà individuali a vantaggio di un bene comune, solo qualora vi siano prove certe ed evidenze scientifiche che la soluzione da adottare sia effettivamente necessaria ed efficace nel raggiungimento degli obiettivi prefissati, in questo caso che sia efficacemente volta al contenimento della pandemia e alla tutela della salute pubblica.

Rosanna Celella

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *