L’algoritmo che condanna: i limiti della giustizia predittiva

Condividi

Si può essere condannati da un algoritmo?

Ebbene sì! È quello che è accaduto negli USA nel febbraio del 2013 a Eric Loomis.

Loomis, cittadino statunitense, stava guidando un’automobile usata durante una sparatoria nel Wisconsin e per giunta non si era fermato al controllo della polizia. Il giudice, nello stabilire la pena da comminare, ha tenuto conto anche del punteggio assegnato all’imputato da un software chiamato Compas. Per tali fatti Loomis veniva condannato alla pena particolarmente severa di sei anni di reclusione e, pertanto, i risultati di un algoritmo venivano utilizzati quale elemento determinante per quantificare (in peius) la pena inflitta all’imputato.

Il software predittivo Compas funziona attraverso un algoritmo che, utilizzando alcune risposte date a un questionario di 137 domande (riguardanti età, lavoro, vita sociale e relazionale, grado di istruzione, uso di droga, opinioni personali e percorso criminale), sarebbe in grado di prevedere il rischio che un imputato commetta nuovamente un reato. Loomis era stato qualificato come soggetto ad alto rischio e per questo non è stato condannato solo per <<ciò che ha fatto in passato>> – e quindi la recidiva comunemente intesa – ma per <<ciò che potrebbe fare in futuro>>. Una sorta di preavviso/rischio di recidiva. Un concetto abnorme e difficile da concepire, specie nell’ambito del nostro diritto penale, fondato sulla certezza del diritto, sullo standard decisorio “al di là di ogni ragionevole dubbio”, su un equo processo e sul principio del favor rei. Il giudizio sulla propensione dell’imputato a ripetere il delitto non sembrerebbe più fondarsi su un criterio metodologico di accertamento del fatto o su una puntuale prescrizione della legge, ma viene affidato ad un algoritmo di valutazione del rischio, elaborato da un software prodotto da una società privata.

Corsi di formazione privacy GDPR protezione dati personali diritto informatica

Loomis impugnava la sentenza adducendo il fatto che il giudice di primo grado aveva fondato la sua decisione – e in particolare la determinazione della pena – sui risultati di un algoritmo proprietario coperto da brevetto e impegni di riservatezza, il cui funzionamento è pertanto segreto e la cui validità scientifica non può essere accertata, ciò violando le garanzie del giusto processo (due process). Tuttavia la Corte Suprema del Wisconsin si è pronunciata a sfavore dell’uomo, sostenendo che la decisione sarebbe rimasta invariata anche senza l’utilizzo di Compas e che era senz’altro riscontrabile anche l’intervento umano. Nella sentenza, pur legittimando un siffatto utilizzo dell’algoritmo, si specifica, altresì, che lo strumento non può essere l’unico elemento su cui fondare una pronuncia di condanna.

Il caso di specie ci porta a riflettere sull’utilizzo sempre più diffuso degli algoritmi predittivi nell’amministrazione giudiziaria. I primi studi sulla calcolabilità del ragionamento giuridico sono riconducibili a Leibniz e alla sua “Ars combinatoria”, ma oggi, con lo sviluppo della tecnologia e dell’informatica, ciò ha trovato concretezza attraverso l’elaborazione di programmi in grado di riprodurre in maniera automatizzata la logica giuridica.

Come è evidente, il fenomeno è particolarmente diffuso negli USA, dove alcune corti si avvalgono di tecniche informatiche per misurare il rischio di recidiva del condannato, ai fini della determinazione dell’entità della pena o di una misura alternativa alla detenzione.

Alla stregua di ogni altro fenomeno che segue la scia dell’evoluzione tecnologica è necessario, ma anche estremamente complesso, indagarne i rischi e le opportunità. Nel caso della giustizia predittiva, da un lato è innegabile il conseguimento di risultati pratici – soprattutto in termini di risparmio, considerata la complessità tecnica, i tempi e i costi delle operazioni di ricostruzione dei fatti-, dall’altro è inevitabile il rischio di mettere in crisi il sistema di tutele e garanzie dell’individuo, nonché l’intero paradigma di struttura e funzione della giurisdizione finora esistente.

Un caso Loomis potrebbe verificarsi anche da noi? Abbiamo strumenti in grado di metterci al riparo?

Ai turbolenti e incisivi cambiamenti dettati dall’evoluzione tecnologica, in Europa si è pensato di porre freno, o meglio regolamentazione, attraverso lo scudo del GDPR, costruito secondo una logica di prevenzione e anche di flessibilità, in modo da poter ricomprendere anche aspetti ulteriori e futuri connessi agli sviluppi tecnologici.

Tuttavia, sotto alcuni aspetti, il GDPR – come ogni normativa del resto-  non è in grado di stare al passo dell’innovazione e avrà (se non ha già) bisogno di sforzi interpretativi, integrativi e di approfondimento costanti.

Con riferimento al tema oggetto di discussione, l’attenzione ricade sull’art. 22 GDPR, ossia sul divieto di essere sottoposti a decisioni “unicamente” automatizzate. Ciò vuol dire che, laddove intervenga una decisione fondata su un algoritmo, ma sia comunque intercettabile un intervento umano – come sostenuto appunto dalla Corte del Wisconsin nel caso Loomis – lo scudo dell’art. 22 GDPR non sarà applicabile.

Anche gli artt. 13 – 14 – 15 del GDPR si pongono a tutela dell’interessato in caso di decisioni dettate dall’algoritmo: l’interessato hai il diritto di ricevere informazioni sull’esistenza di un processo decisionale automatizzato, sul suo funzionamento e sulla logica utilizzata, nonché sulle conseguenze di tale trattamento.

Ciò vuol dire che il soggetto non può avere accesso alla formula matematica che sta alla base dell’algoritmo – e in tale modo viene anche assicurata la tutela della proprietà industriale – ma deve avere accesso ad un formato intellegibile dell’algoritmo, ossia ad informazioni che siano comprensibili dall’uomo medio, idonee a spiegare in modo semplice e chiaro “come funziona” l’algoritmo.

In sintesi: informazione, intelligibilità e trasparenza. Anche il Parlamento Europeo nel report del gennaio 2019 su “AI and Robotics” sottolinea la necessità dell’“intelligibility of decisions”, oltre che il diritto dell’interessato ad essere informato circa la logica del trattamento automatizzato e la garanzia dell’intervento umano, secondo le previsioni su richiamate del GDPR.

Spiegare con un linguaggio “umano” – ossia decifrabile da un quisque de populo – il funzionamento di qualcosa di estremamente tecnico risulta estremamente complesso e rappresenta appunto uno dei limiti e delle sfide su cui misurarsi nel prossimo, anzi imminente futuro.

La giurisprudenza italiana sembra inizi ad orientare in tal senso: in una recente sentenza del Consiglio di Stato si legittima l’utilizzo di algoritmi nelle procedure valutative della P.A. a patto che siano garantite trasparenza e possibilità di verifica in sede giurisdizionale. Alcuni docenti di scuola secondaria avevano infatti lamentato la loro assegnazione presso sedi di servizio sulla base delle risultanze di un algoritmo a loro ignoto. I giudici amministrativi hanno incoraggiato l’ingresso nei procedimenti amministrativi delle nuove tecnologie informatiche e, in particolare, l’utilizzo di algoritmi idonei a garantire efficienza, economicità e buon andamento dell’azione amministrativa. Tuttavia hanno precisato che l’utilizzo di algoritmi e di procedure automatizzate debba essere considerato un «atto amministrativo informatico» e, in quanto tale, dovrà necessariamente sottostare a principi di ragionevolezza, proporzionalità, di pubblicità e trasparenza. Ad ogni modo gli algoritmi non potranno essere impiegati per addivenire a decisioni aventi natura prettamente discrezionale e dovranno comunque essere sottoposti «al pieno sindacato del giudice amministrativo».

Rosanna Celella

Note:

Sentenza n. 2270 dell’8 aprile 2019, Consiglio di Stato, VI sez.

Wisconsin S.C., State v. Loomis, 881, Wis. 2016

Canzio, Il Dubbio e la legge, Diritto penale contemporaneo

Bistolfi – E. Pelino – L. Bolognini, Il Regolamento Privacy europeo, Milano, 2016

FPA Annual Report 2016

Parlamento europeo – Report on AI and robotics, Gennaio 2019

giustizia predittiva

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *