In attesa di Giustizia…computerizzata?
Nel febbraio scorso il Governo ha elaborato la bozza del decreto legislativo con il quale si dovrebbe dare attuazione alla direttiva n. 680/2016 in materia di trattamento dei dati sensibili il cui obiettivo è la protezione delle persone “con riguardo al trattamento dei dati personali da parte delle autorità competenti ai fini della prevenzione, indagine, accertamento e perseguimento di reati o esecuzione di sanzioni penali”.
All’art.8 dello schema del decreto si legge che:
1) sono vietate le decisioni basate unicamente su trattamenti automatizzati, compresa la profilazione, che producono effetti negativi sul destinatario, salvo che siano state autorizzate dal diritto della UE o da apposite disposizioni legislative;
2) le disposizioni di legge devono prevedere garanzie adeguate per i diritti e le libertà dell’interessato. In ogni caso è garantito il diritto di ottenere l’intervento umano da parte del titolare del trattamento;
3) le decisioni di cui al punto uno non possono basarsi sulle categorie particolari di dati personali (quelli relativi all’appartenenza a razza, religione e sesso, etc.), salvo che siano in vigore misure adeguate a salvaguardia dei diritti, delle libertà e degli interessi legittimi dell’interessato.
Se ne ricava che i tempi della giustizia formata da algoritmi predittivi si avvicinano rapidamente; infatti, nel giudizio penale la profilazione (cioè a dire l’elaborazione dei dati dei cittadini, suddivisi in gruppi omogenei in base a gusti, interessi e comportamenti) non è stata vietata, anzi è ammessa con il solo limite che deve essere prevista per legge qualora produca effetti negativi sul soggetto destinatario.
Rimane la garanzia di un “intervento umano”, previsto solo complementare (ma non essenziale) a quello automatizzato.
Sono, forse, le avvisaglie del momento in cui una forma di intelligenza artificiale sostituirà (facendosi soccorrere soltanto se richiesto) quella umana?
Alcuni sono favorevoli alla introduzione nelle regole del giudizio di questa modalità di calcolo probabilistico, quando viene applicata per suggerire la proiezione dell’esito di un giudizio, evidenziandone i margini di vittoria e così contribuendo a scongiurare azioni legali temerarie: e in Francia, per esempio, ci sono aziende che sponsorizzano tali progetti.
Se tutto ciò è in qualche misura accettabile nel giudizio civile, in quello penale è evidentemente pericoloso fare statistica sul destino di una persona, un essere umano che ha diritto di ricevere un trattamento che preferisca ad un sistema operativo l’umano sentire: quello di quel giudice, a volte produttivo di decisioni severe, ma che in via generale ha “un umano sentire”; che nell’applicare le leggi ha una percezione reale, concreta, della loro potenziale efficacia. Un giudice che coglie le fragilità dell’uomo e che offre – ove possibile – delle opportunità di riscatto oppure il pericolo di recidiva, opportunità che hanno sfumature così varie che una “macchina” non può calcolarle, perché non può empaticamente percepirle.
E attenzione, questa tipologia di algoritmi predittivi non sono fantascienza: negli Stati Uniti d’America si usano da anni nella fase pre-processuale e più di recente anche nella fase di giudizio, con buona pace del verdetto reso dai “dodici pari” in giuria. Manca solo che si arrivi a quel futuro inquietante descritto nel film “Minority Report” in cui gli autori di un reato vengono individuati (e puniti) prima ancora che lo commettano.
Una lettura interessante, su questa materia è quella del libro “Il Giudice emotivo” in cui si tratta proprio delle variabili nel giudizio indotte da dinamiche psicologiche del giudicante, anche fuorvianti come quelle determinate da “scorciatoie” inconsce di valutazione: se ne trae la conclusione – paragonando i sistemi – che, forse, è preferibile che la Giustizia continui ad essere affidata agli uomini con tutti i loro limiti e la loro connaturata fallacia rispetto alla quale la legge appronta rimedi, piuttosto che a delle macchine di cui si postula il dogma della infallibilità.