Seguici anche su

11 ottobre 2017

Signor algoritmo, signori della corte

Nessun magistrato è scevro da pregiudizi e debolezze. Perché allora non affidarsi ai computer? Migliorerebbero molto l’efficienza, non l’obiettività e la trasparenza

Paolo Bottazzini

Dal numero di pagina99 in edicola dal 6 ottobre e in edizione digitale

Anche i magistrati giudicano con la pancia. John Stuart Mill riferisce che Lord Mansfield aveva un amico, inviato a governare una colonia britannica e a presiedere il tribunale locale, senza però alcuna formazione né esperienza in tema di diritto; in risposta alla sua richiesta di aiuto, gli consigliò di emettere sempre sentenze risolute, che probabilmente si sarebbero rivelate giuste, ma di non tentare mai di fornire delle ragioni, che sarebbero state quasi inevitabilmente sbagliate. L’ottimismo del presidente della Corte Suprema, e grande riformatore del diritto inglese, si scontra però con un limite, che sembra risiedere proprio nella pancia dei giudici.

 

I pasti del Tribunale della libertà

Un’indagine condotta dai dipartimenti di scienze economiche della Columbia University e della Ben Gurion University, pubblicata nel 2011, ha esaminato il comportamento di otto magistrati israeliani, incaricati di valutare la concessione della libertà sulla parola per i detenuti che si appellano al tribunale. All’esame di ogni caso vengono accordati in media sei minuti, e – sempre in media – viene approvato solo il 35% delle richieste.

I giudici si limitano a tre pause nella giornata di lavoro, quella del caffè il mattino, quella per il pranzo e quella per la merenda. I ricercatori hanno cronometrato la distanza tra i pasti e le autorizzazioni per la libertà, scoprendo che il picco di consensi si registra subito dopo le pause, con il 65% di permessi, mentre si scende quasi a zero nelle due ore prima del rinfresco. Daniel Kahneman, revisore del saggio, accredita l’esistenza di una correlazione tra la riduzione del glucosio nel cervello, e la sopraffazione della riflessione ad opera dei pregiudizi.

Forse Steve Jobs svelava un giustizialismo inconscio, quando ammoniva gli studenti con il suo «Stay hungry» (restate affamati); comunque il vantaggio di processori, reti neurali e intelligenza artificiale, è proprio quello di non essere collegati a uno stomaco, da riempire con adeguata periodicità.

 

Giudizio e pregiudizio

Questa caratteristica non è sfuggita al National Bureau of Economic Research (Nber), che da poco ha pubblicato i risultati di un’indagine sulle decisioni di custodia cautelare per imputati in attesa di giudizio. Il sovraffollamento degli istituti di detenzione non è un problema solo in Italia; anche in America, dal 1990, si lamenta che l’eccesso di liti sta ingolfando le aule dei tribunali – e soprattutto sta stipando le celle delle carceri, con la conseguenza di accrescere il numero di patteggiamenti e comminare pene senza reclusione.

Quando il giudice stabilisce se lasciare in libertà, o se rinchiudere l’accusato in attesa del processo, deve valutare i rischi di fuga o la tentazione di replicare il reato da parte dell’incriminato. Diversi pregiudizi possono interferire con la sua analisi, da quelli che riguardano il tipo di colpa attribuita, a quelli che investono le caratteristiche etniche e sociali del soggetto. I delitti con un grado maggiore di violenza, o la nazionalità e il colore della pelle, possono influenzare la decisione del magistrato attraverso un’imboscata (inconscia) della pancia.

 

L’imparzialità del computer

I dispositivi di intelligenza artificiale vantano l’immunità sia dalla fame, sia dai preconcetti dettati da razzismo o dall’emotività: almeno fino a quando non vengano messi in contatto con una chat su Twitter, come ha dimostrato la breve vita di Tay della Microsoft. Sono bastate 24 ore di conversazioni con i frequentatori del social network, per trasformare una rete neurale, nata con una mente immacolata da qualunque superstizione, in una fanatica del suprematismo bianco e in una misogina.

La purezza implica anche l’assenza di anticorpi e i rischi derivati: spesso la coabitazione con qualche gruppo di tabù permette di scongiurare l’adesione a pregiudizi peggiori. Ma se si escludono le brutte frequentazioni, e si rinchiude la rete neurale in un mondo di codici e sentenze, l’intelligenza artificiale sembra essere capace di un buon lavoro.

 

Algoritmi e sentenze

Secondo i ricercatori della Nber, il software sperimentato ha raggiunto decisioni che avrebbero migliorato il welfare della giustizia, rispetto ai colleghi umani. Le loro sentenze infatti avrebbero ridotto la ripetizione di crimini del 24,8% senza modificare il numero di detenuti; ma il risultato più interessante si sarebbe conseguito chiedendo di lasciare invariato il volume dei delitti, modificando il tasso di carcerati. In questo caso, la contrazione degli ospiti nelle colonie penali si sarebbe misurato in un tasso del 42%.

Ufo Robot mangiava libri di matematica e insalate di cibernetica; l’intelligenza artificiale, cui si affidano i tribunali, divora testi normativi e giurisprudenza, senza mai avvertire stanchezza o nausea, e li completa con montagne di statistiche sui comportamenti di imputati e condannati dopo il loro passaggio per le aule di giustizia.

 

Come decide una rete neurale?

Il Wisconsin Department of Corrections ha già adottato il software di una società privata, che si chiama Compas, capace di stimare il rischio di reiterazione del reato da parte degli incriminati. Il giudice può chiedere la sua opinione sulla lunghezza della detenzione, necessaria per ridurre questo pericolo. Ad aprile ha suscitato diverse polemiche una sentenza della Corte Suprema sul ricorso di un imputato valutato come pericoloso dal software. L’avvocato di Eric Loomis ha protestato contro la durata della pena, sostenendo che i criteri di previsione dell’algoritmo non sono noti al pubblico, e nemmeno ai giudici. Il tribunale ha respinto il ricorso, ma ha acceso il dibattito: infatti, è senz’altro vero che nemmeno l’ingegnere da cui dipende l’imputazione dei dati conosce il processo di decisione della rete neurale.

I magistrati abdicano a una porzione della loro responsabilità, affidandosi alla pancia di una macchina che metabolizza i suoi verdetti in modo non meno oscuro di quella dei giudici in carne ed ossa. Ma, al contrario di quello che accade con gli esseri umani, non è possibile interrogarla sui suoi pregiudizi, o pretendere che li tenga sotto controllo il più possibile quando è in servizio. E se i dati di input della learning machine sono i precedenti della giurisprudenza, e le statistiche dei commissariati di polizia – per neri, ispanici, gay, minoranze e diseredati di ogni tipo, si disegna un destino poco promettente in tutte le aule di tribunale. La proposta che sembra mettere tutti d’accordo è integrare il lavoro dei giudici con quello dell’intelligenza artificiale, senza tentare una sostituzione di ruoli. Ma due pance messe insieme, sapranno sentenziare meglio di una sola?

 

[Foto in apertura di Al Drago / The New York Times / Redux / Contrasto]

Altri articoli che potrebbero interessarti