I tentativi di supportare il processo decisionale dei giudici, monocratici o collegiali che siano, attraverso l’utilizzo di soluzioni algoritmiche sollevano molte perplessità e alimentano un forte dibattito. L’utilizzo di tali tecnologie sembra essere finalizzato a “razionalizzare” il processo decisionale nella convinzione, o nella speranza, che i sistemi informatici siano in grado di utilizzare in modo più efficiente tutte le informazioni a disposizione sui singoli casi ed abbiano la capacità di ponderare opportunamente le informazioni sia su quanto già accaduto sia sugli esiti dei casi precedenti. Tale approccio dovrebbe consentire quindi una capacità decisionale meno discrezionale e quindi più giusta ed equilibrata, a supporto del giudice.
Sono però già noti molti casi in cui proprio il ricorso a soluzioni tecnologiche ha sollevato forti perplessità in termini di affidabilità, trasparenza e conoscibilità degli algoritmi utilizzati. La vicenda sicuramente più nota risale al 2016 e riguarda il caso della Corte Suprema del Wisconsin ed Eric Loomis. All’uomo, arrestato per ricettazione e resistenza a pubblico ufficiale, era stata inflitta una pena piuttosto severa poiché il giudice si era avvalso di una soluzione software commerciale che, utilizzando algoritmi statistici proprietari, aveva previsto per quel caso un’elevata probabilità di recidiva. I legali dell’accusato hanno impugnato la sentenza opponendosi a quel tipo di trattamento proprio in considerazione della mancata trasparenza dei meccanismi di assegnazione del punteggio sulla recidività e del fatto che tale valore fosse assegnato in base a tipologie di persone, piuttosto che per singoli soggetti.
Ancora più inquietante è inoltre il timore, da più parti indicato come evidenza, che l’algoritmo utilizzato possa essere soggetto a “bias”, per progettazione o che si sviluppi durante il proprio training, che renda di fatto la soluzione non imparziale, addirittura razzista. Durante le successive analisi dei risultati del software, infatti, è emerso che la probabilità di essere considerati “recidivi” dal software è molto maggiore, quasi il doppio, per persone di colore rispetto ai bianchi. A seguito di questi eventi, l’organizzazione no-profit americana ProPublica ha diffuso un’analisi molto dettagliata sul software “Compas” utilizzato proprio nel caso Loomis.
Gli algoritmi di intelligenza artificiale possono essere sviluppati con approcci e tecnologie molto diverse tra loro, anche in dipendenza dagli ambiti e dalle funzioni per le quali si intende utilizzarli. In particolare, alcuni algoritmi, definiti “sistemi esperti”, sono in grado di sfruttare una base di conoscenza iniziale, fornita direttamente da competenze umane, per dedurre nuove conoscenze e informazioni in modo inferenziale. Utilizzando questa tipologia di sistemi, si è sempre in grado di spiegare logicamente le decisioni prese dall’algoritmo.
I maggiori successi applicativi però sono attualmente raggiunti utilizzando un paradigma completamente diverso, definito “deep learning” e basato su reti neurali. Gli algoritmi di questo tipo risultano particolarmente flessibili ed in grado di divenire, con varie modalità di apprendimento, molto efficaci ed efficienti. Di contro, però, divengono una sorta di “oracolo” che, per propria natura statistica, non rende facilmente possibile indicare con esattezza perché si generi una determinata risposta e tantomeno ci si può attendere da questo tipo di algoritmi la totale assenza di errore.
Un recente studio, tutto italiano, iniziato nel 2017 e già pubblicato nella sua seconda edizione (Luigi Viola, “Interpretazione della legge con modelli matematici“), propone un approccio algoritmico per l’automatizzazione del supporto al processo decisionale in ambito legale completamente deterministico. L’autore non presenta, infatti, un algoritmo di intelligenza artificiale basata su deep learning ma uno strumento informatico a supporto dell’attività del giurista nel quale l’algoritmo sia predittivo “per logica”, non “per statistica”. Quanto poi al tema della trasparenza della soluzione, lo studio pubblicato è una puntuale spiegazione delle regole funzionali dell’algoritmo e delle motivazioni che le hanno generate.
Nella pubblicazione, utilizzando un approccio tipicamente scientifico, è definito un preciso ambito di applicabilità dell’algoritmo e ne è verificata l’efficacia in alcuni test-case, di cui sono presentati i risultati, sia con verifica di coerenza su sentenze già emesse sia prevedendo di mesi il risultato di altre.
A partire dalla evidente necessità di strumenti tecnologici che aiutino a garantire la certezza del diritto, il suo autore Luigi Viola cerca di coniugare il determinismo della originale definizione di algoritmo “procedimento che risolve un determinato problema attraverso un numero finito di passi elementari, chiari e non ambigui, in un tempo ragionevole” ai processi di applicazione della legge. Secondo questo approccio, algoritmi e strumenti logico matematici non si sostituiscono agli elementi di valutazione e al processo giuridico ma ne sono piuttosto supporto e linea guida, spiegabile e verificabile dalle parti. La ricerca si focalizza esclusivamente nell’ambito civile, non penale, e presenta un algoritmo che pare consentire una corretta ed uniforme interpretazione della legge in tutti gli ambiti in cui non siano esplicitamente presenti nelle leggi le cosiddette clausole valoriali (“Buona fede”, “Diligenza del buon padre di famiglia”, “Ragionevolezza”, “Interesse del minore” e cosi via) che consentono, e richiedono, margini di discrezionalità molto ampi.
Secondo l’autore della ricerca, comunque, in moltissime tipologie di “casi seriali” l’utilizzo di modelli logico matematici può consentire una maggiore aderenza delle valutazioni del giudice alla ratio proposta dal legislatore nelle leggi piuttosto che alla loro propria libera interpretazione. L’utilizzo di questo tipo di algoritmo non stravolge lo svolgimento del processo, semmai lo rende più celere, perché i dati che ne guidano l’esecuzione sono accertati durante le fasi del contraddittorio. Quello che può essere maggiormente garantito, con l’utilizzo di questa tipologia di strumenti automatici, è la certezza del diritto a garanzia dei diritti di ogni cittadino. La prevedibilità delle conseguenze delle proprie azioni è una garanzia di libertà per chi compie azioni lecite. Applicato in ambito civile, questo tipo di algoritmo viene presentato come una sorta di “calcolatrice” a disposizione dell’operatore del diritto. Una definizione esaustiva di “Giustizia predittiva” è stata elaborata proprio da Luigi Viola e pubblicata sul sito della Enciclopedia Italiana Treccani.
Nello studio e nella sua presentazione sono proposti una serie di esempi di possibile utilizzo positivo di questo tipo di algoritmo e se ne fa riferimento persino per uno dei compiti essenziali della Corte di Cassazione: vigilare sull’esatta e uniforme interpretazione delle leggi. Inoltre, la capacità predittiva dell’algoritmo può essere utilizzata anche in termini difensivi. Lo studio del caso di un cliente, ad esempio, può essere simulato da avvocati di parte per verificare diverse strategie di difesa. Ovviamente l’intento non è predire con precisione il dispositivo di una sentenza ma comprendere l’orientamento che avrà il giudice, seguendo l’interpretazione più corretta della legge.
Il dibattito sul tema del “determinismo giuridico”, che questo studio intrinsecamente solleva, è piuttosto forte. Ad ogni modo, i processi di produzione normativa, quelli di applicazione delle leggi e le attività degli avvocati, sembrano poter comunque trarre molti vantaggi dall’utilizzo degli algoritmi come strumenti di formalizzazione e comprensione sistematica. Un utilizzo sistematico dell’algoritmo potrebbe infatti consentire di verificare una maggiore coerenza della intera produzione normativa; norme non costituzionali non potrebbero essere generate.
L’approccio algoritmico al diritto è da un lato ritenuto importante e coraggioso dall’altro piuttosto contestato. Le considerazioni che sembrano coniugare queste divergenze, di buon senso, convergono nel considerare la predizione dei sistemi algoritmici come una delle componenti della decisione del giudice che, ovviamente, non la esaurisce. La necessità di utilizzare algoritmi sembra essere chiaramente una risposta al problema dei tempi della giustizia, più che a quello della giustizia di per sé.
L’applicazione è infatti più indicata nelle cause di carattere seriale. L’algoritmo può essere per il magistrato ciò che il programma di contabilità è per i dottori commercialisti, si sostiene in alcuni ambiti di ricerca legale. Ovviamente, per dirla con le parole di Stefano Schirò – Presidente della Prima Sezione Civile, Suprema Corte di Cassazione, che ha curato la presentazione dello studio – “La giustizia non può essere il risultato di uno scontrino che esce da una macchina”.
Inoltre, gli aggiornamenti dell’algoritmo e dei parametri su cui basa il proprio funzionamento dovranno essere dettati da considerazioni sul variare della società civile, del costume e del sentire comune. In tal senso, quindi, l’aggiornamento non dovrebbe essere un “adattamento autonomo” dell’algoritmo ma una vera e propria sua riconfigurazione, dall’esterno.
L’uso esclusivamente strumentale degli algoritmi mitiga molte delle spinose problematiche circa l’autonomia decisionale del giudice, del rispetto del suo libero convincimento e del diritto del cittadino ad una sentenza personalizzata. In caso di concordanza tra il proprio giudizio “umano” ed il risultato dell’elaborazione, un giudice potrà sentirsi sollevato dal sapere di non essere incorso in errori o sviste e quindi le motivazioni della sentenza saranno molto più affidabili. Di contro, c’è da chiedersi quale giudice potrà avere poi la determinazione di contraddire l’indicazione dell’algoritmo e quanto saranno ritenute opinabili le motivazioni del legittimo libero agire dell’organo giudiziario.
————-