Intelligenza artificiale nella Giustizia: approvata la Carta etica europea

Ecco i cinque principi fondamentali per l’utilizzo giudiziario e forense di AI

Finalmente qualche istituzione si è mossa.

Onore al merito per il Cepej, la commissione europea per la efficienza della giustizia, che  ha pubblicato la prima carta etica per l’utilizzo di sistemi intelligenti sia per assumere decisioni giudiziarie sia per l’utilizzo di tools da parte di avvocati e operatori del sistema.

E’ probabile che l’impressione relativa ai cinque principi fondamentali sia di una certa vaghezza. Ma in questo momento, forse, vale più il segnale di attenzione riguardo l’impatto che l’utilizzo di algoritmi, soprattutto di machine learning, possono avere sui diritti fondamentali delle persone garantiti dalla Convenzione europea dei diritti dell’Uomo e dalla Convenzione per la protezione dei dati personali n. 108.

La Carta Etica , spiega il Consiglio d’Europa, è indirizzata sia alle start up legaltech, che progettano piattaforme di nuovi servizi, sia agli sviluppatori di tools, sia alle autorità a cui spetta la decisione di regolamentare questo campo, sia alle professioni giuridiche, magistrati -avvocati- notai.

Se da una parte il Coe è consapevole che l’utilizzo di questa disciplina può aumentare l’efficienza dei sistemi giudiziari, nel contempo avverte che gli operatori devono garantire un approccio “responsabile e rispettoso dei diritti fondamentali”, e tra questi soprattutto il diritto alla non discriminazione, proprio a sottolineare il pericolo principale che si annida nei data set e negli algoritmi che vi operano.

Il Cepej ha così individuato i cinque principi che dovrebbero essere linee guida prescrittive nel campo della AI applicata alla giustizia.

Eccoli:

1) Rispetto dei diritti fondamentali, assicurandosi che il design, la realizzazione e l’ applicazione di nuovi servizi e tools basati su AI siano con essi compatibili;

2) Principio di non discriminazione: in particolare prevenendo lo sviluppo o la intensificazione di qualsiasi forma di discriminazione tra individui o gruppi di individui;

3) Principio di qualità e sicurezza: soprattutto con riguardo ai processi di predisposizione di data set e di elaborazione delle decisioni, utilizzando fonti certificate e con l’apporto multidisciplinare di diverse competenze. La raccomandazione è che la processazione di dati debba avvenire sulla base di originali certificati ed integri in ogni fase.  Garantendo, sa va san dir, la cyber security;

4) Principio di trasparenza, imparzialità e correttezza: occorre rendere accessibili i modelli e gli algoritmi utilizzati nelle decisioni giudiziarie rendendoli comprensibili e a disposizione di audit di autorità indipendenti. La predisposizione di un sistema di certificazione sarebbe auspicabile;

5) Principio del “under user control,  che potremmo definire “della garanzia dell’intervento umano” ossia precludere un approccio deterministico nell’utilizzo dei tools,  garantendo che gli attori siano pienamente consapevoli e possano tornare padroni della propria decisione.
Questo principio è particolarmente strategico in ambito giudiziario, dove il giudice deve mantenere il potere di verificare l’output intelligente rispetto al caso specifico, per garantire l’effettiva applicazione del diritto al caso specifico. Ogni utente dovrà essere informato della natura della soluzione proposta tramite AI, le possibili opzioni e del diritto di ricorso.

-(fonte: Altalex, 4 dicembre 2018. Articolo di Claudia Morelli) –

Pubblicato da Redazione