documento | 2023-02-13 · NEW: ![]() |
Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi adottata dalla CEPEJ |
abstract:
Link: https://rm.coe.int/carta-etica-europea-sull-utiliz
analisi:
index:
testo:
E estimated reading time: 143 min Strasb urg o, 3 dicembre 2018
CEPEJ(2018)14
COMMISSION E EUROPEA PER L’EFFICIENZA DELLA GIUSTIZIA
(CEPEJ)
Carta etica e uropea
sull’utilizz o dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti
connessi
adottata dalla CEPEJ nel corso della sua 31ͣ Riunione p lenaria
(Strasb urg o, 3 -4 dicembre 2018)
2
Si ringrazia il Ministero della Giustizia della Repubblica Italiana
per la traduzione.
3
INDICE
Introduzione 4
I cinque principi della Carta etica sull’u tilizz o dell’intelligenza artificiale nei sistemi
giudiziari e negli ambiti connessi
1. Princip io del rispetto dei diritti fondamentali : Assicurare che l ’elabor azione e l’attuazione
di strumenti e servizi di intelligenza artificial e siano compatib ili con i diritti fondamentali . 6
2. Princip io di non -discrimina zione : Prevenire s pecifica mente lo sviluppo o l’intensifica zione di
discrimina zioni tra persone o gruppi di persone 7
3. Princip io di qualit à e sicur ezza : In ordine al trattamento di decisioni e dati giudiziari, utilizzare fonti
certificate e dati intangibili , con modelli elaborati interdisciplinarmente, in un ambiente
tecnologico sicuro 8
4. Princip io di trasparen za , impar zialit à e equità : Rendere le metodologie di Trattamento dei dati
accessibili e comprensibili, autorizzare verifiche esterne 9
5. Princip io “del controllo da parte dell’ut ilizzator e”: Preclude re un approccio prescri ttivo e assicurare
che gli ut ilizzatori siano attori informati e abbiano il controllo delle loro scelte 10
Appendi ce I: Stud io approfondito sull’utilizzo dell’intelligenza artificiale nei sistemi
giudiziari , segnatamente delle applicazioni dell’intelligenza artificiale per il Trattamento delle
decisioni e dei dati giudiziari
Introduzione
1. Stato dell’utilizzo di algoritmi di intelligenza artificiale nei sistemi giudiziari degli Stati membri
del Consiglio d’Europa
2. Panoramica delle politiche relative ai dati aperti contenuti nelle decisioni giudiziarie nei
sistemi giudiziari degli Stati memb ri del Consiglio d’Europa
3. Caratteristiche operative dell’intelligenza artificiale (apprendimento automatico) applicata alle
decisioni giudiziarie
4. Può l’intelligenza artificiale modellizzare a priori il ragionamento giuridico?
5. Può l’intelligenza artific iale spiegare a posteriori il comportamento dei giudici?
6. Come deve essere applicata l’intelligenza artificiale nella giustizia civile, commerciale e
amministrativa?
7. Questioni specifiche della giustizia penale: prevenzione del reato, del rischio di recidi va e
valutazione del livello di pericolosità
8. Questioni specifiche relative alla protezione dei Dati personali
9. Potenzialità e limiti degli strumenti della giustizia predittiva
10. Necessità di un dibattito pubblico approfondito su tali strumenti prima del l’attuazione di
politiche di sviluppo degli stessi. Urgente necessità che la cyberetica preveda un quadro di
sviluppo di algoritmi di intelligenza artificiale nel rispetto dei diritti fondamentali
4
Appendi ce II: Quali utilizzi dell’intelligenza artificiale nei sistemi giudiziari europei ?
Utilizzi che devono essere incoraggiati
Utilizzi possibili, che esigono notevoli precauzioni metodologiche
Utilizzi da esaminare al termine di supplementari studi scientifici
Utilizzi da esaminare con le più estreme riserve
Appendi ce III: Glossar io
Appendi ce IV: Lista di controllo per inserire i principi della Carta nelle Sue metodologie di
trattamento
Lista di controllo per valutare le Sue metodologie di trattamento
5
Introdu zione
Prendendo atto del la crescente importanza dell’intelligenza artificial e1 (IA) nelle nostre moderne società, e dei
ben efici previsti quando sarà utilizzata pienamente al servizio dell’ efficien za e della qualità della giustizia , la
CEPEJ adotta formal mente i cinque principi fondamentali denominati “Carta e tica europea sull’u tilizzo
dell’intelligenza artificiale nei sistemi giu diziari e negli ambiti connessi ”.
La Carta è destinata agli attori pub blici e priva ti incaricati di creare e lanciare strumenti e servizi di intelligenza
artificiale relativi al trattamento di decisioni e dati giudiziari (apprendimento automatico o qualsiasi altro metodo
derivante dalla scienza dei dati ).
Essa concerne anche i responsabili di decisioni pubbliche competenti in materia di quadro legislativo o
regolamentare, o dello sviluppo, della verifica o dell’utilizzo di tali strumenti e serviz i.
L’utilizzo di tali strumenti e servizi nei sistemi giudiziari è finalizzato a migliorare l’efficienza e la qualità della
giustizia, e dovrebbe essere incoraggiato. Esso deve, tuttavia, essere svolto in modo responsabile, nel dovuto
rispetto dei diritti fondamentali della persona, enunciati nella Convenzione europea sui diritti dell’uomo e nella
Convenzione per la protezione dei dati di carattere personale , e in conformità agli altri principi fondamentali
esposti in prosieguo , che dovrebbero orientare la definizione delle politiche pubbliche in materia di giustizia in
questo campo .
Il Trattamento delle decisioni giudiziarie mediante l’intelligenza artificiale , secondo i suoi creatori, può
contribuire, in materia civil e, commercial e e amministrativa, a mi gliorare la prevedibilità dell’applicazione della
legge e la coerenza del le decisioni giudiziarie, a condizione che siano osservati i principi esposti in prosieguo .
In materia penale il suo utilizzo deve essere esaminato con le massime riserve, al fine di prevenire
discriminazioni basate su dati sensibili , in conformit à alle garanzie di un equo processo.
Che sia cre ato al fine di agevolare la fornitura di una consulenza legale, o la redazione di una decisione , o il
processo decisionale, o a orientare l’ut ilizzator e, è essen ziale che il Trattamento si a svolto con trasparen za,
impa rzialit à ed equità, certifi cate da una perizia esterna e indipendente.
Applica zione della Carta
I princip i della Carta dovrebbero essere sottoposti a regolare applicazione, monitoraggio e valutazione da
parte di attori pubblici e privati , al fine del continuo miglioramento delle prassi.
A tale riguardo, è auspicabile che tali attori compiano un regol are controllo dell’attuazione dei principi della
Carta , che spieghi, se opportuno, i motivi per cui non sono stati attuati o sono stati attuati parzialmente,
accompa gnato da un piano di azione per introdurre le misure necessarie.
Le autorità indi pend ent i men zionate nella Carta potrebbero essere responsabili di valutare periodicamente il
livello di adesione ai principi della Carta da parte di tutti gli attori, e di proporre miglioramenti finalizzati ad
adeguarla all’evoluzione d elle tecnologie e all’utilizzo di tali tecnologie.
1 Per la definizione di intelligenza artificiale, si veda il Glossario allegato.
6
I cinque princip i della Carta etica sull’u tilizz o dell’intelligenz a artificiale
nei sist emi giudiziari e negli ambiti connessi
1
2
3
4
5
PRINCIPIO DEL RISPETTO DEI DIRITTI FONDAMENTALI: assicurare
l’elaborazione e l’attuazione di strumenti e servizi di intelligenza
artificiale siano compatibili con i diritti fondamentali.
PRINCIP IO DI NON -DISCRIMINA ZIONE : prevenire specificamente l o
sviluppo o l’intensificazione di discrimina zioni tra persone o gruppi di
persone .
PRINCIP IO DI QUALITÁ E SICUR EZZA : in ordine al Trattamento di
decisioni e dati giudiziari , u tilizzare fonti certificate e dati intangib ili con
modelli elaborati multi disciplinarmente, in un ambiente tecnologico
sicuro.
PRINCIP IO DI TRASPAREN ZA, IMPAR ZIALIT Á ED EQUITÁ : rendere le
metodologie di Trattamento dei dati accessibili e comprensibili,
autorizzare verifiche esterne .
PRINCIP IO “DEL CONTROLLO DA PARTE DELL’UT ILIZZATOR E”:
preclude re un approccio prescrittivo e assicurare che gli ut ilizzator i siano
attori informati e abbiano il controllo delle loro scelte .
7
Princip io del rispet to dei diritti
fondamentali :
1 assicurare che l’elaborazione e l’attuazione di
strumenti e servizi di intelligenza artificiale
siano compatibili con i diritti fondamentali
Il Trattamento di decisioni e dati giudiziari deve avere finalità chiare , che
rispettino pienamente i diritti fondamentali garantiti dalla Convenzione
europea sui diritti dell’uomo (CEDU ) e dalla Convenzione sulla
protezione delle persone rispetto al Trattamento automatizza to di dati di
carattere personale , STE n . 108 , come modificata dal P rotocollo di
emendamento STCE n. 223).
Quando gli strumenti di intelligenza artificiale sono utilizzati per dirimere
una controversia, per fornire support o nel processo decisionale
giudiziario , o per orientare il pubblico, è essenziale assicurare che essi
non min ino le garanzie del diritto di accesso a un giudice e del diritto a
un equo processo (parità delle armi e rispetto del contraddittorio ).
Essi dovre bbero essere utilizzati anche con il dovuto rispetto per i
principi dello stato di diritto e dell’indipendenza dei giudici nel loro
processo decisionale .
Si dovrebbero quindi privilegiare gli approcci etico -fin dall ’elaborazione 2
o diritti -umani -fin -dall’elaborazione . Ciò significa che , fin dalle fasi
dell’elaborazione e dell’apprendimento , sono pienamente previste
norme che proibiscono la violazione diretta o indiretta dei valori
fondamentali protetti dalle Convenzioni.
2 La scelta etica è realizzata a monte dagli elaboratori del programma e pertanto non è lasciata all’utilizzatore.
8
Data la capacità di tali metodologie di Trattamento di rivelare le
discriminazioni esistenti, mediante il raggruppamento o la
classificazione di dati relativi a persone o a gruppi di persone, gli attori
pubblici e privati devono assicurare che le metodolo gie non riproducano
e non aggravino tali discriminazioni e c he non conducano ad analisi o
usi deterministici.
Deve essere esercitata una particolare vigilanza sia nella fase
dell’elaborazione che in quella dell’ utilizzo , specialmente quando il
trattamento si basa direttamente o indirettamente su dati “sensibili”.
Essi possono comprendere l’origine razziale o etnica, le condizioni
socio -economiche, le opinion i politiche, la fede religiosa o filosofica ,
l’appartenenza a un sindacato, i dati genetici, i dati biometric i, i dat i
sanitari o i dati relativi al la vita sessuale o all’orientamento sessuale.
Quando è individuata una di queste discriminazioni, devono essere
previste le misure correttive al fine di limitare o, se possibile,
neutralizzare tali rischi e sensibilizzare gli attori.
Dovrebbe tuttavia essere incoraggiato l’utilizzo dell’apprendimento
automatico e delle analisi scientifiche multidisciplinari , al fine di
contrastare tal i discriminazioni .
2
Principio di non -discriminazione:
prevenire specificamente lo sviluppo o
l’intensificazione di qualsiasi
discriminazione tra persone o gruppi di
persone
9
10
3
Princip io di qualità e sicurezza :
in ordine al Trattamento di decisioni
e dati giudiziari, utilizzare fonti
certificate e dati intangib ili con modelli
elaborati multidisciplinarmente,
in un ambien te tecnologico sicuro
I creatori di modelli di apprendimento automatico dovrebbero poter
fare ampio ricorso alla competenza dei pertinenti professionisti del
sistema della giustizia (giudici, pubblici min isteri, avvocati, ec c.) e
ricercatori /docenti nei campi del diritto e delle scienze sociali ( per
esempio, economisti, sociologi e filosofi ).
La costituzione di squadre di progetto miste , per brevi cicli di
elaborazione , al fine di produrre modelli funzionali è uno dei metodi
organizzativi che permettono di ottenere il meglio da tale approccio
multidisciplinare .
Tali squadre di progett o dovrebbero sempre condividere le
salvaguardie etiche esistenti , che dovrebbero essere potenziate
utilizzando le risposte ricevute .
I dati derivanti da decisioni giudiziarie inseriti in un software che
esegue un algoritmo di apprendimento automatico dovr ebbero
provenire da fonti certificate e non dovrebbero essere modificati fino
a quando non sono stati effettivamente utilizzati dal meccanismo di
apprendimento. L’intero processo d eve pertanto essere tracciabile,
al fine di garantire che non abbia avuto luogo alcun a modifica in
grado di alter are il contenuto o il significato della decisione trattata.
I modelli e gli algoritmi elaborati devono inoltre poter essere
memorizzati ed eseguiti in ambienti sicuri, in modo da garantire
l’integrità e l’intangibil ità del sistema.
11
4
Principio di trasparenza, imparzialità
ed equità :
Rendere le metodologie di Trattamento
dei dati accessibili e comprensibili,
autorizzare verifiche esterne
Deve essere raggiunto un equilibrio 3 tra la proprietà intellettuale di
alcune metodologie di Trattamento e l’esigenza di trasparenza
(access o al processo creativo ), impar zialit à (assenza di pregiudizi )4,
equ ità e integrità intellettuale (privilegiare gli intere ssi della giustizia )
quando si utilizzano strumenti che possono avere conseguenze
giuridiche , o che possono incidere significativamente sulla vita delle
persone. Dovrebbe essere chiaro che tali misure si applicano
all’intero processo creativo , così come al la catena operativa , in
quanto la meto dologia di selezione e la qualità e l’organizzazione dei
dati influenzano direttamente la fase dell’apprendimento.
La prima possibilità è la totale trasparenza tecnica (per esempio,
open source del codice e della documenta zione ), che è talvolta
limitata mediante la protezione di segreti industriali . Il sistema
potrebbe essere spiegato anche con un linguaggio chiaro e familiare
(per descrivere il modo in cui sono prodotti i risultati ), co munica ndo,
per esempio , la natura dei servizi offerti, gli strumenti che sono stati
sviluppati, l’esecuzione e il rischio di errore . Autorità o esperti
indipendenti potrebbero essere incaricati di certificare e verificare le
metodologie di Trattamento o di fornire consulenza an ticipatamente.
Le autorità potrebbero co ncedere la certificazione, che dovrebbe
essere riesaminata regolarmente.
3 A tale riguardo è interessante la proposta effettuata a pag ina 38 dello studio della MSI -NET del Consiglio d’Europa in materia di “Algoritmi e diritti umani”: “in questo contesto la divulgazione al pubblico di interi algoritmi o del codice software basilare è una soluzione ut opistica, in quanto le imprese private considerano i loro algoritmi un fondamentale software proprietario, che è protetto. Tuttavia, può esservi la possibilità di d omandare che siano divulgate al pubblico informazioni parziali fondamentali in materia di algoritmi, per esempio quali siano le var iabili utilizzate, quali siano gli obiettivi cui è finalizzata l’ottimizzazione degli algoritmi, i dati di apprendimento, i valori medi e gli scarti tipo dei risultati ot tenuti, o la quantità e il tipo di dati trattati dall’algoritmo.” O anche le proposte che figurano a pagina 117 del rapporto “Intelligenza artificiale [IA] per l’umanità” redatto dal Sig. Cédric Villani, membro dell’Assemblea nazionale francese quale parte di una missione conferitagli dal Primo Ministro della Repubblic a francese: “I revisor i potrebbero semplicemente verificare l’equità e la lealtà di un programma (limitandosi a fare ciò che è loro chiesto), present ando una varietà di falsi dati di ingresso, per esempio, o creando una notevole quantità di profili di utilizzatore secondo preci se direttive.” In aggiunta vi sono anche le dichiarazioni contenute nel rapporto della House of Lords, “L’intelligenza artificiale [IA] nel Regno Unito: pronti, disponib ili e capaci?”, paragrafi 92, 96-99. 4 A tale riguardo è interessante rilevare le soluz ioni previste generalmente per assicurare la neutralità degli algoritmi nel summenzionato rapporto della House of Lords (paragrafi 114, 115, 116, 119, 120): più dati diversificati, più approcci diversificati e multidisciplin ari, più verifiche di aspetti qu ali il Trattamento dei dati e le modalità di costruzione dell’apparecchio.
12
5
Principio del “controllo da parte
dell’utilizzatore”:
Precludere un approccio prescrittivo e
assicurare che gli utilizzatori siano
attori informati e abbiano il controllo
delle loro scelte
L’util izzo di strumenti e servizi di intelligenza artificiale deve rafforzare e
non limitare l’auton omia dell’ut ilizzatore.
I professionisti della giustizia dovrebbero essere in grado, in qualsiasi
momento, di rivedere le decisioni giudiziarie e i dati utilizzati per produrre
un risultato e continuare ad avere la possibilità di non essere
necessariamente vincolati a esso alla l uce delle caratteristiche
specifiche di tale caso concreto.
L’ut ilizzatore deve essere informato con un linguaggio chiaro e
comprensibile del carattere vincolante o meno delle soluzioni proposte
dagli strumenti di intelligenza artificiale , delle diverse possibilità
disponibili, e del suo diritto di ricevere assistenza legale e di accedere a
un tribunale. Deve inoltre essere informato in modo chiaro di qualsiasi
precedente Trattamento di un caso mediante l’ intellig enza artificiale ,
prima o nel corso di un procedimento giudiziario , e deve avere il diritto
di opporvisi , al fine di far giudicare il suo caso direttamente da un
tribunale ai sensi dell’articolo 6 della CEDU .
General mente parlando, quando è attuato un sistema informativo basato
sull’intelligen za artificiale dovrebbero es sere previsti programmi di
alfabetizzazione informatica , destinati agli ut ilizzatori , e dibattiti che
coinvolgano i professionisti della giustizia.
13
Appendice I
Studio approfondito sull’utilizzo dell’intelligenza artificiale [I A] nei
sistemi giudiziari , segnatamente delle applicazioni dell’ intel ligenza
artificiale al Trattamento di decisioni e dati giudiziari
redatto dal Sig. Xavier Ronsin, Primo President e della Corte di Appello di Rennes, consulente
scientifico (Franc ia),
e
dal Sig. Vasileios Lampos, ricercatore capo presso il Computer Science department of University College London (UCL), consulente scientifico (Regno Unito ),
e con il contributo della Sig.ra Agnès Maîtrepierre, magistrato , memb ro del Comitato consultivo della
Conven zione del Consiglio d’Europa per la protezione delle persone rispetto
al Trattamento autom atizzato dei dati di carattere personale (Franc ia)
Hanno contri buito al perfezionamento dello S tudio anche i seguenti esperti :
Sig. Francesco Contini, ricercatore capo presso l’Istituto di ricerca sui sistemi giudiziari – Consiglio
nazionale delle ricerche (IRSIG -CNR), Bologna (Ital ia)
Sig. Francesco De Santis, p rofessor e di proced ure di tutela internazionale dei diritti umani ,
Universit à di Napoli (Ital ia)
Sig. Jean Lassègue, filosofo ed epistemologo , ricercatore presso il Centre National de
Recherche Scientifique (CNRS) e ricercatore associato dell’ Institut des Hautes Etud es sur la
Justice (IHEJ) (Francia )
Sig.ra Dory Reiling, giudice onorario superiore , esperto indipendente in materia di tecnologia
dell’informazione e riforma giudiziaria (Paesi Bassi )
Sig. Aleš Završnik, ricercatore c apo presso l’Istituto di Criminolog ia, p rofessor e associato della
Facoltà di Giurisprudenza , Universit à di Lub iana (Sloven ia) e Ricercatore EURIAS 2017 -18
presso il Co llegium Helveticum di Zurigo (Svizzera )
14
Introdu zione
1. L’ondata di trasformazione digitale d elle nostre società ha ancora effetti disuguali sui sistemi
giudiziari degli Stati membri del Consiglio d’Europa. Sembra che molti Paesi europei abbiano già
sviluppato un approccio estremamente avanzato all’utilizzo di applicazioni concrete (sia per
quanto riguarda l’ aspetto tecnologico che quello del sostegno giuridico ), mentre per altri si tratta
ancora di una questione emergente ed essi si concentrano soltanto su un’informatica di gestione
efficace .
2. Tra le tecnologie all’opera in questa grande trasformazione digitale , l’intelligenza artificiale (IA)
sembra essere la più spettacolare e la più sorprendente. Negli Stati Uniti sono già al lavoro
"avvocati robot " e sembra che conversino in una lingua naturale con gli umani . Le legaltech , start -
up speciali zzate nella creazione di nuovi servizi legali , offrono nuove applicazioni ai professionisti
del diritto , principalmente avvocati, servizi legali e assicuratori , che permettono un accesso
approfondito alle informazioni gi udiziarie e alla giurisprudenza . Tali imprese private mirano
perfin o a prevedere le decisioni dei giudici mediante strumenti di “giustizia predittiva” , anche se
osserveremo che tale definizione di essi non è appropriata 5.
3. Un iniziale esame di questo fenomeno ci induce tu ttavia a distinguere questo discorso
commerciale dalla realtà dell’utilizzo e della realizzazione di tali tecnologie. Attualmente non
risulta che i giudici degli Stati membri del Consiglio d’Europa utilizzino praticamente e
quotidianamente un software predittivo . Sono state effettuate sperimentazioni locali 6 e sono stati
svolti studi universitari 7 per esplorare le potenzialità di tali applicazioni, ma esse non sono state
applicate su vasta scala. L’iniziativa dello sviluppo di tali strumenti proviene prevalentemente dal
settore privato , la cui clientela è stata finora composta principalmente da società assicurative ,
avvocati e servizi legali che desiderano ridurre l’incertezza giuridica e l’imprevedibilità delle
decisioni giudiziarie. Ciononostante, co loro che prendono decisioni pubbliche stanno iniziando a
ricevere sempre più frequentemente richieste da un settore privato ch e desidera vedere tali
strumenti – che sono talvolta versioni "beta" , vale a dire che si evolveranno nel tempo – integrat i
nelle politiche pubbliche.
4. In continuità con il processo di rifles sione iniziato nelle sue “Linee -guida sulla cond otta del
cambiamento verso la cy bergiustizia ”,8 la CEPEJ propo ne di fornire a coloro che prendono
decisioni pubbliche e ai professionisti del diritto chiavi per una migliore comprensione del
fenomeno della “giustizia predittiva”.
5. Il primo compito sarà quello di c hiarire le questioni relative alla natura intrinseca di tali sistemi di
trattamento di massa di dati giurisprudenziali , unitamente ai loro limiti tecnici e teorici. Tali aspetti
non sono stati menzionati spesso nel dibattito relativo a questa materia nell’ambiente giudiziario ,
ma sono molto conosciuti e dibattuti da specialisti in tali tecnologie (matematici, statistici e
informatici ) e meritano attenzione.
6. In secondo luogo , il presente documento analizzerà i benefici e i rischi di tali strumenti. Mentre i
loro sosten itori ne sottolineano i vantaggi in materia di trasparenza , pre vedibilità e
omogeneizzazione della giurisprudenza , i loro critici ne mettono in ri levo i limiti e anche i pregiudizi
del ragionamento del software attualmente sul mercato . I rischi inerenti a tali tecnologie possono
perfino trascendere l’ atto di giudicare e incidere su elementi essenziali del funzionamento dello
stato di diritto e dei sistemi giudiziari , cui il Consigli o d’Europa è particolarmente attaccato .
7. Essi comprendono principi quali lo stato di diritto. Gli effetti di tali strumenti possono essere non
soltanto incentivi ma quasi prescrittivi, e creare una nuova forma di normatività, che integra la
legge disciplinando la discr ezionalità sovrana del giudice , che può condurre potenzialmente , a
lungo termine, a un’omogeneizzazione delle decisioni giudiziarie, non basate più sul
ragionamento del giudi ce caso per caso, ma su un puro calcolo statistico connesso al
risarcimento medio concesso precedentemente da altri tribunali.
8. Vi è anche l’esigenza di esaminare se tali soluzioni siano compatibili con i diritti individuali sanciti
dalla Convenzione europea sui diritti dell’uomo (CEDU ). Essi comprendono il diritto a un equo
processo (in particolare il diritto a un giudice naturale stabilito dalla legge, il diritto a un tribunale
5 Si veda in particolare l’apertura del capo 9. 6 Per esempio, in Francia le Corti di appello di Douai e di Rennes nel 2017 hanno sperimentato per tre mesi un programma software definito “predittivo” da parte di un collegio di giudici. 7 Lavori relativi a un campione di 584 decisioni della Corte europea dei diritti dell’uomo: Nikolaos Aletras, Dimitrios Tsarapa tsanis, Daniel Preoţiuc - Pietro, Vasileios Lampos, "Predicting judicial decisions of the European Court of Human Rights: a Natural Language processing perspective", pubblicato il 24 ottobre 2016, [Online], https://peerj.com/articles/cs -93/ 8 Si veda in particolare il paragrafo 51 del documento CEPEJ(2016)13, Linee -guida sulla condotta del cambiamento verso la cybergiustizia.
15
indipendente e imparziale, e alla parità di arm i nei procedimenti giudiziari ) e, qualora non si sia
avuta sufficiente cura di proteggere i dati comunicati nei dati aperti, il diritto al rispetto del la vita
privata e familiare.
9. Tenendo conto di tutte queste questioni, il document o sottolinea il grande potenziale
dell’ int elligenza artificiale per aiutare i professionisti del diritto nel loro lavoro. Non vi è dubbio che
alcune applicazioni dell’intel ligenza artificiale ancora in corso di elaborazione o di
sperimentazione , quali quelle finalizzate a migliorare la ricerca giuridica , potrebbero essere molto
utili e rendere la trattazione del carico di lavoro giudiziario più rapida ed efficiente. Il documento
sottolinea tali esempi positivi ed è favorevole all’utilizzo dell’intelligenza artificiale da parte dei
professionisti del diritto in base alle loro necessità, purché sia dimostrato il dovuto rispetto dei
diritti individuali garant iti dalla CEDU e dalle norme del Consiglio d’Europa , in particolare in
materia penale. Lungi dall’essere un semplice strumento di miglioramento dell’efficienza dei
sistemi giudiziari, l’ intelligenza artificiale dovrebbe raffo rzare le garanzie dello stato d i diritto ,
nonché la qualità della giustizia pubblica.
10. Il document o propone infine mezzi per controllare tal e fenomeno, nella forma di una C arta etica
che sottolinea l’esigenza di un approccio prudente all’integrazione di tali strumenti nelle politiche
pubbliche. È essenziale che qualsiasi dibattito pubblico coinvolga tutti gli attori, siano essi
professionisti del diritto, società di legal tech o scienz iati, per permettere loro di condividere l’intera
portata e le possibili conseguenze dell’introduzione di applicazioni dell’intelligenza artificiale nei
sistemi giudiziari e progettare il quadro etico in cui debbono operare. Successivamente , tale
dibattit o potrebbe andare oltre un puro quadro “professionale” e coinvolgere gli stessi cit tadini ,
contribuendo in tal modo in qualche misura a una generale alfabetizzazione informatica, come è
avvenuto in Canada. 9
1. Stat o dell’utilizzo di algor itmi di intelligenza artificial e nei sistemi giudiziari
degli Stati membri del Consiglio d’Europa
Nel 2018, l’utilizzo di algoritmi di intelligenza artificiale nei sistemi giudiziari europei rimane
principalmente un’iniziativa commerciale del settore privato destinata alle società assicuratrici ,
agli uffici legali, agli avvocati e alle persone.
11. L’utilizzo dell’intelligenza artificiale nel campo giudiziario sembra essere molto diffuso negli Stati
Uniti , che hanno inve stito in tali strumenti senza complicazioni, sia in materia civile che in materia
penale .10
12. Individuare esempi di iniziative in materia di algoritmi di intelligenza artificiale nei sistemi giudiziari
degli Stati membri del Consiglio d’Europa è un compito più difficile, in quanto la maggior parte
delle iniziative provengono dal settore privato e sono raramen te integrate nelle politiche
pubbliche.
13. La questione dell’utilizzo dell’intelligenza artificiale nei sistemi giudiziari è stata trattata in una
specifica inchiesta online, lanciata nell’aprile 20 18 e destinata ai rappresentanti degli Stati membri
della CEPEJ e della società civile. Il tasso di risposta era relativamente basso e non ha permesso
di individuare tendenze chiare. Alcuni operatori privati non sono sembrati molto sensibili a tale
inchiesta e i membri della CEPEJ, appartenenti per la maggi or parte ai Ministeri della Giustizia o
ai Consigli Superiori della Giustizia , hanno potuto citare unicamente gli strumenti utilizzati
attualmente dal settore pubblico.
14. Conseguentemente, l’elenco che segue è soltanto par ziale e si basa unicamente su ric erche ,
condotte da esperti e dal Segretariato , utilizzando la documentazione disponibile
pubblicamente .11
15. Possono essere effettuate classificazioni s ulla base del servizio offerto. L’intervento
dell’intelligenza artificiale può variare notevolmente a seconda delle applicazioni. A fini illustrativi ,
le principali categorie sono le seguenti :
• Motore di ricerca giurisprudenziale avanzato
9 Dichiarazione di Montreal, disponibile presso https://www.declarationmontreal -iaresponsable.com/demarche, consultato in data 16 luglio 2018.
10 Si vedano gli algoritmi COMPAS o strumenti quali R AVEL LAW o il chatbot ROSS. 11 Si veda la bibliografia sommaria contenuta nell’Appendice IV – contributo sostanziale di Benoît Charpentier nonché di Giuseppe Contissa e Giovanni Sartori (https://media.wix.com/ugd/c21db1_14b04c49ba7f46bf9a5d88581cbda172.pdf) ed Emmanuel Barthe (http://www.precisement.org/blog/Intelligence -artificielle -en-droit -derriere -la-hype -la-realite.html#nb14) (unicamente in francese.)
16
• Risoluzione delle controversie online • Assist enza nella redazione di atti • Analisi (predi ttiva, tabelle ) • Categori zzazione dei contratti secondo criteri diversi e individuazione delle clausole contrattuali
divergenti o incompatib ili
• "Chatbots" per informare le parti in lite o sostenerle nel procedimento giudiziario
16. La Lettonia ha dichiarato che stava esaminando le possibilità dell’apprendimento automatico per
l’amministrazione della giustizia. La finalità principale sarebbe il Trattamento dell e statistiche
giudiziarie per redigere stime provvisorie delle risorse umane e finanziarie da stanziare.
17. Altre attività svolte da società di legal tech no n sono state comprese nella presente
classificazione , in quanto riguardano il Trattamento mediante l’intelligenza artificiale in misura
modesta o nulla : alcuni siti offrono accesso a informazioni giuridiche , soluzioni "cloud" , firma
elettronica , ec c.
18. Un elenco non esaustivo di servizi legali che utilizzano nelle loro operazioni l’intelligenza art ificiale
è esposto in prosieguo :
Software Stato Tipo
Doctrine.fr Francia Motore di ricerca
Prédictice Francia
Analisi (a eccezione dei procedimenti
penali)
Case Law Analytics Francia
Analisi (a eccezione dei procedimenti
penali)
JurisData Analytics Francia
Motore di ricerca, Analisi (a eccezione
dei procedimenti penali)
(LexisNexis)
Luminance Regno Unito Analisi
Watson/Ross (IBM) USA Analisi
HART Regno Unito Analisi (penale, rischio di recidiva)
Lex Machina (LexisNexis) USA Analisi
17
2. Panoramica delle politiche pubbliche relative ai dati aperti contenuti nelle
decisioni giudiziarie nei sistemi giudiziari degli Stati membri del Consiglio
d’Europa
La disponibilità di dati è una condizione essenziale per lo sviluppo dell’intelligenza artificiale che
permette a quest’ultima di svolgere determinati compiti svolti precedente mente da umani in modo
non automatizzato. Quanto più vi è disponibilità di dati, tanto più l’intelligenza artificiale è in grado
di affinare modelli che migliorano la loro capacità predittiva. Un approccio relativo ai dati aperti
alle decisio ni giudiziarie è pertanto un pre requisito per l’attività delle società di legal tech
speciali zzate nei motori di ricerca o nell’analisi delle tendenze (“giustizia predittiva ”).
Il Trattamento di tali dati solleva diverse questioni, quali le modifiche nella formazione della
giurisprudenza e la prote zione dei dati personali (compresi i nominativi dei professionisti ).
19. Si dice che i dati raccolti mediante l’informatica siano il "petrolio " del ventunesimo secolo in quanto
il loro utilizzo e il loro incrociamento stanno producendo una ricchezza del tutto nuova. Benché
alcuni attori e alcuni autor i contestino tale affermazione, i successi globali dell’ industria digitale
negli ultim i decenni hanno confermato l’enorme potenziale di crescita di tale campo di attività.
20. La quantifica zione delle attività umane, attualmente su scala globale, non poteva lasciarsi
sfuggire i dati prodotti dal settore pubblico. Ciò ha ispirato il movimento di apertura dei dati
pubblici , bas ato su imperativi molto più anti chi, che costituiscono i principi fondatori dei nostri
Stati costituzionali.
21. Il cambiam ento più importante dei recenti anni è stato determinato dall’apertura di dati pubblici
scaricabili (dati aperti ), segnatamente nel quadro della "Partnership for Open Government "
(OGP). L’OGP è un’organizzazione non governativa che riunisce circa settanta Stati membri
(compresi numerosi Stati membri del Consiglio d’Europa ) e rappresentanti della società civile e
giganti digitali. Tale apertura è finalizzata a migliorare la trasparenza delle attività pubbliche , a
incoraggiare i cittadini nello sviluppo e nella valutazione di politiche pubbliche e a garantire
l’integrità del s ervizio pubblico e di coloro che lo eseguono , trattando notevoli quantità di
informazioni , organi zzate in banche dati (big data ).
2.1 Defini zione dei dati aperti d elle decisioni giudiziarie
22. Prima di tutto, ridefiniamo la nozione di dati aperti prima d i tratt are la questione delle conseguenze
che l’apertura dei dati può avere sull’attività giudiziaria . In primo luogo, vi è spesso confusione
tra l’accesso alle informazioni e l’ accesso ai dati ( più precisament e, l’accesso alle
informazioni contenute in una banca dati )12.
23. Una certa quantità di informazioni pubbliche , che necessitano di ampia pubblicità, sono già
divulgate mediante la tecnologia informatica. In Francia , il sito governativo Légifrance.fr è la
principale fonte online di informazioni pubbliche certificate , compr endente non soltanto testi
legislativi e regolamenta ri, bensì anche la giurisprudenza e informazioni sulle nomine a impieghi
pubblici. Tali informazioni unit arie, pur essendo disponibili in internet, differiscono totalmente
dall’accesso diretto a dati organizzati e inseriti in una banca dati, che possono essere scaricati e
trattati da un computer.
24. I dati aperti concernono pertanto soltanto la diffusione di dati “grezzi” in banche dati
informatiche strutturate: tali dati, aggregati totalmente o parzialmente ad altre fonti s trutturate,
costituiscono quelli che denominiamo megadati. Il Comitato consultivo della Convenzione n. 108
del Consiglio d’Europa definisce i megadati “ la crescente capacità tecnologica di raccogliere,
trattare ed estrarre nuove conoscenze predittive partendo da notevole volume, velocità e varietà
di dati. In ordine alla protezione dei dati, i principali problemi non concernono soltanto il volume,
la velocità e la varietà dei dati trattati , b ensì anche l’analisi di tali dati per mezzo di un software ,
al fine di estrarre nuove conoscenze p redittive finalizzate all’orientamento di un p rocesso
decisionale relativo a persone o a gruppi. Ai fini di tali Linee -guida la definizione di megadati
comprende pertanto sia i megadati che il pertinente processo analitico” .13
25. Come dimostra questa defini zione , i dati ape rti non dovrebbero essere confusi con i loro
mezzi di trattamento . Alcuni studi relativi a questa questione riguardano in realtà il Trattamento
12 I dati sono lettere e cifre prive di significato. Le informazioni sono dati inseriti in un contesto. È il contesto che dà un significato ai dati. Possiamo indovinare che 2005 sia un anno, ma senza un contesto non lo sappiamo. Ma "nel 2005, abbiamo realizzato tre progetti" il contesto dà un significato alle cifre. Pertanto i ‘dati aperti' non son o dei dati nel senso della definizione, bensì delle informazioni. Analogamente, anche i grandi dati sono delle notevoli quantità di informazioni, e non dei dati. 13 T-PD(2017)1, Linee -guida sulla protezione delle persone rispetto al Trattamento automatizzato di dati di carattere personale in un mondo di megadati.
18
effettuato con varie metodologie avanzate, che sono generalm ente definite scienza dei dati. La
giustizia predittiva che si avvale dell’intelligenza artificiale , di motori di ricerca avan zata che
applicano criteri estr emamente precisi e di robot giuridici , costituisce tutta applicazioni
algoritmiche alimentate dai dati , ma che non hanno niente a che fare con l a politica di apertura
dei dati stessa .
26. Tale politica deve tuttavia essere esaminata alla luce delle possibilità che offre di ulteriore
trattamento , quale che sia la sua natura. Se determinati dati sono filtrati a m onte, tenendo cont o
per esempio dell’esigenza di riservatezza e di rispetto della v ita privata , sembra che possano
essere ridotti ulteriori rischi di uso scorretto .
2.2 Stat o de llo sviluppo dei dati aperti relativi alle decisioni giudiziarie negli Stati membri
del Consiglio d’Europa e conseguenze per lo sviluppo della giurisprudenza
27. Quale è la situazione dei dati aperti relativi alle decisioni giudiziarie negli Stati membri del
Consiglio d’Europa ? Il ciclo di valutazione della CEPEJ relativo al 2016 -2018 si è concentrato per
la prima volta sulla questi one delle decisioni giudiziarie contenenti dati aperti , per le quali è
utilizzato un Trattamento di intelligenza artificiale. Il problema dell’ anonimizzazione o della
pseudoni mizzazione dei dati nell’ambito del quadro europeo di protezione dei dati 14 previsto dal
Regolamento General e sulla protezione dei dati (RGPD , Reg olamento UE 2016/679) e dalla
Convenzione del Consiglio d’Europa n . 108 è stato oggetto di una specifica questione finaliz zata
a individuare le misure attuate dagli Stati membri e dagli osservatori in questo campo
particolarmente delicato .
Grafico 1. Ta vola illustrativ a degli Stati membri del Consiglio d’Europa che hanno
introdotto i dati aperti nelle decisioni giudiziarie nel 2016 (D 62 -4 del questionario di
valutazione )
Sì
Sì No
Not a member of CoE Data not supplied
MAR ISR
28. Sol tanto cinque di tutti gli Stati e gli osservatori intervistati hanno dichia rato di no n aver attuato
una politica relativa ai dati aperti per le decisioni giudiziarie nel 2016. Benché tale tasso di risposta
debba essere considera to nella giusta prospettiva in quanto alcune risposte hanno confuso il
pubblico accesso alle decisioni con i dati aperti (Armenia , Belgio , Bosnia -Erzegovina ,
Federazione russa, Lussemb urg o, Spa gna , Turchia ), esso rivela, da un lato il desiderio di
trasparenza da parte delle istituzioni giudiziarie europee e , dall’ altro, il desiderio da parte di
14 Regolamento generale sulla protezione dei dati (DGPS, Regolamento UE 2016/679, e Convenzione del Consiglio d’Europa n. 108 pe r la protezione delle persone rispetto al Trattamento autom atizzato di dati di carattere personale).
19
numerosi Paesi di rendere pubbliche le decisioni giudiziarie e permettere quindi che siano
successivamente trattate utilizzando strumenti dell’ intelligenza artificiale . Ciò richiede anche
sforzi da parte delle istituzioni interessate , dato che a tal fine devono essere attuate diverse
misure tecniche . In Francia specifica mente, è già possibile scaricare della giurisprudenza
amministrativa dal sito data.gouv.fr (si veda infra ).
29. In ordine alla prote zione dei dati di carattere personale , ventitré Paesi hanno dichiarato che
stanno pseudoni mizzando 15 almeno alcuni tipi di controversie (per esempio, in materia di status
personale e di status familiare ) cancellando i dati che permettono di identificare le parti o i
testimoni (nominativi, indirizzi, numeri telefonici, numeri di identità, numeri di conti bancari, codici
fiscali, stato di salute, ecc.) . Sembra che tale compito spetti al personale giudiziario (per esempio
in Israel e, Repu bblic a di Molda via) o ai pubblici ufficiali (per esempio in Bosnia -Erzegovina ,
Spa gna ). La Bosnia -Erzegovina e l’Ungheria hanno invece dichiarato di pubblicare i nominativi
dei professionisti.
30. Vi è tuttavia una reale difficoltà nel misurare l’ impatto dei dati aper ti sull’ efficien za e sulla qualità
della giustizia . Come indicato precedentemente, l’iniziativa di riutilizzare tali dati è essenzialmente
priva ta e mira a una clientela professionale (avvocati, uffici legali ), e un’attività esclusivamente
intergovernativa probabilmente non è il mezzo migliore per individuare pienamente tali risultati
positivi.
31. La situazione della Francia è rappresentativa delle questioni sollevate da tale approccio e rivela
la sussistenza di diversi problemi. In primo luogo è importante sottolineare che la Francia ha
promulgato nel 2016 una legislazione che impone un quadro obbligatorio per la diffusione dei dati
aperti delle decisioni dei suoi tribunali.
32. Gli articoli 20 e 21 della Legge per una Repubblica digitale 16 hanno infranto la precedente logica 17
di selezionare le decisioni dei tribunali ordinari e amministrativi che dovevano essere diffuse
qualora fossero state “di particolare interesse ”. Ai sensi della nuova legislazione francese,
tuttavia, è stato fissato il principio contrario secondo il quale tutto è pubblicabile, a eccezione di
casi specifici individuati dalla legge (per le decisioni giudiziarie ) e nel dovuto rispetto della vita
privata delle persone interessate. È tut tavia previsto che le decisioni giudiziarie e amministrative
siano pubblicate soltanto dopo aver analizzato il rischio di ri identificazione delle persone
coinvolte.
33. L’ampia diffusione presenta numerosi vantaggi, promo ssi in particolare dalla Co rte di Cas sazione
in due conferenze nell’ottobre 2016 e nel febbraio 2018. Essi comprendono un a maggiore
conoscenza dell’attività giudiziaria e delle tendenz e della giurisprudenza, un ’accresciuta qualità
di un sistema giudiziario che sa di essere osservato e la crea zione di una base di riferimento dei
fatti completamente nuova.
34. Questo desiderio teorico di "disciplinare " la giurisprudenz a mediante la leva digitale solleva
tuttavia diverse questioni generali pertinenti a tutti i Paesi che prendono in considerazione un
simile approccio . In primo luogo esso dovrebbe essere collocato nel contesto di alcuni principi
esposti dalla Corte eur op ea dei diritti dell’uomo in cause relative al le divergenze della
giurisprudenza interna. La Corte sottolinea chiaramente l’esigenza di conciliare la certezza
giur idica, che rende le decisioni più prevedibili, e la vitalità dell’interpretazione giudiziaria .18
Tale desiderio è inoltre mitigato da diversi aspetti , in primo luogo di natura tecnica :
a) La raccolta della totalità delle decisioni giudiziarie idonee al fine della
pubblicazione non è necessariamente ben coordinata tra tutti i gradi di
giurisdizione : alcuni software applicativi dei tribunali europei no n sono stati progettati
per tale finalità , in particolare per quanto riguarda le decisioni di primo grado , e alcuni
Paesi devono elaborare nuove procedure per raccogliere le sentenze , se desiderano che
tale raccolta sia esaustiva ;
b) Nonostante alcuni promettenti sviluppi , non è stato ancora ideato un meccanismo
automatizzato di anonimizzazione ex post pienamente efficace , che impedisca
qualsiasi rischio di identificazione e di riidentificazione ;
15 Secondo la definizione effettuata dal T -PD nelle sue "Linee -guida sulla protezione delle persone rispetto al Trattamento automatizzato di dati di carattere personale in un’era di megadati" T -PD(2017)1, la pseudon imizzazione consiste nel Trattamento dei Dati personali in modo tale che essi non possano più essere attribuiti a un interessato specifico senza l'utilizzo di informazioni aggiuntive, a condizione che tali i nformazioni aggiuntive siano conservate separatam ente e soggette a misure tecniche e organizzative intese a garantire che tali Dati personali non siano attribuiti a una perso na fisica identificata o identificabile.” 16 Tale Legge è stata adottata per conformare la legislazione francese alla Direttiva 2013 /37/UE del Parlamento europeo e del Consiglio europeo del 26 giugno 2013, che ha modificato a sua volta la Direttiva del Consiglio del 17 novembre 2003 relativa al riutilizzo dell’inf ormazione del settore pubblico (la "Direttiva PSI"). 17 Articolo R433 -3 de l Codice dell’organizzazione giudiziaria. 18 Parrocchia greco -cattolica Lupeni e altri c. Romania [GC]. n. 76943/11, 29/11/2016, § 116.
20
e anche da aspetti sostanziali :
c) Si dovrebbe considerare la trasformazione della stessa logica della produzione
della giurisprudenza . Quale è il valore della “norma” derivante dal nu mero di decisioni
emesse in una specifica materia? Si aggiunge tale “norma” alla legge? In caso
affermativo, si tratta di una nuova f onte del diritto?
d) È appropriato chiedere ai giudici di fornire spiegazioni aggiuntive in caso di
decisioni che non osservano tale norma ?19 Tale domanda non è insignificante e non
provoca la stessa risposta in tutti i sistemi giudiziari. Nel diritto civile francese ,20 "il giudice
decide la causa in conformità alle regole di diritto che le sono applicabili ". Nel contesto
francese , se fosse chiesto ai giudici di giustificare le loro dec isioni, fornendo tutti i motivi
per cui non hanno osservato la supposta tendenza giurisprude nziale maggioritaria
relativa alle modalità di risoluzione della controversia (risp ettando le pertinenti regole del
diritto ), ciò non equivarrebbe a d estituirli delle loro funzioni? I giudici non dovrebbero
limitarsi a giudicare le cause in conformit à alle regole del diritto , bensì anche in conformità
alle tendenze della giurisprudenza, tratte da sta tistiche compilate da uno strumento
digitale (che potrebbe anche essere influenzato o sviluppato senza il controllo esterno di
un operatore privato , s i vedano le sezioni 6.1 e 9 infra ). La questione che sorge eccede
notevolmente una specifica caratteristica nazionale, e rinvia in modo più ampio alla
collocazione degli strumenti di intelligenza artificiale nel processo decisionale dei giudici.
Si osservi che tale analisi è limitata al trat tamento della giurisprudenza mediante algoritmi
e non riguarda min imamente i l ruolo della giurisprudenza nelle fonti del diritto o l’autorità
dei precedenti giurisprudenziali , che sono, inoltre, principi ben consolidati a livello
europeo .21
e) Inoltre, se le norme fossero stabilite in conformi tà alla tendenza maggioritaria, le
decisioni giudiziarie non sarebbero rese uniformi, e non più em esse sulla base
della gerarchia delle giurisdizioni che le emanano, senza tener conto della portata
delle d ecisioni delle Corti Supreme, che sono le garanti dell’interpretazione
uniforme del diritto in molti Stati europei ? Quale sarebbe il rapporto tra le norme e la
giurisprudenza? Dato che derivano dalla maggioranza, diventerebbero esse u n criterio
per tali tr ibunali nel determinare la propria giuri sprudenza , ed essi dovrebbe ro a loro volta
giustificarsi qualora non osservi no l’opinione della maggioranza ?
f) Infine, non vi è il rischio che le decisioni giudiziarie siano redatte secondo una
logica riprodutt iva ? Benché sia probabile che le decis ioni giudiziarie evolvano in
funzione dell’evoluzione di un quadro normativo (na zionale, europeo o internazionale ),
del la giurisprudenza di riferimento (per esempio, dell e Corti Suprem e e delle Corti
europee) o del contesto socioeconomico , la norma derivante dalla maggioranza non
diventerebbe uno standard cui i giudici sarebbero incoraggiati a rinviare senza fare
questioni, con l’effetto indotto di un’eccessiva omogeneizzazione delle decisioni
giudizia rie ?
36. Potrebbero essere sollevati dubbi sulle conseguenze per gli utilizzatori, che si ritiene che
beneficino direttamente della trasparenza delle attività : beneficeranno realmente della
pubblicazione di tutte le decisioni giudiziarie su internet , o è più probabile che saranno sommersi
dalla grande quantità di decisioni, senza trarne necessariamente vantaggi qualitativi, per la
carenza di conoscenza del diritto e dell’apparato critico per analizzarle ?
37. Abbastanza paradossalmente, ci si può chiedere se i dati aperti possano trasmettere informazioni
significative in quanto , certamente , sempliceme nte cliccando su un collegamento è possibile
scaricare un notevole insieme di dati grezzi , il cui significato ri marrà tuttavia totalmente oscuro
per la maggior parte dei cittadini .
38. Il primo requisito che prevede che i dati aperti siano trasparenti e informativi è fin alizzato a
permettere che terzi possano utilizzarli per analizzarli ed elaborarli. Un modello economico in cui
i dati giurisprudenziali pubblici , che sono oggetto di un lavoro svolto dalle autorità giudiziarie
affinché essi siano tecnicamente “leggibili” dall’intelligenza artificiale e conformi ai requisiti
giuridici in materia di prote zione dei dati di carattere personale , sarebbero trattati gratuitamente
dal settore privato e successivamente rivenduti ai tribunali, ai professionisti e ai cittadini , merita
pertanto di essere messo in qu estione e perfino criticato.
19 Eloi Buat -Menard e Paolo Giambiasi, "La mémoire numérique des décisions judiciaires", Dalloz Reports, 2017, p. 1483. (soltanto in francese). 20 Articolo 12 del codice di procedura civile francese 21 La CGE ha dichiarato a proposito delle condizioni che disciplinano la responsabilità di uno Stato membro riguardo al contenut o di una decisione di una Corte Suprema nazionale, ch e “una violazione del diritto comunitario è sufficientemente caratterizzata" e deve dare luogo al risarcimento del danno "allorché la decisione è intervenuta ignorando manifestamente la giurisprudenza della Corte in questa materia" (CGE, Ca usa C -224/01, Koebler, §56).
21
2.3 Prote zione dei dati di carattere personale nelle politiche relative ai dat i aperti nel le
decisioni giudiziarie
2.3.1. I nomi delle parti e dei testimoni
39. Per trovare un giusto equilibrio nell’era digitale tra l’esigenza di rendere pubbliche le decisioni
giudiziarie e il rispetto dei diritti fondamentali delle parti o dei testimoni, i loro nominativi e i loro
indirizzi non devono comparire nelle decisioni pubblicate , particolarmente in considerazione del
rischio di appropria zione indebita e di riutilizzo di tali informazioni personali e della particolare
delicatezza dei dati che potrebbero e ssere contenuti nelle decisioni .22 Per occultare tali
informazioni possono essere utilizzate sistematicamente procedure automatizzate .
40. Possono essere oscurate anche altre informazioni identificative (per esempio, numeri telefonici,
indirizzi di posta elettronica, date di nascita, nomi di minori , nomi rari, soprannomi e nomi di
luoghi ). In ordine ai principi relativi alla protezione dei dati di carattere personale, tale
occultamento costituisce una sempl ice Pseudonimizzazione dei dati e non una completa
anonimizzazione. Il volume e la varietà delle informazioni contenute nelle decisioni giudiziarie,
unito alla crescente facilità di procedere a incrociamenti con altre banche dati , permette, in pratica,
di garantire che la persona interessata non possa essere riidentificat a. In assenza di tale garanzia,
tali dat i non possono essere definiti anonimi e sono pertanto soggetti alle norme in materia di
protezione dei dati di carattere personale.
41. Alcuni dati di carattere personale particolarmente sensibili meritano partic olare attenzione, ai
sensi del l’artic olo 6 della Convenzione n. 108. Ciò vale per i dati che rivelano l’ origine etnica o
razziale, le opinioni politiche, l’appartenenza a un sindacato, il credo religioso o di altro tipo, la
salut e mentale o fisica o la vita sessu ale, che sono considerati particolari intimi.
42. Le decisioni giudiziarie possono contenere altri tipi di dati di carattere personale, molto vari,
compresi in questa categoria di dati sensibili. È particolarmente probabile che i tribunali
competenti in materia penale tratti no dati sensibili, quali quelli relativi a procedimenti e condanne
penali. Tutti tali da ti sensibili meri tano pert anto particolare vigilanza . La loro diffusione massiva
present erebbe gravi rischi di discrimina zione, profilazione 23 e viola zione della dignità umana.
2.3.2. I nomi d ei professionisti, compreso de i giudici
43. Ovviamente, sapere come si arriva a una sentenza è un elemento essenziale per gli avvocati per
predire l’esito di una causa, ed essi ritengono che conoscere il proprio giudice abbia a volte la
stessa importanza della conoscenza del diritto. Tentano da molto tempo di fare comparazioni tra
collegi di giudici, più o meno empiricamente, in modo da fornire una migliore consulen za ai clienti
ch e hanno a che fare con un particolare giudice o collegio di giudici.
44. Tale metodo era sufficiente quando un avvocato interveniva soltanto dinanzi a un limitato numero
di tribunali, ma la graduale eliminazione in numerosi Paesi di restrizioni locali per l’avvocatu ra e
la libertà di circolazione e lavoro nell’Unione europea rendono ragionevole che qualsiasi avvoca to
nazionale o perfino europeo desideri conoscere in modo particolareggiato la giurisprudenza di
ciascuna giurisdizione nazionale o europea in cu i potrebbe patrocinare .
45. Non possiamo pertanto escludere la possibilità che, in futuro , le applicazioni di apprendimento
automatizzato notevolmente utili , e quindi molto costose, saranno molto più efficaci
dell’esperienza e del “buon senso” degli avvocati che trattano le cause in modo tradizionale.
L’utilizzo di tali applicazioni potrebbe accen tuare ulteriormente la distorsione della concorrenza
e della disparità delle ar mi tra gli studi legali che hanno o non hanno utilizzato tale software di
analisi predittiva della giurisprudenza.
46. Sussiste il rischio reale che, per tale vantaggio concorren ziale, sia min ato il principio dell’equo
processo stabilito dalla legge. La possibilità di profilare i giudici mediante l’incrociamento di dati
pubblici e privati potrebbe permettere alle società private e ai loro avvocati di svolgere in misura
ancora magg iore pratiche di forum shopping . Tale tattica è già stata osservata da lungo tempo
negli Stati Uniti e in Francia in ordine a reati a mezzo stampa e a violazioni della privacy per
22 22 CEDU, Z. c. Finlandia n. 22009/93, §§95 e succ. e Libro Verde della Commissione europea sull’informazione del settore pubb lico nella società dell’informazione (COM(1998)585) ("Se non sono adottate particolari precauzioni, le banche dati g iurisprudenziali, che sono strumenti di documentazione giuridica, possono diventare casellari di informazioni sulle persone se tali banche dati sono consultate per o ttenere un elenco di sentenze emesse dai tribunali a su una specifica persona piuttosto che per ottenere informazioni giurisprudenziali"). 23 La Profilazione è definita nell’articolo 4 del GDPR. È il Trattamento dei Dati personali di una persona finalizzato ad analiz zarne e prevederne il comportamento o la situazione, in modo da determinarne il r endimento professionale, la situazione economica, la salute, le preferenze, le abitudini di vita, ecc.
22
mezzo della stampa, in cu i è noto che i ricorrenti scelgo no il tribunale che sembra concedere gli
importi di risarcimento e di interessi più elevati .
47. Inoltre, molti studi in materia confondono i dati apert i con la necessità di pubblicare un certo
numero di informazioni pubbliche. Conseguentemente si è sostenuto talvolta che i nominativi dei
professionisti do vrebbero figurare tra i dati aperti , per un’esigenza di Pubblicità e di trasparenza.
48. Tuttavia, la disponibilità di dati giurisprudenziali informatici è una questione totalme nte distinta
dai principi della Pubblicità degli originali o di copie certificate delle decisioni. L’obiettivo dei dati
aperti è di permettere il Trattamento automatizzato della giurisprudenza sulla base di una licenza
di sfruttamento a basso costo. Come d ichiarato precedentemente, tali dati sono disponibili
mediante una banca dati informatica completa, poco chiara e che non è direttamente
comprensibile per i cittadini.
49. Tali dati disponibili ovviamente non soddisfano l’es igenza di Pubblicità dei nomina tivi de i
professionisti che hanno contribuito a una specifica decisione. Si deve osservare che, in diritto,
menzionare i nominativi dei giudici nelle decisioni giudiziarie è un obbligo comune per gli Stati
membri, in relazione al principio della pubblicità del processo sancito da ll’articolo 6 paragrafo 1
della Convenzione europea sui diritti dell’uomo , al fine di garantire l’obiettiva imparzialità dei
giudici (che devono essere identificabili e legittimamente nominati e destinati alle funzioni che
svolgono) e l’ osservanza delle norme pro cedu rali (per esempio la Pubblicità e la collegialit à).24
50. La risposta alla domanda della legittimità o meno della pubblicazione de i nominativi dei
professionisti 25 tra i dati aperti non ha pertanto niente a che fare con l’obbligo di pubblicare i
nominativi dei professionisti nelle decisioni . Sembra piuttosto che la questione concerna spesso
la conciliazione di requisiti contrastanti : da una parte rendere trasparenti le attività pubbliche
permettendo ai cittadini di conoscere e valutare i loro giudici, e dall’altra proteggere la privacy dei
professionisti (le cui funzioni non dovrebbero limitare le loro garanzie fondamentali in tale campo ).
Vi sono sfide rigorose in or dine al garantire l’imparzialità dei giudici e anche dell’insieme delle
istituzioni giudiziarie , che le politiche relative ai dati aperti intendono realmente rafforzare 26. Quali
misure pratiche possono essere adottate per proteggerli da potenziali tentativi di destabilizza zione
mediante l’incrocio dei dati di carattere personale dei giudici contenuti nelle banche dati con altre
fonti (social network , siti commerciali ) per te ntare di individuare ipotetici pregiudizi politici, religiosi
o di altro tipo ?
51. Tali domande non hanno la stessa forma in ogni luogo in Europa e dipendono dalle specifiche
caratteristiche del sistema giudiziario interessato (e dalla natura dell’organo di gestione delle
carriere dei giudici ), dal carattere collegiale o meno della sentenza e dal grado del tribunale interessato. In Svizzera, per esempio, dove i giudici sono eletti , la pubblicazione è una garanzia
della traspar enz a e della responsabilità soc iale dei giudici rispetto ai cittadini e ai gruppi politici .
Tali informazioni sono già disponibili nei motori di rice rca online (che non sono dati aperti ,
rigorosamente parlando ).27
52. Tali domande hanno una forma diversa a seconda del grado della giurisdizione. L’interesse a
caratterizzare la giurisprudenza dei tribunali di grado inferiore può e ssere diverso da quello
relativo ai giudici delle Corti Sup reme o delle Corti internazionali. Per esempio, la Corte europ ea
dei diritti dell’uomo au torizza le ricerche dell e sentenze mediante i nominativi dei giudici membri
del colle gio che ha emesso la decisione , ma non permette il calcolo di statistiche relati ve a un
particolare giudice .28 D’altra parte, nei Paesi in cui gli organi giudiziari non conoscono la prassi
delle opinioni dissenzienti (esistente in tale Corte internazionale ), può sembrare iniquo attribuire
a un giudice la responsabilità personale di una decisi one qualora egli abbia espresso un voto
contrario nel corso della deliberazione in una composizione collegiale .
53. Tali banche dati sono state definite bene da una missione di studio condotta in Franc ia dal
Professor Loïc Cadiet. Le conclusioni della missione rimangono limitate in quanto non
raccoman dano di proibire la pubblicazione , ma di riservarla a determinati tipi di controversie e di
escluderla per altri (per esempio, per le materie penali specialistiche ). È stata proposta la
possibilità di pubbl icare unicamente i nominativi dei giudici delle Corti Supreme , benché sia stato
sottolineato che tale politica avrebbe potuto essere un “viaggio di andata senza ritorno ".
24 24 CEDU, Vernes c. Francia, n. 30183/06 in ordine all’identificazione dei giudici che hanno emesso la decisione, Pretto c. It alia, n. 7984/77 per la pubblicazione della sentenza, Kontalexis c. Grecia, n. 59000/08, § 38, DMD GROUP, a.s, c. Slovacchia, n. 19334/03, § 66, Mirac le Europe KFT c. Ungheria, n. 57774/13, § 58 per il diritto a un tribunale stabilito dalla legge, unitamente al diritto a un giudic e imparziale. 25 Tali questioni possono essere applicate anche ai Rechtspfleger che pronunciano decisioni giudiziarie e ai cancellieri, assist enti del giudice menzionati nella composizione della formazione del tribunale (benché in misura min ore). 26 Si veda CEDU, Previti c. Italia, n. 45291/06, §§ 249 e succ., che richiama i principi dell’obiettiva imparzialità del giudice. 27 Si veda l’esempio della Corte federale svizzera, la cui giurisprudenza può essere scaricata presso: https://www.bger.ch/fr/index/juridi ction/jurisdiction -inherit -template/jurisdiction -recht.htm; o, per i Cantoni: http://ge.ch/justice/dans -la-jurisprudence (per esempio il Cantone di Ginevra). 28 28 Le decisioni della Corte europea dei diritti dell’uomo sono collegiali. Le pubblicazioni comp rendono le opinioni dissenzienti.
23
54. Allo stato, potrebbe essere applicato un principio precauzionale al fine di valutare l’interesse, sulla
base del tipo di controversia e del grado di giurisdizione , a pubblicare i nominativi dei
professionisti in una banca dati scaricabile. Analogamente, non possiamo escludere la possibilità
che le istituzioni giudiziarie stesse , o terzi autorizzati , sfruttino tali informazioni al di fuori di un
contest o di dati aperti, al fine di conoscere la giurisprudenza .
55. Una simile pubblicazione dovrebbe essere comunque esaminata alla luce delle norme europee
internazionali applicabili in mate ria di protezione dei dati di carattere personale , quali quelle di cui
alla Conven zione n. 108 , al Regolamento generale dell’Unione europea sulla protezione dei dati
di carattere personale RGDP e alla Dir ettiva 680/2016.
3. Caratteristiche operative dell’intelligenza artificiale (apprendimento
autom ati co) applicata alle decisioni giudiziarie
Il Trattamento del linguaggio naturale e l’apprendimento automatico sono le due tecniche alla base
del Trattamento delle decisioni giudiziarie mediante l’intelligenza artificiale.
Nella maggior parte dei casi, l’obiettivo di tali sistemi non è la riproduzione di un ragionamento
giuridico , bensì l’in dividuazione delle correlazioni tra i divers i parametri di una decisione (per
esempio , in un a domanda di divor zio , la durata del matrimonio, il reddito dei coniugi, la presenza
di adulterio, l’importo dell’ assegno di mantenimento concesso, ecc.) e, mediante l’utilizzo
dell’ apprendimento automatico, dedurne uno o più modelli. Tali modelli sarebbero
successivamente utilizzati per “predire” o “prevedere” una futura decisione giudiziaria.
La finalità della presente sezione è chiarire la natura intrinseca del software definito “predittivo” a
volte versioni "beta" , ovvero in fase di sviluppo – sia in ordine al suo potenziale che in ordine ai suoi
limiti . È finalizzata a fornire una spiegazione semplice degli algoritmi di apprendimento automatico ,
che sono alla base dell’analisi a utomatizzata della giurisprudenza.
3.1 Le funzionalità teoriche del software di “giustizia predittiva”
56. A mo’ di introduzione, dovremmo rivedere brevemente le caratteristiche promesse dal software
“predittivo”. Esse propongono di stabilire le probabili tà di success o (o di insuccesso ) di una causa
in un tribunale. Tali probabilità sono stabilite mediante la modellizzazione statistica delle
precedenti decisioni , avvalendosi di metodi provenienti da due specifici domini dell’informatica : il
trattamento del linguaggio naturale e l’apprendimento automatico . T ali approcci di
modellizzazione sono spess o definiti intelligenza artificiale ; in r eal tà, si tratta di intelligenza
artificiale “debole” (si veda il glossario).
57. Dovrebbe essere immediatam ente precisato che l’espressione “intelligenza artificiale” è oggetto
di dibattito da parte degli esperti , in quanto conduce a numerose ambiguità. L’espressione
“intelligenza artificiale” è ormai entrata nel nostro linguaggio quotidiano per descrivere
un’eterogenea gamma di scienze e tecnologie che permettono ai computer di battere i migliori
campioni nel gioco del Go, 29 di guidare un’automobile, di conversare con degli umani , ec c. I
ricercatori preferiscono designare le differenti applicazioni mediante le esatte tecnologie alla base
di esse , compreso l’apprendimento automatico, e definiscono talvolta tutte tali risorse altamente
specialistiche dell’intelligenza ar tificiale , intelligenza artificiale "debole " (o "moderata") . Esse sono
distinte dal fine ultimo – ancora totalmente teorico – di creare un’intelligenza artificiale "forte”, vale
a dire un elaboratore ad autoapprendimento, in grado di comprendere automaticamente il mondo
in general e, in tutta la sua complessità.
58. Per quanto riguarda specificamente la giustizia, i sistemi di giustizia predittiva sono destinati a
essere utilizzati da parte di uffici legali, assicuratori (sia per le loro esigenze interne che per i loro
assicurati ), nonché avvocati , al fine di anticipare l’esito di una controversia. Teoricamente
potrebbero anche aiutare i giudici a prendere delle decisioni.
59. Forniscono una rappresentazione grafica della probabilità di successo di ciascun esito di una controversia sulla base dei crit eri introdotti dall’utilizzatore (specific i per ciascun tipo di
controversia ). T ali sistemi sostengono di essere in grado di calcolare il probabile importo del risarcimento concesso dai tribunali.
3.2 Il funzionamento pratico dell’intelligenza artificial e: elaboratori statistici che
costruiscono modelli basati sul passato
29 https://www.nature.com/articles/nature16961
24
60. Innanzitutto deve essere fatta una distinzione tra il significato del termine “predizione” e quello
del termine "previsione ". La predizione è l’atto di annunciare anticipa tamente (prae , prima -
dictare , dire) gli avvenimenti futuri (per ispirazione sovrannaturale, chiaroveggenza o
premonizione ). La previsione, d’altra parte, è il risultato dell’osservazione ( visere , vedere ) di un
insieme di dati al fine di prevedere una sit uazione futura. Tale abuso del linguaggio e la sua
diffusione possono essere spiegati da un transfert del termine proveniente dalle scienze "dure",
in cui esso rinvia a una varietà di te cniche della scienza dei dati tratti dalla matematica, dalla
statistic a e dalla teoria dei giochi, che analizzano i fatti, presenti e passati, per formulare ipotesi
sul contenuto di avvenimenti futuri.
61. Si dovrebbe inoltre rilevare che la logica del funzionamento di un software di giustizia predittiva
è basata essenzialmente su metodi generativi (definiti comunemente bayesiani ) o discriminativi,
che tentano di valutare la portata attuale o futura dei valori di una variabile (per esempio, l’esito
di un processo ) partendo dall’analisi di esempi passati.
62. In gener ale è importante anche tenere presente la nozione antropomorfica secondo la quale i
computer sono macchine intelligenti e i loro progettatori sono riusciti a dotare i loro meccanismi
di una mente. 30 Sfortunatamente, tale idea permea ancora molte analisi del la giustizia predittiva ,
che attribuiscono a tali dispositivi la capacità immediata o futura di riuscire quasi a riprodurre
l’intelligenza umana. Tale contesto è alimentato quotidianamente da nuove serie di progressi
dell’intelligenza artificiale, 31 e spinge pertanto tutti noi ad avvicinarci a tali strumenti predittivi con
una certa dose, consapevole o meno, di misticismo, affermando a volte che ciò che non è
interamente possibile oggi lo sarà inevitabilmente domani.
63. Le intelligenze artificiali “forti” descritte dalla fantascienz a non esistono. Questo tipo di intelligenza
artificiale, dotato non soltanto di intelligenza ma anche di coscienza, è puramente immaginario. I
sistemi di apprendimento automatico attualmente in corso di sviluppo sono definiti intelligenze
artificiali “debo li” e sono capaci di estrarre modelli complessi e di apprendere da grandi
volumi di dati in maniera efficiente e spesso con elevati livelli di precisione predittiva.
64. Per superare le considerazioni istintive o le fantasie, occorre comprendere tali tecnologie di
trattamento e analisi delle informazioni sulla base dei tre concetti che seguono.
1. L’intelligenza artificiale non è un singolo oggetto omogeneo: si tratta in realtà di un
assemblaggio di scienze e tecniche (matematica, statistica, informatica ) in grado di trattare i
dati per progettare compiti di Trattamento informatico molto complessi.
2. I motori di intelligenza artificiale non producono di per sé intelligenza , bensì procedono
utilizzando un approccio induttivo: l’idea è di associare in maniera pressoché
automatizzata un insieme di osservazioni (dati in ingresso) con un insieme di possibili esiti
(dati in uscita) utilizzando diverse proprietà preconfigurate. Nello spec ifico, per quanto
riguarda la giustizia predittiva, il motore costruisce collegamenti tra i diversi gruppi lessicali
che compongono le decisioni giudiziarie. Tali gruppi sono in correlazione tra quelli identificati
nella fase di ingresso (i fatti e la moti vazione) e quelli identificati nella fase di uscita (il
dispositivo della decisione) e sono successivamente classificati .
3. L’affida bilità del modello (o funzione) costruito dipende fortemente dalla qualità dei dati
utilizzati e dalla scelta della tecnica d i apprendimento automatico.
65. È opportuno tornare brevemente sugli antenati di questi sistemi – i sistemi esperti – che si basano
dal canto loro su regole di elaborazione scritte da un informatico. I sistemi esperti (SE) hanno
conosciuto un rapido sviluppo alla fine degli anni ottanta e negli anni novanta, specialmente nel
campo della medicina e della finanza. 32 Tali sistemi erano in grado di rispondere a domande
specialistiche e di ragionare utilizzando fatti noti, applicando regole di codifica predefinite in un
motore. Nonostante i successi dei SE come Deep Blue, che ha battut o Garry Kasparov in diverse
partite a scacchi nel 1997, tali sistemi hanno finito per fallire, in particolare perché non erano in
grado di interpretare “l’infinita varietà di situazioni e contesti” 33 e divenivano inefficaci quando si
superavano le 200 -300 regole di codifica, sia in termini d i esecuzione della prestazione che di
30 Dominique Cardon, A quoi rêvent les algorithmes, nos vies à l’heure des big data, La République des idées, Editions du Seuil, 2015, p. 58.. 31 “AlphaZero : l'IA de DeepMind apprend et maîtrise le jeu d'échecs en moins de 4 heures”, Génération NT, articolo pubblicato in data 8 dicembre 2017, [Online], https://www.generation -nt.com/alphazero -ia-deepmind -maitrise -echecs -4-heures -actualite -1948919.html (pagina consultata il 14 dicembre 2017). 32 Un esempio è costituito dalla negoziazione ad alta frequenza [High Frequency Trading (HFT)], che è una tipologia di transazioni finanziarie effettuate a grande velocità da software basati su algoritmi. Nel 2013 in Europa il 35% delle transazioni erano già effettuat e mediante HFT. Negli Stati Uniti l’HFT rappresenta il 70 % dei volumi scambiati sul mercato azionario. Tenuto conto dell’automatizzazione delle transazioni, la caduta, in caso di crollo, è ancora più rapida, come è successo durante la crisi finanziaria del 2007. 33 Hubert Dreyfus, W hat Computers Still Can’t Do. A Critique of Artificial Reason, Cambridge, The MIT Press, 1992 citato da Dominique Cardon in A quoi rêvent les algorithmes, nos vies à l’heure des Big Data, p.59.
25
mantenimento (diventava pressoché impossibile per i suoi progettisti comprendere il
ragionamento seguito dal sistema).
66. L’idea corrente non è più di scrivere regole di ragionamento che rispecchiano il ragionamento
umano, come accadeva con i sistemi esperti più datati, 34 bensì di lasciare che gli stessi sistemi
di apprendimento automatico identifichino i modelli statistici presenti nei dati e li abbinino a risultati
specifici.
Fig.2: I vecchi sistemi esp erti erano programmati con regole che riproducevano la logica del
ragionamento giuridico
Sistema
esperto
Fig.3: L’apprendimento automatico produce modelli da solo cercando automaticamente risultati di
correlazione
Apprendimento
automatico
34 Le regole di elaborazione scritta potevano essere basate su codifiche specifiche in divers i linguaggi di programmazione come il LISP o su editor che consentivano di modellizzare le regole. Si veda, per esempio, Radboud Winkels, “CLIME : Un projet de développement de serveurs juridiques intelligents”, in Danièle Bourcier, Patricia Hasset e Chris tophe Roquilly (a cura di.), Droit et intelligence artificielle, 2000, Romillat, p. 59.
Dati Risultat i
Dati Risultat i
Regole/Modelli
Regole/Modelli
26
67. Nel fare ciò, tali sistemi non riproducono o modellizzano un ragionamento (quale quello
giuridico). Per esempio, gli attuali traduttori online non svolgono un ragionamento astratto, ma
desumono una probabile stima della migliore corrispondenza tra gruppi d i strutture lessicali e
traduzioni già eseguite. Le azioni degli utilizzatori contribuiscono ovviamente a migliorare la
ricerca di corrispondenze, ma l’algoritmo di apprendimento automatico in realtà non esegue una
traduzione comprendendo il significato de lle frasi trattate. 35
68. Tale esempio dimostra quanto possa differire l’approccio di un giurista da quello di un
ricercatore: il giurista cerca di comprendere l’efficacia di regole preesistenti, che possono essere
fornite dal ricercatore soltanto mediante il linguaggio della sua scienza, la quale, talvolta, si limita
a interpretare m igliaia di parametri trat ti da un sistema di apprendimento automatico.
69. L’apprendimento automatico è un campo dell’informatica nel quale i programmi informatici
apprend ono dall’esperienza. Gli algoritmi fanno eseguire alle macchine un processo di
addestramento, come accade a un bambino che apprende nel suo ambiente. In sintesi, tali
tecniche di apprendimento possono essere supervisionate da un essere umano o possono non
esserlo. La categoria di maggior rilievo nell’apprendimento automatico è attualmente quella
dell’apprendimento per rinforzo: la macchina raccoglie da sola “ricompense” virtuali, se l’azione
produce in un dato ambiente i risultati attesi. I metodi di appre ndimento automatico
comprendono le reti neurali (o la loro versione più complessa , conosciuta con il nome di
apprendimento profondo), che sono state ampliamente pubblicizzate, in considerazione della
loro autonomia e delle loro applicazioni alquanto sorpre ndenti, come quella che è riuscita a
ottenere punteggi elevati in vecchi videogiochi Atari 2600 36 (unicamente sulla base del
posizionamento dei pixel e dei punteggi). Altre applicazioni pratiche di tali tecnologie incidono
già sulla nostra vita quotidiana e stanno iniziando a comparire nell’universo professionale della
giustizia. 37
70. A ogni modo, tali algoritmi rimangono altamente specializzati in uno specifico compito e
presentano problemi di discernimento quando devono affrontare situazioni caotiche o che
offrono dati insufficienti ai fini di una previsione (come la comprensione reale del linguaggio
naturale). Nel campo delle scienze sociali, cui appartengono il diritto e la giustizia, l’insuccesso,
in assenza di un convincente modello di cognizione, appare p ersino inevitabile. Secondo Pierre
Lévy l’intelligenza artificiale si contenta difatti di fornire uno strumentario eterogeneo (regole
logiche, sintassi formali, metodi statistici, simulazioni neurali o socio -biologiche, ecc.) che non
offre una soluzione ge nerale al problema della modellizzazione matematica della cognizione
umana. 38 Pertanto un reale apprendimento predittivo dovrebbe essere basato in realtà su una
valida rappr esentazione sistemica del mondo che, secondo il ricercatore nel campo
dell’intellige nza artificiale Yann LeCun, è una fondamentale questione scientifica e matematica
e non una questione di tecnologia 39.
71. Inoltre, la singolarità degli attuali sistemi di Trattamento dei megadati è che essi non cercano di
riprodurre il nostro modello di cognizione, bensì di produrre statistiche contestualizzate
relativamente a una quantità di dati senza precedenti, senza alcuna garanzia reale di escludere
le false correlazioni. 40
72. Benché sia comunemente ammesso che aumentando i dati che li alimentano si mi gliorano i
modelli statistici e probabilistici, alcuni matematici hanno messo in guardia contro i rischi di
incrementare le false correlazioni (ovvero i collegamenti tra fattori assolutamente privi di nesso
causale) nei megadati. I matematici Cristian Sori n Calude e Giuseppe Longo segnalano il rischio
di un diluvio di false correlazioni nei megadati: quanto maggiore è la banca dati utilizzata per le
correlazioni, tanto più frequenti sono le possibilità di individuare delle regolarità e più elevato è
il risc hio di commettere errori .41 Ciò che a una intelligenza artificiale può apparire una regolarità
(connessioni ricorrenti tra dati, concetti, contesti o gruppi lessicali diversi) può essere in realtà
frutto del caso. Sebbene l’argomentazione dei due matematici non dovrebbe essere
generalizzata troppo affrettatamente, essi osservano che in alcuni vasti insiemi di numeri, punti
od oggetti, appaiono motivi regolari frutto del caso e risulta impossibile distinguerli per via
algoritmica da motivi che rivelano causal ità. 42
35 Li Gong, “La traduction automatique statistique, comment ça marche ?”, Interstices.info, pubblicato il 29 ottobre 2013, [Onli ne], https://interstices.info/jcms/nn_722 53/la -traduction -automatique -statistique -comment -ca-marche (pagina consultata il 14 dicembre 2017). 36 https://www.nature.com/articles/nature14236 37 L’intelligenza artificiale di IBM W atson che fornisce un servizio in campo medico o un motore di ricerca den ominato “Ross”, presentato come un avvocato virtuale – Roos, “Do more than humanly possible” [Online], http://rossintelligence.com (pagina consultata il 14 dicembre 2017). 38 Pierre Lévy, “Intelligence artificielle et sciences humaines”, Pierre Levy’s blog, 8 ottobre 2014. [Online], https://pierrelevyblog.com/2014/10/08/intelligence -artificielle -et-sciences -humaines/ (pagina consultata il 30 dicembre 2017). 39 Yann LeCun, “Qu’est -ce que l’intelligence artificielle”, ricerca pubblicata sul sito web del Collège de France,[Online],https://www.college -de- france.fr/media/yann - lecun/UPL4485925235409209505_Intelligence_Artificielle______Y._LeCun.pdf (pagina consultat a il 14 dicembre 2017). 40 Dominique Cardon, op. cit., p.60. 41 Cristian Sorin Calude, Giusseppe Longo, “Le déluge des corrélations fallacieuses dans le big data”, in Bernard Stiegler (dir. ) (2017), La toile que nous voulons, FYP editions, p.156. 42 Theory of “Ramsey”, Ronald L. Graham, Joel H. Spencer – “Ramsey Theory ”, Scientific American, vol. 263, n.1, luglio 1990, p112 -117 citato da Cristian Sorin Calude, Giuseppe Longo, “Le déluge des corrélations fallacieuses dans le big data”, ibid.
27
73. Infine gli algoritmi, qualunque sia il loro attuale livello di sofisticazione, sono ancora ridotti automaticamente alle interazioni stabilite nella fase di apprendimento e dunque al loro passato.
Il contenuto e la qualità dei flussi di dati utilizzati nella composizione dei calcoli sono pertanto fondamentali per la comprensione dei risultati ottenuti e per l’individuazione di eventuali distorsioni analitiche. Le sfide sono anche qui numerose in quanto, nell’ambito di un approccio
esaustivo, l ’analisi della maggiore mole possibile di dati relativi a un’attività produce risultati il cui significato deve essere chiarito in relazione a tutti i fattori che hanno avuto un’incidenza. Nell’ambito di un approccio più restrittivo, che utilizza una campi onatura di dati in ingresso,
anche le distorsioni dovute ai compromessi necessari per selezionare un dato piuttosto che un altro danno luogo a rischi.
4. Può l’intelligenza artificiale modellizzare anticipatamente il
ragionamento giuridico?
L’intelligenza artificiale aggira le difficoltà incontrate con i vecchi sistemi esperti: non cerca di
imitare manualmente il ragionamento giuridico, la cui riproduzione non costituisce di per sé un
obiettivo. L’apprendimento automatico conduce alla categorizzazione tra i diversi parametri
individuati dai progettisti o scoperti dalla macchina.
74. I sistemi giuridici continentali sono ben lontani dall’ideale di razionalità incarnato, per esempio,
dal Codice civile francese del 1804. Vi è una moltitu dine di fonti che non si integrano
perfettamente e che si riferiscono a un insieme di regole il cui significato resta indeterminato,
caratteristica che il teorico del diritto Herbert L. A. Hart ha denominato la “tessitura aperta del
diritto” [ open texture of the law ]”.43 I sistemi di Common Law , pur essendo considerati più
efficienti dal punto di vista economico perché si adattano dinamicamente alle nuove esigenze
giuridiche 44, sono anch’essi in evoluzione e non offrono maggiori certezze giuridiche. Le norme
giuridiche, pertanto, non conoscono un’evoluzione lineare, che le distingua dalle leggi empiriche
(quelle delle “scienze esatte”) in cui, in generale, ogni nuova regola integra le precedenti e non
invalida un insieme compiuto di ragion amenti.
75. Si dovrebbe sottolineare che, di fronte alla complessità generale dei sistemi giuridici, i vecchi
sistemi esperti informatici, una volta annidate 200 -300 regole logiche, raggiungevano
rapidamente i loro limiti. La divisione del diritto in regole d i produzione si è rivelata insufficiente
a fornire una rappresentazione valida del corpus di conoscenze e di metodi che guidano un
giurista.
76. Di conseguenza, la modellizzazione informatica del ragionamento dei giudici si è dimostrata
altrettan
Testo del 2023-02-13 Fonte: GPDP
Documento Rating Intelligenza artificiale Avvocati Giustizia predittiva Civilenews Privacydb Giudici Wallabag
Link: https://rm.coe.int/carta-etica-europea-sull-utiliz