Balene | 2025-03-20 · NEW: ![]() |
Senato: L'intelligenza artificiale all'Antitrust, con una definizione troppo ampia |
abstract:
Disposizioni e delega al Governo in materia di intelligenza artificiale -
Edizione provvisoria - - A.S. n. 1146-A
Alcuni estratti dal dossier di 155 pagine.
Per il resto e' un testo che non va sottovalutato. Ci sono molti ottimi spunti che meritano un grazie a chi ci sta lavorando, diversamente da quanto visto per l'AI act. Ma il testo e' troppo lungo per poterci esprimere, anche per via delle deleghe al Governo, che dovranno tradursi in altre parole.
Ritorna consentita la ricerca giurisprudenziale con la AI.
Introdotte anche notevolissime norme penali.
Fonte: SenatoLink: https://www.senato.it/japp/bgt/showdoc/19/DOSSIER/
analisi:
....' ....... ......
.... .... .'......... ... ....... ..........
... .. ..... ..... ..... ............, ....... ... .. ..... ....... .. .... .. ...... .. ...... (. ........).
........ .. (... ....'............ ........... ..... ........ ...............)
-
............... ....'.. ..... ..:
- .......... ....'...........
- ......... ... ..... .. ........... ... .............
- ............. ..... .............. . ............... ... ....... ........
-
........ ............:
- .................... ... ............. ....'...
- .................... ... ... .........
- ........ ...'............... .............., ..... .......... .. ............ ......
-
...... .............:
- ........ .. ...... ........, ............. . ......... ... .. ... ............ ....'...
- ........ .. .......... ............
-
..............:
- ........ ... ......... .. ..... ... ............ .'.......... ..... ........... . ..... .................... ..... ..........
- ................ .. ......... .. .................... . .. .................. .. ......... ........... ..... ..........
........ .. (....... ... ....... .. ............ ........... ....'............... ...........)
-
...... .. ........ ..........:
- .............. ... ....... ...........
- ............... ... ...... ............
- ............... .............. ...........
-
...........:
- .......... ....'.. ... ......... ............ .... ............... ..... ....., ........... ... ..... . ........ .. ..............
- ....... .. "......... .........." ...... .............. .. ....... ...........
-
................:
- .......... ......... ... .'....... ....'.. ......... .. ........ ..... ..........
- .......... .. ............... ......... ....'.. ... .......... . ......... ...............
-
........... .......:
- .............. ... ....... .. .. .... ".. .... ......." ... ....... ............
- ................ .. .. .......... ..... ... ........ ........... (....).
........ ..-... (...... .. ....... .. ....... .. ...., ......... . ...... .......... ... .'............. .. ....... .. ............ ...........)
-
...... .. .......:
- ........... ........ ..... .......... ........ ...'... .. ...., ......... . ...... .......... ... .'...
- ........ .. ....... ........... ..... .. .....
-
........ . ....... .........:
- .............. ..... ....... .. ........ . ... ....... . ........ .........
- ......... .. ...... . ........ ............. .. .... .. ...........
- ............ ..... ............ .... ....... ............. .. ....... .. ........
-
.........:
- ........ ... .......... ... ......... ... ........ . ... ........ ..... ..........
- ...... ..... ........... ............ ...........
...... ........ ............ .. ...... ......... ... .'... ....'............ ........... ..... ........ ............... . ... ....... ..........., .......... ..........., ..................... ..... . ...... ... ....... ..... ............
index:
Indice
- ............... ....'.. ..... ..
- ........ ............
- ...... .............
- ..............
- ...... .. ........ ..........
- ...........
- ................
- ........... .......
- ...... .. .......
- ........ . ....... .........
- .........
- Breve sintesi gen ai:
- Veniamo al resto delle 150 pagina di dos
testo:
L'art. 3 contiene le 'definizioni' applicate ai fini del regolamento. In particolare, per sistema di IA si intende "un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall'input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali"
E anche con questa definizione abbiamo preso il plancton insieme alle balene.
Breve sintesi gen ai:
Ecco gli argomenti degli articoli rimessi in ordine e uno per linea:
Art.4: MINORI
Art.4: CONSENSO
Art.6: REGOLAMENTI
Art.7: SERVIZIO SANITARIO NAZIONALE
Art.7: QUALITA' DELLA VITA
Art.7: PERSONE CON DISABILITA'
Art.8: CURE MEDICHE E CHIRURGICHE
Art.8: TUTELA DELLA SALUTE
Art.8: OBBLIGO DI FORNIRE DATI NOTIZIE E INFORMAZIONI
Art.8: TUTELA DELLA RISERVATEZZA
Art.9: SERVIZIO SANITARIO NAZIONALE
Art.9: DECRETI MINISTERIALI
Art.9: MINISTERO DELLA SALUTE
Art.9: AGENZIA PER LA CYBERSICUREZZA NAZIONALE
Art.9: TELEMATICA
Art.9: AUTORITA' INDIPENDENTI DI CONTROLLO E GARANZIA
Art.10: TUTELA DEI LAVORATORI
Art.11: OSSERVATORI
Art.11: LIMITI E VALORI DI RIFERIMENTO
Art.11: DECRETI MINISTERIALI
Art.11: MINISTERO DEL LAVORO E DELLE POLITICHE SOCIALI
Art.12: LIBERI PROFESSIONISTI
Art.13: PUBBLICA AMMINISTRAZIONE
Art.14: AMMINISTRAZIONE GIUDIZIARIA
Art.14: MAGISTRATI
Art.16: PUBBLICA SICUREZZA
Art.17: LIMITI E VALORI DI RIFERIMENTO
Art.17: PUBBLICA AMMINISTRAZIONE
Art.18: COMPETENZA
Art.18: AGENZIA PER LA CYBERSICUREZZA NAZIONALE
Art.18: AUTORITA' INDIPENDENTI DI CONTROLLO E GARANZIA
Art.18: PRESIDENTE DEL CONSIGLIO DEI MINISTRI
Art.18: AGENZIA PER L'ITALIA DIGITALE
Art.19: LIMITI E VALORI DI RIFERIMENTO
Art.19: FONDI SPECIALI DI BILANCIO
Art.20: SPORT
Art.20: SCUOLA SECONDARIA
Art.21: AGENZIA PER LA CYBERSICUREZZA NAZIONALE
Art.21: IMPRESE MEDIE E PICCOLE
Art.21: PARTECIPAZIONI IN IMPRESE
Art.22: LIMITI E VALORI DI RIFERIMENTO
Art.22: GOVERNO
Art.22: TRASMISSIONE DI ATTI
Art.22: PARERI PARLAMENTARI
Art.22: DECRETI LEGISLATIVI DELEGATI
Art.23: FREQUENZE RADIOFONICHE E TELEVISIVE
Art.24: INVENZIONI E OPERE DELL' INGEGNO
Art.25: AGGRAVAMENTO DELLA PENA
Art.25: PENE DETENTIVE
Veniamo al resto delle 150 pagina di dossier.
Articolo 13
(Uso dell'intelligenza artificiale nella pubblica
amministrazione)
L'articolo 13 pone talune previsioni di ordine generale circa l'utilizzo
dell'intelligenza artificiale nei procedimenti della pubblica
amministrazione, alla stregua di principi quali la conoscibilità,
tracciabilità, strumentalità rispetto alla decisione spettante comunque
alla persona Responsabile dell'agire amministrativo.
Il comma 1 pone le finalità dell'utilizzo dell'intelligenza artificiale da
parte delle pubbliche amministrazioni.
Sono:
○ l'incremento della propria efficienza;
○ la riduzione dei tempi di definizione dei procedimenti;
○ l'incremento della qualità e quantità dei servizi erogati.
Al contempo, si prescrive di assicurare agli interessati la conoscibilità
del suo funzionamento e la tracciabilità del suo utilizzo.
L'utilizzo dell'intelligenza artificiale ha da essere in funzione
strumentale e di supporto all'attività provvedimentale.
Ed è tenuto al rispetto dell'autonomia e del potere decisionale della
persona che resta l'unica Responsabile dei provvedimenti e dei
procedimenti (così il comma 2).
Le pubbliche amministrazioni adottano misure tecniche, organizzative e
formative, volte a garantire un utilizzo dell'intelligenza artificiale
"responsabile" e a sviluppare le capacità trasversali degli utilizzatori
(comma 3).
Infine è posta una clausola di invarianza finanziaria (comma 4).
I principi così formulati concernono un ambito di utilizzo
dell'intelligenza artificiale - da parte delle pubbliche amministrazioni -
sul quale, se allo stato non sono intervenute pronunzie della Corte
costituzionale, si è profilata ormai una prima giurisprudenza
amministrativa.
Vale rammentare, per questo riguardo, la sentenza del Consiglio di
Stato, Sezione VI, 8-4-2019, n. 2270, entro un giudizio in cui gli
appellanti erano docenti della scuola secondaria di secondo grado già
inseriti nelle relative graduatorie ad esaurimento, individuati come
destinatari di proposta di assunzione a tempo indeterminato, in
conseguenza del piano straordinario nazionale (di cui alla legge n. 107
del 2015, art. 1, commi 95-104) nella fase "B". Essi lamentavano di
essersi ritrovati - per effetto di un meccanismo algoritmico - destinatari
di una nomina su classi di concorso ed ordine di scuola in cui non
avevano mai lavorato, e scuola superiore di primo grado benché
avessero espresso preferenza per quella di secondo grado, ed in
province lontane rispetto a quella di provenienza, quando poi in
seguito, durante la fase "C", i docenti collocati in graduatoria in
posizione deteriore rispetto agli appellanti, hanno beneficiato
dell'assunzione a tempo indeterminato nella classe di concorso prescelta
e nella provincia di residenza.
Il Consiglio di Stato rilevava preliminarmente "gli indiscutibili vantaggi
derivanti dalla automazione del processo decisionale
dell'amministrazione mediante l'utilizzo di una procedura digitale ed
attraverso un 'algoritmo' - ovvero di una sequenza ordinata di
operazioni di calcolo - che in via informatica sia in grado di valutare e
graduare una moltitudine di domande. L'utilità di tale modalità
operativa di gestione dell'interesse pubblico è particolarmente evidente
con riferimento a procedure seriali o standardizzate, implicanti
l'elaborazione di ingenti quantità di istanze e caratterizzate
dall'acquisizione di dati certi ed oggettivamente comprovabili e
dall'assenza di ogni apprezzamento discrezionale".
Dunque la strumentazione digitale può concorrere ai canoni di
efficienza ed economicità dell'azione amministrativa, secondo il
principio costituzionale di buon andamento dell'azione amministrativa
(art. 97 Cost.); non solo, "l'assenza di intervento umano in un'attività di
mera classificazione automatica di istanze numerose, secondo regole
predeterminate (che sono, queste sì, elaborate dall'uomo), e
l'affidamento di tale attività a un efficiente elaboratore elettronico
appaiono come doverose declinazioni dell'art. 97 Cost. coerenti con
l'attuale evoluzione tecnologica".
Tuttavia, soggiungeva il Consiglio di Stato, l'utilizzo di procedure
'robotizzate' non può essere motivo di elusione dei princìpi che
conformano il nostro ordinamento e che regolano lo svolgersi
dell'attività amministrativa. "Difatti, la regola tecnica che governa
ciascun algoritmo resta pur sempre una regola amministrativa generale,
costruita dall'uomo e non dalla macchina, per essere poi (solo) applicata
da quest'ultima, anche se ciò avviene in via esclusiva. Questa regola
algoritmica, quindi:
- possiede una piena valenza giuridica e amministrativa, anche se viene
declinata in forma matematica, e come tale, come si è detto, deve
soggiacere ai principi generali dell'attività amministrativa, quali quelli
di pubblicità e trasparenza (art. 1 l. 241/90), di ragionevolezza, di
proporzionalità, etc.;
- non può lasciare spazi applicativi discrezionali (di cui l'elaboratore
elettronico è privo), ma deve prevedere con ragionevolezza una
soluzione definita per tutti i casi possibili, anche i più improbabili (e ciò
la rende in parte diversa da molte regole amministrative generali); la
discrezionalità amministrativa, se senz'altro non può essere demandata
al software, è quindi da rintracciarsi al momento dell'elaborazione dello
strumento digitale;
- vede sempre la necessità che sia l'amministrazione a compiere un
ruolo ex ante di mediazione e composizione di interessi, anche per
mezzo di costanti test, aggiornamenti e modalità di perfezionamento
dell'algoritmo (soprattutto nel caso di apprendimento progressivo e di
deep learning);
- deve contemplare la possibilità che - come è stato autorevolmente
affermato - sia il giudice a "dover svolgere, per la prima volta sul piano
'umano', valutazioni e accertamenti fatti direttamente in via
automatica", con la conseguenza che la decisione robotizzata "impone al
giudice di valutare la correttezza del processo automatizzato in tutte le
sue componenti". In definitiva, dunque, l'algoritmo, ossia il
software, deve essere considerato a tutti gli effetti come un "atto
amministrativo informatico".
Ciò comporta un duplice ordine di conseguenze. "In primo luogo, come
già messo in luce dalla dottrina più autorevole, il meccanismo
attraverso il quale si concretizza la decisione robotizzata (ovvero
l'algoritmo) deve essere "conoscibile", secondo una declinazione
rafforzata del principio di trasparenza, che implica anche quello della
piena conoscibilità di una regola espressa in un linguaggio differente da
quello giuridico. Tale conoscibilità dell'algoritmo deve essere garantita
in tutti gli aspetti: dai suoi autori al procedimento usato per la sua
elaborazione, al meccanismo di decisione, comprensivo delle priorità
assegnate nella procedura valutativa e decisionale e dei dati selezionati
come rilevanti. Ciò al fine di poter verificare che gli esiti del
procedimento robotizzato siano conformi alle prescrizioni e alle finalità
stabilite dalla legge o dalla stessa amministrazione a monte di tale
procedimento e affinché siano chiare - e conseguentemente sindacabili -
le modalità e le regole in base alle quali esso è stato impostato. In altri
termini, la "caratterizzazione multidisciplinare" dell'algoritmo
(costruzione che certo non richiede solo competenze giuridiche, ma
tecniche, informatiche, statistiche, amministrative) non esime dalla
necessità che la "formula tecnica", che di fatto rappresenta l'algoritmo,
sia corredata da spiegazioni che la traducano nella "regola giuridica" ad
essa sottesa e che la rendano leggibile e comprensibile, sia per i
cittadini che per il giudice"
"In secondo luogo, la regola algoritmica deve essere non solo
conoscibile in sé, ma anche soggetta alla piena cognizione, e al
pieno sindacato, del giudice amministrativo. La suddetta esigenza
risponde infatti all'irrinunciabile necessità di poter sindacare come il
potere sia stato concretamente esercitato, ponendosi in ultima analisi
come declinazione diretta del diritto di difesa del cittadino, al quale non
può essere precluso di conoscere le modalità (anche se automatizzate)
con le quali è stata in concreto assunta una decisione destinata a
ripercuotersi sulla sua sfera giuridica. Solo in questo modo è possibile
svolgere, anche in sede giurisdizionale, una valutazione piena della
legittimità della decisione; valutazione che, anche se si è al cospetto di
una scelta assunta attraverso una procedura informatica, non può che
essere effettiva e di portata analoga a quella che il giudice esercita
sull'esercizio del potere con modalità tradizionali. In questo senso, la
decisione amministrativa automatizzata impone al giudice di valutare in
primo luogo la correttezza del processo informatico in tutte le sue
componenti: dalla sua costruzione, all'inserimento dei dati, alla loro
validità, alla loro gestione. Da qui, come si è detto, si conferma la
necessità di assicurare che quel processo, a livello amministrativo,
avvenga in maniera trasparente, attraverso la conoscibilità dei dati
immessi e dell'algoritmo medesimo. In secondo luogo, conseguente al
primo, il giudice deve poter sindacare la stessa logicità e ragionevolezza
della decisione amministrativa robotizzata, ovvero della "regola" che
governa l'algoritmo, di cui si è ampiamente detto"
Sulla scorta di tali considerazioni, il Consiglio di Stato accoglieva
l'appello dei ricorrenti, ravvisando la violazione dei principi di
imparzialità, pubblicità e trasparenza, poiché non era dato comprendere
per quale ragione le legittime aspettative di soggetti collocati in una
determinata posizione in graduatoria fossero andate deluse. "Infatti,
l'impossibilità di comprendere le modalità con le quali, attraverso il
citato algoritmo, siano stati assegnati i posti disponibili, costituisce di
per sé un vizio tale da inficiare la procedura. Non solo, gli esiti della
stessa paiono effettivamente connotati dall'illogicità ed irrazionalità
denunciate dalle appellanti".
Ancora in un giudizio relativo al procedimento di assegnazioni di sedi
scolastiche, interveniva la sentenza del Consiglio di Stato, Sezione
VI, 13 dicembre 2019, n. 8472. Essa rimarcava il rilievo fondamentale
assunto, anche alla luce della disciplina di origine sovranazionale, da
"due aspetti preminenti, quali elementi di minima garanzia per ogni
ipotesi di utilizzo di algoritmi in sede decisoria pubblica: a) la piena
conoscibilità a monte del modulo utilizzato e dei criteri applicati; b)
l'imputabilità della decisione all'organo Titolare del potere, il quale
deve poter svolgere la necessaria verifica di logicità e legittimità della
scelta e degli esiti affidati all'algoritmo".
Per quanto riguarda la conoscibilità dell'algoritmo, essa "deve essere
garantita in tutti gli aspetti: dai suoi autori al procedimento usato per la
sua elaborazione, al meccanismo di decisione, comprensivo delle
priorità assegnate nella procedura valutativa e decisionale e dei dati
selezionati come rilevanti. Ciò al fine di poter verificare che i criteri, i
presupposti e gli esiti del procedimento robotizzato siano conformi alle
prescrizioni e alle finalità stabilite dalla legge o dalla stessa
amministrazione a monte di tale procedimento e affinché siano chiare -
e conseguentemente sindacabili - le modalità e le regole in base alle
quali esso è stato impostato".
Per quanto concerne l'imputabilità, "deve essere garantita la verifica a
valle, in termini di logicità e di correttezza degli esiti. Ciò a garanzia
dell'imputabilità della scelta al Titolare del potere autoritativo,
individuato in base al principio di legalità, nonché della verifica circa la
conseguente individuazione del soggetto responsabile, sia nell'interesse
della stessa p.a. che dei soggetti coinvolti ed incisi dall'azione
amministrativa affidata all'algoritmo".
Sulla scorta del diritto sovranazionale europeo, il Consiglio di Stato
rilevava inoltre la rilevanza del "principio di non esclusività della
decisione algoritmica. Nel caso in cui una decisione automatizzata
«produca effetti giuridici che riguardano o che incidano
significativamente su una persona», questa ha diritto a che tale
decisione non sia basata unicamente su tale processo automatizzato
(art. 22 Reg. 2016/679). In proposito, deve comunque esistere nel
processo decisionale un contributo umano capace di controllare,
validare ovvero smentire la decisione automatica. In ambito matematico
ed informativo il modello viene definito come HITL (human in the loop),
in cui, per produrre il suo risultato è necessario che la macchina
interagisca con l'essere umano".
Così come sottolineava "un ulteriore principio fondamentale, di non
discriminazione algoritmica, secondo cui è opportuno che il titolare
del Trattamento utilizzi procedure matematiche o statistiche appropriate
per la profilazione, mettendo in atto misure tecniche e organizzative
adeguate al fine di garantire, in particolare, che siano rettificati i fattori
che comportano inesattezze dei dati e sia minimizzato il rischio di errori
e al fine di garantire la sicurezza dei dati personali, secondo una
modalità che tenga conto dei potenziali rischi esistenti per gli interessi e
i diritti dell'interessato e che impedisca tra l'altro effetti discriminatori
nei confronti di persone fisiche sulla base della razza o dell'origine
etnica, delle opinioni politiche, della religione o delle convinzioni
personali, dell'appartenenza sindacale, dello status genetico, dello stato
di salute o dell'orientamento sessuale, ovvero che comportano misure
aventi tali effetti".
Le due sentenze 'apripista' del 2019 sopra ricordate - la prima
concernente l'attività amministrativa vincolata, la seconda con 'apertura'
a quella discrezionale - hanno avuto successivi ribadimenti (cfr. ancora
della Sezione VI, la sentenza 4-2-2020, n. 881) e possono dirsi recare
salienti indirizzi giurisprudenziali in ordine all'utilizzo, allo stato, di
strumenti della 'rivoluzione digitale' da parte delle pubbliche
amministrazioni.
Articolo 14
(Impiego dei sistemi di intelligenza artificiale
nell'attività giudiziaria)
L'articolo 14, integralmente sostituito nel corso dell'esame in sede
referente, detta norme generali per l'utilizzo dei sistemi di intelligenza
artificiale in ambito giudiziario.
La nuova formulazione dell'articolo 14 è volta a delimitare in maniera
precisa gli ambiti nei quali l'impiego di sistemi di intelligenza artificiale
è consentito nello svolgimento dell'attività giudiziaria propriamente
detta e delle attività ad essa collaterali.
Innanzitutto, il comma 1 stabilisce che in caso di utilizzo dei sistemi di
intelligenza artificiale sono sempre riservate al magistrato le decisioni
concernenti:
○ l'interpretazione e l'applicazione della legge;
○ la valutazione dei fatti e delle prove;
○ l'adozione dei provvedimenti.
Per le decisioni sopra elencate, che costituiscono il nucleo fondamentale
e più sensibile nell'esercizio della giurisdizione, viene esclusa pertanto
qualsiasi possibilità di fare ricorso all'intelligenza artificiale.
La disposizione, dunque, non consentirebbe l'impiego dei sistemi di AI
riconducibili alla c.d. "giustizia predittiva", ovvero di sistemi che, sulla
base di un modello statistico elaborato in maniera autonoma dal sistema
stesso a seguito dell'analisi di una mole significativa di atti giuridici,
sono in grado di formulare una previsione che può giungere fino al
possibile esito di un giudizio.
Rispetto all'originaria formulazione del testo dell'articolo 14, non è più
presente il riferimento all'utilizzo dei sistemi di intelligenza artificiale
per le attività di ricerca giurisprudenziale e dottrinale, per le quali deve
dunque intendersi consentito l'utilizzo di sistemi di intelligenza
artificiale. Sul punto, la Commissione giustizia del Senato con
riferimento alla disposizione in commento ha reso parere rilevando la
necessità del ripristino della formulazione originale del primo periodo
del comma 1 dell'articolo 14, nel testo presentato al Senato, che
consentiva l'utilizzo di sistemi di intelligenza artificiale per l'attività
giudiziaria finalizzato alle sole attività strumentali e di supporto, ovvero
«per l'organizzazione e la semplificazione del lavoro giudiziario nonché
per la ricerca giurisprudenziale e dottrinale».
Ai sensi del comma 2, è invece consentito il ricorso a sistemi di
intelligenza artificiale per ciò che riguarda:
○ l'organizzazione dei servizi relativi alla giustizia;
○ la semplificazione del lavoro giudiziario;
○ le attività amministrative accessorie.
In tali ambiti, la disciplina puntuale per l'impiego dei sistemi di
intelligenza artificiale è demandata al Ministro della giustizia.
La formulazione precedente demandava al Ministro della giustizia la
disciplina per l'impiego dei sistemi di intelligenza artificiale da parte
degli uffici giudiziari relativamente alla giustizia ordinaria, mentre per
le altre giurisdizioni erano chiamati a provvedere gli organi di
governo competenti sulla base dei rispettivi ordinamenti (ovvero il
Consiglio di Presidenza della Giustizia amministrativa e le Sezioni
riunite della Corte dei conti).
Il comma 3 prevede che, fino alla compiuta attuazione del regolamento
europeo sull'intelligenza artificiale (Reg. (UE) 2024/1689),
l'autorizzazione alla sperimentazione e l'impiego dei sistemi di
intelligenza artificiale negli uffici giudiziari ordinari è concessa dal
Ministero della giustizia, che provvede sentite le autorità nazionali cui
sono demandate le attività di controllo e sorveglianza ai sensi
dell'articolo 18 (su cui si veda la relativa scheda di lettura), ovvero
l'Agenzia per l'Italia digitale (AgId) e l'Agenzia per la cybersicurezza
(ACN).
Si ricorda sul punto che il regolamento (UE) 2024/1689 prevede la
creazione di appositi spazi di sperimentazione normativa per
l'intelligenza artificiale (artt. 57 e ss.), operativi fino al 2 agosto 2026
(data a partire dalla quale, ad esclusione di specifiche previsioni, si
applica il regolamento).
Infine, il comma 4 è volto alla promozione di attività didattiche sul
tema dell'intelligenza artificiale e sugli impieghi dei sistemi di
intelligenza artificiale nell'attività giudiziaria, attraverso la loro
inclusione nelle linee programmatiche sulla formazione dei magistrati
formulate dal Ministro della giustizia ai sensi dell'articolo 12, comma 1,
lettera a), del d.lgs. 26/2006.
La citata lettera a) prevede che il comitato direttivo della Scuola
superiore della magistratura ha il compito di predisporre la bozza di
programma annuale delle attività didattiche, da sottoporre al comitato
direttivo per la sua adozione, tenendo conto delle linee programmatiche
sulla formazione pervenute dal Consiglio superiore della magistratura e
dal Ministro della giustizia, nonché delle proposte pervenute dal
Consiglio nazionale forense e dal Consiglio universitario nazionale.
Le attività formative sono volte:
○ alla formazione digitale di base e avanzata,
○ all'acquisizione e condivisione di competenze digitali,
○ alla sensibilizzazione sui benefici e sui rischi connessi all'utilizzo
dell'intelligenza artificiale.
Il Ministro deve altresì curare lo svolgimento di analoghe attività
formative a favore del personale amministrativo della giustizia.
Il regolamento del Parlamento europeo e del Consiglio UE n. 1689 del
2024, cd. "AI Act", approvato dal Consiglio UE in via definitiva il 21
maggio 2024, si caratterizza per un approccio basato sulla definizione
di diversi livelli di rischio delle applicazioni di IA. In tale contesto, i
sistemi di intelligenza artificiale destinati all'amministrazione
della giustizia sono riconosciuti come "ad alto rischio" giacché
incidono sugli ambiti più sensibili del diritto, nei quali occorre
minimizzare i "rischi di potenziali distorsioni, errori e opacità",
tenendone distinte le "attività amministrative puramente accessorie, che
non incidono sull'effettiva amministrazione della giustizia nei singoli
casi, quali l'anonimizzazione o la Pseudonimizzazione di decisioni,
documenti o dati giudiziari, la comunicazione tra il personale, i compiti
amministrativi o l'assegnazione delle risorse", alle quali non si ritiene
opportuno estendere la classificazione di rischio elevato (Considerando
61).
Particolarmente sensibili sono i profili attinenti all'utilizzo dell'IA
nell'ambito del diritto penale. Sul tema è intervenuta una specifica
risoluzione del Parlamento europeo (6 ottobre 2021), nella quale si
ribadisce che "la decisione che produce effetti giuridici o analoghi deve
sempre essere presa da un essere umano, il quale possa essere ritenuto
responsabile per le decisioni adottate".
La disposizione in commento risulta altresì in linea con la Carta etica
per l'uso dell'intelligenza artificiale nei sistemi giudiziari e negli
ambiti connessi, adottata dalla Commissione europea per l'efficienza
della giustizia (CEPEJ) nel dicembre del 2018, dove, in particolare, si
stabilisce che il giudice dovrebbe poter controllare in qualsiasi
momento le decisioni giudiziarie e i dati utilizzati per produrre una
decisione, mantenendo la possibilità di discostarsi dalle soluzioni
proposte dall'IA, tenendo conto delle specificità del caso in questione.
Si segnala, infine, che la Commissione Giustizia del Senato sta
svolgendo un'indagine conoscitiva sull'impatto dell'intelligenza
artificiale nel settore della giustizia, nell'ambito della quale hanno già
avuto luogo alcune audizioni di esperti in materia.
Per maggiori dettagli circa l'utilizzo dei sistemi di intelligenza artificiale
nel settore della giustizia si rinvia all'apposito dossier.
Dal punto di vista operativo, il Ministro della giustizia, nell'ultima
relazione sull'amministrazione della giustizia riferita all'anno 2024 (Vol.
I e Vol II), ha dato conto di una serie di applicazioni dell'intelligenza
artificiale negli ambiti di competenza del Ministero, tra i quali si
segnalano in particolare:
- il programma "Nemesis", attivo presso l'Ispettorato generale del
Ministero, con compiti di registrazione e gestione delle ispezioni
ordinarie e delle attività di natura straordinaria e/o riservata;
- la Piattaforma per le indagini, che facilita il lavoro della polizia
giudiziaria e del pubblico ministero durante le indagini preliminari,
migliorando l'analisi e il Trattamento dei dati;
- il progetto DataLake Giustizia, realizzato nell'ambito del PNRR, in cui
sono ricompresi sei diversi sistemi concernenti la gestione di dati e
statistiche relativi a processi civili e penali, le attività di
anonimizzazione e Pseudonimizzazione delle sentenze civili e penali e
l'identificazione del rapporto vittima- autore del reato. All'interno del
progetto, è in fase avanzata lo sviluppo di una piattaforma di Business
Intelligence per dashboard interattive e report, utili per l'elaborazione di
statistiche nazionali e distrettuali, nonché la realizzazione di un data
mart dedicato all'analisi del fenomeno della violenza di genere.
Un altro importante progetto allo studio è BIGOSINT, in cui
l'intelligenza artificiale è utilizzata per contrastare crimini
transfrontalieri come il traffico di migranti.
Più in generale, nella relazione si sottolinea come l'intelligenza
artificiale sia «utilizzata per ottimizzare i carichi di lavoro e prevedere
criticità, trasformando il dato grezzo in conoscenza utile». Tra gli
esempi l'anonimizzazione automatica delle sentenze civili e penali; la
possibilità di eseguire ricerche avanzate all'interno dei testi delle
sentenze civili di merito e dei procedimenti collegati, con collegamenti
alla normativa citata nelle sentenze e la capacità di generare delle
sintesi dei testi. Inoltre è stata prevista la possibilità di utilizzare
dashboard interattive per monitorare, in tempo reale, la durata dei
procedimenti (cd. Disposition time) ed i valori del carico arretrato e sono
stati predisposti modelli di analisi predittiva per stimare i carichi di
lavoro e anticipare problematiche organizzative.
Il Ministero della giustizia è inoltre parte attiva in numerosi progetti
europei che promuovono l'innovazione e l'adozione di tecnologie
avanzate, come i progetti e-EDES (per la creazione di un'infrastruttura
digitale sicura per la cooperazione giudiziaria penale a livello europeo),
AI - TSI (per lo sviluppo di standard etici comuni per l'uso
dell'intelligenza artificiale nei sistemi giudiziari europei), ViSAR (per
l'implementazione di una piattaforma per supportare le vittime di
crimini con strumenti basati sull'intelligenza artificiale).
Infine, sotto il coordinamento del Ministero della giustizia, sono state
implementate delle "UPP task force", in cui le università operano in
stretto raccordo con gli uffici giudiziari dei singoli territori per
migliorarne l'efficienza e le prestazioni attraverso la sperimentazione di
modelli di intelligenza artificiale.
Articolo 14-bis
(Delega al Governo in materia di dati,
algoritmi e metodi matematici per
l'addestramento di sistemi di intelligenza
artificiale)
L'articolo 14-bis, reca delega al Governo, indicandone anche i principi
e criteri direttivi, per la definizione organica della disciplina relativa
all'utilizzo di dati, algoritmi e metodi matematici per
l'addestramento di sistemi di intelligenza artificiale, affidando le
controversie in materia alle sezioni specializzate in materia d'impresa.
L'articolo 14-bis al comma 1 delega il Governo ad adottare, entro 12
mesi dalla entrata in vigore della legge, uno o più decreti legislativi per
definire organicamente la disciplina organica relativa all'utilizzo di
dati, algoritmi e metodi matematici per l'addestramento di sistemi
di intelligenza artificiale.
Con riguardo alla procedura di adozione dei suddetti decreti, il
comma 2 prevede che siano adottati su proposta del Presidente del
Consiglio dei ministri e del Ministro della giustizia. Di ciascuno schema
è prevista la successiva trasmissione alle Camere per l'espressione dei
pareri delle Commissioni parlamentari competenti, che si
pronunciano entro il termine di 60 giorni dalla data di trasmissione,
decorso il quale i decreti legislativi possono essere comunque emanati.
La disposizione prevede inoltre il principio dello "scorrimento" in base
al quale se il termine previsto per il parere cade nei trenta giorni che
precedono la scadenza del termine previsto o successivamente, la
scadenza medesima è prorogata di sessanta giorni.
Il comma 3 dell'articolo 14-bis reca i principi e criteri direttivi ai
quali il Governo è tenuto ad attenersi nell'esercizio della delega di cui ai
commi precedenti.
Nel dettaglio, il legislatore delegato è chiamato, in primo luogo, a
individuare le ipotesi per le quali appare necessario dettare il regime
giuridico dell'utilizzo di dati, algoritmi e metodi matematici per
l'addestramento di sistemi di intelligenza artificiale, nonché i diritti e
gli obblighi gravanti sulla parte che intenda procedere al suddetto
utilizzo (lett. a).
Si ricorda che l'articolo 4 del disegno di legge in esame (su v. supra)
prevede che con riferimento ai dati personali, deve esserne garantito: il
trattamento lecito, corretto e trasparente, nonché la compatibilità con le
finalità per le quali sono stati raccolti, in conformità con il diritto
dell'Unione europea in materia di Dati personali e di tutela della
riservatezza. Si estendono pertanto all'ambito dell'intelligenza artificiale
i principi vigenti in materia di riservatezza dei dati personali.
Conseguentemente, in caso di violazione delle prescrizioni che saranno
dettate ai sensi della precedente lett. a), il legislatore delegato dovrà
individuare strumenti di tutela, a carattere risarcitorio o inibitorio,
nonché delineare un apposito apparato sanzionatorio (lett. b).
Infine, si prevede che le controversie relative alla disciplina che sarà
introdotta nell'esercizio della delega dovranno essere attribuite alle
sezioni specializzate in materia di impresa (lett. c).
Le sezioni specializzate in materia di impresa sono articolazioni dei
tribunali ordinari e delle corti d'appello istituite per trattare in via
esclusiva determinate controversie relative al diritto commerciale e
societario disciplinate dal D. Lgs. 27 giugno 2003, n. 168. L'art. 3 del
citato decreto legislativo definisce le controversie attribuite alla
competenza delle sezioni specializzate, che comprendono, in
particolare:
○ proprietà industriale;
○ diritto d'autore e diritti connessi;
○ concorrenza sleale e pratiche anticoncorrenziali;
○ normativa antitrust dell'UE;
○ tutela collettiva dei consumator
Art.4: Minori Art.4: Consenso Art.6: REGOLAMENTI Art.7: SERVIZIO SANITARIO NAZIONALE Art.7: QUALITA' DELLA VITA Art.7: PERSONE CON DISABILITA' Art.8: CURE MEDICHE E CHIRURGICHE Art.8: TUTELA DELLA SALUTE Art.8: OBBLIGO DI FORNIRE DATI NOTIZIE E INFORMAZIONI Art.8: TUTELA DELLA RISERVATEZZA Art.9: SERVIZIO SANITARIO NAZIONALE Art.9: DECRETI MINISTERIALI Art.9: MINISTERO DELLA SALUTE Art.9: AGENZIA PER LA CYBERSICUREZZA NAZIONALE Art.9: TELEMATICA Art.9: AUTORITA' INDIPENDENTI DI CONTROLLO E GARANZIA Art.10: TUTELA DEI lavoratori Art.11: OSSERVATORI Art.11: LIMITI E VALORI DI RIFERIMENTO Art.11: DECRETI MINISTERIALI Art.11: MINISTERO DEL LAVORO E DELLE POLITICHE SOCIALI Art.12: LIBERI PROFESSIONISTI Art.13: PUBBLICA AMMINISTRAZIONE Art.14: AMMINISTRAZIONE GIUDIZIARIA Art.14: MAGISTRATI Art.16: PUBBLICA SICUREZZA Art.17: LIMITI E VALORI DI RIFERIMENTO Art.17: PUBBLICA AMMINISTRAZIONE Art.18: COMPETENZA Art.18: AGENZIA PER LA CYBERSICUREZZA NAZIONALE Art.18: AUTORITA' INDIPENDENTI DI CONTROLLO E GARANZIA Art.18: PRESIDENTE DEL CONSIGLIO DEI MINISTRI Art.18: AGENZIA PER L'ITALIA DIGITALE Art.19: LIMITI E VALORI DI RIFERIMENTO Art.19: FONDI SPECIALI DI BILANCIO Art.20: SPORT Art.20: SCUOLA SECONDARIA Art.21: AGENZIA PER LA CYBERSICUREZZA NAZIONALE Art.21: IMPRESE MEDIE E PICCOLE Art.21: PARTECIPAZIONI IN IMPRESE Art.22: LIMITI E VALORI DI RIFERIMENTO Art.22: GOVERNO Art.22: TRASMISSIONE DI ATTI Art.22: PARERI PARLAMENTARI Art.22: DECRETI LEGISLATIVI DELEGATI Art.23: FREQUENZE RADIOFONICHE E TELEVISIVE Art.24: INVENZIONI E OPERE DELL' INGEGNO Art.25: AGGRAVAMENTO DELLA PENA Art.25: PENE DETENTIVE

Link: https://www.senato.it/japp/bgt/showdoc/19/DOSSIER/
Testo del 2025-03-20 Fonte: Senato
Balene Plancton Definizioni Intelligenza artificiale Algoritmo