Civile.it
/internet
Osservatorio sul diritto e telecomunicazioni informatiche, a cura del dott. V. Spataro dal 1999, 11600 documenti.

Il dizionario e' stato letto volte.



Segui via: Email - Telegram
  Dal 1999   spieghiamo il diritto di internet  Store  Podcast  Dizionario News alert    
             



Consulenza privacy e e-commerce



L'Osservatorio contiene 11600 documenti sul diritto di internet.

  


WPkit.it: privacy, formulari, check up per WordPress

Temi attuali:
Algoritmi ChatGPT Intelligenza artificiale Privacy WordPress



Intelligenza artificiale 12.11.2025    Pdf    Appunta    Letti    Post successivo  

CSM Raccomandazioni sull'uso dell'intelligenza artificiale nell'amministrazione della giustizia

Testo reimpaginato e analizzato con human genai. Testo originale dalla fonte in pdf disponibile al link allegato. Presentazione prevalentemente genai.

Genai (da ottobre 2025) e' un prompt banale. Human Genai e' un prompt realizzato caso per caso dall'editor.


CSM

 

P

Presentazione (praticamente tutta genai):

Titolo: Giustizia e Intelligenza Artificiale: La Rivoluzione è già qui. Siete pronti?

L'intelligenza artificiale può diventare la nuova toga del magistrato? Un alleato infaticabile o un giudice ombra dai rischi inediti? In un'epoca in cui gli algoritmi promettono di rivoluzionare ogni aspetto della nostra vita, il mondo della giustizia si trova di fronte a uno dei bivi più complessi e affascinanti della sua storia.

Questo non è un semplice documento tecnico, ma una vera e propria bussola per navigare il futuro. Nato dalla riflessione del Consiglio Superiore della Magistratura, questo testo traccia un confine delicato e fondamentale: quello tra il supporto e la sostituzione, tra l'efficienza e l'abdicazione del pensiero critico.

Cosa troverete dentro?

  • La sfida del presente: Quali strumenti di IA possiamo usare oggi in sicurezza? Dalle ricerche dottrinali all'organizzazione delle udienze, scoprirete le attività in cui l'IA è un prezioso assistente e quelle che, invece, rappresentano una zona rossa invalicabile.
  • I rischi nascosti: "Allucinazioni", "bias", profilazione invisibile. Il testo svela le trappole degli algoritmi, spiegando perché un'output non è mai una verità assoluta e come difendersi dai suoi errori.
  • La corsa contro il tempo: Con l'orologio che ticchetta verso l'agosto 2026, data in cui entrerà in vigore il Regolamento Europeo sull'IA, il documento offre le chiavi per comprendere cosa significherà operare solo con sistemi "a marcatura CE" e come prepararsi a questo cambiamento epocale.
  • Le regole d'oro: Dalla protezione dei dati alla supervisione umana, fino alla responsabilità individuale del magistrato. Vengono dettate le linee guida per un uso consapevole, etico e legalmente corretto, che metta al centro la persona e non la macchina.

Non si tratta di un manuale per tecnologi, ma una riflessione essenziale per ogni operatore del diritto e per chiunque creda che la giustizia debba restare un'esperienza profondamente umana.

Leggete queste raccomandazioni per non subire il cambiamento, ma per comprenderlo, governarlo e garantire che la tecnologia sia al servizio della giustizia, e non il contrario. Il futuro del processo decisionale si gioca adesso.

Testo riformattato, human genai:

Raccomandazioni sull'uso dell'intelligenza artificiale nell'amministrazione della giustizia

Considerato che:

  • L'impiego di sistemi di IA, in particolare quelli generativi e predittivi, introduce nuove possibilità di supporto alle attività di studio, analisi, gestione documentale e organizzazione dei flussi informativi, ma al contempo solleva questioni complesse in materia di protezione dei dati personali, trasparenza algoritmica e responsabilità decisionale.
  • Le more dell'adozione da parte del Ministero della Giustizia di suite di intelligenza artificiale anche generativa a supporto delle attività giurisdizionali, risultano già disponibili al pubblico - inclusi evidentemente soggetti appartenenti all'ordine giudiziario - strumenti e servizi di IA forniti da operatori privati1, la cui accessibilità diffusa rende necessaria una cornice di orientamento e vigilanza nell'utilizzo in ambito giudiziario e amministrativo.
  • L'impiego di questa tecnologia non si limita a una funzione meramente strumentale o organizzativa, come avviene nel caso degli applicativi tradizionali per la scrittura, la catalogazione o la ricerca documentale, i quali si limitano ad eseguire comandi impartiti dall'utente. I sistemi di intelligenza artificiale possono invece essere utilizzati per supportare e non sostituire, alcune fasi preparatorie dell'attività decisionale, offrendo sintesi, suggerimenti o correlazioni informative che affiancano il ragionamento umano senza determinarne gli esiti.
  • L'introduzione di sistemi di intelligenza artificiale in ambito giudiziario può essere considerata compatibile con la funzione giurisdizionale soltanto nella misura in cui tali strumenti siano integrati nel rispetto dei principi fondamentali del diritto processuale. In particolare, devono essere garantiti la trasparenza dell'elaborazione algoritmica, la possibilità di verifica e contestazione degli output, la subordinazione all'autonomia valutativa del giudice, e la parità informativa tra le parti. Solo un utilizzo conforme a tali requisiti potrà risultare coerente con i principi di legalità, giusto processo e tutela effettiva, su cui si fonda la giurisdizione in uno Stato di diritto.
  • Richiamati:
  • La "Carta etica europea sull'uso dell'Intelligenza Artificiale nei sistemi giudiziari e nel loro ambiente" adottata dalla CEPEJ ("Commissione Europea per l'Efficienza della Giustizia") nella sessione plenaria del 3 dicembre 2018.
  • L'AI act- regolamento europeo (UE) 1689/2024 del 13 giugno 20242 del Parlamento Europeo e del Consiglio, che stabilisce regole armonizzate sull'Intelligenza Artificiale e la modifica dei regolamenti (CE) n. 300/2008, (UE) n. 167/2013, (UE) n. 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull'Intelligenza Artificiale).
  • La "Linee Guida per l'adozione dei sistemi di Intelligenza Artificiale nella Pubblica Amministrazione" e relativi allegati, pubblicate con Determinazione n. 17 del 17 febbraio 2025, da adottare ai sensi del D.P.C.M. 12 gennaio 2024, recante "Piano triennale per l'informatica nella pubblica amministrazione 2024-2026" e che al termine del procedimento di revisione saranno adottate ai sensi dell'art. 71 del Codice dell'amministrazione digitale (CAD), per le quali il 20 marzo 2025 si è conclusa la fase di consultazione pubblica.
  • La carta dei diritti fondamentali dell'Unione Europea 2012/C 326/02 (CDFUE).
  • Il regolamento europeo (UE) 2023/2854 del 13 dicembre 2023 del Parlamento Europeo e del Consiglio, riguardante norme armonizzate sull'accesso equo ai dati e sul loro utilizzo e che modifica il regolamento (UE) 2017/2394 e la direttiva (UE) 2020/1828 (regolamento sui dati).
  • Il regolamento europeo (EU) 2022/868 del 30 maggio 2022 del Parlamento Europeo e del Consiglio, relativo alla governance europea dei dati e che modifica il regolamento (UE) 2018/1724 (Regolamento sulla governance dei dati).
  • La direttiva (UE) 2019/1024 del Parlamento europeo e del Consiglio, del 20 giugno 2019, relativa all'apertura dei dati e al riutilizzo dell'informazione del settore pubblico (rifusione).
  • La direttiva (UE) 2022/2555 del Parlamento europeo e del Consiglio del 14 dicembre 2022, relativa a misure per un livello comune elevato di cybersicurezza nell'Unione, recante modifica del regolamento (UE) n. 910/2014 e della direttiva (UE) 2018/1972 e che abroga la direttiva (UE) 2016/1148.
  • Il regolamento (UE) 2016/679 del 27 aprile 2016 del Parlamento europeo e del Consiglio, relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati (GDPR) e che abroga la direttiva 95/46/CE (regolamento generale sulla protezione dei dati). [Reg.UE 2018/1725].
  • Il regolamento (UE) 2018/1725 del Parlamento europeo e del Consiglio, del 23 ottobre 2018, sulla tutela delle persone fisiche in relazione al trattamento dei dati personali da parte delle istituzioni, degli organi e degli organismi dell'Unione e sulla libera circolazione di tali dati, e che abroga il regolamento (CE) n. 45/2001 e la decisione n. 1247/2002/ CE.
  • Il decreto legislativo 30 giugno 2003, n. 196 e s.m.i. recante "Codice in materia di protezione dei personali".
  • Il decreto legislativo 7 marzo 2005, n. 82 e s.m.i. recante "Codice dell'amministrazione digitale".
  • Considerato il "disegno di legge delega sull'intelligenza artificiale", DDL n.1146/2025, approvato definitivamente dal Parlamento il 17 settembre 2025.
  • Considerato il parere sul disegno di legge approvato dal CSM nella seduta del 25 settembre 2025.
  • Valutata l’istruttoria condotta dalla STO e l’audizione della professoressa Benedetta Galgani.
  • Rilevata la necessità da parte del CSM di adottare raccomandazioni sull'uso dell'Intelligenza Artificiale per l'amministrazione della giustizia, ispirate ai principi di legalità, trasparenza, proporzionalità e autonomia decisionale, al fine di garantire i diritti fondamentali nonché l'indipendenza e l’imparzialità dell'azione giudiziaria.

Osservazioni:

  1. Rischi connessi all'uso dell'IA
  2. L'impiego di sistemi di intelligenza artificiale comporta rischi significativi, in particolare per quanto riguarda la tutela dei diritti fondamentali, la protezione dei dati personali e la riservatezza delle informazioni trattate, oltre che l’affidabilità dei dati acquisiti.
  3. I dati immessi nei sistemi di IA possono essere trasmessi in modo automatico e predefinito a fornitori terzi e registrati anche su server di aziende estere extra UE, nonché essere riutilizzati per finalità non previste, con potenziali violazioni della riservatezza dei dati e rischio di profilazione anche degli utenti.
  4. I sistemi di IA utilizzano le informazioni già acquisite e possono definitivamente acquisire quelle immesse, atteso che il loro funzionamento cerca correlazioni e genera nuovi dati, a partire da quelli a disposizione, così da concretizzare il rischio che vengano generate informazioni sensibili sugli utenti con concreto rischio di successiva divulgazione.
  5. Rischi significativi riguardano, inoltre, gli output generati dai sistemi di IA che possono contenere errori e distorsioni, quali cd. allucinazioni (generazioni di contenuti non basati sulla realtà oggettiva), o cd. sycophancies (generazioni di contenuti compiacenti).
  6. Le risposte errate possono avere origine in dati di addestramento insufficienti o errati, non controllati, ovvero non strettamente riferibili ad informazioni tecniche e afferenti il settore specifico in cui esse devono poi essere utilizzate; nelle modalità di funzionamento degli algoritmi che, essendo basati sulla statistica, tendono talvolta anche a "inventare" una risposta solo "probabile" con l'instaurazione di una falsa correlazione tra i dati.
  7. L'intelligenza artificiale è profondamente determinata dai dati su cui è stata addestrata: non è, quindi, mai neutrale e, al contrario, incorpora tutte le imprecisioni contenute nel database di addestramento, nonché gli eventuali pregiudizi di chi ha progettato il sistema e ne ha guidato l'addestramento (cd. bias), dovendosi in proposito considerare che i sistemi, utilizzando algoritmi di tipo statistico, generano output che si basano fondamentalmente sul riconoscimento delle correlazioni tra dataset.
  8. L'utente deve perciò tenere conto che:
  9. A. L'output prodotto dai sistemi di IA generativa non è costante, poiché il loro funzionamento non segue logiche deterministiche ma probabilistiche: a ogni interrogazione il sistema seleziona, tra molte opzioni possibili, la risposta ritenuta più verosimile. Questa dinamica introduce una variabilità intrinseca, per cui la stessa domanda può generare risposte differenti.
  10. B. Le risposte fornite possono variare anche in funzione della formulazione del quesito (cd. prompting), della lunghezza, della precisione linguistica o del contesto implicito nella richiesta, influenzando sensibilmente la qualità e la direzione dell'output generato.
  11. C. Non è garantito un livello uniforme di qualità, coerenza o affidabilità delle risposte prodotte, anche in relazione a quesiti simili o ripetuti. L'output può contenere imprecisioni, omissioni, o risultare non pertinente rispetto al dominio di applicazione.
  12. D. È sempre necessaria una verifica umana sull'accuratezza, la completezza e la pertinenza delle risposte, con riferimento a fonti attendibili e normative aggiornate, al fine di evitare che contenuti generati automaticamente assumano valore probatorio o decisionale senza adeguato controllo.

  13. Il contesto normativo e regolamentare europeo

  14. Le istituzioni europee, considerato il considerevole impatto che l'implementazione dei sistemi di intelligenza artificiale avranno in tutti gli ambiti della vita sociale economica e culturale degli stati membri, sono intervenute per predisporre un complesso piano di intervento per il governo del fenomeno. Perno dell'intervento è il regolamento n. 1689/2024 ("AI act''); si tratta di una normativa vincolante per gli stati membri che, lungi dal frenare l'evoluzione tecnologica, mira ad incoraggiare l'uso dell'intelligenza artificiale e a renderla compatibile con i principi e i diritti fondamentali tutelati dall'ordinamento europeo e dagli ordinamenti nazionali.
  15. L'amministrazione della giustizia rientra tra i settori maggiormente considerati dal regolamento europeo, in ragione delle notevoli ricadute che l'utilizzo di sistemi di IA comporteranno per i diritti fondamentali tutelati sia a livello europeo che nazionale.
  16. Il regolamento - seguendo l'impostazione già tracciata dalla "Carta Etica europea sull'utilizzo dell'Intelligenza Artificiale nei sistemi giudiziari'' introdotta nel dicembre 2018 dalla CEPEJ - include l'amministrazione della giustizia tra i settori di utilizzo dei sistemi di IA ad alto rischio ed individua i relativi casi d'uso ad alto rischio: "i sistemi di IA destinati ad essere utilizzati da un'autorità giudiziaria o per suo conto per assistere un'autorità giudiziaria nella ricerca e nell'interpretazione dei fatti e del diritto e nell'applicazione della legge a una serie concreta di fatti, o a essere utilizzati in modo analogo nella risoluzione alternativa delle controversie."
  17. Occorre precisare che, all'interno dei settori qualificati come ad alto rischio, il regolamento prevede una deroga per quelle attività che non presentano un rischio significativo di danno, anche nel senso di non influenzare materialmente il risultato del processo decisionale; tale deroga si applica quando l'attività svolta soddisfa una delle condizioni previste dallo stesso regolamento, tra cui ad esempio "l'esecuzione di un compito procedurale limitato".
  18. Il regolamento individua un altro settore ad alto rischio che, indirettamente, può intendersi riferito anche all'autorità giudiziaria. Si tratta dell'attività di contrasto alla commissione di reati nella misura in cui si parla di sistemi di IA destinati ad essere utilizzati per valutare l'affidabilità degli elementi probatori nel corso delle indagini o del perseguimento dei reati, o per determinare il rischio di recidiva.
  19. Il regolamento prescrive poi dei requisiti obbligatori per i sistemi di IA destinati ad essere utilizzati nei settori ad alto rischio che devono essere garantiti dai relativi fornitori dei sistemi, al fine di gestire i rischi connessi al loro utilizzo e prevede un sistema di valutazione di conformità e di certificazione che garantisce il rispetto degli obblighi e dei requisiti prescritti.
  20. Prima di immettere un sistema di IA ad alto rischio sul mercato dell'UE o di farlo entrare in servizio, i fornitori dovranno dimostrare che il loro sistema è conforme ai requisiti obbligatori per un'IA affidabile ed antropocentrica in relazione ai seguenti aspetti (artt. 8-15 reg. UE): gestione dei rischi; qualità dei dati di addestramento convalida e prova; trasparenza; fornitura di informazioni ai deployer; sorveglianza umana; accuratezza, cybersicurezza e robustezza.
  21. Le norme armonizzate europee svolgeranno un ruolo fondamentale nell'attuazione di tali requisiti.
  22. Nel maggio 2023 la Commissione europea ha incaricato le organizzazioni europee di normazione CEN e CENELEC di elaborare norme per tali requisiti ad alto rischio (standardization request).
  23. Le organizzazioni europee di normazione hanno avuto tempo fino alla fine di aprile 2025 per elaborare e pubblicare le norme, che saranno quindi valutate ed eventualmente approvate dalla Commissione e pubblicate nella Gazzetta ufficiale dell'UE. Una volta pubblicate, tali norme garantiranno una "presunzione di conformità" ai sistemi di IA sviluppati in conformità alle stesse.
  24. Per dimostrare la conformità di un sistema di IA ad alto rischio ai requisiti previsti dal regolamento e alle relative norme armonizzate e specifiche comuni, il fornitore sceglie una delle seguenti procedure di valutazione della conformità basate sugli elementi qui di seguito: il controllo interno; la valutazione da parte di terzi con il coinvolgimento di un organismo notificato.
  25. Per organismo notificato si intende un organismo di valutazione della conformità che è stato "notificato" dalla competente Autorità di notifica nazionale, a condizione che tali organismi soddisfino una serie di requisiti, in particolare in materia di indipendenza, competenza, assenza di conflitti di interesse e requisiti idonei di cibersicurezza (si tratta di un accreditamento degli organismi cui sarà consentito effettuare le valutazioni di conformità rilevanti ai dini del regolamento).
  26. Al fine di agevolare il lavoro della Commissione e degli Stati membri nel settore dell'IA e di aumentare la trasparenza nei confronti del pubblico, il regolamento prevede anche una banca dati (art. 71) presso cui è fatto obbligo di registrarsi a tutti i fornitori di sistemi di IA ad alto rischio.
  27. Occorre evidenziare alcune disposizioni del regolamento che mirano a garantire che nei settori ad alto rischio i sistemi di IA utilizzati siano sempre e solo quelli iscritti nella banca dati, che rispettano quindi i requisiti normativi prescritti per quei settori (si tratta degli artt. 25, 26 e 49 del regolamento).
  28. Il regolamento europeo disegna poi l'architettura della governance della normativa sulla intelligenza artificiale, sia a livello europeo che a livello nazione. A livello europeo: ufficio per l'IA (in seno alla Commissione, sovrintende all'applicazione e all'attuazione della legge sull'IA negli stati membri dell'UE ed è responsabile della supervisione dei modelli di IA più potenti, i cosiddetti modelli di IA generici), consiglio per l'IA (composto da un rappresentante per stato membro), un forum consultivo (che rappresenta una selezione diversificata di portatori di interessi, sia commerciali che non commerciali), il gruppo di esperti scientifici (composto da esperti indipendenti nel settore dell'IA). A livello nazionale le autorità competenti sono: un'autorità di notifica (l'autorità nazionale responsabile dell'istituzione e dell'esecuzione delle procedure necessarie per la valutazione, la designazione e la notifica degli organismi di valutazione della conformità e per il loro monitoraggio) e un'autorità di vigilanza del mercato (autorità che verifica il rispetto delle norme del regolamento UE). In Italia tali autorità sono state individuate dal d.d.l. sull'IA, rispettivamente, nell'Agid e nell'Acn). Riguardo alle autorità nazionali competenti il reg UE prescrive che le stesse esercitino i loro poteri "in modo indipendente, imparziale e senza pregiudizi, in modo da salvaguardare i principi di obiettività delle loro attività e dei loro compiti e garantire l'applicazione e l'attuazione del presente regolamento. I membri di tali autorità si astengono da qualsiasi atto incompatibile con le loro funzioni. A condizione che siano rispettati detti principi, tali compiti e attività possono essere svolti role. To organize and develop standardization work on this issue, CEN and CENELEC have established the CENCENELEC Joint Technical Committee 21 'Artificial Intelligence'. This group brings together experts that will implement and lead the recommendations available in CEN and CENELEC's response to the EC White Paper on AI and CEN and CENELEC's Road Map on AI. The Joint Technical Committee, whose Secretariat is held by DS, the Danish Standardization Body, will be responsible for the development and adoption of standards for AI and related data, as well as provide guidance to other Technical Committees concerned with AI. Standards are relevant for the evolution of AI for a variety of reasons: they provide expertise to an emerging technology, ensuring safety and security for products and services; they are intrinsically designed to be an inclusive and market-driven instrument of support for European regulation through the New Legislative Framework, benefitting the Single Market and reducing barriers to trade. Together, standards build trust and boost innovation for all stakeholders: European businesses and SMEs, societal, environmental and policy makers. For this reason, CEN and CENELEC are ready to support the European Commission in its work related to fostering a safe and sustainable adoption of AI for the well-being of the whole EU." da una o più autorità designate, conformemente alle esigenze organizzative dello Stato membro.
  29. Occorre considerare che l'entrata in vigore dell'intero impianto regolamentare UE è stato previsto per l'agosto del 2026, data dalla quale gli unici sistemi di intelligenza artificiale che potranno essere utilizzati dai magistrati nell'esercizio dell'attività giudiziaria (ovvero "nella ricerca e nell'interpretazione dei fatti e del diritto e nell'applicazione della legge a una serie concreta di fatti"), conformemente al diritto UE, saranno solo quelli a marcatura CE, ovvero quelli che avranno ottenuto una positiva valutazione di conformità e saranno iscritti nella relativa banca dati dell'Unione Europea.
  30. La certificazione di tali sistemi "ad alto rischio" trasferisce il controllo della conformità sistemi di IA a un livello centralizzato, esentando i magistrati da controlli di fatto impraticabili e non accessibili al singolo giudice (riguardo, ad esempio, alla affidabilità dei sistemi, al livello di cybersicurezza e al livello tutela della privacy relativa ai dati immessi).

  31. La legge approvata in Parlamento e l’ambito dell’intervento consiliare

  32. Il Parlamento ha adottato il primo dei provvedimenti attuativi delle prescrizioni europee.
  33. Coerentemente con le coordinate dettate dal Regolamento UE in merito all'amministrazione della giustizia, e con le competenze previste dal nostro ordinamento costituzionale, il disegno di legge delega n. 1146/2025 (approvato in via definitiva il 17 settembre 2025), all'art. 15, comma 2, assegna al Ministero della Giustizia la disciplina degli "impieghi dei sistemi di intelligenza artificiale per l'organizzazione dei servizi relativi alla giustizia, per la semplificazione del lavoro giudiziario e per le attività amministrative accessorie". Il comma 1 dello stesso articolo riserva invece al magistrato "ogni decisione sull'interpretazione e sull'applicazione della legge, sulla valutazione dei fatti e delle prove e sull'adozione dei provvedimenti", nei casi di impiego dei sistemi di intelligenza artificiale nell'attività giudiziaria.
  34. Le presenti raccomandazioni intendono offrire un orientamento per rispondere a tre quesiti:
  35. Quale uso può essere fatto dell'IA da parte dei magistrati italiani, in attesa dell'entrata in vigore delle disposizioni europee previste per agosto 2026?
  36. Se esistono attività, nell'ambito della giustizia, che non comportano un rischio significativo di danno e non influenzano materialmente l'esito del processo decisionale, per le quali possa trovare applicazione la deroga prevista dall'art. 6, par. 3, dell'AI Act?
  37. Quale sia la prospettiva di utilizzo dei sistemi di IA dopo l’agosto del 2026?
  38. Rispetto alla prima questione, si evidenzia che, durante la fase transitoria (cioè fino all’agosto del 2026), potranno anzitutto essere utilizzati tutti i sistemi autorizzati dal Ministero della Giustizia ai sensi del citato art. 15 co. 2 della legge 23 settembre 2025 n. 132.
  39. Ciò in quanto i sistemi di intelligenza artificiale attualmente disponibili online, non garantiscono - in assenza di certificazione - i requisiti previsti per i sistemi ad alto rischio e non potranno, pertanto, essere utilizzati nell'attività giudiziaria in senso stretto.
  40. Quanto alla seconda questione, occorre considerare che l'art. 6, par. 3, dell'AI Act prevede che non si applichino gli obblighi dei sistemi ad alto rischio qualora l'attività svolta:
  41. sia limitata a compiti procedurali;
  42. migliori il risultato di un'attività umana già completata;
  43. rilevi schemi o deviazioni senza sostituire il giudizio umano;
  44. prepari un'attività valutativa da svolgersi con supervisione umana.
  45. Tali ipotesi delineano una zona grigia tra attività propriamente giudiziarie e attività organizzative o accessorie, rispetto alle quali l'utilizzo dell'IA può essere considerato compatibile con l'ordinamento vigente.
  46. In questa prospettiva, possono rientrare tra gli impieghi ammissibili - purché in modalità tracciata, sicura e con revisione umana e nell'ambito degli applicativi forniti all'interno del dominio giustizia - le seguenti attività (si tratta di un’elencazione non esaustiva):
  47. Ricerche dottrinali: assistenza nella consultazione di banche dati e nella costruzione di stringhe di ricerca finalizzate all'individuazione di dottrina pertinente.
  48. Sintesi di provvedimenti ostensibili e contributi dottrinali: creazione di abstract per la classificazione e l'archiviazione tematica di decisioni e saggi, anche in vista dell'elaborazione di banche dati giurisprudenziali interne all'ufficio.
  49. Organizzazione del lavoro giudiziario: supporto nella redazione di report statistici sull'andamento dell'ufficio; analisi di conformità tra programmi di gestione e dati di registro; comparazione automatizzata di documenti; redazione di bozze di relazioni o pareri su incarichi direttivi e semidirettivi; gestione dei calendari d'udienza sulla base di carichi e scadenze.
  50. Supporto agli uffici c.d. "affari semplici": ausilio nelle attività seriali e a bassa complessità giuridica con la redazione di bozze standardizzate da adattare poi al caso specifico dal magistrato o dai suoi collaboratori.
  51. Supporto ad attività giurisdizionali gestionali attraverso il controllo della documentazione (soprattutto contabile nonché delle certificazioni) prodotta in atti ove opportunamente anonimizzata.
  52. Confronto tra soluzioni tecniche per la gestione fascicoli: comparazione automatizzata di pratiche e prassi organizzative, anche tra diversi uffici, per individuare criticità o buone pratiche replicabili.
  53. Generazione automatica di presentazioni (slides): creazione di materiali illustrativi a partire da documenti giuridici o relazioni, per attività formative o divulgative.
  54. Produzione di tabelle e grafici: estrazione di dati dai registri, organizzazione in tabelle, analisi comparativa e rappresentazione grafica per fini organizzativi o conoscitivi.
  55. Revisione linguistica e stilistica di testi: rilettura di bozze per verificarne la coerenza sintattica, ortografica e la chiarezza espositiva.
  56. Catalogazione e archiviazione per materia dei quesiti ai CTU: organizzazione delle richieste per parola chiave o categoria tematica per facilitarne la consultazione e il riuso.
  57. Predisposizione di calendari d'udienza: generazione automatizzata degli orari e dell'agenda sulla base dei criteri predefiniti e dei carichi di lavoro.
  58. Traduzione assistita: uso dell'IA per traduzioni preliminari di testi giuridici, da sottoporre sempre a verifica umana.
  59. Riflessione più articolata deve essere sviluppata con riferimento al tema delle ricerche sulle banche dati giurisprudenziali. L'utilizzo dell'intelligenza artificiale per tale finalità si colloca in un ambito che, sebbene riconducibile a compiti procedurali, può presentare profili di rischio elevati qualora l'output generato venga utilizzato come base esclusiva o prevalente nella formazione del convincimento del giudice.
  60. L'IA può validamente assistere il magistrato nella consultazione delle banche dati istituzionali e commerciali, nella costruzione di stringhe di ricerca complesse e nella classificazione tematica del materiale reperito. In questo caso, l'attività si configura come supporto tecnico-organizzativo, riconducibile ai compiti procedurali limitati ai sensi dell'art. 6, par. 3, lett. a) del Regolamento UE 1689/2024. Tuttavia, laddove i sistemi siano progettati per selezionare automaticamente la giurisprudenza "più rilevante", per suggerire orientamenti interpretativi prevalenti o per generare schemi motivazionali basati su pattern ricorrenti, si configura un impiego che incide potenzialmente sull'attività valutativa e sull'indirizzo giuridico, e dunque si esce dall'ambito dell'art. 6, par. 3.
  61. Si rende, pertanto, necessaria una vigilanza stringente su tre piani:
  62. La natura e l'architettura dei sistemi utilizzati.
  63. La trasparenza degli algoritmi di selezione e classificazione.
  64. Il ruolo attivo e critico del magistrato nel vaglio dei risultati.
  65. In ogni caso, l'output prodotto deve essere oggetto di valutazione e verifica autonoma da parte del magistrato, quale titolare esclusivo della funzione giurisdizionale. L'automazione della ricerca non può sostituire la sensibilità giuridica necessaria alla contestualizzazione del precedente.
  66. È poi necessario che le banche dati giurisprudenziali messe a disposizione del magistrato garantiscano una base dati completa, non discriminatoria e aggiornata, ovvero prevedano forme di controllo e supervisione da parte della magistratura nella fase della selezione, classificazione e aggiornamento delle sentenze. La qualità, la neutralità e l'accessibilità della banca dati sono condizioni essenziali per un uso corretto e costituzionalmente compatibile dell'intelligenza artificiale in ambito giudiziario.
  67. La terza questione – ovvero la prospettiva di utilizzo dell’IA dopo la compiuta attuazione delle regole europee - impone al Consiglio di confrontarsi con scenari futuri complessi, ma ineludibili. È quindi opportuno definire sin d’ora le modalità con cui l’attività giudiziaria dovrà interfacciarsi con tali sistemi (vedi infra paragrafo 5).
  68. È poi auspicabile che allo stato – mentre sono in corso le sperimentazioni dell’IA applicata alla giurisdizione in tutti i maggiori ordinamenti giuridici europei - il Ministero della Giustizia italiano eserciti le prerogative previste dall’art.110 della Costituzione.
  69. Il ruolo attribuito per legge al Ministero per tutti i sistemi di IA, anche relativo ad attività amministrative ed accessorie, prevede che il Ministero autorizzi e monitori a livello sperimentale le applicazioni studiate e in uso (vedi i progetti PON Governance, il sistema di certificazione dell’impiego di IA, ecc.) che assicurino in modo rigoroso due requisiti ovvero la sicurezza della rete giustizia e la tutela dei dati sensibili e della privacy.
  70. Da questo punto di vista sarebbe utile che il Ministero - dopo aver messo a disposizione degli uffici giudiziari i risultati delle sperimentazioni in corso con la rete dei RID e dei MAGRIF sotto la supervisione della STO (diretta articolarizzazione consiliare) - valuti la possibilità di commissionare la realizzazione di un sistema di IA interno al sistema giustizia auspicabilmente pronto prima di agosto 2026 per essere fruito da tutti i magistrati ordinari.
  71. Va poi considerato che l’evoluzione tecnologica sta permettendo la realizzazione di sistemi di IA (spesso Open-source) progettati per eseguire modelli di linguaggio di grandi dimensioni localmente, ossia attraverso una installazione sul pc dell’utente e senza dipendere dal cloud. Tali sistemi, destinati prossimamente ad evolvere e diventare di largo consumo, devono, al pari degli altri, essere gestiti dai magistrati con una particolare attenzione ed essere oggetto di adeguata sperimentazione.
  72. Le raccomandazioni del Consiglio
  73. Alla luce di quanto riportato nei paragrafi che precedono ne discende che, in presenza di una disciplina nazionale ancora in corso di formazione, la regola comunitaria delinea il limite all'utilizzo dei sistemi di IA nel campo della giustizia al quale il CSM raccomanda di uniformarsi dal momento di adozione della presente delibera.
  74. In questa fase, dunque, e fino all’introduzione di sistemi conformi al regolamento europeo, deve essere escluso l’utilizzo non autorizzato di sistemi di IA nell’attività giudiziaria in senso stretto; resta, però, ferma la possibilità di sviluppare, in ambiente protetto e sperimentale sotto la supervisione congiunta del Ministero e del Consiglio, applicazioni anche in ambiti giudiziari, purché previa anonimizzazione e tracciabilità dei dati (come sta avvenendo, tra gli altri, nei tribunali di Bologna, Catania, Milano).
  75. È necessario che la fase transitoria venga utilizzata come occasione di sperimentazione controllata e di crescita culturale, evitando che un divieto assoluto si traduca in un vuoto operativo e strategico: ciò esporrebbe la magistratura al rischio di trovarsi impreparata, priva delle necessarie competenze e dipendente da soluzioni esterne nel momento in cui entreranno in vigore le regole europee.
  76. Permane, inoltre, la possibilità di utilizzo per attività amministrative ed organizzative strumentali all'attività giudiziaria come indicato nel precedente paragrafo 4 esclusivamente attraverso strumenti forniti dal Ministero della Giustizia che garantiscano la riservatezza e la non utilizzazione dei dati del singolo magistrato, pur presenti nel dominio giustizia, per l'addestramento dei sistemi.
  77. Si deve, inoltre, escludere il rischio che con la tecnica del retrieval augmented generation (RAG) su archivi digitali della giustizia possa tradursi nella creazione di repository idonei a consentire forme di invasiva profilazione dell’attività giudiziaria e dei singoli magistrati.
  78. Pertanto, pur dovendosi escludere l’immissione di dati sensibili di atti processuali su dispositivi di IA generalista occorre fornire per tempo un’alternativa: progettare un sistema interno di IA che possa essere gradualmente utilizzato a partire da agosto 2026.
  79. L’adozione di misure contrattuali ritenute idonee a garantire la riservatezza dei dati con operatori commerciali non appare soluzione soddisfacente. Occorre, infatti, garantire la sicurezza della rete, valutando l’utilizzo di modelli residenti su server sotto il controllo del ministero o l’uso di modelli (anche) open source in locale su hardware in

12.11.2025 CSM
CSM

Download Pdf

Regolamentazione cinese sulla AI (e algoritmi): trasparenza
Le regole di Trump per l'AI negli USA
I rischi dell'AI secondo Amodei
Milano: prepariamo un #podcast con l'intelligenza artificiale e con l'Open Source
Consigli di voto tra chatbot e Intelligenza Artificiale ad alto rischio | Autorità olandese per la protezione dei dati
Il Pentagono vuole la AI di Anthropic per la sua SKYnet a tutti i costi, anche se non e' pronta
Riforma della legge sulla protezione dei dati e sullA intelligenza artificiale: il Digital Omnibus è in corso | Commissario di Amburgo per la protezione dei dati e la libertà di informazione
Milano AI - Workshop: Registriamo un podcast a Milano con l’AI e l’Open Source
GEO
Gaia Pisticchi e la legge morale delle macchine



Segui le novità in materia di Intelligenza artificiale su Civile.it via Telegram
oppure via email: (gratis Info privacy)





dallo store:
visita lo store

Altro su Intelligenza artificiale:








Dal 1999 il diritto di internet. I testi sono degli autori e di IusOnDemand srl p.iva 04446030969 - diritti riservati - Privacy - Cookie - Condizioni d'uso - NM - i testi generati con ai (genai) possono essere sbagliati 0.064