| demo | 2025-02-19 · NEW: |
|
abstract:
Documento annotato il 19.02.2025
Fonte: gov.it
Link: https://trasparenza.agid.gov.it/download/9391.html
Link: https://trasparenza.agid.gov.it/download/9391.html
analisi:
L'analisi è riservata agli iscritti. Segui la newsletter dell'Osservatorio oppure il Podcast iscrizione gratuita 30 giorni
-
index:
testo:
Eestimated reading time: 29 min Bozza di li nee guida per l’adozione di Intelligenza Artificia ...
le nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
1
1
VALUTAZIONE D'IMPATTO DELL'INTELLIGENZA ARTIFICIALE
Versione 1.0 del 14.02.2025 – Consultazione pubblica 1
Il presente documento costituisce uno strumento di supporto per le Amministrazioni Pubbliche che devono effettuare la valutazione di impatto
di un sistema di Intelligenza Artificiale. All'interno della matrice sono presenti più schede, che tengono conto dei principali aspetti che è
necessario e/o opportuno monitorare prima di introdurre un sistema di IA. In ciascuna scheda possono essere presenti:
1.Domande generali, obbligatorie per tutte le tipologie di Intelligenza Artificiale (O);
2.Domande specifiche, obbligatorie (O) e non obbligatorie (F). Per ogni domanda è indicato il livello di rischio del sistema di IA per il quale è
prevista la risposta: Tutti, Inaccettabile(I), Alto(A), Limitato(L), Basso o Minimo(M).
In appendice è presente la scheda "Appendice.1 - Livello di rischio", che permette di identificare, ai sensi del Regolamento (UE) 2024/1689 (AI
Act), il livello di rischio del sistema da introdurre; qualora il sistema rientri tra quelli vietati dall'art. 5 del predetto Regolamento, non potrà essere
introdotto.
C1. DOMANDE INTRODUTTIVE
C2. DIRITTI FONDAMENTALI ED EQUITÀ
C3. ROBUSTEZZA TECNOLOGICA
C4. GOVERNANCE DEI DATI
C5. GESTIONE DEL RISCHIO
C6. ACCOUNTABILITY
APPENDICE1 . - LIVELLO DI RISCHIO
1 Questo documento è una bozza in consultazione pubblica, quindi in forma evolutiva e provvisoria.
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
2
2
C1 . - Domande introduttive
C1.1 - SCOPO DEL SISTEMA
Obbligatoria (O) Facoltativa (F)
Livello
di
rischio
DOMANDA DESCRIZIONE/MOTIVAZIONE
O Tutti 1.
Inserire una breve descrizione del sistema di Intelligenza
Artificiale che si prevede di introdurre (nome del
sistema/titolo del progetto, descrizione sintetica
generale, dominio applicativo)
O Tutti 2.
Specificare se il sistema è open source, di proprietà
dell'Amministrazione, di proprietà di terzi (licenziato)
n.b. in caso nel modello siano presenti più "strati" (ad
esempio, infrastruttura, applicativo, algoritmi, etc.)
specificare per ciascuno strato
O Tutti 3. Perché si è optato per questa specifica tecnologia e non
per altre?
O Tutti 4. Qual è lo scopo generale del sistema di Intelligenza
Artificiale che si intende introdurre?
Risultato della verifica del livello di rischio del sistema
(cfr. Appendice.1 -Livello di rischio) n.b. In caso di rischio
inaccettabile, la presente AIIA non va completata
Inaccettabile (I) Alto (A) Limitato (L) Basso o Minimo (M)
FALSO FALSO FALSO FALSO
O A/L/M 5. Quali sono i risultati attesi?
O A/L/M 6. Quali sono gli obiettivi specifici da raggiungere con
l'introduzione del sistema di Intelligenza Artificiale
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
3
3
C1.2 - IMPATTO DEL SISTEMA
Obbligatoria (O) Facoltativa (F)
Livello
di
rischio
DOMANDA DESCRIZIONE/MOTIVAZIONE
O A/L/M 1. Quali strutture dell’Ente intendono utilizzare il sistema di
Intelligenza Artificiale?
O A/L/M 2. Per quali processi, attività o servizi si intende utilizzare il
sistema?
O A/L/M 3. Qual è l’impatto complessivo previsto sull’organizzazione
dell'Amministrazione?
O A/L/M 4.
Quale ruolo l'Amministrazione riveste nell'adozione del
sistema di Intelligenza Artificiale (fornitore, deployer,
utilizzatore)?
O A/L/M 5.
Specificare i ruoli, le funzioni e le attività dei soggetti che
all'interno dell'Amministrazione cureranno l'adozione del
sistema (Responsabile per la Transizione Digitale,
Responsabile Protezione Dati, Project manager di
progetto, ecc.)
O A/L/M 6. Quali sono gli utilizzatori finali del sistema?
O A/L/M 7. Su quali soggetti avrà impatto il sistema di Intelligenza
Artificiale?
DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
O A/L/M 8.
L'Amministrazione ha coinvolto il Responsabile per
la Transizione Digitale nel processo di adozione del
sistema di Intelligenza Artificiale?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
4
4
C2 . – Diritti fondamentali ed equità
C2.1 - DIRITTI FONDAMENTALI
Obbligatoria
(O)
Facoltativa
(F)
Livello di
rischio N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
O A 1. L’uso del sistema di Intelligenza Artificiale che si intende introdurre
ha impatto sui diritti fondamentali?
F A 2. L'utilizzo di un sistema di IA risulta proporzionato agli obiettivi
previsti rispetto al solo utilizzo di tecnologie "standard"?
F A 3. Ci sono metodi alternativi standard non basati su AI che
potrebbero essere utilizzati con stessa efficacia?
F A 4.
È stata individuata la base giuridica che consente l’uso del sistema
di Intelligenza Artificiale e legittima le decisioni che saranno prese
sulla base del sistema di Intelligenza Artificiale?
F A 5. Ci sono diritti fondamentali che potrebbero essere lesi dal normale
utilizzo del sistema di Intelligenza Artificiale?
F A 6. Ci sono diritti fondamentali che potrebbero essere lesi da un
utilizzo improprio del sistema di Intelligenza Artificiale?
DESCRIZIONE/MOTIVAZIONE
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
5
5
C2.1 - DIRITTI FONDAMENTALI
Obbligatoria
(O)
Facoltativa
(F)
Livello di
rischio N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
F A 7. Nel caso di risposta positiva alla domanda n.5, quali misure
vengono adottate per prevenire questa possibilità?
F A 8. Nel caso di risposta positiva alla domanda n. 6, quali misure
vengono adottate per prevenire questa possibilità?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
6
6
C2.2 - BIAS
Obbligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
O A 1. Sono stati considerati e valutati potenziali bias indesiderati nell’input, nel
modello e nell’output del sistema di Intelligenza Artificiale?
F A 2. I dati di input sono rappresentativi dell’ambito decisionale considerato e
del dominio applicativo?
F A 3. Se ritenuto necessario il campionamento tiene conto della necessità di
includere campioni con specifiche caratteristiche?
F A 4.
La selezione delle variabili di input è stata effettuata insieme alle parti
interessate (governance multi partecipativa ) (cfr. domanda n. 4 sezione
"partecipazione degli stakeholders" ?
F A 5. Sono state adottate procedure e strumenti per prevenire la creazione o il
rafforzamento di bias nel sistema di Intelligenza Artificiale?
F A 6.
Il sistema di Intelligenza Artificiale può essere utilizzato dagli utenti finali
indipendentemente dalle loro caratteristiche, come età, genere o
capacità?
F A 7.
Esistono meccanismi di arresto, meccanismi di supervisione o
meccanismi di monitoraggio per impedire eventuali implicazioni negative
del sistema di Intelligenza Artificiale in particolare per specifici gruppi
sociali?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
7
7
C2.3 - PARTECIPAZIONE DEGLI STAKEHOLDERS
Obbligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
O A 1. Sono stati mappati tutti gli stakeholders esistenti attraverso un’analisi
degli stakeholder?
F A 2. In caso di risposta positiva alla domanda precedente, è stato avviato un
dialogo con tutti gli stakeholders individuati?
F A 3. Gli stakeholders sono stati informati del motivo per cui sono state
selezionate specifiche variabili di input (che possono includerli)?
F A 4. È previsto un meccanismo di feedback?
F A 5.
In caso di risposta positiva alla domanda precedente, sono stati raccolti
feedback sufficienti a rappresentare diversi background e tipi di
esperienza (cfr. scheda "Accountability")?
DESCRIZIONE/MOTIVAZIONE
F A 6. In caso di risposta positiva alla domanda precedente, come sono stati
utilizzati i feedback ricevuti?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
8
8
C2.3 - PARTECIPAZIONE DEGLI STAKEHOLDERS
Obbligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
F A 7. Nel dettaglio, quali soggetti e/o gruppi sono stati consultati nella fase di
adozione del sistema di Intelligenza Artificiale?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
9
9
C3 . – Robustezza tecnologica
C3.1 - ACCURATEZZA
Obbligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
O A 1. Sono previsti meccanismi/strumenti di misurazione e salvaguardia
dell’accuratezza continua del sistema?
O A 2. Sono previsti criteri di accettazione per misurare la qualità dell’input (dati)
e dell’output (dati) del modello?
DESCRIZIONE/MOTIVAZIONE
F A 3. In caso di risposta positiva alla domanda n. 1, come viene misurata e
salvaguardata l’accuratezza continua del sistema?
F A 4.
In caso di risposta positiva alla domanda n. 2, quali criteri di accettazione
sono stati stabiliti per misurare la qualità dell’input (dati) e dell’output
(dati) del modello?
O A 5. I criteri di accettazione sono in linea con i dati e lo scopo del sistema di
Intelligenza Artificiale?
O A 6.
Quali sistemi di misurazione della valutazione (metriche di prestazione)
verranno utilizzati per salvaguardare la conformità ai criteri di
accettazione?
O A 7. Per quale motivo si è scelto di utilizzare il sistema di misurazione della
valutazione descritto al punto precedente?
O A 8. Come viene controllata la correttezza dell’input (dati )? (specificare la
periodicità e le modalità)
O A 9.
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
10
10
C3.1 - ACCURATEZZA
Obbligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
Come viene controllata la correttezza dell’output (dati)? (specificare la
periodicità e le modalità)
O A 10. Come vengono analizzate e corrette tempestivamente le differenze
nell’output (dati) rispetto ai criteri di accettazione?
O A 11. Quali potrebbero essere i risultati derivanti dall'utilizzo di modelli
alternativi (citare quali) ?
O A 12. Il sistema è stato testato utilizzando input diversi da quelli attesi?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
11
11
C3.2 - AFFIDABILITÀ
Obbligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
O A 1. Il sistema di Intelligenza Artificiale è affidabile?
F A 2. Ci sono fattori che influenzano le prestazioni del sistema di Intelligenza
Artificiale?
F A 3. L'affidabilità del modello viene determinata tramite utilizzo di una parte del
set di dati esclusa dal processo di apprendimento?
F A 4. L'affidabilità del modello viene determinata sulla base della convalida
incrociata?
DESCRIZIONE/MOTIVAZIONE
F A 5. In caso di risposta positiva alla domanda n.2, quali sono i principali fattori
che influenzano le prestazioni del sistema?
F A 6. Come è stata motivata la regolazione dei (iper)parametri e come viene
valutata?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
12
12
C3.3 - IMPLEMENTAZIONE TECNICA
Obbligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
O A 1. Sono state adottate misure adeguate al livello di rischio del sistema di
Intelligenza Artificiale?
DESCRIZIONE/MOTIVAZIONE
O A 2. Come è stato implementato tecnicamente il sistema di Intelligenza
Artificiale?
O A 3. Come si inserisce il sistema di Intelligenza Artificiale nell'infrastruttura
esistente?
F A 4. Qual è l'architettura del sistema?
F A 5. Come sono interconnesse le componenti software?
F A 6. Come sono stati documentati i requisiti hardware e software specifici?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
13
13
C3.4 - REPLICABIILITÀ
Obbligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
O A 1. Il sistema di Intelligenza Artificiale è replicabile?
F A 2. In caso di risposta positiva alla domanda precedente, è stato impostato un
processo per misurare tale replicabilità?
F A 3. È possibile ricostruire le versioni precedenti del modello, dei set di dati e
delle condizioni che sono stati salvati attraverso la gestione delle versioni?
F A 4. Il modello può essere ricostruito sulla base degli iperparametri dati e di un
seed fisso?
F A 5 Vengono documentate le modifiche durante la vita del sistema?
F A 6. Le linee generali del sistema di Intelligenza Artificiale possono essere
riprodotte sulla base della documentazione?
DESCRIZIONE/MOTIVAZIONE
F A 7. In caso di risposta positiva alla domanda n.5, come avviene il processo di
documentazione?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
14
14
C3.5 - SPIEGABILITÀ
Obbligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
O A 1. Il sistema di Intelligenza Artificiale è sufficientemente spiegabile e
interpretabile dagli sviluppatori?
F A 2. Sono state spiegate e documentate anche le competenze necessarie per la
gestione del sistema di Intelligenza Artificiale?
DESCRIZIONE/MOTIVAZIONE
F A 3. In che misura il modo in cui opera il sistema di Intelligenza Artificiale può
essere spiegato a un esperto esterno?
F A 4. Durante il processo di sviluppo del sistema di Intelligenza Artificiale, come è
stata considerata la spiegabilità del modello?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
15
15
C4 . – Governance dei dati
C4.1 - QUALITÀ E INTEGRITÀ DEI DATI
Obb ligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
O A/L/M 1. I dati utilizzati (per addestramento, test o valutazione) sono necessari al
funzionamento sistema di Intelligenza Artificiale?
O A/L/M 2. Il sistema di Intelligenza Artificiale utilizza dati aperti?
O A 3. I dati soddisfano le ipotesi alla base dell'introduzione del modello?
O A 4.
I dati di addestramento e di test possono essere aggiornati se necessario in
particolari situazioni (per esempio, in caso si decida di riaddestrare,
sospendere o sviluppare ulteriormente il sistema di Intelligenza Artificiale)?
O A 5. Sono stati valutati i cambiamenti ne i dati di input che si possono verificare
durante le fasi di addestramento, test e valutazione?
O A 6. Sono stati valutati i cambiamenti nei dati di input che si possono verificare
nel tempo, durante l’uso dell’algoritmo?
DESCRIZIONE/MOTIVAZIONE
O A 7. Come sono stati raccolti e combinati i dati di input utilizzati nel sistema di
Intelligenza Artificiale?
O A 8. Come vengono etichettati i dati?
O A 9. Quali fattori influenzano la qualità dei dati di input?
O A 10. Come viene salvaguardata la qualità dei dati?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
16
16
C4.1 - QUALITÀ E INTEGRITÀ DEI DATI
Obb ligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
O A 11. Come viene memorizzato l’output (dati) nel caso venga utilizzato come
nuovo input per un altro modello (ad esempio, un ciclo di feedback)?
O A 12. Come si assicura che l’output (dati) sia disponibile in modo tempestivo?
O A 13. Quali meccanismi/strumenti sono stati implementati per prevenire le
duplicazioni non intenzionali dei dati?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
17
17
C4.2 - ....... . .......... ... .... .........
Obbligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
O A/L/M 1.
L'Amministrazione ha coinvolto il Responsabile per la Protezione dei Dati
(in aggiunta al RTD e a eventuali altre figure specifiche previste
dall'Amministrazione) a garanzia dei dati trattati?
O A/L/M 2. Il sistema di Intelligenza Artificiale utilizza dati personali (e quindi si applica
il GDPR)?
F A/L/M 3. L’output del sistema di Intelligenza Artificiale può essere ricondotto a dati
personali (e quindi si applica il GDPR)?
F A/L/M 4. Sono state implementate misure specifiche e generali per proteggere i dati
personali?
F A/L/M 5. Il sistema utilizza o memorizza particolari categorie di dati?
F A/L/M 6. L'Amministrazione ha effettuato una DPIA?
F A/L/M 7. Il sistema è stato realizzato in modo da tutelare i diritti degli interessati
dalla possibile comunicazione e/o diffusione di dati personali?
F A/L/M 8. Il sistema utilizza o memorizza dati riservati?
DESCRIZIONE/MOTIVAZIONE
F A/L/M 9. Con quale frequenza vengono valutate la qualità dei dati personali trattati e
la necessità del loro trattamento da parte del sistema?
F A/L/M 10. Come viene salvaguardata la sicurezza di queste informazioni?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
18
18
C5 . – Gestione del rischio
C5.1 - GESTIONE DEL RISCHIO INFORMATICO
Obbligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
O A/L/M 1. Il sistema di Intelligenza Artificiale è stato testato per lo scopo previsto,
prima di essere messo in funzione?
O A/L/M 2. Il sistema di Intelligenza Artificiale è stato testato per definire misure
appropriate di gestione del rischio?
O A/L/M 3. È possibile o probabile che gruppi vulnerabili (ad esempio, i min ori) abbiano
accesso al sistema di Intelligenza Artificiale?
F A 4. In caso di risposta positiva alla domanda precedente, le misure di gestione
del rischio sono rafforzate?
O A/L/M 5. L’accesso al sistema di Intelligenza Artificiale e ai suoi componenti è stato
strutturato tenendo conto dei soggetti che vi accedono e dei relativi ruoli?
O A 6. É stata verificata la correttezza dell’implementazione, ad esempio con test
unitari, test di integrazione e test end -to-end, se applicabili?
O A 7. Il sistema di Intelligenza Artificiale interagisce con altro hardware o
software?
O A 8. In caso di problemi con il sistema di Intelligenza Artificiale, è prevista una
procedura alternativa (cfr. sezione sotto)?
O A 9. Il sistema è immune da errori e/o irregolarità derivanti dall' interazione con
persone e/o altri sistemi?
DESCRIZIONE/MOTIVAZIONE
F A/L/M 10. In caso di risposta positiva alla domanda n. 5, come è stato strutturato
l'accesso?
F A 11.
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
19
19
C5.1 - GESTIONE DEL RISCHIO INFORMATICO
Obbligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
In caso di risposta positiva alla domanda n. 9, come avviene l'interazione
con persone e/o altri sistemi?
C5.2 - PROCEDURA ALTERNATIVA
Obbligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA DESCRIZIONE/MOTIVAZIONE
F A 1. In caso di risposta positiva alla domanda n.8 , come viene attivata la
procedura alternativa?
O A 2. Qual è, nel dettaglio, la procedura alternativa da seguire in caso di problemi
con il funzionamento del sistema di Intelligenza Artificiale
O A 3. Qual è l’impatto stimato del fallimento del sistema di Intelligenza
Artificiale?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
20
20
C5.3 - ATTACCHI HACKING E CORRUZIONE DEL SISTEMA
Obbligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
O A 1. È possibile che un soggetto tragga vantaggio dall'utilizzo di un sistema di
Intelligenza Artificiale al posto di una decisione umana?
DESCRIZIONE/MOTIVAZIONE
O A 2. Come vengono identificati, ridotti a un livello accettabile e testati i rischi per
la sicurezza delle informazioni (da una prospettiva tecnica)?
O A 3. Come viene impedito a terzi non autorizzati di sfruttare le eventuali
vulnerabilità del sistema di Intelligenza Artificiale?
O A 4.
Qual è l’impatto stimato dell’accesso di terzi non autorizzati al codice
sorgente (per sistemi non open source), ai dati o ai risultati del sistema di
Intelligenza Artificiale?
O A 5. Come vengono registrati gli accessi al sistema di Intelligenza Artificiale,
l'utilizzo e la relativa durata?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
21
21
C6 . – Accountability
C6.1 - COMUNICAZIONE
Obbligatoria
(O)
Facoltativa (F)
Livello
di
rischio
N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
O A/L/M 1. L'Amministrazione ha comunicato in maniera trasparente il funzionamento
e gli eventuali limiti del sistema di Intelligenza Artificiale?
F A/L/M 2.
In caso di risposta positiva alla domanda precedente, gli aspetti evidenziati
continuano ad essere trasparenti per tutto il tempo in cui il sistema rimane
in uso?
O A/L/M 3. In caso siamo presenti meccanismi di feedback, è previsto un processo di
convalidata (analisi e monitoraggio) dei commenti ricevuti?
O A/L/M 4.
Gli utenti finali e le parti coinvolte nel sistema di Intelligenza Artificiale sono
informati del fatto che i risultati sono generati da un sistema di Intelligenza
Artificiale e di cosa questo comporta per gli utilizzatori?
O A/L/M 5. Sono state redatte istruzioni per l’uso del sistema?
F A/L/M 6.
In caso di risposta positiva alla domanda precedente, le istruzioni
comprendono un set min imo di informazioni costituito da: nome e dati di
contatto del fornitore; caratteristiche, capacità e limitazioni; potenziali
modifiche future; supervisione umana; durata di vita prevista?
O A/L/M 7. Il sistema è sufficientemente trasparente da consentire agli utenti finali di
interpretare e utilizzare in modo appropriato l’output (dati) del sistema?
O A/L/M 8. É prevista una formazione interna agli utenti finali, se necessario?
O A/L/M 9.
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
22
22
C6.1 - COMUNICAZIONE
Obbligatoria
(O)
Facoltativa (F)
Livello
di
rischio
N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
Le parti coinvolte sono consapevoli dei passi che possono intraprendere se
desiderano presentare reclami o ricorsi, ai sensi della normativa vigente,
contro una decisione assunta tramite il sistema di Intelligenza Artificiale?
DESCRIZIONE/MOTIVAZIONE
F A/L/M 10.
In caso di risposta positiva alla domanda 3, come viene assicurato il corretto
trattamento, all’interno dell’organizzazione, dei commenti delle parti
coinvolte e degli utenti finali?
F A 11.
Quali sono i potenziali effetti psicologici derivanti all'utente finale
dall'utilizzo del sistema di Intelligenza Artificiale (confusione, affaticamento
cognitivo, deficit di attenzione, ecc. )?
F A 12. In che misura può essere spiegato a una parte coinvolta il motivo per cui il
sistema di Intelligenza Artificiale opera in un certo modo?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
23
23
C6.2 - VERIFICABILITÀ
Obbligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA DESCRIZIONE/MOTIVAZIONE
O A 1. Come viene verificato il sistema di Intelligenza Artificiale?
O A 2. In che modo sono state salvaguardate la verifica e la supervisione umana?
O A/L/M 3.
In che modo è previsto l'adeguamento alle nuove leggi e regolamenti che
potrebbero entrare in vigore durante la vita del sistema di Intelligenza
Artificiale?
O A 4. Come è assicurata la possibilità di una verifica indipendente del sistema di
Intelligenza Artificiale?
O A 5. Come si procede a verificare e interpretare la correttezza dell’input (dati)?
O A 6. Come si procede a verificare e interpretare la correttezza del modello?
O A 7. Come si procede a verificare e interpretare la correttezza dell’output (dati)?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
24
24
C6.3 - ARCHIVIAZIONE
Obbligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA DESCRIZIONE/MOTIVAZIONE
O A 1. Come vengono archiviati i dati di input?
O A 2. Qual è il periodo di conservazione dai dati di input?
O A 3. Come viene archiviato il modello?
O A 4. Qual è il periodo di conservazione dell’output (dati)?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
25
25
C6.4 - SOSTENIBILITÀ
Obbligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
O A/L/M 1. L’introduzione del sistema di Intelligenza Artificiale ha un impatto
sull’ambiente?
F A/L/M 2. L’impatto del sistema di Intelligenza Artificiale viene bilanciato rispetto ai
costi ambientali del suo funzionamento?
F A/L/M 3. Sono state adottate misure per min imizzare l’impatto ambientale del
sistema di Intelligenza Artificiale?
DESCRIZIONE/MOTIVAZIONE
F A/L/M 4. In caso di risposta positiva alla domanda n. 1, come viene misurato tale
impatto?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
26
26
APPENDICE1 . – Livello di rischio
A1.1 - RISCHIO INACCETTABILE (art. 5 AI Act)
Obbligatoria
(O)
Facoltativa
(F)
N. DOMANDA SI NO VIETATO IN CASO DI: DESCRIZIONE/MOTIVAZIONE
O 1.
Il sistema utilizza tecniche subliminali che agiscono
senza che una persona ne sia consapevole o tecniche
volutamente manipolative o ingannevoli aventi lo
scopo o l'effetto di distorcere materialmente il
comportamento di una persona o di un gruppo di
persone, pregiudicando in modo considerevole la
loro capacità di prendere una decisione informata,
inducendole pertanto a prendere una decisione che
non avrebbero altrimenti preso, in un modo che
provochi o po ssa ragionevolmente provocare a tale
persona, a un'altra persona o a un gruppo di persone
un danno significativo?
(immissione sul mercato, messa in
servizio o uso)
O 2.
Il sistema sfrutta le vulnerabilità di una persona fisica
o di uno specifico gruppo di persone, dovute all'età,
alla disabilità o a una specifica situazione sociale o
economica, con l'obiettivo o l'effetto di distorcere
materialmente il comportamento di tale persona o di
una persona che appartiene a tale gruppo in un
modo che provochi o possa ragionevolmente
provocare a tale persona o a un'altra persona un
danno significativo?
(immissione sul mercato, messa in
servizio o uso)
O 3.
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
27
27
A1.1 - RISCHIO INACCETTABILE (art. 5 AI Act)
Obbligatoria
(O)
Facoltativa
(F)
N. DOMANDA SI NO VIETATO IN CASO DI: DESCRIZIONE/MOTIVAZIONE
Il sistema effettua la valutazione o la classificazione
delle persone fisiche o di gruppi di persone per un
determinato periodo di tempo sulla base del loro
comportamento sociale o di caratteristiche personali
o della personalità note, inferite o previste, in cui il
punteggio sociale così ottenuto comporti il verificarsi
di uno o di entrambi gli scenari seguenti: i) un
trattamento pregiudizievole o sfavorevole di
determinate persone fisiche o di gruppi di persone in
contesti sociali che non sono collegati a i contesti in
cui i dati sono stati originariamente generati o
raccolti;
ii) un trattamento pregiudizievole o sfavorevole di
determinate persone fisiche o di gruppi di persone
che sia ingiustificato o sproporzionato rispetto al loro
comportamento sociale o alla sua gravità?
(immissione sul mercato, messa in
servizio o uso)
O 4.
Il sistema effettua valutazioni del rischio relative a
persone fisiche al fine di valutare o prevedere il
rischio che una persona fisica commetta un reato,
unicamente sulla base della ............ .. ...
persona fisica o della valutazione dei tratti e dell e
caratteristiche della personalità? (tale divieto non si
applica ai sistemi di IA utilizzati a sostegno della
valutazione umana del coinvolgimento di una
persona in un'attività criminosa, che si basa già su
fatti oggettivi e verificabili direttamente conn essi a
un'attività criminosa)
(immissione sul mercato, messa in
servizio per tale finalità specifica o
uso)
O 5.
Il sistema crea o amplia le banche dati di
riconoscimento facciale mediante scraping non
mirato di immagini facciali da internet o da filmati di
telecamere a circuito chiuso?
(immissione sul mercato, messa in
servizio per tale finalità specifica o
uso)
O 6.
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
28
28
A1.1 - RISCHIO INACCETTABILE (art. 5 AI Act)
Obbligatoria
(O)
Facoltativa
(F)
N. DOMANDA SI NO VIETATO IN CASO DI: DESCRIZIONE/MOTIVAZIONE
Il sistema inferisce le emozioni di una persona fisica
nell'ambito del luogo di lavoro e degli istituti di
istruzione, tranne laddove l'uso del sistema di IA sia
destinato a essere messo in funzione o immesso sul
mercato per motivi medici o di sicurezza?
(immissione sul mercato, messa in
servizio per tale finalità specifica o
uso)
O 7.
Il sistema classifica individualmente le persone
fisiche sulla base dei loro .... .......... ...
trarre deduzioni o inferenze in merito a razza,
opinioni politiche, appartenenza sindacale,
convinzioni religiose o filosofiche, vita sessuale
o orientamento s essuale? (tale divieto non
riguarda l'etichettatura o il filtraggio di set di
dati biometrici acquisiti legalmente, come le
immagini, sulla base di .... .......... . .....
categorizzazione di .... .......... ... .......
delle attività di contrasto)
(immissione sul mercato, messa in
servizio per tale finalità specifica o
uso)
O 8.
Il sistema effettua identificazione biometrica remota
«in tempo reale» in spazi accessibili al pubblico a fini
di attività di contrasto a meno che, e nella misura in
cui, tale uso sia strettamente necessario per uno
degli obiettivi seguenti: i) la ricerca mirata di
specifiche vittime di sottrazione, tratta di esseri
umani o sfruttamento sessuale di esseri umani,
nonché la ricerca di persone scomparse; ii) la
prevenzione di una min accia specifica, sostanziale e
imminente per la vita o l'incolumità fisica de lle
persone fisiche o di una min accia reale e attuale o
reale e prevedibile di un attacco terroristico; iii) la
localizzazione o l'identificazione di una persona
sospettata di aver commesso un reato, ai fini dello
svolgimento di un'indagine penale, o dell'esercizio di
(uso)
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
29
29
A1.1 - RISCHIO INACCETTABILE (art. 5 AI Act)
Obbligatoria
(O)
Facoltativa
(F)
N. DOMANDA SI NO VIETATO IN CASO DI: DESCRIZIONE/MOTIVAZIONE
un'azione penale o dell'esecuzione di una sanzione
penale per i reati di cui all'allegato II, punibile nello
Stato membro interessato con una pena o una
misura di sicurezza privativa della libertà della ......
massima di almeno quattro anni?
DESCRIZIONE/MOTIVAZIONE
O 9.
In caso di risposta positiva alla domanda 8., il sistema
viene utilizzato solo per confermare l'identità della
persona specificamente interessata?
O 10.
In caso di risposta positiva alla domanda 8., il sistema
tiene conto degli elementi seguenti: a) la natura della
situazione che dà luogo al possibile uso, in
particolare la gravità, la probabilità e l'entità del
danno che sarebbe causato in caso di mancato uso
del sistema; b) le conseguenze dell'uso del sistema
per i diritti e le libertà di tutte le persone interessate,
in particolare la gravità, la probabilità e l'entità di tali
conseguenze.?
O 11.
In caso di risposta positiva alla domanda 8., l'uso del
sistema rispetta inoltre le tutele e le condizioni
necessarie e proporzionate in relazione all'uso,
conformemente al diritto nazionale che autorizza
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
30
30
A1.1 - RISCHIO INACCETTABILE (art. 5 AI Act)
Obbligatoria
(O)
Facoltativa
(F)
N. DOMANDA SI NO VIETATO IN CASO DI: DESCRIZIONE/MOTIVAZIONE
tale uso, in particolare per quanto riguarda le
limitazioni temporali, geografiche e personali?
O 12.
In caso di risposta positiva alla domanda 8., l'autorità
di contrasto ha completato una valutazione
d'impatto sui diritti fondamentali come previsto
all'articolo 27 e ha registrato il sistema nella banca
dati UE conformemente all'articolo 49?
O 13.
In caso di risposta positiva alla domanda 8., è stata
richiesta l' autorizzazione prevista (preventiva o, in
caso di urgenza, non oltre 24 ore dall'inizio dell'uso
del sistema)?
O 14.
In caso di risposta positiva alla domanda 8., l'uso del
sistema è stato notificato alla pertinente autorità di
vigilanza del mercato e all'autorità
nazionale per la protezione dei dati?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
31
31
A1.2 - RISCHIO ALTO (art. 6 AI Act)
Obbigatoria
(O)
Facoltativa
(F)
N. DOMANDA SI NO NOTE DESCRIZIONE/MOTIVAZIONE
O 1.
Il sistema di IA è destinato a essere utilizzato come
componente di sicurezza di un prodotto, o è esso
stesso un prodotto, disciplinato dalla normativa di
armonizzazione dell'Unione elencata nell'allegato I?
b) il prodotto, il cui componente di sicurezza è il
sistema di IA, o il sistema di IA stesso in quanto
prodotto, è soggetto a una valutazione della
conformità da parte di terzi ai fini dell'immissione sul
mercato o della messa in servizio di tale prodotto ai
sensi della normativa di armonizzazione dell' Unione
elencata nell'allegato I?
O 2. Il sistema è uno di quelli previsti dall'allegato III
dell’A I Act? (specificare quale)
F
il sistema sfrutta la biometria?
F il sistema opera nel contesto delle infrastrutture
critiche?
F il sistema opera nel contesto dell'istruzione e della
formazione professionale?
F
il sistema opera nel contesto dell'occupazione,
gestione dei .......... . ....... .. ......
autonomo?
F
il sistema opera nel contesto dell'accesso a servizi
privati essenziali e a prestazioni e servizi pubblici
essenziali e fruizione degli stessi (accessibilità servizi,
affidabilità creditizia, rischio assicurativo)?
F il sistema opera nel contesto delle attività di
contrasto?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
32
32
A1.2 - RISCHIO ALTO (art. 6 AI Act)
Obbigatoria
(O)
Facoltativa
(F)
N. DOMANDA SI NO NOTE DESCRIZIONE/MOTIVAZIONE
F
il sistema opera nel contesto della migrazione,
dell'asilo e della gestione del controllo delle
frontiere?
F il sistema opera nel contesto dell'amministrazione
della giustizia e dei processi democratici?
F il sistema di IA è destinato a eseguire un compito
procedurale limitato?
F il sistema di IA è destinato a migliorare il risultato di
un'attività umana precedentemente completata?
F
il sistema di IA è destinato a rilevare schemi
decisionali o deviazioni da schemi decisionali
precedenti e non è finalizzato a sostituire o
influenzare la valutazione umana precedentemente
completata senza un'adeguata revisione umana?
F il sistema di IA effettua forme di profilazione?
DESCRIZIONE/MOTIVAZIONE
O 3.
In caso di risposta positiva alla domanda 2., il sistema
presenta un rischio significativo di danno per la
salute, la sicurezza o i diritti fondamentali delle
persone fisiche, anche nel senso di influenzare
materialmente il risultato del processo decisionale?
O 4.
In caso di risposta positiva alla domanda 3., il sistema
è destinato a eseguire un compito procedurale
limitato?
O 5.
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
33
33
A1.2 - RISCHIO ALTO (art. 6 AI Act)
Obbigatoria
(O)
Facoltativa
(F)
N. DOMANDA SI NO NOTE DESCRIZIONE/MOTIVAZIONE
In caso di risposta positiva alla domanda 3., il sistema
è destinato a migliorare il risultato di un'attività
umana precedentemente completata?
O 6.
In caso di risposta positiva alla domanda 3., il sistema
è destinato a rilevare schemi decisionali o deviazioni
da schemi decisionali precedenti e non è finalizzato
a sostituire o influenzare la valutazione umana
precedentemente completata senza un'adeguata
revisione umana?
O 7.
In caso di risposta positiva alla domanda 3., il
sistema è destinato a eseguire un compito
preparatorio per una valutazione pertinente ai fini
dei casi d'uso elencati nell'allegato III dell'AI Act?
O 8. In caso di risposta positiva alla domanda 3., il sistema
effettua ............ di persone fisiche ?
1
1
VALUTAZIONE D'IMPATTO DELL'INTELLIGENZA ARTIFICIALE
Versione 1.0 del 14.02.2025 – Consultazione pubblica 1
Il presente documento costituisce uno strumento di supporto per le Amministrazioni Pubbliche che devono effettuare la valutazione di impatto
di un sistema di Intelligenza Artificiale. All'interno della matrice sono presenti più schede, che tengono conto dei principali aspetti che è
necessario e/o opportuno monitorare prima di introdurre un sistema di IA. In ciascuna scheda possono essere presenti:
1.Domande generali, obbligatorie per tutte le tipologie di Intelligenza Artificiale (O);
2.Domande specifiche, obbligatorie (O) e non obbligatorie (F). Per ogni domanda è indicato il livello di rischio del sistema di IA per il quale è
prevista la risposta: Tutti, Inaccettabile(I), Alto(A), Limitato(L), Basso o Minimo(M).
In appendice è presente la scheda "Appendice.1 - Livello di rischio", che permette di identificare, ai sensi del Regolamento (UE) 2024/1689 (AI
Act), il livello di rischio del sistema da introdurre; qualora il sistema rientri tra quelli vietati dall'art. 5 del predetto Regolamento, non potrà essere
introdotto.
C1. DOMANDE INTRODUTTIVE
C2. DIRITTI FONDAMENTALI ED EQUITÀ
C3. ROBUSTEZZA TECNOLOGICA
C4. GOVERNANCE DEI DATI
C5. GESTIONE DEL RISCHIO
C6. ACCOUNTABILITY
APPENDICE1 . - LIVELLO DI RISCHIO
1 Questo documento è una bozza in consultazione pubblica, quindi in forma evolutiva e provvisoria.
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
2
2
C1 . - Domande introduttive
C1.1 - SCOPO DEL SISTEMA
Obbligatoria (O) Facoltativa (F)
Livello
di
rischio
DOMANDA DESCRIZIONE/MOTIVAZIONE
O Tutti 1.
Inserire una breve descrizione del sistema di Intelligenza
Artificiale che si prevede di introdurre (nome del
sistema/titolo del progetto, descrizione sintetica
generale, dominio applicativo)
O Tutti 2.
Specificare se il sistema è open source, di proprietà
dell'Amministrazione, di proprietà di terzi (licenziato)
n.b. in caso nel modello siano presenti più "strati" (ad
esempio, infrastruttura, applicativo, algoritmi, etc.)
specificare per ciascuno strato
O Tutti 3. Perché si è optato per questa specifica tecnologia e non
per altre?
O Tutti 4. Qual è lo scopo generale del sistema di Intelligenza
Artificiale che si intende introdurre?
Risultato della verifica del livello di rischio del sistema
(cfr. Appendice.1 -Livello di rischio) n.b. In caso di rischio
inaccettabile, la presente AIIA non va completata
Inaccettabile (I) Alto (A) Limitato (L) Basso o Minimo (M)
FALSO FALSO FALSO FALSO
O A/L/M 5. Quali sono i risultati attesi?
O A/L/M 6. Quali sono gli obiettivi specifici da raggiungere con
l'introduzione del sistema di Intelligenza Artificiale
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
3
3
C1.2 - IMPATTO DEL SISTEMA
Obbligatoria (O) Facoltativa (F)
Livello
di
rischio
DOMANDA DESCRIZIONE/MOTIVAZIONE
O A/L/M 1. Quali strutture dell’Ente intendono utilizzare il sistema di
Intelligenza Artificiale?
O A/L/M 2. Per quali processi, attività o servizi si intende utilizzare il
sistema?
O A/L/M 3. Qual è l’impatto complessivo previsto sull’organizzazione
dell'Amministrazione?
O A/L/M 4.
Quale ruolo l'Amministrazione riveste nell'adozione del
sistema di Intelligenza Artificiale (fornitore, deployer,
utilizzatore)?
O A/L/M 5.
Specificare i ruoli, le funzioni e le attività dei soggetti che
all'interno dell'Amministrazione cureranno l'adozione del
sistema (Responsabile per la Transizione Digitale,
Responsabile Protezione Dati, Project manager di
progetto, ecc.)
O A/L/M 6. Quali sono gli utilizzatori finali del sistema?
O A/L/M 7. Su quali soggetti avrà impatto il sistema di Intelligenza
Artificiale?
DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
O A/L/M 8.
L'Amministrazione ha coinvolto il Responsabile per
la Transizione Digitale nel processo di adozione del
sistema di Intelligenza Artificiale?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
4
4
C2 . – Diritti fondamentali ed equità
C2.1 - DIRITTI FONDAMENTALI
Obbligatoria
(O)
Facoltativa
(F)
Livello di
rischio N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
O A 1. L’uso del sistema di Intelligenza Artificiale che si intende introdurre
ha impatto sui diritti fondamentali?
F A 2. L'utilizzo di un sistema di IA risulta proporzionato agli obiettivi
previsti rispetto al solo utilizzo di tecnologie "standard"?
F A 3. Ci sono metodi alternativi standard non basati su AI che
potrebbero essere utilizzati con stessa efficacia?
F A 4.
È stata individuata la base giuridica che consente l’uso del sistema
di Intelligenza Artificiale e legittima le decisioni che saranno prese
sulla base del sistema di Intelligenza Artificiale?
F A 5. Ci sono diritti fondamentali che potrebbero essere lesi dal normale
utilizzo del sistema di Intelligenza Artificiale?
F A 6. Ci sono diritti fondamentali che potrebbero essere lesi da un
utilizzo improprio del sistema di Intelligenza Artificiale?
DESCRIZIONE/MOTIVAZIONE
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
5
5
C2.1 - DIRITTI FONDAMENTALI
Obbligatoria
(O)
Facoltativa
(F)
Livello di
rischio N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
F A 7. Nel caso di risposta positiva alla domanda n.5, quali misure
vengono adottate per prevenire questa possibilità?
F A 8. Nel caso di risposta positiva alla domanda n. 6, quali misure
vengono adottate per prevenire questa possibilità?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
6
6
C2.2 - BIAS
Obbligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
O A 1. Sono stati considerati e valutati potenziali bias indesiderati nell’input, nel
modello e nell’output del sistema di Intelligenza Artificiale?
F A 2. I dati di input sono rappresentativi dell’ambito decisionale considerato e
del dominio applicativo?
F A 3. Se ritenuto necessario il campionamento tiene conto della necessità di
includere campioni con specifiche caratteristiche?
F A 4.
La selezione delle variabili di input è stata effettuata insieme alle parti
interessate (governance multi partecipativa ) (cfr. domanda n. 4 sezione
"partecipazione degli stakeholders" ?
F A 5. Sono state adottate procedure e strumenti per prevenire la creazione o il
rafforzamento di bias nel sistema di Intelligenza Artificiale?
F A 6.
Il sistema di Intelligenza Artificiale può essere utilizzato dagli utenti finali
indipendentemente dalle loro caratteristiche, come età, genere o
capacità?
F A 7.
Esistono meccanismi di arresto, meccanismi di supervisione o
meccanismi di monitoraggio per impedire eventuali implicazioni negative
del sistema di Intelligenza Artificiale in particolare per specifici gruppi
sociali?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
7
7
C2.3 - PARTECIPAZIONE DEGLI STAKEHOLDERS
Obbligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
O A 1. Sono stati mappati tutti gli stakeholders esistenti attraverso un’analisi
degli stakeholder?
F A 2. In caso di risposta positiva alla domanda precedente, è stato avviato un
dialogo con tutti gli stakeholders individuati?
F A 3. Gli stakeholders sono stati informati del motivo per cui sono state
selezionate specifiche variabili di input (che possono includerli)?
F A 4. È previsto un meccanismo di feedback?
F A 5.
In caso di risposta positiva alla domanda precedente, sono stati raccolti
feedback sufficienti a rappresentare diversi background e tipi di
esperienza (cfr. scheda "Accountability")?
DESCRIZIONE/MOTIVAZIONE
F A 6. In caso di risposta positiva alla domanda precedente, come sono stati
utilizzati i feedback ricevuti?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
8
8
C2.3 - PARTECIPAZIONE DEGLI STAKEHOLDERS
Obbligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
F A 7. Nel dettaglio, quali soggetti e/o gruppi sono stati consultati nella fase di
adozione del sistema di Intelligenza Artificiale?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
9
9
C3 . – Robustezza tecnologica
C3.1 - ACCURATEZZA
Obbligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
O A 1. Sono previsti meccanismi/strumenti di misurazione e salvaguardia
dell’accuratezza continua del sistema?
O A 2. Sono previsti criteri di accettazione per misurare la qualità dell’input (dati)
e dell’output (dati) del modello?
DESCRIZIONE/MOTIVAZIONE
F A 3. In caso di risposta positiva alla domanda n. 1, come viene misurata e
salvaguardata l’accuratezza continua del sistema?
F A 4.
In caso di risposta positiva alla domanda n. 2, quali criteri di accettazione
sono stati stabiliti per misurare la qualità dell’input (dati) e dell’output
(dati) del modello?
O A 5. I criteri di accettazione sono in linea con i dati e lo scopo del sistema di
Intelligenza Artificiale?
O A 6.
Quali sistemi di misurazione della valutazione (metriche di prestazione)
verranno utilizzati per salvaguardare la conformità ai criteri di
accettazione?
O A 7. Per quale motivo si è scelto di utilizzare il sistema di misurazione della
valutazione descritto al punto precedente?
O A 8. Come viene controllata la correttezza dell’input (dati )? (specificare la
periodicità e le modalità)
O A 9.
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
10
10
C3.1 - ACCURATEZZA
Obbligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
Come viene controllata la correttezza dell’output (dati)? (specificare la
periodicità e le modalità)
O A 10. Come vengono analizzate e corrette tempestivamente le differenze
nell’output (dati) rispetto ai criteri di accettazione?
O A 11. Quali potrebbero essere i risultati derivanti dall'utilizzo di modelli
alternativi (citare quali) ?
O A 12. Il sistema è stato testato utilizzando input diversi da quelli attesi?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
11
11
C3.2 - AFFIDABILITÀ
Obbligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
O A 1. Il sistema di Intelligenza Artificiale è affidabile?
F A 2. Ci sono fattori che influenzano le prestazioni del sistema di Intelligenza
Artificiale?
F A 3. L'affidabilità del modello viene determinata tramite utilizzo di una parte del
set di dati esclusa dal processo di apprendimento?
F A 4. L'affidabilità del modello viene determinata sulla base della convalida
incrociata?
DESCRIZIONE/MOTIVAZIONE
F A 5. In caso di risposta positiva alla domanda n.2, quali sono i principali fattori
che influenzano le prestazioni del sistema?
F A 6. Come è stata motivata la regolazione dei (iper)parametri e come viene
valutata?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
12
12
C3.3 - IMPLEMENTAZIONE TECNICA
Obbligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
O A 1. Sono state adottate misure adeguate al livello di rischio del sistema di
Intelligenza Artificiale?
DESCRIZIONE/MOTIVAZIONE
O A 2. Come è stato implementato tecnicamente il sistema di Intelligenza
Artificiale?
O A 3. Come si inserisce il sistema di Intelligenza Artificiale nell'infrastruttura
esistente?
F A 4. Qual è l'architettura del sistema?
F A 5. Come sono interconnesse le componenti software?
F A 6. Come sono stati documentati i requisiti hardware e software specifici?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
13
13
C3.4 - REPLICABIILITÀ
Obbligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
O A 1. Il sistema di Intelligenza Artificiale è replicabile?
F A 2. In caso di risposta positiva alla domanda precedente, è stato impostato un
processo per misurare tale replicabilità?
F A 3. È possibile ricostruire le versioni precedenti del modello, dei set di dati e
delle condizioni che sono stati salvati attraverso la gestione delle versioni?
F A 4. Il modello può essere ricostruito sulla base degli iperparametri dati e di un
seed fisso?
F A 5 Vengono documentate le modifiche durante la vita del sistema?
F A 6. Le linee generali del sistema di Intelligenza Artificiale possono essere
riprodotte sulla base della documentazione?
DESCRIZIONE/MOTIVAZIONE
F A 7. In caso di risposta positiva alla domanda n.5, come avviene il processo di
documentazione?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
14
14
C3.5 - SPIEGABILITÀ
Obbligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
O A 1. Il sistema di Intelligenza Artificiale è sufficientemente spiegabile e
interpretabile dagli sviluppatori?
F A 2. Sono state spiegate e documentate anche le competenze necessarie per la
gestione del sistema di Intelligenza Artificiale?
DESCRIZIONE/MOTIVAZIONE
F A 3. In che misura il modo in cui opera il sistema di Intelligenza Artificiale può
essere spiegato a un esperto esterno?
F A 4. Durante il processo di sviluppo del sistema di Intelligenza Artificiale, come è
stata considerata la spiegabilità del modello?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
15
15
C4 . – Governance dei dati
C4.1 - QUALITÀ E INTEGRITÀ DEI DATI
Obb ligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
O A/L/M 1. I dati utilizzati (per addestramento, test o valutazione) sono necessari al
funzionamento sistema di Intelligenza Artificiale?
O A/L/M 2. Il sistema di Intelligenza Artificiale utilizza dati aperti?
O A 3. I dati soddisfano le ipotesi alla base dell'introduzione del modello?
O A 4.
I dati di addestramento e di test possono essere aggiornati se necessario in
particolari situazioni (per esempio, in caso si decida di riaddestrare,
sospendere o sviluppare ulteriormente il sistema di Intelligenza Artificiale)?
O A 5. Sono stati valutati i cambiamenti ne i dati di input che si possono verificare
durante le fasi di addestramento, test e valutazione?
O A 6. Sono stati valutati i cambiamenti nei dati di input che si possono verificare
nel tempo, durante l’uso dell’algoritmo?
DESCRIZIONE/MOTIVAZIONE
O A 7. Come sono stati raccolti e combinati i dati di input utilizzati nel sistema di
Intelligenza Artificiale?
O A 8. Come vengono etichettati i dati?
O A 9. Quali fattori influenzano la qualità dei dati di input?
O A 10. Come viene salvaguardata la qualità dei dati?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
16
16
C4.1 - QUALITÀ E INTEGRITÀ DEI DATI
Obb ligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
O A 11. Come viene memorizzato l’output (dati) nel caso venga utilizzato come
nuovo input per un altro modello (ad esempio, un ciclo di feedback)?
O A 12. Come si assicura che l’output (dati) sia disponibile in modo tempestivo?
O A 13. Quali meccanismi/strumenti sono stati implementati per prevenire le
duplicazioni non intenzionali dei dati?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
17
17
C4.2 - ....... . .......... ... .... .........
Obbligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
O A/L/M 1.
L'Amministrazione ha coinvolto il Responsabile per la Protezione dei Dati
(in aggiunta al RTD e a eventuali altre figure specifiche previste
dall'Amministrazione) a garanzia dei dati trattati?
O A/L/M 2. Il sistema di Intelligenza Artificiale utilizza dati personali (e quindi si applica
il GDPR)?
F A/L/M 3. L’output del sistema di Intelligenza Artificiale può essere ricondotto a dati
personali (e quindi si applica il GDPR)?
F A/L/M 4. Sono state implementate misure specifiche e generali per proteggere i dati
personali?
F A/L/M 5. Il sistema utilizza o memorizza particolari categorie di dati?
F A/L/M 6. L'Amministrazione ha effettuato una DPIA?
F A/L/M 7. Il sistema è stato realizzato in modo da tutelare i diritti degli interessati
dalla possibile comunicazione e/o diffusione di dati personali?
F A/L/M 8. Il sistema utilizza o memorizza dati riservati?
DESCRIZIONE/MOTIVAZIONE
F A/L/M 9. Con quale frequenza vengono valutate la qualità dei dati personali trattati e
la necessità del loro trattamento da parte del sistema?
F A/L/M 10. Come viene salvaguardata la sicurezza di queste informazioni?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
18
18
C5 . – Gestione del rischio
C5.1 - GESTIONE DEL RISCHIO INFORMATICO
Obbligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
O A/L/M 1. Il sistema di Intelligenza Artificiale è stato testato per lo scopo previsto,
prima di essere messo in funzione?
O A/L/M 2. Il sistema di Intelligenza Artificiale è stato testato per definire misure
appropriate di gestione del rischio?
O A/L/M 3. È possibile o probabile che gruppi vulnerabili (ad esempio, i min ori) abbiano
accesso al sistema di Intelligenza Artificiale?
F A 4. In caso di risposta positiva alla domanda precedente, le misure di gestione
del rischio sono rafforzate?
O A/L/M 5. L’accesso al sistema di Intelligenza Artificiale e ai suoi componenti è stato
strutturato tenendo conto dei soggetti che vi accedono e dei relativi ruoli?
O A 6. É stata verificata la correttezza dell’implementazione, ad esempio con test
unitari, test di integrazione e test end -to-end, se applicabili?
O A 7. Il sistema di Intelligenza Artificiale interagisce con altro hardware o
software?
O A 8. In caso di problemi con il sistema di Intelligenza Artificiale, è prevista una
procedura alternativa (cfr. sezione sotto)?
O A 9. Il sistema è immune da errori e/o irregolarità derivanti dall' interazione con
persone e/o altri sistemi?
DESCRIZIONE/MOTIVAZIONE
F A/L/M 10. In caso di risposta positiva alla domanda n. 5, come è stato strutturato
l'accesso?
F A 11.
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
19
19
C5.1 - GESTIONE DEL RISCHIO INFORMATICO
Obbligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
In caso di risposta positiva alla domanda n. 9, come avviene l'interazione
con persone e/o altri sistemi?
C5.2 - PROCEDURA ALTERNATIVA
Obbligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA DESCRIZIONE/MOTIVAZIONE
F A 1. In caso di risposta positiva alla domanda n.8 , come viene attivata la
procedura alternativa?
O A 2. Qual è, nel dettaglio, la procedura alternativa da seguire in caso di problemi
con il funzionamento del sistema di Intelligenza Artificiale
O A 3. Qual è l’impatto stimato del fallimento del sistema di Intelligenza
Artificiale?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
20
20
C5.3 - ATTACCHI HACKING E CORRUZIONE DEL SISTEMA
Obbligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
O A 1. È possibile che un soggetto tragga vantaggio dall'utilizzo di un sistema di
Intelligenza Artificiale al posto di una decisione umana?
DESCRIZIONE/MOTIVAZIONE
O A 2. Come vengono identificati, ridotti a un livello accettabile e testati i rischi per
la sicurezza delle informazioni (da una prospettiva tecnica)?
O A 3. Come viene impedito a terzi non autorizzati di sfruttare le eventuali
vulnerabilità del sistema di Intelligenza Artificiale?
O A 4.
Qual è l’impatto stimato dell’accesso di terzi non autorizzati al codice
sorgente (per sistemi non open source), ai dati o ai risultati del sistema di
Intelligenza Artificiale?
O A 5. Come vengono registrati gli accessi al sistema di Intelligenza Artificiale,
l'utilizzo e la relativa durata?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
21
21
C6 . – Accountability
C6.1 - COMUNICAZIONE
Obbligatoria
(O)
Facoltativa (F)
Livello
di
rischio
N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
O A/L/M 1. L'Amministrazione ha comunicato in maniera trasparente il funzionamento
e gli eventuali limiti del sistema di Intelligenza Artificiale?
F A/L/M 2.
In caso di risposta positiva alla domanda precedente, gli aspetti evidenziati
continuano ad essere trasparenti per tutto il tempo in cui il sistema rimane
in uso?
O A/L/M 3. In caso siamo presenti meccanismi di feedback, è previsto un processo di
convalidata (analisi e monitoraggio) dei commenti ricevuti?
O A/L/M 4.
Gli utenti finali e le parti coinvolte nel sistema di Intelligenza Artificiale sono
informati del fatto che i risultati sono generati da un sistema di Intelligenza
Artificiale e di cosa questo comporta per gli utilizzatori?
O A/L/M 5. Sono state redatte istruzioni per l’uso del sistema?
F A/L/M 6.
In caso di risposta positiva alla domanda precedente, le istruzioni
comprendono un set min imo di informazioni costituito da: nome e dati di
contatto del fornitore; caratteristiche, capacità e limitazioni; potenziali
modifiche future; supervisione umana; durata di vita prevista?
O A/L/M 7. Il sistema è sufficientemente trasparente da consentire agli utenti finali di
interpretare e utilizzare in modo appropriato l’output (dati) del sistema?
O A/L/M 8. É prevista una formazione interna agli utenti finali, se necessario?
O A/L/M 9.
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
22
22
C6.1 - COMUNICAZIONE
Obbligatoria
(O)
Facoltativa (F)
Livello
di
rischio
N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
Le parti coinvolte sono consapevoli dei passi che possono intraprendere se
desiderano presentare reclami o ricorsi, ai sensi della normativa vigente,
contro una decisione assunta tramite il sistema di Intelligenza Artificiale?
DESCRIZIONE/MOTIVAZIONE
F A/L/M 10.
In caso di risposta positiva alla domanda 3, come viene assicurato il corretto
trattamento, all’interno dell’organizzazione, dei commenti delle parti
coinvolte e degli utenti finali?
F A 11.
Quali sono i potenziali effetti psicologici derivanti all'utente finale
dall'utilizzo del sistema di Intelligenza Artificiale (confusione, affaticamento
cognitivo, deficit di attenzione, ecc. )?
F A 12. In che misura può essere spiegato a una parte coinvolta il motivo per cui il
sistema di Intelligenza Artificiale opera in un certo modo?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
23
23
C6.2 - VERIFICABILITÀ
Obbligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA DESCRIZIONE/MOTIVAZIONE
O A 1. Come viene verificato il sistema di Intelligenza Artificiale?
O A 2. In che modo sono state salvaguardate la verifica e la supervisione umana?
O A/L/M 3.
In che modo è previsto l'adeguamento alle nuove leggi e regolamenti che
potrebbero entrare in vigore durante la vita del sistema di Intelligenza
Artificiale?
O A 4. Come è assicurata la possibilità di una verifica indipendente del sistema di
Intelligenza Artificiale?
O A 5. Come si procede a verificare e interpretare la correttezza dell’input (dati)?
O A 6. Come si procede a verificare e interpretare la correttezza del modello?
O A 7. Come si procede a verificare e interpretare la correttezza dell’output (dati)?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
24
24
C6.3 - ARCHIVIAZIONE
Obbligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA DESCRIZIONE/MOTIVAZIONE
O A 1. Come vengono archiviati i dati di input?
O A 2. Qual è il periodo di conservazione dai dati di input?
O A 3. Come viene archiviato il modello?
O A 4. Qual è il periodo di conservazione dell’output (dati)?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
25
25
C6.4 - SOSTENIBILITÀ
Obbligatoria
(O)
Facoltativa
(F)
Livello
di
rischio
N. DOMANDA SI NO N/A DESCRIZIONE/MOTIVAZIONE
O A/L/M 1. L’introduzione del sistema di Intelligenza Artificiale ha un impatto
sull’ambiente?
F A/L/M 2. L’impatto del sistema di Intelligenza Artificiale viene bilanciato rispetto ai
costi ambientali del suo funzionamento?
F A/L/M 3. Sono state adottate misure per min imizzare l’impatto ambientale del
sistema di Intelligenza Artificiale?
DESCRIZIONE/MOTIVAZIONE
F A/L/M 4. In caso di risposta positiva alla domanda n. 1, come viene misurato tale
impatto?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
26
26
APPENDICE1 . – Livello di rischio
A1.1 - RISCHIO INACCETTABILE (art. 5 AI Act)
Obbligatoria
(O)
Facoltativa
(F)
N. DOMANDA SI NO VIETATO IN CASO DI: DESCRIZIONE/MOTIVAZIONE
O 1.
Il sistema utilizza tecniche subliminali che agiscono
senza che una persona ne sia consapevole o tecniche
volutamente manipolative o ingannevoli aventi lo
scopo o l'effetto di distorcere materialmente il
comportamento di una persona o di un gruppo di
persone, pregiudicando in modo considerevole la
loro capacità di prendere una decisione informata,
inducendole pertanto a prendere una decisione che
non avrebbero altrimenti preso, in un modo che
provochi o po ssa ragionevolmente provocare a tale
persona, a un'altra persona o a un gruppo di persone
un danno significativo?
(immissione sul mercato, messa in
servizio o uso)
O 2.
Il sistema sfrutta le vulnerabilità di una persona fisica
o di uno specifico gruppo di persone, dovute all'età,
alla disabilità o a una specifica situazione sociale o
economica, con l'obiettivo o l'effetto di distorcere
materialmente il comportamento di tale persona o di
una persona che appartiene a tale gruppo in un
modo che provochi o possa ragionevolmente
provocare a tale persona o a un'altra persona un
danno significativo?
(immissione sul mercato, messa in
servizio o uso)
O 3.
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
27
27
A1.1 - RISCHIO INACCETTABILE (art. 5 AI Act)
Obbligatoria
(O)
Facoltativa
(F)
N. DOMANDA SI NO VIETATO IN CASO DI: DESCRIZIONE/MOTIVAZIONE
Il sistema effettua la valutazione o la classificazione
delle persone fisiche o di gruppi di persone per un
determinato periodo di tempo sulla base del loro
comportamento sociale o di caratteristiche personali
o della personalità note, inferite o previste, in cui il
punteggio sociale così ottenuto comporti il verificarsi
di uno o di entrambi gli scenari seguenti: i) un
trattamento pregiudizievole o sfavorevole di
determinate persone fisiche o di gruppi di persone in
contesti sociali che non sono collegati a i contesti in
cui i dati sono stati originariamente generati o
raccolti;
ii) un trattamento pregiudizievole o sfavorevole di
determinate persone fisiche o di gruppi di persone
che sia ingiustificato o sproporzionato rispetto al loro
comportamento sociale o alla sua gravità?
(immissione sul mercato, messa in
servizio o uso)
O 4.
Il sistema effettua valutazioni del rischio relative a
persone fisiche al fine di valutare o prevedere il
rischio che una persona fisica commetta un reato,
unicamente sulla base della ............ .. ...
persona fisica o della valutazione dei tratti e dell e
caratteristiche della personalità? (tale divieto non si
applica ai sistemi di IA utilizzati a sostegno della
valutazione umana del coinvolgimento di una
persona in un'attività criminosa, che si basa già su
fatti oggettivi e verificabili direttamente conn essi a
un'attività criminosa)
(immissione sul mercato, messa in
servizio per tale finalità specifica o
uso)
O 5.
Il sistema crea o amplia le banche dati di
riconoscimento facciale mediante scraping non
mirato di immagini facciali da internet o da filmati di
telecamere a circuito chiuso?
(immissione sul mercato, messa in
servizio per tale finalità specifica o
uso)
O 6.
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
28
28
A1.1 - RISCHIO INACCETTABILE (art. 5 AI Act)
Obbligatoria
(O)
Facoltativa
(F)
N. DOMANDA SI NO VIETATO IN CASO DI: DESCRIZIONE/MOTIVAZIONE
Il sistema inferisce le emozioni di una persona fisica
nell'ambito del luogo di lavoro e degli istituti di
istruzione, tranne laddove l'uso del sistema di IA sia
destinato a essere messo in funzione o immesso sul
mercato per motivi medici o di sicurezza?
(immissione sul mercato, messa in
servizio per tale finalità specifica o
uso)
O 7.
Il sistema classifica individualmente le persone
fisiche sulla base dei loro .... .......... ...
trarre deduzioni o inferenze in merito a razza,
opinioni politiche, appartenenza sindacale,
convinzioni religiose o filosofiche, vita sessuale
o orientamento s essuale? (tale divieto non
riguarda l'etichettatura o il filtraggio di set di
dati biometrici acquisiti legalmente, come le
immagini, sulla base di .... .......... . .....
categorizzazione di .... .......... ... .......
delle attività di contrasto)
(immissione sul mercato, messa in
servizio per tale finalità specifica o
uso)
O 8.
Il sistema effettua identificazione biometrica remota
«in tempo reale» in spazi accessibili al pubblico a fini
di attività di contrasto a meno che, e nella misura in
cui, tale uso sia strettamente necessario per uno
degli obiettivi seguenti: i) la ricerca mirata di
specifiche vittime di sottrazione, tratta di esseri
umani o sfruttamento sessuale di esseri umani,
nonché la ricerca di persone scomparse; ii) la
prevenzione di una min accia specifica, sostanziale e
imminente per la vita o l'incolumità fisica de lle
persone fisiche o di una min accia reale e attuale o
reale e prevedibile di un attacco terroristico; iii) la
localizzazione o l'identificazione di una persona
sospettata di aver commesso un reato, ai fini dello
svolgimento di un'indagine penale, o dell'esercizio di
(uso)
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
29
29
A1.1 - RISCHIO INACCETTABILE (art. 5 AI Act)
Obbligatoria
(O)
Facoltativa
(F)
N. DOMANDA SI NO VIETATO IN CASO DI: DESCRIZIONE/MOTIVAZIONE
un'azione penale o dell'esecuzione di una sanzione
penale per i reati di cui all'allegato II, punibile nello
Stato membro interessato con una pena o una
misura di sicurezza privativa della libertà della ......
massima di almeno quattro anni?
DESCRIZIONE/MOTIVAZIONE
O 9.
In caso di risposta positiva alla domanda 8., il sistema
viene utilizzato solo per confermare l'identità della
persona specificamente interessata?
O 10.
In caso di risposta positiva alla domanda 8., il sistema
tiene conto degli elementi seguenti: a) la natura della
situazione che dà luogo al possibile uso, in
particolare la gravità, la probabilità e l'entità del
danno che sarebbe causato in caso di mancato uso
del sistema; b) le conseguenze dell'uso del sistema
per i diritti e le libertà di tutte le persone interessate,
in particolare la gravità, la probabilità e l'entità di tali
conseguenze.?
O 11.
In caso di risposta positiva alla domanda 8., l'uso del
sistema rispetta inoltre le tutele e le condizioni
necessarie e proporzionate in relazione all'uso,
conformemente al diritto nazionale che autorizza
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
30
30
A1.1 - RISCHIO INACCETTABILE (art. 5 AI Act)
Obbligatoria
(O)
Facoltativa
(F)
N. DOMANDA SI NO VIETATO IN CASO DI: DESCRIZIONE/MOTIVAZIONE
tale uso, in particolare per quanto riguarda le
limitazioni temporali, geografiche e personali?
O 12.
In caso di risposta positiva alla domanda 8., l'autorità
di contrasto ha completato una valutazione
d'impatto sui diritti fondamentali come previsto
all'articolo 27 e ha registrato il sistema nella banca
dati UE conformemente all'articolo 49?
O 13.
In caso di risposta positiva alla domanda 8., è stata
richiesta l' autorizzazione prevista (preventiva o, in
caso di urgenza, non oltre 24 ore dall'inizio dell'uso
del sistema)?
O 14.
In caso di risposta positiva alla domanda 8., l'uso del
sistema è stato notificato alla pertinente autorità di
vigilanza del mercato e all'autorità
nazionale per la protezione dei dati?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
31
31
A1.2 - RISCHIO ALTO (art. 6 AI Act)
Obbigatoria
(O)
Facoltativa
(F)
N. DOMANDA SI NO NOTE DESCRIZIONE/MOTIVAZIONE
O 1.
Il sistema di IA è destinato a essere utilizzato come
componente di sicurezza di un prodotto, o è esso
stesso un prodotto, disciplinato dalla normativa di
armonizzazione dell'Unione elencata nell'allegato I?
b) il prodotto, il cui componente di sicurezza è il
sistema di IA, o il sistema di IA stesso in quanto
prodotto, è soggetto a una valutazione della
conformità da parte di terzi ai fini dell'immissione sul
mercato o della messa in servizio di tale prodotto ai
sensi della normativa di armonizzazione dell' Unione
elencata nell'allegato I?
O 2. Il sistema è uno di quelli previsti dall'allegato III
dell’A I Act? (specificare quale)
F
il sistema sfrutta la biometria?
F il sistema opera nel contesto delle infrastrutture
critiche?
F il sistema opera nel contesto dell'istruzione e della
formazione professionale?
F
il sistema opera nel contesto dell'occupazione,
gestione dei .......... . ....... .. ......
autonomo?
F
il sistema opera nel contesto dell'accesso a servizi
privati essenziali e a prestazioni e servizi pubblici
essenziali e fruizione degli stessi (accessibilità servizi,
affidabilità creditizia, rischio assicurativo)?
F il sistema opera nel contesto delle attività di
contrasto?
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
32
32
A1.2 - RISCHIO ALTO (art. 6 AI Act)
Obbigatoria
(O)
Facoltativa
(F)
N. DOMANDA SI NO NOTE DESCRIZIONE/MOTIVAZIONE
F
il sistema opera nel contesto della migrazione,
dell'asilo e della gestione del controllo delle
frontiere?
F il sistema opera nel contesto dell'amministrazione
della giustizia e dei processi democratici?
F il sistema di IA è destinato a eseguire un compito
procedurale limitato?
F il sistema di IA è destinato a migliorare il risultato di
un'attività umana precedentemente completata?
F
il sistema di IA è destinato a rilevare schemi
decisionali o deviazioni da schemi decisionali
precedenti e non è finalizzato a sostituire o
influenzare la valutazione umana precedentemente
completata senza un'adeguata revisione umana?
F il sistema di IA effettua forme di profilazione?
DESCRIZIONE/MOTIVAZIONE
O 3.
In caso di risposta positiva alla domanda 2., il sistema
presenta un rischio significativo di danno per la
salute, la sicurezza o i diritti fondamentali delle
persone fisiche, anche nel senso di influenzare
materialmente il risultato del processo decisionale?
O 4.
In caso di risposta positiva alla domanda 3., il sistema
è destinato a eseguire un compito procedurale
limitato?
O 5.
Bozza di li nee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione – Consultazione pubblica Valutazione d’impatto
33
33
A1.2 - RISCHIO ALTO (art. 6 AI Act)
Obbigatoria
(O)
Facoltativa
(F)
N. DOMANDA SI NO NOTE DESCRIZIONE/MOTIVAZIONE
In caso di risposta positiva alla domanda 3., il sistema
è destinato a migliorare il risultato di un'attività
umana precedentemente completata?
O 6.
In caso di risposta positiva alla domanda 3., il sistema
è destinato a rilevare schemi decisionali o deviazioni
da schemi decisionali precedenti e non è finalizzato
a sostituire o influenzare la valutazione umana
precedentemente completata senza un'adeguata
revisione umana?
O 7.
In caso di risposta positiva alla domanda 3., il
sistema è destinato a eseguire un compito
preparatorio per una valutazione pertinente ai fini
dei casi d'uso elencati nell'allegato III dell'AI Act?
O 8. In caso di risposta positiva alla domanda 3., il sistema
effettua ............ di persone fisiche ?
Link: https://trasparenza.agid.gov.it/download/9391.html
Testo del 2025-02-19 Fonte: gov.it
Demo Altre chiavi solo per gli iscritti
Commenta
i commenti sono anonimi e inviati via mail e cancellati dopo aver migliorato la voce alla quale si riferiscono: non sono archiviati; comunque non lasciare dati particolari. Si applica la privacy policy.


