Civile.it
/internet
Osservatorio sul diritto e telecomunicazioni informatiche, a cura del dott. V. Spataro dal 1999, 9266 documenti.

Il dizionario e' stato letto volte.



Segui via: Email - Telegram
  Dal 1999   spieghiamo il diritto di internet  Store  Podcast  Dizionario News alert    
             

  


WPkit.it: privacy, formulari, check up per WordPress

Temi attuali:
Algoritmi ChatGPT Intelligenza artificiale Privacy WordPress



Intelligenza artificiale 08.05.2019    Pdf    Appunta    Letti    Post successivo  

Approfondimento: come usare l'intelligenza artificiale nel diritto italiano

I sistemi anglosassoni vivono del precedente. In Italia no. Questo dato strutturale e' considerato da chi proporrà l'uso della IA nel diritto italiano ?

Nella foto una struttura di una foglia, cresciuta cosi' per natura e per adattamento all'ambiente.
Spataro

 

I

Il tema dell'intelligenza artificiale in Italia sta avendo un impatto notevolissimo e una accelerazione.

Un buon punto di partenza per restare aggiornati è sicuramente seguire il profilo LinkedIn di Gianfranco de Aietti che cita anche i lavori di Claudio Castelli presidente della corte d'appello di Brescia.

Stiamo parlando di un attività che vuole applicare i metodi e gli strumenti dell'intelligenza artificiale al mondo del diritto italiano.

E' un tema a me molto caro, è almeno un decina d'anni che rifletto sulle soluzioni possibili e voglio condividere con voi ad alcune riflessioni che mi hanno portato a non occuparmi per ora della della materia, proponendo delle riflessioni a tutti ma credo che queste riflessioni fatta di ultimi 10 anni siano importanti e il momento è giusto.

Prima di tutto cos'è l'intelligenza artificiale ?

L'intelligenza artificiale è un conoscenza sociale, un conoscenza statistica. L'intelligenza artificiale è composta da varie branche:

- riconoscimento del linguaggio
- comprensione del linguaggio
- produzione del linguaggio

Volendo semplificare quello che ci interessa oggi, questi temi sono sicuramente interessanti ma insufficienti a descrivere la complessità dell'intelligenza artificiale.

Quello che qui è importante sottolineare è che non si tratta di intelligenza ,a si tratta di un fotografia molto evoluta basata su precedenti esperienze altrui.

Quindi la IA riconosce in una fotografia un albero perché il sistema informatico da tante fotografie precedentemente indicate e categorizzare come alberi ha individuato dei tratti comuni: la diramazione dei rami, per intenderci, e categorizza anche tutte quelle simili come alberi

Là dove ci sono gli errori controlla pure gli errori e li elimina.

Gli errori sono trovati sulla base di altre informazioni che la intelligenza artificiale (o in autonomia, o aiutata, o entrambe) ha definito come errori

Se quindi pensiamo all'intelligenza artificiale come ad una capacità delle macchine di individuare delle ricorrenze basate su precedenti categorizzazioni fatte da altri ci troviamo di fronte anche alla necessità di capire se il diritto è un scienza esatta oppure è soggetta a interpretazione, ed allora abbiamo degli aspetti evolutivi (e questi sono ben noti) ma anche degli aspetti che possono sottovalutare o sopravvalutare delle circostanze in modo diverso nel tempo e in modo tale da qualificare un fatto in un modo o in un altro

Sotto il profilo del diritto significa che ognuno può affermare tutto e l'opposto di tutto e nelle sentenze ci sono argomentazioni sostenute da un parte e dall'altra; quindi nel momento in cui si affida a un strumento che nasce per dare delle informazioni statisticamente corrette si dirà interpretazione (con questo metodo) che è corretta al 90% secondo i nostri criteri o è corretta al 50 percento secondo questi altri criteri

L'intelligenza artificiale restituisce più criteri e più soluzioni indicando le percentuali di ipotesi di probabilità che possa essere applicata l'una o l'altra.

Ecco: nel momento in cui abbiamo strumenti del genere dobbiamo anche capire che ruolo hanno i giudizi e le valutazioni secondarie rispetto a quelle principali.

Per spiegare in termini semplici si tratta di fare come nel film "minority report" dove i sistemi avevano varie proposte ma in certe occaszioni uno dei tre predittori poteva essere anche contrario.

Aquel punto minority report veniva escluso: questo però era un aspetto che veniva scoperto dal protagonista solamente dopo aver avuto informazioni precise su come funzionava il sistema; perché quando il sistema dava un risposta non spiegava se c'era o meno un minority report, o almeno nemmeno chi lo utilizzava (il protagonista film) se n'accorgeva tanta fiducia riponeva nel sistema predittivo.

Ora il passaggio successivo è: "come posso utilizzare questi sistemi per prevedere la decisione di un giudice"

Questo è sicuramente interessante.

Nella IA nei tribunali inferiori le IA possono sostenere la tesi che quel giudice ha già fatto propria in tante altre posizioni oppure sapere quante volte non l'ha seguita oppure perché se ne è discostato motivando.

Tuttavia il passaggio ulteriore potrebbe essere quella di controllare l'esattezza dell'operato dei giudici.

Perché posso parlare di esattezza ?

Perché se un sistema informatico mi dice che quel giudice si è discostato da un indirizzo della Cassazione allora di fronte a un precedente suggerimento di un sistema di intelligenza artificiale quel giudice potrà essere portato a non discostarsi da quel precedente giudiziale sostenuto dall'intelligenza artificiale oppure a seguirlo per timore o pur di non essere criticato da tutti coloro che diranno: "ma come si è permesso di decidere diversamente nonostante il sistema di intelligenza artificiale, che conosce tutta la giurisprudenza, abbia detto che in questi casi la decisione non può che essere questa altra ?".

O i giudici abbandoneranno il sostenere una tesi innovativa o probabilmente cercheranno di argomentarla il meglio possibile, probabilmente senza sapere i criteri sulla base dei quali intelligenza artificiale suggerisce come corretta una soluzione diversamente scelta dei giudici.

Il terzo passaggio e la responsabilità professionale degli avvocati.

Già oggi io, interpretando le sentenze di Cassazione all'interno di sistemi, ho la possibilità di rilevare linguisticamente tutte quelle volte che il giudice si lamenta della mancata preparazione dell'avvocato. Non si lamenta in modo esplicito ma c'è un serie di costrutti lessicali di espressioni verbali utilizzate tali da far rabbrividire il difensore che ha sostenuto un certa tesi.

Tutto questo oggi è fattibile e attualmente non ha seguito. Il linguaggio del giudice viene sempre considerato come un stile utilizzato per far capire che quella tesi non era "del tutto e in modo evidente" sostenibile come invece ha fatto l'avvocato.

Di fronte a rilievi simili il passo successivo è: non solo fare causa all'avvocato che ha sostenuto un tesi insostenibile o che comunque è stata cassata dai giudici, ma anche prendere nei suoi confronti delle decisioni deontologicamente rilevanti da parte degli organi che possono dire: "l'avvocato è stato incapace, incompetente" oppure si tacerà di fronte a questi problemi ?

La IA introduce sicuramente un ulteriore fase (preliminare e preventiva): quella della dello studio della posizione.

Se nello studio della posizione io dò ad un sistema predittivo tutte le informazioni che contano (ah, il valore della prova !) per avere una valutazione di efficacia o meno di un eventuale azione giudiziaria, ecco che posso influire sul destino dei cittadini consigliando una azione giudiziaria o desistere.

Il punto centrale in tutte e 3 queste ipotesi è sempre lo stesso: il sistema di intelligenza artificiale non è intelligenza artificiale ma intelligenza statistica basata su un quantità (o totalità) di precedenti o, almeno quelli che vengono forniti a questo sistema

Di fronte ad ogni decisione dell'intelligenza artificiale deve esserci sempre un motivazione argomentata:

- non solo delle scelte a favore
- ma anche delle mancate scelte a favore delle valutazioni
- e delle scelte contrarie

solo allora i sistemi di intelligenza artificiale saranno uno strumento a servizio dei giudici e degli avvocati e quindi dei cittadini per prevenire le cause o anche solo per valutare la conformità delle sentenze

Altrimenti invece di diventare strumenti da usare si sostituiranno ai professionisti per dire: "inutile combattere contro i mulini a vento" perché la macchina ha già detto che tu hai torto.

L'attività predittiva, come quella di controllo, deve acquisire conoscenze dai precedenti giudiziali e dal caso concreto. Gli investimenti per acquisire i precedenti giudiziali sono prevedibili. Ma il valore della prova, in fase preliminare, come sarà valutata dalla macchina ? O ci troveremo a fare i saggi una volta che la pronuncia c'e', a cose fatte ?

L'avvocato avrà ancora più valore prima della causa solo se i sistemi saranno: verificabili e trasparenti. In mancanza ci saranno tante lungaggini o errori giudiziari.

Non per colpa delle macchine. Ma per colpa degli uomini che si affideranno senza pensiero critico all'oracolo informatico.

I sistemi anglosassoni vivono del precedente. In Italia no. Questo dato strutturale è considerato da chi proporrà l'uso della IA nel diritto italiano ?

Già oggi si è scelta la via facile: le prove delle scatole nere nelle auto hanno valore nonostante non vi siano strumenti di controllo sui sensori che nascono per riconoscere la posizione e altri valori all'interno di un range di errore, ma senza doppi controlli. Alcuni persino non avrebbero strumenti crittografici e i dati potrebbero essere alterati senza controllo di accessi o di integrità. Riflettiamoci

08.05.2019 Spataro
spataro


AI ACT ancora non in vigore e testo votato non disponibile
Il Garante vuole vedere chiaro anche su Sora di Open AI
AI - sandbox normativa del Garante Danese
Chiesti i danni all'avvocato che ha usato maldestramente l'intelligenza artificiale.
Risponde il gestore del sito per il chatbot che risponde male
Come funziona la Privacy, l'intelligenza artificiale e il riconoscimento della posizione tramite fotografia.
FCC (USA): Robocall con voci generate dalla AI e' illegale. Elezioni e Marketing avvertiti.
PRONTO, QUALE AI PARLI? Webinar sull'intelligenza artificiale con Teresa Potenza e Valentino Spataro
Il Garante contesta l'illecito trattamento ma non risospende ChatGPT - OpenAI per i minori
The Commission adopts its own approach on development and use of Artificial Intelligence



Segui le novità in materia di Intelligenza artificiale su Civile.it via Telegram
oppure via email: (gratis Info privacy)





dallo store:
visita lo store








Dal 1999 il diritto di internet. I testi sono degli autori e di IusOnDemand srl p.iva 04446030969 - diritti riservati - Privacy - Cookie - Condizioni d'uso - in 0.039