Civile.it
/internet
Osservatorio sul diritto e telecomunicazioni informatiche, a cura del dott. V. Spataro dal 1999, documenti.

Il glossario e' stato letto volte.



Segui via: Email - Telegram
  Dal 1999   spieghiamo il diritto di internet  Store  Caffe20  Glossario  App  Video Demo · Accesso · Iscrizioni    
             

  


Intelligenza artificiale 02.07.2019    Pdf    Appunta    Letti    Post successivo  

L'intelligenza artificiale deve argomentare le proprie scelte. Anche per la privacy.

Privacy Risks of Explaining Machine Learning Models
Spataro

 

"

"Can we trust black-box machine learning with its decisions?"

Lo studio che segue parte da questo presupposto, per arrivare a considerare anche gli aspetti legati alla privacy.

E' sicuramente un collegamento innovativo da approfondire.

Quando ho sviluppato il mio bot sulla privacy basato su una base di conoscenze gerarchiche e strutturate mi sono trovato a fare il debug.

I criteri erano numerosi, e in ricorsione.

Il debug era indispensabile, bisognava capire quali regole (deterministiche) erano state utilizzate nelle varie richieste (non deterministiche).

Mi chiedo come possano gli sviluppatori mondiali non avere strumenti simili, e non credo che non ne abbiano.

Ora: un conto e' analizzare conversazioni, un altro big data.

Comunque nel rispondere "a tono" e' necessario conoscere il contesto, qunidi insieme ai big data si fa uso dei dati forniti, cosi' come per ogni conversazione, sia pure per la sola durata della conversazione.

Poi si possono anonimizzare, ad esempio.

Il tema e' ampio e merita attenzione. Ringrazio Reuben Binns da UK per la segnalazione.

Il pdf e' al link indicato e manifesta con evidenza come il tema non possa essere affidato ai soli giuristi.

Computer Science > Machine Learning
Privacy Risks of Explaining Machine Learning Models

Can we trust black-box machine learning with its decisions? Can we trust algorithms to train machine learning models on sensitive data? Transparency and privacy are two fundamental elements of trust for adopting machine learning. In this paper, we investigate the relation between interpretability and privacy. In particular we analyze if an adversary can exploit transparent machine learning to infer sensitive information about its training set. To this end, we perform membership inference as well as reconstruction attacks on two popular classes of algorithms for explaining machine learning models: feature-based and record-based influence measures. We empirically show that an attacker, that only observes the feature-based explanations, has the same power as the state of the art membership inference attacks on model predictions. We also demonstrate that record-based explanations can be effectively exploited to reconstruct significant parts of the training set. Finally, our results indicate that minorities and special cases are more vulnerable to these type of attacks than majority groups.

02.07.2019 Spataro
Reuben Binns


L'intelligenza artificiale incompresa dagli esseri umani
Code e prenotazioni con tracciamento obbligatorio per 15 giorni
L'intelligenza artificiale e la privacy - analisi delle soluzioni nel legal
Messico - USA: l'algoritmo separa i figli dai padri nonostante i tribunali
Gli adempimenti privacy per le aziende e l'intelligenza artificiale
D'aietti: I modelli matematici nel diritto.
Wireless Local Loop
Gratis solo oggi: Ebook Sicurezza 4P sul prevedere i reati con la IA
Quintarelli spiega cos'e' l'intelligenza artificiale
Metadati



Segui le novità in materia di Intelligenza artificiale su Civile.it via Telegram
oppure via email: (gratis Info privacy)


Dossier:



dallo store:
visita lo store






L'innovazione nel mondo legale: ci riesce solo il 10%, perchè ?

Ne parliamo nel webinar gratuito ma privato martedì 7 luglio ore 18.15

adv IusOnDemand




Dal 1999 il diritto di internet. I testi sono degli autori e di IusOnDemand srl p.iva 04446030969 - diritti riservati - Privacy - Cookie - Condizioni d'uso - in 0.01