Mi chiedo come possa una videocamera effettuare in locale trattamenti di intelligenza artificiale elaborando milioni di parametri di riconoscimento, che essa stessa si genera. Vengono vendute come smart cam.
Sarà marketing.
Clearview tuttavia è una azienda globale che effettua sui propri server questo riconoscimento utilizzando le immagini di tutto il mondo e per questo viene multata e continua a vendere alle forze di polizia questi sistemi.
In teoria contratti nulli, ma l'attività prosegue tra mille ostacoli.
Alcuni ricercatori, adottando criteri simili su dataset piccolissimi, sono riusciti a riconoscere le persone analizzando le immagini dalle webcam pubbliche mondiali. Creando non poche preoccupazioni.
Sta di fatto che le macchine non cercano solo i tratti di riconoscimento prevedibili ma anche altri statisticamente probabili.
Con il risultato che prendono cantonate incredibili semplicemente perchè non spiegano mai all'operatore quale è il meccanismo di probabilità applicato nel caso concreto.
Così a Londra e in altre nazioni cittadini vengono fermati, incarcerati e poi liberati per errore.
Spesso senza scuse. I contratti con i fornitori non vanno messi in discussione.
Gli errori delle IA sono talmente ampi e prevedibili dagli esperti che sgomenta come siano sottovalutati da chi utilizza i responsi senza verificarli attentamente e subito, come previsto anche dal GDPR.
Ma il punto è la mancata motivazione del riconoscimento. Se la macchina dice: "è lui!" noi ci crediamo.
I creduloni siamo noi, e le macchine non avvisano della nostra debolezza.
Il tema è in fase esplosiva. Ne vedremo.