La Cina impone a chi usa IA generativa tipo chatGPT di etichettare i documenti o materiali generati in modo da rilevarne la fonte generativa.
Un cinese creava notizie false e le diffondeva: erano credibilissime, l'aspetto che ho già sottolineato essere ritenuto accessorio, invece è un aspetto determinante: l'utente tende a credere ai testi più che a quelli umani. Qualcosa che dovrebbe allarmare giudici e avvocati e invece non lo capiscono in tutti i contesti nei quali ne sto parlando per coinvolgerli.
Incredibilmente gli avvocati si occupano invece di temi di etica e di limiti, mentre il valore dei loro atti si avvicina a diventare irrilevante se una IA generativa non li conferma integralmente.
In Cina, dicevamo, hanno fermato un cittadino che generava fake news con la IA. Se la notizia (segnalata dal buon Quintarelli che usa il web ottimamente per trovare notizie curiose) fosse in questi termini, sarebbe una vittoria di Pirro.
Il reato è realizzare fake news. Con o senza ChatGPT o AI generativa, non cambia nulla. E' il soggetto che, titolare, utilizza la IA come strumento, fonrnitore: come processor.
Infatti in Cina hanno fermato il soggetto. Non la IA.
Approccio condiviso dalla ICO che sin dall'inizio ha sollevato l'attenzione sul tema controller e processor: chi usa la IA è titolare o controller: che non tratta dati ma li genera. Nel caso delle fake news di incidenti ferroviari, notiamolo, non ci sono nemmeno dati personali.
Insomma: la notizia dimostra che è chatGPT è uno strumento potente per rendere credibile qualsiasi cosa, più di un essere umano. Se l'arresto è legato solo a ChatGPT. un fallimento per l'ordinamento che deve essere indipendente dallo strumento usato.