Civile.it
/internet
Osservatorio sul diritto e telecomunicazioni informatiche, a cura del dott. V. Spataro dal 1999, 9267 documenti.

Il dizionario e' stato letto volte.



Segui via: Email - Telegram
  Dal 1999   spieghiamo il diritto di internet  Store  Podcast  Dizionario News alert    
             

  


WPkit.it: privacy, formulari, check up per WordPress

Temi attuali:
Algoritmi ChatGPT Intelligenza artificiale Privacy WordPress



Danni 30.12.2021    Pdf    Appunta    Letti    Post successivo  

Alexa, sfidami ! (o raccontami una fiaba): cortocircuito per la bambina

E ora tutti a dire che siamo andati troppo avanti.

Certo, innegabile, ma cosa ? Tutta la tecnologia ? Singole scelte ? Quali ?

Sono i singoli comportamenti a causare danni, spesso insieme ad altri errori.


Valentino Spataro

 

U

Una ragazzina pare inglese chiede ad Alexa di darle una sfida.

Il tema delle sfide è incredibile sui social che vogliono cresce. TikTok, Twitch, Youtube: ovunque.

Alexa prende spesso dei contenuti dal web, non solo da Wikipedia (che comunque non è perfetta, e viene ridotta).

Nel caso dei podcast o delle radio accede a database specifici.

Nel caso delle favole, spero che non prenda racconti volgari.

Nel caso di barzellette, meglio che lasci perdere.

Ma una bambina può tentare i limiti, e chiede una sfida.

Alexa la propone, il salvavita fa il suo lavoro, i media saltano sulla sedia denunciando la follia di una tecnologia così semplice a portata di chiunque.

Vediamo insieme gli errori che hanno portato all'evento:

  1. alexa accetta di mandare contenuti presi dal web, senza sufficienti filtri
  2. la sfida del penny è stato un trend su tiktok, mai fermato
  3. il tema è liberamente proponibile sul web

Facciamoci qualche domanda: senza alexa, è possibile ?

Si'.

  • pensiamo ai motori di ricerca generalisti: hanno filtri ?
  • pensiamo ai social che alimentano sfide pericolose (blue shark già dimenticato ?)
  • i genitori guardano e spiegano a cosa servono questi dispositivi ?

Premesso che l'errore finale è di Alexa, e secondo i criteri civilistici potrà rivalersi sui fornitori (non scomodiamo nuove cataegorie, nuove leggi, come si sta proponendo nella AI), un genitore comunque deve spiegare come usare un telefono.

Vorrei dire una cosa.

Quanti di voi hanno detto ai figli di non fidarsi dei video su Youtube ? Dei consigli degli influencer ? Delle nudità usate per raccogliere like e followers ? O eravamo distratti ?

Ora la critica dei media si rivolge ad Alexa, il male assoluto.

Qualcuno si chiede perchè consentiamo ancora che contenuti simili non siano limitati sul web ? Censura ? Andiamo !

Quando non c'erano i social i moderatori dei forum o delle newsletter indicavano cosa si poteva e non si poteva fare. La netiquette. Per alcuni avvocati non è nemmeno una consuetudine vincolante, mentre la netiquette lo e'. Si faceva educazione diffusa, e funzionava meglio di oggi.

Oggi "tanto è Facebook, Telegram, Youtube ..." ma cosa significa ?

Fanno male.

Ieri ho visto 1984, il film, su Youtube.

Le decine di video suggeriti successivamente sono stati di complottisti, sovranisti, donne disponibili, fascismi, machi, spacconate e sfide.

Direte: ci vogliono leggi nuove.

Studiate.

Le leggi esistono. Le direttive europee prevedono che le piattaforme non rispondono per i contenuti degli utente ECCETTO nel caso di una selezione che venga proposta dalla piattaforma agli utenti: i suggerimenti.

Perchè gli antitrust non la applicano ?

Perchè si stravolge il problema civilistico introducendo aspetti di tutela "privacy" ? Cosa c'entra la privacy qui !

Inutile dire che applicare le leggi vigenti pone anche problemi di: "perchè non si è fatto prima".

E infatti molti antitrust sono intervenuti, ma avete mai visto quante decisioni degli antitrust sono evidenziate sui media rispetto a quelle privacy ? Per i giornali non fanno tendenza. Perchè i lettori non leggono.

Allora consideriamo queste scelte di programmazione come fonte di responsabilità civile e basta. Questo sono, queste resteranno, anche se vi diranno che il codice civile non arriva in fondo. C'è la normativa sul prodotto difettoso, le norme a tutela dei consumatori ...

Insomma, vogliamo proprio uno sceriffo che blocchi ogni tecnologia, o un giudice che applichi la giusta decisione e i media che la facciano conoscere ?

Potremmo, in un mondo ideale.

Ma ora, invece di parlare di fatti, si scateneranno gli interpreti .

Peccato. Era costruttivo una volta parlare di diritto. Ora si cerca ogni buon motivo per stroncare una tecnologia.

Gli assistenti vocali non sono perfetti, ma attualmente prevale la visione opposta.

Allora chiedetevi perchè i giudici americani chiedono i log delle ricerche fatte con Google ? Meglio questo tracciamento o meglio quello di Alexa ?

Nessuno dei due.

I suggerimenti delle tastitere android monitorano ogni tap. Sanno anche le ricerche che non avviate,

Il problema è questa sorveglianza di massa per le finalità sbagliate: per profilare commercialmente.

E la guerra per il tempo: ogni produttore gareggia per far usare sempre di più la propria applicazione, a discapito degli altri. E ci distraggono per lucro.

Tempi di distrazione di massa. Per lucro.

Diamo le colpe a chi sbaglia, ma non facciamo di tutta l'erba un fascio.

E basta a tutti i progetti formativi digitali a costo zero. Ora ci penserà Piero Angela, ma c'è tantissimo di cui parlare.

Rai e Mediaset non possono rischiare. Gli altri editori cosa aspettano a investire ?

Già li vedo a scrivere che gli algoritmi sono pericolosi. Ignoranti che non sanno di cosa parlano. Non è l'algoritmo, ma l'intero contesto che porta più problemi a sommarsi ed essere eclatanti.

Succederà sempre più ogni volta che si prendono big data in modo acritico. E quindi intelligenza artificiale, accettando rischi e poi chiedendosi di chi sia la colpa.

Si', penso alle smart car. Fior di proposte, di odi agli algoritmi etici, regolamentazione preventiva, documentazione ...

Tutto ridicolo.

E' il codice civile, il codice del consumo, la resposabilità da prodotti difettosi.

Stop. E' tutto già scritto. Ma il business dei nuovi esperti ha superato la decenza, e per scrivere nuove leggi si violano le leggi esistenti. Guardate il dma, dsa e la privacy: non ne usciranno mai.

Ed ecco i titoli per i quali Alexa suggerisce ai bambini come suicidarsi. Non si può fare di meglio per non capire di cosa si sta parlando.

Nel corso sulla IA conversazionale ( iaconversazionale.it ) abbiamo spiegato ampiamente come i contenuti vadano creati su misura, indicando anche metodologie smart.

Sono principi ben noti per chi sviluppa interfacce conversazionali.

Se poi si prende qualsiasi contenuto per non rispondere "non lo so", allora si ripete quello che fa tiktok, youtube e gli altri quando propongono contenuti pruriginosi.

Vecchia storia.

E' ora di finirla, permettendo alle piattaforme di lucrare sull'estremismo. Tutte pero'.

E ai programmatori dico: mettete nero su bianco i rischi. Altrimenti daranno la colpa a voi. Invece sappiamo tutti che sono scelte dirigenziali.

30.12.2021 Valentino Spataro



Influencer e content creator avvertiti: basta toni che esaltano danni alla salute
Chiesti i danni all'avvocato che ha usato maldestramente l'intelligenza artificiale.
C 340/21 sul risarcimento del danno potenziale alla privacy e la rendicontabilità sufficiente e le misure concretamente adeguate
Corte dei Conti, Lazio del 28 maggio 2019, n. 246: la responsabilità degli operatori scolastici per una circolare
Provvedimento del 14 settembre 2023 [9936215] Garante Privacy
245 La Cassazione sul danno e la richiesta di diritto all'oblio di notizia giornalistica
253 Curia - Risarcimento danni da privacy solo se documentati
Curia - Risarcimento danni da privacy solo se documentati
CURIA ECLI:EU:C:2023:370 su risarcimenti e trattamenti illeciti
Curia: i danni da lesioni privacy non sono in re ipsa e vanno dimostrati - ECLI:EU:C:2023:370



Segui le novità in materia di Danni su Civile.it via Telegram
oppure via email: (gratis Info privacy)





dallo store:
visita lo store








Dal 1999 il diritto di internet. I testi sono degli autori e di IusOnDemand srl p.iva 04446030969 - diritti riservati - Privacy - Cookie - Condizioni d'uso - in 0.041