Sempre più aziende informatiche e finanziarie chiedono ai dipendenti di non usare ChatGPT e altri strumenti di intelligenza artificiale.
Alcuni test condotti da IusOnDemand srl hanno evidenziato una caratteristica pecualiare dei meccanismi generativi di intelligenza artificiale: sono plausibili, non verisimili, mai veritieri.
Da tempo sostengo che il problema non è l'intelligenza artificiale, ma il modo in cui gli utenti si approcciano al servizio.
Emblema dell'errore è chiedere ad romanziere un parere sulla illiceità di lettura del proprio libro: è quello che è stato fatto con Replika e ChatGPT, chiedendo al servizio di dare un parere legale sulle proprio condizioni d'uso.
Che questi modelli di comportamento siano auspicabili, è ovvio: nel 2017 illustravo in pubblico (video disponibile su ilbot.it ) alcuni comportamenti, e alcune soluzioni le ipotizzate e iniziate a progettare in proprio. Sei anni dopo è significativo che il Garante abbia la felice intuizione di inserire testi legali in forma conversazionale, ma gli studi di legal design che porto avanti dal 2014 e quelli dal 2020 di conversational design richiedono una approccio metodico sia da parte di chi controlla che di chi realizza questi sistemi.
Quindi le risposte di una intelligenza artificiale generativa sono plausibili, non verisimili.
- Verisimili sono affermazioni riconducibili al vero, sia pure non fedelmente.
- Plausibili sono affermazioni ipoteticamente vere, ma ancora da verificare.
Che si sia poco abituati a considerare le due ipotesi è un fatto culturale che porta ad un errore gnoseologico, interpretativo e in fondo di contesto.
L'errore di contesto è trasportare una nozione vera in un campo in un altro campo, senza verificarla. Non è verisimile, è al massimo plausibile, ma ancora da verificare.
Se l'intelligenza artificiale generativa restituisce risultati solo plausibili, quali le conseguenze ?
Siamo solo noi utenti obbligati a verificare i risultati, in attesa che ci vengano forniti gli strumenti di verifica del percorso logico, come impone anche la bozza regolatoria cinese.
Se non controlliamo e prendiamo le risposte alla lettera, oppure poniamo domande sbaglaite, è come chiedere uno scrittore di fantascienza di risponderci chi vincerà le elezioni, e poi lamentarci dell'errore di previsione.
In poche parole ChatGPT scrive talmente bene da fare credere tutto verisimile, mentre è solo abbastanza plausibile.
L'inesperienza di riconoscere e distinguere un contesto conversazionale da uno documentale, è solo una parte del problema di valutazione delle risposte.
Suggerisco di provare strumenti generativi di immagini per "vedere" gli errori di una macchina solo plausibile.