Nell'intelligenza artificiale generativa, le allucinazioni sono le risposte insensate o infondate.
In un contesto conversazionale, come è quello della intelligenza artificiale generativa, ottenere in risposta ad una richiesta o un testo o un documento che non ha senso o è puramente di fantasia, è qualcosa che viene dalla progettazione.
Naturalmente qualora venga disillusa l'aspettativa, dovuta da un contesto che incoraggia la fiducia nelle risposte, si parla di errori o tecnicamente di allucinazioni.
Il punto è capire come funziona la tecnologia prima di giudicarla.
Se leggiamo le parole come una risposta esatta, sbagliamo almeno quanto la macchina.
Piuttosto la verifica dei contenuti generazioni è attività complessa: dal trarre spunto al copiare e incollare la risposta, il passo è breve.
Un aspetto sottovalutato in una conversazione è che ognuno può capire male, non solo sapere male.
Questo raramente è stato approfondito: dobbiamo sempre chiederci se la risposta è corretta anche nei dettagli meglio spiegati.
Credere passivamente ad ogni risposta come fosse un documento notarile, è fuori contesto ed errato tecnicamente e ontologicamente.
Il tema riguarda più facilmente i testi e i documenti, piuttosto che la generazione di immagini dove, le allucinazioni, riguardano il numero di dita, la posizione degli occhi, posizioni impossibili di arti; nell'audio testi troppo rapidi.