Quando un'intelligenza artificiale genera informazioni che sembrano plausibili ma sono di fatto errate. I modelli di linguaggio di grandi dimensioni (LLM) non "conoscono" i fatti: si limitano a prevedere sequenze di parole probabili. Ciò può portare a risposte che sembrano sicure ma sono completamente sbagliate. Verificate sempre i fatti generati dall'intelligenza artificiale con fonti affidabili.