‹ Torna al glossario

Allucinazione

beginner
Quando un'intelligenza artificiale genera informazioni che sembrano plausibili ma sono di fatto errate. I modelli di linguaggio di grandi dimensioni (LLM) non "conoscono" i fatti: si limitano a prevedere sequenze di parole probabili. Ciò può portare a risposte che sembrano sicure ma sono completamente sbagliate. Verificate sempre i fatti generati dall'intelligenza artificiale con fonti affidabili.
Termini correlati
Modello linguistico di grandi dimensioni (LLM)
Questions?
AI Readiness Check All terms
Il Briefing Native AI
Notizie AI europee, curate e verificate. Ogni 2–3 giorni. Gratis.