‹ Zurück zum Glossar

Halluzination

beginner
Wenn eine KI Informationen generiert, die plausibel klingen, aber sachlich falsch sind. Große Sprachmodelle (LLMs) „kennen“ keine Fakten – sie sagen lediglich wahrscheinliche Wortfolgen voraus. Dies kann zu Antworten führen, die zwar überzeugend klingen, aber völlig falsch sind. Überprüfen Sie von KI generierte Fakten stets anhand zuverlässiger Quellen.
Verwandte Begriffe
Großes Sprachmodell (LLM)
Noch Fragen?
AI Readiness Check Alle Begriffe
Das Native AI Briefing
Europäische AI-News, kuratiert und faktengeprüft. Alle 2–3 Tage. Kostenlos.