‹ Zurück zum Glossar
Halluzination
beginner
Wenn eine KI Informationen generiert, die plausibel klingen, aber sachlich falsch sind. Große Sprachmodelle (LLMs) „kennen“ keine Fakten – sie sagen lediglich wahrscheinliche Wortfolgen voraus. Dies kann zu Antworten führen, die zwar überzeugend klingen, aber völlig falsch sind. Überprüfen Sie von KI generierte Fakten stets anhand zuverlässiger Quellen.