‹ Zurück zum Glossar

Voreingenommenheit (in der KI)

beginner
Systematische Fehler in KI-Systemen, die zu ungerechten Ergebnissen für bestimmte Personengruppen führen. Verzerrungen können durch Trainingsdaten (wenn bestimmte Gruppen in den Daten unterrepräsentiert sind), durch die Modellgestaltung oder durch die Art und Weise, wie das System eingesetzt wird, entstehen. Das EU-KI-Gesetz schreibt für risikoreiche Systeme die Durchführung von Verzerrungstests vor.
Verwandte Begriffe
Verantwortungsvolle KI Trainingsdaten
Noch Fragen?
AI Readiness Check Alle Begriffe
Das Native AI Briefing
Europäische AI-News, kuratiert und faktengeprüft. Alle 2–3 Tage. Kostenlos.