‹ Zurück zum Glossar
Voreingenommenheit (in der KI)
beginner
Systematische Fehler in KI-Systemen, die zu ungerechten Ergebnissen für bestimmte Personengruppen führen. Verzerrungen können durch Trainingsdaten (wenn bestimmte Gruppen in den Daten unterrepräsentiert sind), durch die Modellgestaltung oder durch die Art und Weise, wie das System eingesetzt wird, entstehen. Das EU-KI-Gesetz schreibt für risikoreiche Systeme die Durchführung von Verzerrungstests vor.