‹ Torna al glossario

Bias (in AI)

beginner
Errori sistematici nei sistemi di intelligenza artificiale che determinano esiti iniqui per determinati gruppi di persone. I pregiudizi possono derivare dai dati di addestramento (se questi sottorappresentano determinati gruppi), dalla progettazione del modello o dalle modalità di implementazione del sistema. La legge dell'UE sull'intelligenza artificiale impone l'esecuzione di test di valutazione dei pregiudizi per i sistemi ad alto rischio.
Termini correlati
IA responsabile Dati di addestramento
Questions?
AI Readiness Check All terms
Il Briefing Native AI
Notizie AI europee, curate e verificate. Ogni 2–3 giorni. Gratis.