- Qu'est-ce que le compromis entre le biais et la variance?
- Qu'est-ce que un biais élevé et une grande variance?
- La régularisation augmente-t-elle les biais?
Qu'est-ce que le compromis entre le biais et la variance?
Compromis de vanisation du biais
«Le biais et la variance sont des compléments les uns des autres», l'augmentation de l'une entraînera la diminution de l'autre et vice versa. Par conséquent, trouver le bon équilibre des valeurs est connu sous le nom de compromis de la vanisation des biais. Fonction cible. Un algorithme idéal ne devrait ni sous-forme ni sur-ajustement les données.
Qu'est-ce que un biais élevé et une grande variance?
Simplement énoncé, la variance est la variabilité de la prédiction du modèle - comment la fonction ML peut s'ajuster en fonction de l'ensemble de données donné. La variance provient de modèles très complexes avec un grand nombre de fonctionnalités. Les modèles avec un biais élevé auront une faible variance. Les modèles avec une grande variance auront un faible biais.
La régularisation augmente-t-elle les biais?
La régularisation tente de réduire la variance de l'estimateur en la simplifiant, quelque chose qui augmentera le biais, de telle manière que l'erreur attendue diminue.