La régularisation est une technique qui aide à prévenir le sur-ajustement en pénalisant un modèle pour avoir de gros poids. Essentiellement, un modèle a des poids importants lorsqu'il ne s'adapte pas de manière appropriée sur les données d'entrée.
- Quel est le but de la régularisation?
- Qu'est-ce que le processus de régularisation?
- Qu'est-ce que la régularisation et ses types?
- Que fonctionne la régularisation L1 et L2?
Quel est le but de la régularisation?
La régularisation fait référence aux techniques utilisées pour calibrer les modèles d'apprentissage automatique afin de minimiser la fonction de perte ajustée et d'empêcher le sur-ajustement ou le sous-ajustement. En utilisant la régularisation, nous pouvons s'adapter à notre modèle d'apprentissage automatique de manière appropriée sur un ensemble de tests donné et donc réduire les erreurs.
Qu'est-ce que le processus de régularisation?
En mathématiques, statistiques, finances, informatiques, en particulier dans l'apprentissage automatique et les problèmes inverses, la régularisation est un processus qui change la réponse du résultat pour être "plus simple". Il est souvent utilisé pour obtenir des résultats pour des problèmes mal posés ou pour éviter un sur-ajustement.
Qu'est-ce que la régularisation et ses types?
La régularisation se compose de différentes techniques et méthodes utilisées pour résoudre le problème de sur-ajustement en réduisant l'erreur de généralisation sans affecter beaucoup l'erreur de formation. Choisir des modèles trop complexes pour les points de données d'entraînement peut souvent conduire à un sur-ajustement.
Que fonctionne la régularisation L1 et L2?
La régularisation de L1, également appelée régression lasso, ajoute la «valeur absolue de l'amplitude» du coefficient en tant que terme de pénalité à la fonction de perte. La régularisation en L2, également appelée régression de la crête, ajoute «l'ampleur au carré» du coefficient comme terme de pénalité à la fonction de perte.