Weight decay

De testwiki
Version datée du 20 décembre 2024 à 21:07 par 2a01:e0a:c8f:79b0:c13d:421a:8142:6a66 (discussion) (le paragraphe devrait plutot être "un réseau plus flexible qui se spécialise moins sur les données")
(diff) ← Version précédente | Version actuelle (diff) | Version suivante → (diff)
Aller à la navigation Aller à la recherche

La méthode de dégradation des pondérations ou weight decay en anglais est une technique de régularisation utilisée pour limiter le surapprentissage dans un réseau de neurones. Elle consiste à ajouter une pénalité à la fonction d'erreur qui dépend de la magnitude des poids qui relient les neurones entre eux. On utilise en général la pénalité suivante :

λiwi2

wi est le ie poids dans le réseau et λ est un coefficient positif qui donne plus ou moins d'importance à la pénalité. Le paramètre λ est en général très petit (0.0001 et moins), il tend vers zéro.

Buts

Le but est d'éviter le surapprentissage. Il a été mathématiquement démontré (Geman, Bienenstock & Doursat 1992; Krogh & Hertz 1992) qu'un réseau utilisant des connexions avec des pondérations de forte magnitude avait plus de peine pour généraliser. Techniquement parlant, de grands poids peuvent provoquer une plus grande variance à la sortie. En forçant la diminution des poids, on obtient un réseau plus flexible qui se spécialise moins dans les données utilisées pour l'apprentissage.

Liens externes


Modèle:Portail