Régression de Poisson

De testwiki
Aller à la navigation Aller à la recherche

Modèle:À sourcer Modèle:Infobox Méthode scientifique

En statistique, la régression de Poisson est un modèle linéaire généralisé utilisé pour les données de comptage et les tableaux de contingence[1]. Cette régression suppose que la variable réponse Y suit une loi de Poisson et que le logarithme de son espérance peut être modélisé par une combinaison linéaire de paramètre inconnus.

Modèle de régression

Soit 𝐱n un vecteur de variables indépendantes, et y la variable que l'on cherche à prédire. Réaliser une régression de Poisson revient à supposer que Y|𝕩 suit une loi de Poisson de paramètre λ:=E(Y𝐱)=exp(α+β𝐱), avec α et βn les paramètres de la régression à estimer, et β𝐱 le produit scalaire standard de n.

On peut ré-écrire le modèle ci-dessus

log(E(Y𝐱))=α+β𝐱,

ou de manière plus compacte

log(E(Y𝐱))=θ𝐱,

avec un 𝐱n+1 correspondant au précédent avec un élément supplémentaire valant 1. De même, θ=[α,β]n+1.

L'objectif de la régression de Poisson est d'estimer θ. Une fois ce vecteur estimé, il est possible de prédire Y pour un nouveau 𝐱1 avec

E(Y𝐱1)=exp(θ𝐱1).

Si l'on a accès à une collection de m couples indépendants : (𝐱i,yi)1im, alors θ peut être estimé par maximum de vraisemblance.

Estimation des paramètres par maximum de vraisemblance

Comme indiqué plus haut, à partir d'un paramètre θ et d'un vecteur d'entrée 𝐱n+1, la variable de sortie y suit une loi de Poisson de paramètre

λ:=E(Y𝐱)=exp(θ𝐱),

La fonction de masse de cette loi de Poisson est alors

p(y|𝐱;θ)=λyy!eλ=exp(yθ𝐱eθ𝐱)y!

On suppose que l'on ait accès à une collection de m couples indépendants : (𝐱i,yi)1im. Alors, pour un vecteur θ donné, la fonction de vraisemblance (c'est-à-dire la probabilité d'obtenir cet ensemble de données particulier) s'écrit

L(θ|X,Y):=p(y1,,ym𝐱1,,𝐱m;θ)=i=1mexp(yiθ𝐱ieθ𝐱i)yi!.

L'estimateur du maximum de vraisemblance, comme son nom l'indique, renvoie la valeur de θ qui maximise la vraisemblance des données. Pour ce faire, puisqu'il est difficile d'optimiser une fonction écrite comme un produit dont tous les termes sont positifs, on minimise la négative log-vraisemblance

(θX,Y):=logL(θX,Y)=i=1m(yiθ𝐱i+eθ𝐱i+log(yi!)).

On peut remarquer que le terme log(yi!) ne dépend pas de θ. Puisque l'on cherche à trouver le θ qui minimise cette négative log-vraisemblance, on peut la simplifier à une constante additive près. Par abus de langage, on identifie la véritable log-vraisemblance négative et la version à une constante additive près :

(θX,Y)=i=1m(yiθ𝐱i+eθ𝐱i).

Pour trouver le minimum de cette log-vraisemblance négative, on résout l'équation (θX,Y)θ=0, qui n'a pas de solution explicite. Cependant, puisque cette fonction est convexe, on peut utiliser des algorithmes efficace d'optimisation convexe comme la méthode de Newton pour obtenir rapidement la valeur optimale de θ.

Références

Modèle:Références

Voir aussi

Modèle:Portail