Loi binomiale négative

De testwiki
Aller à la navigation Aller à la recherche

Modèle:Redirect confusionModèle:Infobox Distribution statistiques

En probabilité et en statistiques, une loi binomiale négative est la distribution de probabilité discrète du nombre d'échecs dans une série d'épreuves de Bernoulli indépendantes et identiquement distribuées jusqu'à avoir un nombre fixe Modèle:Mvar de succès. Par exemple, c'est la distribution de probabilité du nombre de piles obtenus dans une série de pile ou face jusqu'à avoir vu Modèle:Mvar faces. Plus précisément, elle décrit la situation suivante : une expérience consiste en une série de tirages indépendants, donnant un succès avec probabilité Modèle:Mvar (constante durant toute l'expérience) et un échec avec une probabilité complémentaire 1-Modèle:Mvar. Cette expérience se poursuit jusqu'à l'obtention d'un nombre donné Modèle:Mvar de succès. La variable aléatoire représentant le nombre d'échecs, avant l'obtention du nombre donné Modèle:Mvar de succès, suit alors une loi binomiale négative. Ses paramètres sont : le nombre Modèle:Mvar de succès attendus, et la probabilité Modèle:Mvar d'un succès. Le paramètre Modèle:Mvar se note parfois Modèle:Mvar, comme sur l'illustration ci-contre.

La loi se généralise à deux paramètres Modèle:Mvar et Modèle:Mvar, où Modèle:Mvar peut prendre des valeurs réelles strictement positives. Cette généralisation est aussi connue sous le nom de loi de Pólya[1], en l'honneur du mathématicien George Pólya.

Définition

Définition pour un premier paramètre entier

La loi binomiale négative dépend de deux paramètres, mais plusieurs autres paramétrisations sont envisageables. Une paramétrisation très répandue introduit un entier naturel Modèle:Mvar non nul et un réel non nul[2] Modèle:Mvar compris entre 0 et 1. Il est courant d'introduire la probabilité complémentaire Modèle:Math. La fonction de masse d'une variable aléatoire distribuée selon une loi binomiale négative de paramètres Modèle:Mvar et Modèle:Mvar prend la forme suivante :

Modèle:Retrait

(k+n1k) est un coefficient binomial.

La loi binomiale négative s'interprète comme la loi de probabilité de la variable aléatoire Modèle:Mvar qui compte le nombre d'échecs observés avant l'obtention de Modèle:Mvar succès pour une série d'expériences indépendantes, sachant que la probabilité d'un succès est Modèle:Mvar. Ainsi[3]Modèle:,[4]

Modèle:Retrait

La fonction de masse de la binomiale négative peut aussi s'écrire sous la forme

Modèle:Retrait

(nk) est un coefficient binomial généralisé à un entier négatif et est défini parModèle:RetraitCette expression justifie le nom de loi binomiale négative donnée à cette loi de probabilité. Elle facilite aussi, grâce à l'usage de la formule du binôme négatif, le calcul de son espérance 𝔼[X]=nqp et de sa variance Var(X)=nqp2.

Si une variable aléatoire Modèle:Mvar suit une loi binomiale négative de paramètres Modèle:Mvar et Modèle:Mvar on pourra alors noter[5] X𝒩(n,p).

Définitions alternatives

Modèle:Retrait

  • La loi de Pascal de paramètres n et p est la loi de la somme de n variables indépendantes suivant la loi géométrique (du premier succès) de paramètre p.
  • La loi binomiale négative est parfois définie comme le nombre de succès observés avant l'obtention du nombre donné Modèle:Mvar d'échecs, conduisant à intervertir le rôle des paramètres Modèle:Mvar et Modèle:Mvar ainsi que les mots « succès » et « échec ».

Dans la suite, on prendra la première définition de la loi binomiale négative.

Généralisation à un premier paramètre réel

Il est possible de généraliser la définition de la loi binomiale négative à un paramètre Modèle:Mvar réel strictement positif (qui remplace alors le paramètre entier Modèle:Mvar) en utilisant des coefficients binomiaux généralisés. Plus précisément, pour Modèle:Mvar réel strictement positif et Modèle:Mvar réel non nul entre 0 et 1, la loi binomiale négative (généralisée) de paramètres Modèle:Mvar et Modèle:Mvar est la loi discrète définie par la fonction de masse

Modèle:Retrait

(x)k=x(x1)(xk+1) désigne la factorielle décroissante et Γ désigne la fonction gamma. Cette définition reste bien sûr compatible avec la définition dans le cas d'un paramétrage entier. La loi binomiale négative généralisée à un paramètre réel s'appelle parfois Loi de Pólya[1]. Dans le cadre de cette généralisation, il n'est plus possible d'interpréter la loi en termes de nombres de succès.

Propriétés

Fonction de répartition

La fonction de répartition peut s'exprimer à l'aide de la fonction bêta incomplète régularisée :

Modèle:Retrait

Une démonstration par récurrence sur Modèle:Mvar prouve que

Modèle:Retrait

Mélange de lois Gamma-Poisson

La loi binomiale négative (généralisée) avec paramètres Modèle:Mvar réel strictement positif et p=(1+θ)1Modèle:Mvar est un réel strictement positif est égale à un mélange de lois Gamma-Poisson où Modèle:Mvar et Modèle:Mvar sont les paramètres de la loi Gamma.

Modèle:Démonstration

Convergence vers la loi de Poisson

Une loi binomiale négative de paramètres Modèle:Mvar et p=n(n+λ)1 avec Modèle:Mvar réel fixé strictement positif converge faiblement vers une loi de Poisson de paramètre Modèle:Mvar lorsque Modèle:Mvar converge vers l'infini. En d'autres termes, si Xn𝒩(𝓃,𝓃/(𝓃+λ)) et X𝒫(λ) alors on a la convergence en loi XnX.

Modèle:Démonstration

Lien avec la loi géométrique

Comme il existe deux définitions de la loi binomiale négative, il existe deux définitions de la loi géométrique. Si celle-ci modélise le nombre d'échecs avant le premier succès, elle correspond à la loi binomiale négative de paramètres 1 et Modèle:Mvar.

Modèle:Retrait

Si Modèle:Math est une variable aléatoire distribuée selon la loi binomiale négative de paramètres Modèle:Mvar et Modèle:Mvar, alors Modèle:Math est la somme de Modèle:Mvar variables aléatoires indépendantes distribuées selon une loi géométrique de paramètre Modèle:Mvar. Le théorème central limite indique de plus que Modèle:Math est approximativement normal, pour Modèle:Mvar suffisamment grand.

Lien avec la loi binomiale

En outre, si Modèle:Math est une variable aléatoire distribuée selon une loi binomiale de paramètre Modèle:Math et Modèle:Mvar, alors

Modèle:Retrait

La dernière ligne s'interprète ainsi : c'est la probabilité qu'après Modèle:Math épreuves, il y ait au moins Modèle:Mvar succès. Ainsi, la loi binomiale négative peut être vue comme la réciproque de la loi binomiale.

Stabilité par somme

La somme de Modèle:Mvar variables aléatoires indépendantes et distribuées selon des lois binomiales négatives de paramètres Modèle:Mvar et respectivement Modèle:MvarModèle:Ind, Modèle:MvarModèle:Ind,..., Modèle:MvarModèle:Ind est encore une loi binomiale négative, de paramètres Modèle:Mvar et Modèle:Math. Cette propriété se démontre aisément à partir de l'expression de la fonction génératrice des moments.

Applications

Temps d'attente dans un processus de Bernoulli

Pour tout entier Modèle:Mvar, la loi binomiale négative est la distribution de succès et d'échecs dans une série d'épreuves de Bernoulli iid. Pour Modèle:Math épreuves de Bernoulli, avec probabilité de succès Modèle:Mvar, la loi binomiale négative donne la probabilité de Modèle:Mvar échecs et Modèle:Mvar succès, le dernier tirage étant un succès. Autrement dit, la loi binomiale négative est la distribution du nombre d'échecs avant le Modèle:Mvar-ième succès dans des épreuves de Bernoulli, de probabilité de succès Modèle:Mvar.

Considérons l'exemple suivant. On lance plusieurs fois un dé honnête, et la face 1 est considérée comme un succès. La probabilité de succès à chaque épreuve est 1/6. Le nombre d'épreuves nécessaires pour obtenir 3 succès appartient à l'ensemble infini { 3, 4, 5, 6, ... }. Ce nombre d'épreuves est une variable aléatoire distribuée selon une loi binomiale négative (décalée, car l'ensemble commence à 3 et pas à 0). Le nombre d'échecs avant le troisième succès appartient à l'ensemble { 0, 1, 2, 3, ... }. Ce nombre d'échecs est aussi distribuée selon une loi binomiale négative.

Loi de Poisson « sur-dispersée »

La loi binomiale négative, en particulier dans sa paramétrisation alternative décrite plus haut, est une alternative intéressante à la loi de Poisson. Elle est particulièrement utile pour des données discrètes, à valeurs dans un ensemble positif non-borné, dont la variance empirique excède la moyenne empirique. Si une Poisson est utilisée pour modéliser de telles données, la moyenne et la variance doivent être égales. Dans ce cas, les observations sont «sur-dispersées» par rapport au modèle Poisson. Puisque la loi binomiale négative possède un paramètre supplémentaire, il peut être utilisé pour ajuster la variance indépendamment de la moyenne.

Références

Modèle:Références

Voir aussi

Articles connexes

Bibliographie

Modèle:Ouvrage

Modèle:Palette Modèle:Portail

  1. 1,0 et 1,1 A ne pas confondre avec la loi de Markov-Pólya.
  2. La probabilité p ne peut être nulle car sinon il serait impossible d'observer, en temps fini, les n succès attendus. D'ailleurs on remarquera que si on substituait 0 à p dans la formule de la fonction de masse, cette dernière serait alors toujours nulle, quel que soit la valeur de k, ce qui ne conviendrait pas pour une fonction de masse dont la somme sur toutes les valeurs de k se doit de valoir 1.
  3. Modèle:Ouvrage
  4. Modèle:Ouvrage
  5. Modèle:Article
  6. Modèle:Ouvrage.
  7. Modèle:Ouvrage.