Indépendance (probabilités)

L'indépendance est une notion probabiliste qualifiant de manière intuitive des événements aléatoires n'ayant aucune influence l'un sur l'autre. Il s'agit d'une notion très importante en statistique et en théorie des probabilités.
Par exemple, la valeur d'un premier lancer de dés n'a aucune influence sur la valeur du second lancer. De même, pour un lancer, le fait d'obtenir une valeur inférieure ou égale à quatre n'influe en rien sur la probabilité que le résultat soit pair ou impair[1] : les deux événements sont dits indépendants.
L'indépendance ou non de deux événements n'est pas toujours facile à établirModèle:Par exemple.
Indépendance de deux événements
La définition mathématique de l'indépendance de deux événements est la suivante : Modèle:Théorème La définition mathématique ci-dessus est assez peu parlante. Le lien entre le concept intuitif d'indépendance et la Modèle:Citation ci-dessus apparaît plus clairement si l'on introduit la notion de probabilité conditionnelle : Modèle:Théorème En excluant les cas particuliers peu intéressants où est impossible, i.e. dans le cas où et où est certain, i.e. dans le cas où on peut alors reformuler la définition de l'indépendance de la manière suivante Modèle:Théorème Ainsi les événements et sont dits indépendants si notre pronostic sur l'événement est le même :
- si on sait que l'événement s'est produit (pronostic ),
- si on sait que l'événement ne s'est pas produit (pronostic ),
- si on ne sait rien sur le statut de l'événement (pronostic ).
Autrement dit, est dit indépendant de si notre pronostic sur l'événement n'est affecté par aucune information concernant , ni par l'absence d'information concernant . On peut échanger les rôles de et de dans la définition utilisant les probabilités conditionnelles, à condition bien sûr d'exclure les cas particuliers peu intéressants où est impossible, et où est certain.
Bien que la définition utilisant les probabilités conditionnelles soit plus intuitive, elle a l'inconvénient d'être moins générale, et de ne pas faire jouer un rôle symétrique aux deux événements et .
Notons par ailleurs qu'un événement certain est indépendant de tout événement quel qu'il soit. Un événement impossible est également indépendant de tout autre événement. En particulier, un événement est indépendant de lui-même à la condition que soit certain ou impossible. En effet, si l'événement est indépendant de lui-même, on peut écrire :
et on en déduit que la probabilité de l'événement vaut soit , soit .
Indépendance d'un nombre quelconque d'événements
La notion d'indépendance peut être étendue à événements, via la notion d'indépendance des tribus, mais on va plutôt donner ici deux critères plus lisibles : Modèle:Théorème Le nombre total de conditions à vérifier est donc le nombre de parties possédant au moins deux éléments, à savoir :
L'indépendance des n événements entraîne que
ce qui correspond au choix particulier mais est une propriété beaucoup plus faible que l'indépendance. Dans le même esprit, comme on le constate dans l'exemple ci-dessous, événements peuvent être indépendants deux à deux, ce qui correspond à vérifier la propriété pour toutes les parties à 2 éléments, sans pour autant être indépendants : Modèle:Exemple Modèle:Théorème
Indépendance des variables aléatoires
Définitions
Il y a plusieurs définitions équivalentes de l'indépendance d'une famille finie de variables aléatoires. On peut en particulier définir l'indépendance d'une famille de tribus, et voir ensuite l'indépendance des événements et l'indépendance des variables aléatoires comme des cas particuliers de l'indépendance des tribus. Cela permet de démontrer certains résultats généraux sur l'indépendance une seule fois, pour les tribus, puis de déduire immédiatement de ce résultat général la version Modèle:Citation et la version Modèle:Citation (un exemple est le lemme de regroupement). Cependant, il est peut-être préférable de donner d'abord deux définitions de l'indépendance des variables aléatoires qui soient opératoires pour les applications, et quelques critères commodes.
Dans ce qui suit on considère une famille de variables aléatoires définies sur le même espace de probabilité , mais éventuellement à valeurs dans des espaces différents : Modèle:Théorème Les espérances ci-dessus ont un sens si les sont mesurables, et si est intégrable, ou si les sont mesurables et positives ou nulles. Typiquement, dans les applications, Dans le cas de deux variables aléatoires réelles cela donne :
Les définitions précédentes traitent de familles finies de variables aléatoires, numérotées de à par commodité, sans que cela restreigne la généralité des énoncés : en effet, on peut toujours numéroter de à les éléments d'une famille finie de variables aléatoires. De plus, les définitions font jouer des rôles symétriques à chaque élément de la famille, si bien que le choix d'une numérotation ou d'une autre est sans effet sur la vérification de la définition.
L'indépendance d'une famille quelconque (éventuellement infinie) de variables aléatoires est la suivante : Modèle:Théorème
Cas des variables aléatoires à densité
Soit une famille de variables aléatoires réelles définies sur le même espace de probabilité, et leur produit. Modèle:ThéorèmeModèle:Démonstration
Cas des variables discrètes
Dans le cas des variables discrètes, un critère d'indépendance utile est le suivant : Modèle:Théorème Modèle:Exemple
Autres critères d'indépendance
Par exemple,
Modèle:Théorème Par exemple, on peut utiliser le deuxième critère pour démontrer que dans la méthode de rejet, le nombre d'itérations est indépendant de l'objet aléatoire (souvent un nombre aléatoire) engendré au terme de ces itérations.
On peut généraliser ces critères d'indépendance à des familles finies quelconques de variables aléatoires réelles, dont certaines, éventuellement, sont des variables discrètes, à valeurs dans des parties finies ou dénombrables de ℝ éventuellement différentes de . Une démonstration de ces critères se trouve à la page « Lemme de classe monotone ».
Indépendance et corrélation
L'indépendance implique que la covariance, et donc la corrélation, entre les deux variables est nulle:
La réciproque du théorème est fausse, comme le montre l'exemple suivant : Modèle:Exemple
La non-corrélation entre et est une propriété plus faible que l'indépendance. En fait l'indépendance entre et est équivalente à la non-corrélation de et de pour tout choix de et de (tels que la covariance de avec soit définie…).
Indépendance des tribus
Lien avec l'indépendance des événements
Modèle:Théorème Comme la tribu engendrée par est décrite par :
la définition donnée dans cette section pour une famille quelconque d'événements, une fois particularisée à une famille de événements, apparaît comme plus forte que les deux critères donnés plus haut. En effet, pour un choix approprié des événements dans la définition
donnée dans cette section, on retrouve le critère 1 (choisir tantôt tantôt dans ) et le critère 2 (choisir tantôt tantôt dans ). Pourtant les critères 1 et 2 sont effectivement équivalents à la définition via les tribus, donnée dans cette section, mais cela mérite démonstration.
Lien avec l'indépendance des variables aléatoires
Comme la tribu engendrée par une variable aléatoire définie de dans est définie par :
la définition donnée dans cette section pour une famille quelconque de variables aléatoires, une fois particularisée à une famille de variables aléatoires, est clairement équivalente à la définition de la section Indépendance des variables aléatoires. En effet
est une notation pour
et
est une notation pour
Propriétés élémentaires
Pour démontrer le premier point on applique la définition de l'indépendance à la famille en spécialisant à une famille d'événements telle que Le second point est immédiat : il suffit d'écrire la définition de l'indépendance de la famille
Lemme de regroupement (ou lemme des coalitions)
Modèle:Article détaillé Modèle:Théorème Modèle:Exemple
Indépendance et information
Une autre façon d'appréhender cette notion d'indépendance entre deux événements est de passer par l'information (au sens de la théorie de l'information) : deux événements sont indépendants si l'information fournie par le premier événement ne donne aucune information sur le deuxième événement.
Soit à tirer deux boules (rouge et blanche) d'une urne. Si on réalise l'expérience sans remettre la boule tirée dans l'urne, et que la première boule tirée est rouge, on peut déduire de cette information que la deuxième boule tirée sera blanche. Les deux événements ne sont donc pas indépendants.
Par contre, si on remet la première boule dans l'urne avant un deuxième tirage, l'information du premier événement (la boule est rouge) ne nous donne aucune information sur la couleur de la deuxième boule. Les deux événements sont donc indépendants.
Cette approche est notamment utilisée en analyse en composantes indépendantes.
Notes et références
Voir aussi
Bibliographie
- T.-A. Banh, Calcul des probabilités, Ed. ULg, 1995.
- A. Hyvärinen, E. Oja, Independent Component Analysis, Neural Networks, 13(4-5):411-430, 2000.
- Modèle:Ouvrage
- Modèle:Ouvrage
Articles connexes
- Lemme de Borel-Cantelli
- Modèle:Page h
- Nombre univers
- Loi des grands nombres
- Théorème central limite
- Marche aléatoire
- Tribu (mathématiques)
- Analyse en composantes indépendantes
- Quasi-certitude
- Accroissement indépendant
- ↑ En effet