Lemme de classe monotone
Le lemme de classe monotone, dû à Wacław Sierpiński[1] et popularisé par Eugene Dynkin[2], permet de démontrer, de manière économique, l'égalité entre deux lois de probabilité : de même que deux applications linéaires qui coïncident sur une base coïncident sur l'espace entier, deux mesures de probabilité qui coïncident sur un π-système, coïncident sur la tribu engendrée par ce π-système.
Dans certains ouvrages, le lemme de classe monotone apparaît sous le nom de « théorème pi-lambda de Dynkin ».
Classe monotone et π-système
modifierDéfinition —
- Une classe de parties d'un ensemble Ω est appelée π-système si cette classe est stable par intersection finie :
- Une classe de parties d'un ensemble Ω est appelée λ-système ou classe monotone si cette classe contient Ω et est stable par différence, et par réunion croissante :
- une classe d'intervalles :
- la classe des singletons :
- la classe des pavés :
Soit deux mesures de probabilité et définies sur La classe est une classe monotone.
Énoncé et démonstration du lemme de classe monotone
modifierLemme de classe monotone — La plus petite classe monotone contenant le π-système est la tribu engendrée par
Applications
modifierLemme d'unicité des mesures de probabilité
modifierLe lemme de classe monotone a une conséquence immédiate
Lemme d'unicité des mesures de probabilité — Deux mesures de probabilité et définies sur l'espace probabilisable et coincidant sur le π-système coïncident aussi sur la tribu engendrée par :
Parmi de nombreuses applications importantes du lemme d'unicité, citons celle qui est peut-être la plus importante :
Corollaire — Il suit que :
- deux mesures de probabilité et définies sur sont égales si elles ont même fonction de répartition ;
- deux variables aléatoires réelles et ont même loi si elles ont même fonction de répartition.
Critères d'indépendance
modifierPar exemple,
Critères — Soit X et Y deux variables aléatoires réelles définies sur un espace probabilisé
- Si, pour tout couple (x,y) de nombres réels,
- alors X et Y sont indépendantes.
- Si Y est à valeurs dans et si, pour tout couple
- alors X et Y sont indépendantes.
- Bien sûr, si X et Y sont à valeurs dans et si, pour tout couple
- alors X et Y sont indépendantes.
La démonstration du dernier critère ne nécessite pas le lemme de classe monotone, mais ce lemme est très utile pour la démonstration des deux premiers critères. On peut utiliser le deuxième critère pour démontrer, par exemple, que dans la méthode de rejet, le nombre d'itérations est indépendant de l'objet aléatoire (souvent un nombre aléatoire) engendré au terme de ces itérations. Pour la démonstration de ces critères, ainsi que pour la démonstration du lemme de regroupement, on a besoin de la définition et de la proposition[5] suivantes.
Définition — Dans un espace probabilisé une famille finie de classes incluses dans est une famille mutuellement indépendante si et seulement si
Proposition — Si, dans un espace probabilisé une famille finie de π-systèmes inclus dans est une famille mutuellement indépendante, alors la famille est une famille de tribus mutuellement indépendantes.
- Posons et Alors, sous les hypothèses du premier critère, et sont des π-systèmes indépendants. En vertu de la proposition, et sont alors des tribus indépendantes. Mais et ce qui assure bien l'indépendance du couple (X,Y).
- Posons et Sous les hypothèses du deuxième critère, et sont des π-systèmes indépendants. Par ailleurs, et et on conclut comme précédemment. Pour démontrer le troisième critère, on utilise cette fois et
Voir aussi
modifierNotes et références
modifier- 1928, Un théorème général sur les familles d'ensembles, Fund. Math, 12, 206-210,
- (en) Eugene Dynkin (dir.) (trad. D. E. Brown), Theory of Markov Processes, Dover Publications Inc., (1re éd. 1961), 224 p. (ISBN 978-0-486-45305-7 et 0-486-45305-7, lire en ligne), chap. 1, p. 1-2.
- Par définition de (voir tribu engendrée) est la plus petite (pour l'inclusion) tribu contenant alors que est une tribu contenant Donc est plus petite (pour l'inclusion) que autrement dit
- (en) Olav Kallenberg (en), Foundations of Modern Probability, 2e éd. [détail de l’édition], démonstration développée à partir de la démonstration du Théorème 1.1, page 2.
- (en) Olav Kallenberg (en), Foundations of Modern Probability, 2e éd. [détail de l’édition], Lemme 3.6, page 50.
Bibliographie
modifier- (en) Olav Kallenberg, Foundations of Modern Probability, New York, Springer, coll. « Probability and Its Applications », (réimpr. 2001), 638 p. (ISBN 0-387-95313-2, lire en ligne)