Théorème des deux séries de Kolmogorov
En théorie des probabilités, le théorème des deux séries de Kolmogorov est un résultat sur la convergence des séries aléatoires. Il résulte de l'inégalité de Kolmogorov et est utilisé dans une preuve de la loi forte des grands nombres .
Énoncé du théorème
modifierSoit une suite de variables aléatoires indépendantes d'espérance et de variance , tel que et convergent dans ℝ. Alors converge dans ℝ presque sûrement .
Preuve
modifierSupposons sans perte de généralité que . Posons . Nous allons voir que presque sûrement
Pour chaque , Ainsi, pour chaque et , Alors que la deuxième inégalité est due à l'inégalité de Kolmogorov .
En supposant que converge, il s'ensuit que le dernier terme tend vers 0 lorsque , pour chaque .
Références
modifier- Durrett, Rick. Probabilité: théorie et exemples. Duxbury advanced series, troisième édition, Thomson Brooks / Cole, 2005, section 1.8, pp. 60–69.
- M. Loève, Théorie des probabilités, Princeton Univ. Presse (1963) pp. Secte. 16,3
- W. Feller, Une introduction à la théorie des probabilités et ses applications, 2, Wiley (1971) pp. Secte. IX.9