Théorème des deux séries de Kolmogorov

En théorie des probabilités, le théorème des deux séries de Kolmogorov est un résultat sur la convergence des séries aléatoires. Il résulte de l'inégalité de Kolmogorov et est utilisé dans une preuve de la loi forte des grands nombres .

Énoncé du théorème

modifier

Soit une suite de variables aléatoires indépendantes d'espérance et de variance , tel que et convergent dans ℝ. Alors converge dans ℝ presque sûrement .

Supposons sans perte de généralité que . Posons . Nous allons voir que presque sûrement

Pour chaque , Ainsi, pour chaque et , Alors que la deuxième inégalité est due à l'inégalité de Kolmogorov .

En supposant que converge, il s'ensuit que le dernier terme tend vers 0 lorsque , pour chaque .

Références

modifier
  • Durrett, Rick. Probabilité: théorie et exemples. Duxbury advanced series, troisième édition, Thomson Brooks / Cole, 2005, section 1.8, pp.   60–69.
  • M. Loève, Théorie des probabilités, Princeton Univ. Presse (1963) pp. Secte. 16,3
  • W. Feller, Une introduction à la théorie des probabilités et ses applications, 2, Wiley (1971) pp. Secte. IX.9