Estimateur de Laplace–Bayes
En théorie des probabilités et en statistiques, l'estimateur de Laplace–Bayes (ou règle de succession de Laplace) est une formule permettant de donner une approximation du terme a posteriori de la formule de Bayes. Elle a été introduite au début du XIXe siècle pour répondre au problème : quelle est la probabilité que le Soleil se lève demain[1] ?
Expression mathématique
modifierSoit des variables aléatoires indépendantes à valeur binaire (0 ou 1). On suppose qu'elles suivent toutes une distribution de Bernouilli de même paramètre p. Autrement dit, la probabilité que = 1 vaut p), la valeur de p étant inconnue. Alors :
On parle de succès quand = 1. La formule précédent dit donc que la probabilité d'avoir un succès à l'étape n+1 sachant qu'il y a eu s succès entre l'étape 1 et l'étape n vaut .
Application historique
modifierLaplace a utilisé la règle de succession pour calculer la probabilité que le soleil se lève demain, étant donné qu'il s'est levé tous les jours depuis les 5 000 dernières années. On obtient un facteur d'environ 5 000×365,25, ce qui donne une cote de 1826251:1 en faveur du lever du soleil demain.
Cependant, l'hypothèse de base pour utiliser la règle de succession serait qu'on n'ait aucune connaissance préalable de la question de savoir si le soleil se lèvera ou non demain.
Démonstration
modifierSoit p, la probabilité de succès sur chaque essai. Cette probabilité est supposée constante mais inconnue et incertaine. On la considère donc comme une variable aléatoire et on lui attribue une distribution de probabilité pour exprimer cette incertitude. Soit Xi ayant la valeur 1 si l’on observe un « succès » sur le ième essai, et ayant la valeur 0 dans le cas contraire. Chaque Xi a ainsi pour valeur 0 ou 1 et suit donc une distribution de Bernoulli.
On suppose que ces Xi soient conditionnellement indépendants pour une probabilité p donnée. On peut alors utiliser le théorème de Bayes pour trouver la distribution de probabilité conditionnelle de p étant donné les données Xi (i = 1, ..., n).
Pour la mesure de la probabilité a priori de p, on attribue à cette v.a. une loi non informative de probabilité a priori, c'est-à-dire une distribution uniforme sur l’intervalle ouvert ]0;1[ ayant donc comme fonction de densité :
Pour la vraisemblance des observations , on calcule la fonction de vraisemblance :
où s = x1 + ... + xn est le nombre de succès et n est le nombre d’essais (X en majuscule désigne la variable aléatoire et x minuscule, les données réellement observées).
En utilisant les deux définitions précédentes, on peut alors déterminer la densité de probabilité de la distribution a posteriori :
On calcule alors la constante de normalisation :
(voir la fonction bêta pour plus d’informations sur les intégrales de cette forme).
La fonction de densité de la loi a posteriori est donc :
Il s’agit d’une loi bêta ayant pour espérance mathématique :
Ainsi on a :
Notes et références
modifier- Pierre-Simon de Laplace, Essai philosophique sur les probabilités, Courcier,