Borne de Cramér-Rao
En statistique, la borne de Cramér-Rao exprime une borne inférieure sur la variance d'un estimateur sans biais. Plus précisément, la borne inférieure est l'inverse de l'information de Fisher. Elle est aussi appelée borne de Fréchet-Darmois-Cramér-Rao (ou borne FDCR) en l'honneur de Maurice Fréchet, Georges Darmois, Harald Cramér et Calyampudi Radhakrishna Rao.
Type | |
---|---|
Inventeurs | |
Nommé en référence à |
Énoncé
modifierSoit θ le paramètre à estimer (par exemple une moyenne, une variance). On considère un estimateur sans biais que l'on note . La borne de Cramér-Rao dit que l'inverse de l'information de Fisher, noté , du paramètre θ, est un minorant de la variance de :
où l'information de Fisher est où et où est la fonction de vraisemblance.
Si le modèle admet certaines régularités[1], on a .
Dans certains cas, aucun estimateur non biaisé n'atteint la borne inférieure.
Exemples
modifierDistribution normale multivariée
modifierDans le cas d'une distribution normale multivariée à d dimensions : les éléments de la matrice d'information de Fisher [2] sont
où « tr » désigne la trace.
On prend un échantillon de observations indépendantes de moyenne inconnue et de variance connue :
L'information de Fisher est alors un scalaire donné par la formule
et la borne de Cramér-Rao est donnée par la formule
Variable aléatoire normale de variance inconnue
modifierOn suppose que X est un vecteur aléatoire qui suit une loi normale d'espérance connue et de variance inconnue . Considérons T l'estimateur de :
Alors T est non biaisé pour , car . La variance de T vaut alors :
Le premier terme est le quatrième moment centré et vaut , le second est le carré de la variance, soit . Donc :
Quelle est l'information de Fisher de cet exemple ? Le score V est défini par :
avec L étant la fonction de vraisemblance. Donc, dans ce cas,
L'information de n évènements indépendants étant seulement n fois l'information d'un seul évènement, soit .
L'inégalité de Cramér-Rao donne :
Dans ce cas, on a donc égalité. On dit alors que l'estimateur est efficace.
Conditions de régularité
modifierCette inégalité repose sur deux conditions faibles de régularité des densités de probabilité, , et l'estimateur :
- L'information de Fisher est toujours définie ; de manière équivalente, pour tout tel que ,
- soit fini.
- L'intégration par rapport à x et la différentiation par rapport à θ peuvent être échangées dans le calcul de T ; soit encore,
- si le second membre est fini.
Dans certains cas, un estimateur biaisé peut avoir une variance et une erreur quadratique moyenne en dessous de la borne de Cramér-Rao (cette borne ne s'appliquant que pour les estimateurs non biaisés).
Si la régularité permet d'atteindre la dérivée seconde, alors l'information de Fisher peut se mettre sous une autre forme, et l'inégalité de Cramér-Rao donne :
Références
modifier- Suba Rao, « Lectures on statistical inference » [archive du ] (consulté le )
- (en) S. M. Kay, Fundamentals of Statistical Signal Processing : Estimation Theory, Englewood Cliffs (N. J.), Prentice Hall, , 595 p. (ISBN 0-13-042268-1), p. 47
Bibliographie
modifier- (en) Abram Kagan, « Another Look at the Cramér–Rao Inequality », The American Statistician, vol. 55, no 3, , p. 211-212