Borne de Cramér-Rao

notion statistique
(Redirigé depuis Borne FDCR)

En statistique, la borne de Cramér-Rao exprime une borne inférieure sur la variance d'un estimateur sans biais. Plus précisément, la borne inférieure est l'inverse de l'information de Fisher. Elle est aussi appelée borne de Fréchet-Darmois-Cramér-Rao (ou borne FDCR) en l'honneur de Maurice Fréchet, Georges Darmois, Harald Cramér et Calyampudi Radhakrishna Rao.

Énoncé

modifier

Soit θ le paramètre à estimer (par exemple une moyenne, une variance). On considère un estimateur sans biais que l'on note . La borne de Cramér-Rao dit que l'inverse de l'information de Fisher, noté , du paramètre θ, est un minorant de la variance de  :

où l'information de Fisher est et où est la fonction de vraisemblance.

Si le modèle admet certaines régularités[1], on a .

Dans certains cas, aucun estimateur non biaisé n'atteint la borne inférieure.

Exemples

modifier

Distribution normale multivariée

modifier

Dans le cas d'une distribution normale multivariée à d dimensions : les éléments de la matrice d'information de Fisher [2] sont

où « tr » désigne la trace.

On prend un échantillon de observations indépendantes de moyenne inconnue et de variance connue :

L'information de Fisher est alors un scalaire donné par la formule

et la borne de Cramér-Rao est donnée par la formule

Variable aléatoire normale de variance inconnue

modifier

On suppose que X est un vecteur aléatoire qui suit une loi normale d'espérance connue et de variance inconnue . Considérons T l'estimateur de :

Alors T est non biaisé pour , car . La variance de T vaut alors :

Le premier terme est le quatrième moment centré et vaut , le second est le carré de la variance, soit . Donc :

Quelle est l'information de Fisher de cet exemple ? Le score V est défini par :

avec L étant la fonction de vraisemblance. Donc, dans ce cas,

L'information de n évènements indépendants étant seulement n fois l'information d'un seul évènement, soit .

L'inégalité de Cramér-Rao donne :

Dans ce cas, on a donc égalité. On dit alors que l'estimateur est efficace.

Conditions de régularité

modifier

Cette inégalité repose sur deux conditions faibles de régularité des densités de probabilité, , et l'estimateur :

  • L'information de Fisher est toujours définie ; de manière équivalente, pour tout tel que ,
soit fini.
  • L'intégration par rapport à x et la différentiation par rapport à θ peuvent être échangées dans le calcul de T ; soit encore,
si le second membre est fini.

Dans certains cas, un estimateur biaisé peut avoir une variance et une erreur quadratique moyenne en dessous de la borne de Cramér-Rao (cette borne ne s'appliquant que pour les estimateurs non biaisés).

Si la régularité permet d'atteindre la dérivée seconde, alors l'information de Fisher peut se mettre sous une autre forme, et l'inégalité de Cramér-Rao donne :

Références

modifier
  1. Suba Rao, « Lectures on statistical inference » [archive du ] (consulté le )
  2. (en) S. M. Kay, Fundamentals of Statistical Signal Processing : Estimation Theory, Englewood Cliffs (N. J.), Prentice Hall, , 595 p. (ISBN 0-13-042268-1), p. 47

Bibliographie

modifier
  • (en) Abram Kagan, « Another Look at the Cramér–Rao Inequality », The American Statistician, vol. 55, no 3,‎ , p. 211-212