Robustesse (statistiques)

En statistiques, la robustesse d'un estimateur est sa capacité à ne pas être perturbé par une modification dans une petite partie des données — y compris par l'introduction de données aberrantes — ou dans les paramètres du modèle choisi pour l'estimation.

Principe modifier

Le principe d'une statistique robuste est de résister aux erreurs de mesure, dans le cas où les hypothèses de départ sont vérifiées. Ceci se traduit par, sous les bonnes hypothèses, une bonne efficacité, un biais statistique assez petit, et être asymptotiquement sans biais.

Le cas le plus courant est la robustesse distributionnelle dans le cas des tests d'adéquation, où les limites sont atteintes à cause des problèmes de queue : les lois à longue traîne vont générer plus de valeurs extrêmes qu'une loi normale, et les estimateurs vont être plus fortement perturbés que si ces valeurs n'avaient pas été prises en compte. Cependant, certains auteurs préfèrent parler de robustesse dans le cas de tests d'hypothèse.

Exemples modifier

Mesures de la robustesse modifier

Notes et références modifier

Sources modifier

  • (en) Ricardo A. Maronna, R. Douglas Martin et Victor J. Yohai; Robust Statistics - Theory and Methods, Wiley Series in Probability and Statistics (2006). (ISBN 9780470010921)
  • (fr) Dagnelie P.; Statistique théorique et appliquée. Tome 2 : Inférence statistique à une et à deux dimensions, Paris et Bruxelles (2006), De Boeck et Larcier.

Voir aussi modifier

Articles connexes modifier

Liens externes modifier