Loi de Cauchy (probabilités)

Loi de probabilité


La loi de Cauchy, appelée aussi loi de Lorentz, est une loi de probabilité continue qui doit son nom au mathématicien Augustin Louis Cauchy.

Loi de Cauchy
Image illustrative de l’article Loi de Cauchy (probabilités)
Densité de probabilité
pour différentes valeurs de et a

Image illustrative de l’article Loi de Cauchy (probabilités)
Fonction de répartition
Les couleurs correspondent au graphe précédent

Paramètres Paramètre de position (réel)
Paramètre d'échelle (réel)
Support
Densité de probabilité
Fonction de répartition
Espérance non définie
Médiane
Mode
Variance non définie
Asymétrie non définie
Kurtosis normalisé non définie
Entropie
Fonction génératrice des moments non définie
Fonction caractéristique

Une variable aléatoire X suit une loi de Cauchy si sa densité , dépendant des deux paramètres et ( > 0) est définie par :

La fonction ainsi définie s'appelle une lorentzienne. Elle apparaît par exemple en spectroscopie pour modéliser des raies d'émission.

Cette distribution est symétrique par rapport à (paramètre de position), le paramètre donnant une information sur l'étalement de la fonction (paramètre d'échelle).

L'inverse d'une variable aléatoire, de loi de Cauchy, suit une loi de Cauchy.

Le quotient de deux variables aléatoires réelles indépendantes suivant des lois normales standards suit une loi de Cauchy.

La loi de Cauchy (avec notamment la loi normale et la loi de Lévy) est un cas particulier de loi stable.

Caractérisation

modifier

Densité de probabilités

modifier

La fonction densité de probabilités est une fonction lorentzienne[1],[2] :

x0 est un paramètre de localisation situant le pic de la fonction, et a est un paramètre d'échelle qui définit la moitié de la largeur à mi-hauteur.

La fonction de la loi de Cauchy standard est :

Fonction de répartition

modifier

La fonction de répartition est :

On en déduit la fonction quantile :

Entropie

modifier

L'entropie de la loi de Cauchy est donnée par :

La loi de Cauchy est la loi de probabilités de maximum d'entropie pour une variable aléatoire X, avec[3]

Fonction caractéristique

modifier

La fonction caractéristique d'une loi de Cauchy est donnée par :

Espérance et écart type

modifier

La loi de Cauchy n'admet ni espérance ni écart type. Et il en va de même pour tout moment d'ordre supérieur. En effet,

n'est pas intégrable au sens de Lebesgue

car (à l'infini) d'où la divergence de l'intégrale : l'espérance n'existe pas.

A fortiori, la loi de Cauchy n'admet pas d'écart-type, car diverge. Pour la même raison, les moments d'ordre supérieur n'existent pas non plus. Ainsi on ne peut pas lui appliquer la loi forte des grands nombres.

Cependant, , qui en est la médiane, est souvent considéré comme la « moyenne » de la loi de Cauchy, car :

Loi de Cauchy et théorèmes limite

modifier
Moyenne empirique d'une série de valeurs suivant la loi de Cauchy.

La loi de Cauchy est l'une de celles auxquelles la loi des grands nombres ne s'applique pas : partant d'un échantillon d'observations issues d'une loi de Cauchy, la moyenne empirique

ne converge pas vers une quantité déterministe (à savoir l'espérance de la loi). Au contraire, cette moyenne reste aléatoire : elle est elle-même distribuée selon une loi de Cauchy.

Elle nous montre ainsi que la condition de l'espérance définie selon l'intégrale de Lebesgue est indispensable à l'application de la loi. On remarque que les valeurs moyennes s'approchent de mais il arrive toujours un moment où une valeur trop éloignée « empêche » la moyenne de converger. La probabilité d'obtenir des valeurs éloignées de est en fait trop élevée pour permettre à la moyenne empirique de converger.

Rapport de vraisemblance monotone

modifier

La loi de Cauchy n'admet pas un rapport de vraisemblance monotone[4].

Notes et références

modifier
  1. N. L. Johnson, S. Kotz et N. Balakrishnan, Continuous Univariate Distributions, Volume 1, New York, Wiley, , Chapter 16.
  2. William Feller, An Introduction to Probability Theory and Its Applications, Volume II, New York, John Wiley & Sons Inc., , 2e éd., 704 (ISBN 978-0-471-25709-7, lire en ligne Inscription nécessaire)
  3. Sung Y. Park et Anil K. Bera, « Maximum entropy autoregressive conditional heteroskedasticity model », Elsevier, vol. 150, no 2,‎ , p. 219–230 (DOI 10.1016/j.jeconom.2008.12.014, lire en ligne [archive du ], consulté le )
  4. Jean Pierre Lecoutre, Statistique et probabilité

Voir aussi

modifier

Bibliographie

modifier

Article connexe

modifier