Le théorème de König-Huygens s'énonce de la façon suivante :
Théorème — Pour toute variable aléatoire réelle X qui admet un moment d'ordre 2, on a :
Var
(
X
)
≡
E
[
(
X
−
E
[
X
]
)
2
]
=
E
[
X
2
]
−
E
[
X
]
2
{\displaystyle \operatorname {Var} (X)\equiv \mathbb {E} \left[(X-\mathbb {E} [X])^{2}\right]=\mathbb {E} [X^{2}]-\mathbb {E} [X]^{2}}
.
Démonstration
La démonstration est relativement simple et algébrique. Trois points sont à rappeler :
le développement du binôme de Newton ;
la linéarité de l'espérance en fonction de la variable aléatoire ;
l'espérance d'une constante vaut cette constante.
Ces trois propriétés rappelées impliquent :
E
[
(
X
−
E
[
X
]
)
2
]
=
E
[
X
2
−
2
X
E
[
X
]
+
E
[
X
]
2
]
=
E
[
X
2
]
−
E
[
2
X
E
[
X
]
]
+
E
[
E
[
X
]
2
]
=
E
[
X
2
]
−
2
E
[
X
]
E
[
X
]
+
E
[
X
]
2
=
E
[
X
2
]
−
E
[
X
]
2
{\displaystyle {\begin{aligned}\mathbb {E} \left[(X-\mathbb {E} [X])^{2}\right]&=\mathbb {E} \left[X^{2}-2X\mathbb {E} [X]+\mathbb {E} [X]^{2}\right]\\&=\mathbb {E} [X^{2}]-\mathbb {E} \left[2X\mathbb {E} [X]\right]+\mathbb {E} \left[\mathbb {E} [X]^{2}\right]\\&=\mathbb {E} [X^{2}]-2\mathbb {E} [X]\mathbb {E} [X]+\mathbb {E} [X]^{2}\\&=\mathbb {E} [X^{2}]-\mathbb {E} [X]^{2}\end{aligned}}}
Ce théorème peut également s'appliquer pour une décomposition de la formule de la variance empirique.
Théorème — On a :
1
n
∑
i
=
1
n
(
x
i
−
x
¯
)
2
=
(
1
n
∑
i
=
1
n
x
i
2
)
−
x
¯
2
{\displaystyle {\frac {1}{n}}\sum _{i=1}^{n}\left(x_{i}-{\overline {x}}\right)^{2}=\left({\frac {1}{n}}\sum _{i=1}^{n}x_{i}^{2}\right)-{\overline {x}}^{2}}
Démonstration
1
n
∑
i
=
1
n
(
x
i
−
x
¯
)
2
=
1
n
∑
i
=
1
n
(
x
i
2
−
2
x
i
x
¯
+
x
¯
2
)
=
1
n
∑
i
=
1
n
x
i
2
−
1
n
∑
i
=
1
n
2
x
i
x
¯
+
1
n
∑
i
=
1
n
x
¯
2
=
1
n
∑
i
=
1
n
x
i
2
−
2
x
¯
n
∑
i
=
1
n
x
i
+
1
n
n
x
¯
2
=
1
n
∑
i
=
1
n
x
i
2
−
2
x
¯
2
+
x
¯
2
=
1
n
∑
i
=
1
n
x
i
2
−
x
¯
2
{\displaystyle {\begin{aligned}{\frac {1}{n}}\sum _{i=1}^{n}\left(x_{i}-{\overline {x}}\right)^{2}&={\frac {1}{n}}\sum _{i=1}^{n}\left(x_{i}^{2}-2x_{i}{\bar {x}}+{\overline {x}}^{2}\right)&\\&={\frac {1}{n}}\sum _{i=1}^{n}x_{i}^{2}-{\frac {1}{n}}\sum _{i=1}^{n}2x_{i}{\bar {x}}+{\frac {1}{n}}\sum _{i=1}^{n}{\bar {x}}^{2}\\&={\frac {1}{n}}\sum _{i=1}^{n}x_{i}^{2}-{\frac {2{\bar {x}}}{n}}\sum _{i=1}^{n}x_{i}+{\frac {1}{n}}n{\bar {x}}^{2}\\&={\frac {1}{n}}\sum _{i=1}^{n}x_{i}^{2}-2{\bar {x}}^{2}+{\bar {x}}^{2}\\&={\frac {1}{n}}\sum _{i=1}^{n}x_{i}^{2}-{\bar {x}}^{2}\\\end{aligned}}}
Cette formulation est en fait un cas particulier d'une identité plus générale.
Identité — On a :
1
n
∑
i
=
1
n
(
X
i
−
a
)
2
=
1
n
∑
i
=
1
n
(
X
i
−
X
¯
)
2
+
(
X
¯
−
a
)
2
{\displaystyle {\frac {1}{n}}\sum _{i=1}^{n}(X_{i}-a)^{2}={\frac {1}{n}}\sum _{i=1}^{n}(X_{i}-{\bar {X}})^{2}+({\bar {X}}-a)^{2}}
Démonstration
∑
i
=
1
n
(
X
i
−
a
)
2
=
∑
i
=
1
n
(
X
i
−
X
¯
+
X
¯
−
a
)
2
=
∑
i
=
1
n
(
(
X
i
−
X
¯
)
+
(
X
¯
−
a
)
)
2
=
∑
i
=
1
n
[
(
X
i
−
X
¯
)
2
+
2
(
X
i
−
X
¯
)
(
X
¯
−
a
)
+
(
X
¯
−
a
)
2
]
=
∑
(
X
i
−
X
¯
)
2
+
2
(
X
¯
−
a
)
(
∑
X
i
−
n
X
¯
)
+
n
(
X
¯
−
a
)
2
=
∑
(
X
i
−
X
¯
)
2
+
2
(
X
¯
−
a
)
(
∑
X
i
−
n
1
n
∑
X
i
)
+
n
(
X
¯
−
a
)
2
=
∑
i
=
1
n
(
X
i
−
X
¯
)
2
+
n
(
X
¯
−
a
)
2
{\displaystyle {\begin{aligned}\sum _{i=1}^{n}(X_{i}-a)^{2}&=\sum _{i=1}^{n}(X_{i}-{\bar {X}}+{\bar {X}}-a)^{2}\\&=\sum _{i=1}^{n}\left((X_{i}-{\bar {X}})+({\bar {X}}-a)\right)^{2}\\&=\sum _{i=1}^{n}\left[(X_{i}-{\bar {X}})^{2}+2(X_{i}-{\bar {X}})({\bar {X}}-a)+({\bar {X}}-a)^{2}\right]\\&=\sum (X_{i}-{\bar {X}})^{2}+2({\bar {X}}-a)(\sum X_{i}-n{\bar {X}})+n({\bar {X}}-a)^{2}\\&=\sum (X_{i}-{\bar {X}})^{2}+2({\bar {X}}-a)(\sum X_{i}-n{\frac {1}{n}}\sum X_{i})+n({\bar {X}}-a)^{2}\\&=\sum _{i=1}^{n}(X_{i}-{\bar {X}})^{2}+n({\bar {X}}-a)^{2}\end{aligned}}}
N.B. : la démonstration est tirée de Mood et al. (2001, p. 229)
Remarque :
En passant le deuxième terme de droite à gauche et en prenant a = 0 on retrouve la formule de la variance montrée plus haut :
1
n
∑
i
=
1
n
(
X
i
−
X
¯
)
2
=
1
n
∑
i
=
1
n
(
X
i
−
a
)
2
−
(
X
¯
−
a
)
2
{\displaystyle {\frac {1}{n}}\sum _{i=1}^{n}(X_{i}-{\bar {X}})^{2}={\frac {1}{n}}\sum _{i=1}^{n}(X_{i}-a)^{2}-({\bar {X}}-a)^{2}}
Et donc si a = 0 ,
1
n
∑
i
=
1
n
(
X
i
−
X
¯
)
2
=
1
n
∑
i
=
1
n
(
X
i
)
2
−
(
X
¯
)
2
{\displaystyle {\frac {1}{n}}\sum _{i=1}^{n}(X_{i}-{\bar {X}})^{2}={\frac {1}{n}}\sum _{i=1}^{n}(X_{i})^{2}-({\bar {X}})^{2}}
Relation avec la fonction de Leibniz
modifier
Ce théorème est un cas particulier de simplification de la fonction scalaire de Leibniz concernant des barycentres .
En effet, la moyenne m est le barycentre du système pondéré
{
(
x
i
,
n
i
)
}
i
=
1...
k
{\displaystyle \{(x_{i},n_{i})\}_{i=1...k}}
. La simplification de la fonction scalaire de Leibniz donne pour le système
{
(
A
i
,
a
i
)
i
=
1...
k
}
{\displaystyle \{(A_{i},a_{i})_{i=1...k}\}}
de barycentre G :
∑
i
=
1
k
a
i
A
A
i
2
=
∑
i
=
1
k
a
i
G
A
i
2
+
(
∑
i
=
1
k
a
i
)
G
A
2
{\displaystyle \sum _{i=1}^{k}a_{i}AA_{i}^{2}=\sum _{i=1}^{k}a_{i}GA_{i}^{2}+\left(\sum _{i=1}^{k}a_{i}\right)GA^{2}}
En remplaçant G par m , A par m' , ai par ni et Ai par xi , on obtient
∑
i
=
1
k
n
i
(
x
i
−
m
′
)
2
=
∑
i
=
1
k
n
i
(
x
i
−
m
)
2
+
n
(
m
′
−
m
)
2
{\displaystyle \sum _{i=1}^{k}n_{i}(x_{i}-m')^{2}=\sum _{i=1}^{k}n_{i}(x_{i}-m)^{2}+n(m'-m)^{2}}
Ce qui est, à un facteur n près et à l'ordre près, la formule précédente.
Soit un système de k points matériels Ai , de masses respectives mi , de masse totale M , de centre de masse G et un point A distant de d du point G . Le théorème de transport ou théorème de Huygens ou théorème de Steiner donne JA le moment d'inertie du système par rapport à A en fonction de JG le moment d'inertie du système par rapport à
G
{\displaystyle G}
:
J
A
=
J
G
+
M
⋅
d
2
{\displaystyle J_{A}=J_{G}+M\cdot d^{2}}
avec
J
A
=
∑
i
=
1
k
m
i
A
A
i
2
,
J
G
=
∑
i
=
1
k
m
i
G
A
i
2
,
M
=
∑
i
=
1
k
m
i
,
d
2
=
G
A
2
.
{\displaystyle J_{A}=\sum _{i=1}^{k}m_{i}AA_{i}^{2},\quad J_{G}=\sum _{i=1}^{k}m_{i}GA_{i}^{2},\quad M=\sum _{i=1}^{k}m_{i},\quad d^{2}=GA^{2}.}
(en) Alexander M. Mood , Franklin A. Graybill et Duane C. Boes , Introduction to the Theory of Statistics , New Delhi, Tata McGraw-Hill, 2001 (ISBN 978-0-07-042864-5 , LCCN 73000292 ) , p. 564