Pour la première inégalité, on pose
et
où X suit une loi de Bernouilli de paramètre p. Par l'inégalité de Chernoff appliquée à
,

Or
.
En effet, comme
sont i.i.d et donc
sont i.i.d.,
![{\displaystyle {\begin{aligned}E[\mathrm {e} ^{t{\overline {Z}}_{n}}]&=\prod _{i=1}^{n}E[\mathrm {e} ^{{\frac {t}{n}}Z_{i}}]\\&=E[\mathrm {e} ^{{\frac {t}{n}}Z}]^{n}.\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/27e32f8d6867080a086f3da03b7a377b40828056)
D'où,
![{\displaystyle {\begin{aligned}h_{{\overline {Z}}_{n}}(\epsilon )&=\sup _{t\geq 0}\{\epsilon t-\log(E[\mathrm {e} ^{t{\overline {Z}}_{n}}])\}\\&=\sup _{t\geq 0}\{\epsilon t-n\log(E[\mathrm {e} ^{{\frac {t}{n}}Z}])\}\\&=n\sup _{t\geq 0}\{\epsilon {\frac {t}{n}}-\log(E[\mathrm {e} ^{{\frac {t}{n}}Z}])\}\\&=nh_{Z}(\epsilon ).\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/472197b631e179637f847d9779d94eaadfa8fcdb)
Donc,
![{\displaystyle {\begin{aligned}P({\frac {1}{n}}\sum _{i=1}^{n}X_{i}\geq p+\epsilon )&\leq \mathrm {e} ^{-n\sup _{t\geq 0}\{\epsilon t-\log(E[\mathrm {e} ^{tZ}])\}}\\&\leq \mathrm {e} ^{n\inf _{t\geq 0}\{\log(E[\mathrm {e} ^{tZ}])-\epsilon t\}}\\&\leq \mathrm {e} ^{n(\log(E[\mathrm {e} ^{tZ}])-\epsilon t)}({\text{pour }}t\geq 0).\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8db097ab36fca98d9f5be84f966ab4f099d2e00d)
On remarque que
.
Donc
![{\displaystyle {\begin{aligned}\log(E[\mathrm {e} ^{tZ}])-\epsilon t&=\log(1-p+\mathrm {e} ^{t})-(\epsilon +p)t\\&=\Psi (t)-\epsilon t,\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2d4658708e7ca3c37078d769df9be9e63baf1fbd)
avec
.
En vue d'utiliser la formule de Taylor Lagrange à l'ordre 2, on calcule les dérivées premières et secondes
,

avec
. On peut majorer
par
.
En effet,
.
Donc, comme
, d'après la formule de Taylor Lagrange,
,

avec
.
Donc,
,
![{\displaystyle {\begin{aligned}P({\frac {1}{n}}\sum _{i=1}^{n}X_{i}\geq p+\epsilon )&\leq \mathrm {e} ^{n(\log(E[\mathrm {e} ^{tZ}])-\epsilon t)}\\&\leq \mathrm {e} ^{n({\frac {t^{2}}{8}}-\epsilon t)}.\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/33fe8d417bac8ac8c6116f7824a9baf2d6bec303)
Soit
. On remarque
.
Donc g admet un minimum en
.
Ainsi,
,

Pour la deuxième inégalité,
,
![{\displaystyle {\begin{aligned}P({\frac {1}{n}}\sum _{i=1}^{n}X_{i}\leq p-\epsilon )&=P({\overline {Z}}_{n}\leq -\epsilon )\\&=P(-{\overline {Z}}_{n}\geq \epsilon )\\&\leq \mathrm {e} ^{-h_{-{\overline {Z}}_{n}}(t)}{\text{ d'après l'inégalité de Chernoff}}\\&\leq \mathrm {e} ^{-nh_{-Z}(t)}\\&\leq \mathrm {e} ^{n\inf _{t\geq 0}\{\log(E[\mathrm {e} ^{-tZ}])-\epsilon t\}}\\&\leq \mathrm {e} ^{n(\log(E[\mathrm {e} ^{-tZ}])-\epsilon t)}({\text{pour }}t\geq 0).\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/84867ba04ee97f2a4cfa61138e6aaef0feb69b60)
On remarque que :
,
![{\displaystyle {\begin{aligned}E[\mathrm {e} ^{-tZ}]&=\mathrm {e} ^{pt}E[\mathrm {e} ^{-tX}]\\&=\mathrm {e} ^{pt}(1-p+p\mathrm {e} ^{-t})\\\Rightarrow \log(E[\mathrm {e} ^{-tZ}])&=pt+\log(1-p+p\mathrm {e} ^{-t})\\&=\Psi (-t)\\&\leq {\frac {t^{2}}{8}}.\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6545d1c311082ffaa21c13ca56922aa8437f0022)
Donc,
,

par un argument similaire qui a servi à démontrer la première inégalité.