Cet article a pour but de présenter la loi faible des grands nombres, une des propriétés de base en probabilité.
Prérequis
L’inégalité de Bienaymé-Tchebychev est un prérequis pour cette inégalité
Enoncé de la loi faible des grands nombres
On définit la convergence en probabilités comme suit : Soit (X_n)_{n \in \N} suite de variables aléatoires. On dit que (X_n) converge en probabilités vers X si
\forall \varepsilon >0, \lim_{n\to + \infty} \mathbb{P}(|X-X_n|\geq \varepsilon)= 0
Soit une suite X_1, X_2, \ldots,X_n de variables aléatoires indépendantes et identiquement distribuées, d’espérance finie notée m. On définit
S_n = \dfrac{X_1+\ldots +X_n}{n}
Alors S_n converge en probabilités vers m.
Démonstration
Nous allons faire la démonstration dans le cas où la variance \sigma^2 est finie.
Tout d’abord, regardons l’espérance de S_n. On a :
\begin{array}{ll} \mathbb{E}(S_n )&= \mathbb{E} \left( \dfrac{X_1+\ldots+X_n}{n} \right)\\ &= \frac{1}{n}\left(\mathbb{E} (X_1)+\ldots+\mathbb{E} (X_n) \right)\\ &= \frac{1}{n}\left(m+\ldots+m \right)\\ &= \frac{mn}{n} \\ &= m \end{array}
Regardons maintenant la variance :
\begin{array}{ll} V(S_n )&= V \left( \dfrac{X_1+\ldots+X_n}{n} \right)\\ & = \dfrac{1}{n^2}V \left( X_1+\ldots+X_n \right)\\ & = \dfrac{1}{n^2}\left(V ( X_1)+\ldots+V(X_n )\right)\\ & = \dfrac{\sigma^2n}{n^2}\\ & = \dfrac{\sigma^2}{n} \end{array}
Soit \varepsilon > 0 . On a, d’après l’inégalité de Bienaymé-Tchebychev :
\mathbb{P}\left(|S_n - \mathbb{E}(S_n)| \geq \varepsilon \right) \leq \dfrac{V(S_n)}{\varepsilon^2}
Ce qui se réécrtit :
\mathbb{P}\left(|S_n -m| \geq \varepsilon \right) \leq \dfrac{\sigma^2}{n\varepsilon^2}
Et donc \displaystyle \lim_{n \to + \infty} \mathbb{P}\left(|S_n -m| \geq \varepsilon \right) ce qui est bien le résultat recherché.
Exemple d’application
On lance n fois une pièce équilibrée. Si on fait beaucoup de lancers (autour de 1000 par exemple), alors on aura environ 50 % de piles.