Elle me semble connue, bien qu’elle soit plutôt simple. Découvrez la loi de Rademacher !
Prérequis
Définition
La loi de Rademacher est une loi de probabilité discrète avec un seul paramètre : p. Elle est définie sur l’univers Ω = {-1;1}.
Une variable aléatoire X est une loi de Rademacher de paramètres p lorsque sa fonction de masse est :
\begin{array}{ll} \mathbb{P}(X=1) &= p\\ \mathbb{P}(X=-1) &= 1-p \end{array}
Lien avec la loi de Bernoulli
Si X suit une loi de Bernoulli de paramètre p alors 2X-1 suit une loi de Rademacher.
Réciproquement, si X suit une loi de Rademacher, alors (X+1)/2 suit une loi de Bernoulli
Propriétés
Espérance de la loi de Rademacher
L’espérance de la loi de Rademacher vaut 2p-1. Ce résultat est très facile à démontrer :
\begin{array}{ll} \mathbb{E}(X)&=\mathbb{P}(X=1) +(-1) \mathbb{P}(X=-1) \\ &= p - (1-p)\\ & =2p-1 \end{array}
Variance de la loi de Rademacher
La variance de la loi de Rademacher vaut 4p(1-p). Là aussi, le résultat est facile à démontrer :
\begin{array}{ll} \mathbb{E}(X^2) &= 1^2 \mathbb{P}(X=1) + (-1)^2 \mathbb{P}(X=-1) \\ &= p+ (1-p) \\ &= 1 \end{array}
On a donc :
\begin{array}{ll} \mathbb{V}(X) &= \mathbb{E}(X^2)-\mathbb{E}(X)^2 \\ &= 1 -(2p-1)^2 \\ & = 1 - (4p^2 -4p+1)\\ & = 4p-4p^2 \\ & = 4p(1-p) \end{array}
Exercices corrigés de loi de Rademacher
Exercice 1
Enoncé : Redémontrer l’espérance et la variance de la loi de Rademacher à partir de la loi de Bernoulli.
Corrigé : Soit X une variable aléatoire suivant la loi de Bernoulli. Soit Y = 2X – 1, la loi de Rademacher associée. On sait que :
\mathbb{E}(X) = p, \mathbb{V}(X) = p(1-p)
On utilise alors la linéarité de l’espérance pour obtenir le premier résultat :
\mathbb{E}(Y) = \mathbb{E}(2X-1) =2 \mathbb{E}(X)-1 = 2 p-1
Puis, on utilise les propriétés de la variance pour obtenir le second résultat :
\mathbb{V}(Y) = \mathbb{V}(2X-1) = \mathbb{V}(2X) = 4 \mathbb{V}(X)= 4p(p-1)
Ce qui conclut cet exercice !
Exercice 2
Enoncé :
Soit (εi)i≥1 une suite de va indépendantes à valeurs dans {−1, 1} et suivant une loi de Rademacher (P(εi = 1) = 1/2 = P(εi = −1)). Pour n entier, on pose
w_n = \prod_{i=1}^n \varepsilon_i
Montrer que les variables aléatoires wn sont indépendantes.
Corrigé : Prenons k ≤ n un entier. Considérons
i_1<\ldots < i_k
Soit
\alpha_i \in \{-1;1\}
On a alors :
\begin{array}{ll} &\mathbb{P}(w_{i_1} = \alpha_1 \cap \ldots \cap w_{i_n} = \alpha_n) \\ =&\displaystyle \mathbb{P}(\prod_{j=1}^{i_1}\varepsilon_j= \alpha_1 \cap \ldots \cap \prod_{j=1}^{i_n} \varepsilon_{j} = \alpha_n)\\ =&\displaystyle \mathbb{P}\left(\prod_{j=1}^{i_1}\varepsilon_j= \alpha_1 \cap \prod_{j=i_1}^{i_2}\varepsilon_j= \dfrac{\alpha_2}{\alpha_1} \cap \ldots \cap \prod_{j=1}^{i_n} \varepsilon_{j} = \dfrac{\alpha_n}{\alpha_{n-1}}\right)\\ =&\displaystyle \mathbb{P}\left(\prod_{j=1}^{i_1}\varepsilon_j= \alpha_1\right) \times \mathbb{P} \left(\prod_{j=i_1}^{i_2}\varepsilon_j= \dfrac{\alpha_2}{\alpha_1}\right) \times\ldots \times \mathbb{P}\left(\prod_{j=1}^{i_n} \varepsilon_{j} = \dfrac{\alpha_n}{\alpha_{n-1}}\right)\\ =& \left( \dfrac{1}{2}\right)^k\\ =&\displaystyle \prod_{j=1}^k \mathbb{P}(w_{i_j}= \alpha_j) \end{array}
Les wi sont donc bien mutuellement indépendants ce qui