petit exo proba - covariance
Voici l'exo
On a $(X_n)_{n \ge 1}$ une suite de variables aléatoires mutuellement indépendantes suivant la même loi. La loi de $X_n$ est donné par $P(X_n=-1) = p$ et $P(X_n=1)=1-p$ avec $p \in [0,1]$.
Ensuite on pose $Z_n = X_1X_2 \ldots X_n$
On définit $a_n = P(Z_n=-1)$ et $b_n = P(Z_n = 1)$.
Sauf erreur de calcul, je trouve $a_n = \frac{1-(1-2p)^n}{2}$ (en passant par des relations de récurrence entre les $a_n$ et $b_n$).
Ensuite, on demande de calculer la covariance de $Z_n$ et $Z_{n+1}$.
Je trouve $cov(Z_n,Z_{n+1}) = (1-2p) - (1-2p)^{2n+1}$ car $cov(z_n,z_{n+1}) = E(Z_nZ_{n+1}) - E(Z_n)E(Z_{n+1})$ et $Z_nZ_{n+1} = X_{n+1}$.
On demande de calculer $cov(Z_1,Z_{2})$. Donc on a d'après la formule précédente :
$cov(Z_1,Z_{2}) = (1-2p)-(1-2p)^3 = 4p(1-2p)(1-p)$.
Question suivante : qu'en déduit-ton ????
Je ne vois pas ce qu'on est censé remarqué dans la covariance de $Z_1$ et $Z_2$ ?
Avez vous une idée ?
On a $(X_n)_{n \ge 1}$ une suite de variables aléatoires mutuellement indépendantes suivant la même loi. La loi de $X_n$ est donné par $P(X_n=-1) = p$ et $P(X_n=1)=1-p$ avec $p \in [0,1]$.
Ensuite on pose $Z_n = X_1X_2 \ldots X_n$
On définit $a_n = P(Z_n=-1)$ et $b_n = P(Z_n = 1)$.
Sauf erreur de calcul, je trouve $a_n = \frac{1-(1-2p)^n}{2}$ (en passant par des relations de récurrence entre les $a_n$ et $b_n$).
Ensuite, on demande de calculer la covariance de $Z_n$ et $Z_{n+1}$.
Je trouve $cov(Z_n,Z_{n+1}) = (1-2p) - (1-2p)^{2n+1}$ car $cov(z_n,z_{n+1}) = E(Z_nZ_{n+1}) - E(Z_n)E(Z_{n+1})$ et $Z_nZ_{n+1} = X_{n+1}$.
On demande de calculer $cov(Z_1,Z_{2})$. Donc on a d'après la formule précédente :
$cov(Z_1,Z_{2}) = (1-2p)-(1-2p)^3 = 4p(1-2p)(1-p)$.
Question suivante : qu'en déduit-ton ????
Je ne vois pas ce qu'on est censé remarqué dans la covariance de $Z_1$ et $Z_2$ ?
Avez vous une idée ?
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses
(et sinon, c'est le contraire...)
A part ça que dire de plus ?
@ Aléa "non corrélées" ne signifie pas "indépendante", non ?
Supposons que $cov(X,X')=0$ c-a-d $E(XX')=E(X)E(X')$.
Il faut montrer que $X$ et $X'$ sont indépendant c-a-d que
$P(X=0 \cap X'=0) = P(X=0)P(X'=0) (1)$
$P(X=0 \cap X'=1) = P(X=0)P(X'=1) (2)$
$P(X=1 \cap X'=0) = P(X=1)P(X'=0) (3)$
$P(X=1 \cap X'=1) = P(X=1)P(X'=1) (4)$
On a $E(X)=p$, $E(X')=p'$ et $E(XX')=0 \times P(XX'=0) + 1 \times P(XX'=1) = P(XX'=1) = P(X=1 \cap X'=1)$.
Ainsi l'hypothèse montre déjà $(4)$.
En passant par l'événement complémentaire on montre $(1)$.
Je bloque sur $(2)$ ??? Ai je tiré toutes les informations de l'hypothèse.
(Si on a $(2)$ on aura $(3)$ avec le complémentaire).
Maintenant il me reste à voir comment on généralise à deux variables à support de cardinal 2.
Je pense avoir compris la suite.
Soit $X$ et $X'$ deux variables aléatoires de même support $\{a,b\}$ (mais pas forcément de même loi).
On a donc $X = aU+b(1-U)$ et $X = aU'+b(1-U')$ avec $U$ une variable de Bernoulli de paramètre $p=P(X=a)$ et $U'$ une variable de Bernoulli de paramètre $p'=P(X'=a)$.
Supposons $X$ et $X'$ non corrélées. On a donc $cov(X,X')=0$.
Or $cov(X,X') = (a-b)^2cov(U,U')$ donc on en déduit que $U$ et $U'$ sont non corrélées ($a \neq b$).
Donc $U$ et $U'$ sont indépendantes donc pour toute fonction $f$ et $g$, $f(U)$ et $g(U')$ aussi donc $X$ et $X'$ sont indépendantes.
Il reste en effet à montrer que les v.a sont mutuellement indépendantes.
Si je comprends bien, il faut montrer que pour tout $(\epsilon_1, \ldots,\epsilon_n) \in \{-1,1\}^n$, $P(Z_1=\epsilon_1) \cap \ldots \cap Z_n = \epsilon_n) = P(Z_1=\epsilon_1) \times \ldots \times P(Z_n=\epsilon_n)$.
C'est bien ça ?
$P(Z_1=\epsilon_1 \cap \ldots \cap Z_n=\epsilon_n) = P(Z_1=\epsilon_1) \times \ldots \times P(Z_n=\epsilon_n) (*) $.
Remarquons que dès que l'un des facteurs du produit est nul alors il y a égalité.
On sait que si $p \notin \{0,1,1/2\}$ alors les variables sont corrélées donc non indépendantes.
On se place dans le cas où $p \in \{0,1,1/2\}$.
On a montré que $P(Z_k=-1) = \frac{1-(1-2p)^k}{2}$.
- Si $p=0$ ou $p=1/2$ alors les $P(Z_k=-1)$ sont nuls et donc $(*)$ est vraie
- Supposons $p=1$. Alors $P(Z_k=-1) = \frac{1-(-1)^k}{2}$. Pour $k$ pair, on a donc $P(Z_k=-1)=0$ et pour $k$ impair on a $P(Z_k=1)=0$.
On a dit que si l'un des facteurs du produit $P(Z_1=\epsilon_1) \times \ldots \times P(Z_n=\epsilon_n)$ est nul alors $(*)$ est vraie.
Plaçons nous dans le cas où tous les facteurs sont égaux à $1$. Cela arrive lorsque ($k$ est pair et $\epsilon_k = 1$) ou ($k$ est impair et $\epsilon_k = -1$).
On a donc d'une part $P(Z_1=\epsilon_1) \times \ldots \times P(Z_n=\epsilon_n) = 1$.
Et d'autre part
$P(Z_1=\epsilon_1 \cap \ldots \cap Z_n=\epsilon_n) = P(Z_1=-1 \cap Z_2=1 \cap Z_3=-1 \ldots \cap Z_n=(-1)^n) $
$= P(X_1=-1 \cap X_2=-1 \cap X_3=-1 \cap \ldots X_n=-1) = P(X_1=-1) \ldots P(X_n=-1)$ (les $X_k$ sont indépendants).
et comme $P(X_k=-1)=1$, le produit vaut $1$. Donc $(*)$ est vrai.
Je pense qu'on a montré que les $Z_n$ sont mutuellement indépendants.