Loi uniforme sur [0,1]

Considérons $X$ une variable aléatoire de loi uniforme sur $[0,1]$ de densité $p_X(x) = \mathbf{1}_{[0,1]}(x)$ et définissons \[
\{ 0, 1 \} \ni Y_X := \mbox{partie entière de } 2 X \quad \mbox{et} \quad Z_X := X - Y_X.
\] distribution de $Y_X$ \[
\mathbb{P} (Y_X = 0) = \int_0^{\frac{1}{2}} p_X(x) d x = \frac{1}{2}
\quad
\mbox{et}
\quad
\mathbb{P} (Y_X = 1) = \int_{\frac{1}{2}}^1 p_X(x) d x = \frac{1}{2}.
\] La loi de $Y_X$ est une Bernoulli de paramètre $\frac{1}{2}$.
distribution de $Z_X$
Soit $g(z)$ une fonction continue et muette.
\begin{align*}
\mathbb{E} g(Z_X) & = \mathbb{E} g(Z_X) \mathbf{1}_{\{ Y_X = 0\} } + \mathbb{E} g(Z_X) \mathbf{1}_{\{ Y_X = 1 \} } \\
& = \mathbb{E} g(X) \mathbf{1}_{\{ 0 \leq X < \frac{1}{2} \} } + \mathbb{E} g(X-1) \mathbf{1}_{\{ \frac{1}{2} \leq X < 1 \} } \\
& = \int_0^{\frac{1}{2}} g(x) d x + \int_{\frac{1}{2}}^1 g(x-1) d x\\
& = \int_0^{\frac{1}{2}} g(x) d x + \int_{-\frac{1}{2}}^0 g(y) d y\\
& = \int_{-\frac{1}{2}}^{\frac{1}{2}} g(x) d x
\end{align*}
La loi de $Z_X$ est une loi uniforme sur $(-\frac{1}{2},\frac{1}{2})$.
question sur l'indépendance de $Y_X$ et $Z_X$ ?
Dans un exercice, je suis censé montrer que les deux variables sont indépendantes, or pour toute fonction muette $h(z,y)$, je trouve que l'on doit avoir :
\begin{align*}
\mathbb{E} h(Z_X,Y_X) & = \mathbb{E} \left [ h(Z_X,0) | Y_X = 0 \right ] \mathbb{P} (Y_X = 0) + \mathbb{E} \left [ h(Z_X,1) | Y_X = 1 \right ] \mathbb{P} (Y_X = 1) \\
& = \int_0^{\frac{1}{2}} h(z,0) d z + \int_{-\frac{1}{2}}^0 h(z,1) d z.
\end{align*}
Si $h$ est de la forme $h(z,y) = \phi(z) \psi(y)$ \[
\mathbb{E} \phi(Z_X) \psi(Y_X) = \Big ( \int_{-\frac{1}{2}}^0 \phi(z) d z \Big ) \psi(0) + \Big ( \int_0^{\frac{1}{2}} \phi(z) d z \Big ) \psi(1)
\] ce qui n'est pas \[
\mathbb{E} \phi(Z_X) \mathbb{E} \psi(Y_X) = \int_{-\frac{1}{2}}^{\frac{1}{2}} \phi(z) d z \Big ( \frac{1}{2} \psi(0) + \frac{1}{2} \psi(1) \Big ) .
\] Qu'en pensez-vous ?

Réponses

Connectez-vous ou Inscrivez-vous pour répondre.