indépendance
dans Statistiques
Bonjour
soient $X_1,...,X_n$ des va iid de loi gaussiennes. Comment prouver que: $\bar{X}$ et $S^2:=\dfrac{1}{n-1}\sum(X_i-\bar{X})^2$ sont indépendante ? Je pensais à Cochran mais j'avoue ne pas arriver à le montrer.
soient $X_1,...,X_n$ des va iid de loi gaussiennes. Comment prouver que: $\bar{X}$ et $S^2:=\dfrac{1}{n-1}\sum(X_i-\bar{X})^2$ sont indépendante ? Je pensais à Cochran mais j'avoue ne pas arriver à le montrer.
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses
En notant $X$ le n-echantillon $(X_1,...,X_n)$, $1$ le vecteur contenant des 1 sur toutes ses composantes et $X_m:=(\bar{X},...,\bar{X})$; je constate que $(\bar{X},...,\bar{X})=P_1(X)$ (il suffit de remarquer $<(1/\sqrt{n})1,X>(1/\sqrt{n})1=X_m$).
On remarque que $P_{1^{\perp}}X=(I-P_1)X=X-X_m$. On a donc ces deux vecteurs qui sont indépendants (voir preuve de Cochran)
La norme au carré divisé par $n-1$ (notons là $g$) et la projection sur la première composante étant deux fonctions boréliennes (car continues) on a $f(X_m),g(X-X_m)$ sont deux va indépendantes.
Pour tout couple de fonctions boréliennes ${\displaystyle \scriptstyle \ g} \scriptstyle \ g et {\displaystyle \scriptstyle \ h,\ } \scriptstyle \ h,\ $dès que les espérances ci-dessous ont un sens, on a
${\displaystyle \mathbb {E} \left[g(X)\cdot h(Y)\right]=\mathbb {E} [g(X)]\cdot \mathbb {E} [h(Y)].} {\mathbb {E}}\left[g(X)\cdot h(Y)\right]={\mathbb {E}}[g(X)]\cdot {\mathbb {E}}[h(Y)].$
$$\mathbb{E}(e^{s\overline{X}+\langle t,V\rangle})=e^{s^2/2n}e^{(n-1)^2\|t\|^2/2n}$$ qui est un produit d'une fonction de $s$ seul et d'une fonction de $t$ seul, ce qui montre l'independance.
Je sait que $\bar{X}$ suit une loi normale de même moyenne que $X_i$ et de variance divisée par $n$.
Pour $S^2$ c'est une autre paire de manche... Par Cochran il y asans doute du "chi 2" caché (à $n-1$ ddl) mais vu que l'on a pas nécessairements des $X_i$ centrées réduite je ne sais pas comment procéder.
Je vais utiliser Cochran un peu comme une boîte noire. $\|P_{1^{\perp}}((X-\mu 1)/\sigma)\|^2 \sim \chi^2_{n-1}$
Or $\|P_{1^{\perp}}((X-\mu 1)/\sigma)\|^2=1/\sigma^2\|P_{1^{\perp}}((X-\mu 1))\|^2=1/\sigma^2\|P_{1^{\perp}}(X)\|^2$ sachant que l'on a déjà vérifié que $\|P_{1^{\perp}}(X)\|^2=\sum(X_i-\bar{X})^2=(n-1)S^2$
On en déduit que $\dfrac{n-1}{\sigma^2}S^2 \sim \chi^2_{n-1}$.
Bon vu que c'est $S^2$ qui nous intéresse on a (est ce que cettte écriture a un sens ??) $S^2 \sim \dfrac{\sigma^2}{n-1}\chi^2_{n-1}$.
Je sait que notre va de loi $\chi^2_{n-1}$ a une espérance de $n-1$ et une variance de $2(n-1)$ donc j'en déduit la moyenne et la variance de $S^2$. Par contre est ce que l'allure est toujours celle d'un chi2 ? Intuitivement je dirais oui puisque l'on ne fait qu'une sorte de dilatation des valeurs mais je ne saurait pas trop le justifier...
Themes de Probabilites et Statistique de Paul Toulouse, Dunod 1999, tu trouverais toutes les demonstrations en deux pages 56-57.