Variance

Si l'on dispose d'une série d'observation $(x_i)_{i \in I}$ de poids respectif $p_i$ alors la variance empirique est donnée par : $\sum_{i} p_{i}\left(x_{i }-\overline{x}\right)^{2}$.

Comment prouver (de manière élégante) que c'est aussi égal à $\frac{1}{2} \sum_{i} \sum_{l} p_{i} p_{l}\left(x_{i }-x_{l }\right)^{2}$ ?

Réponses

  • Bonjour,
    Cette formule est le cas particulier de $Cov(X,Y)=\Sigma_{i}(x_i-\bar{x})(y_i-\bar{y})=\frac{1}{2}\Sigma_{i,j}(x_i-x_j)(y_i-y_j) p_i p_j$
    qui se démontre en développant le dernier membre, en simplifiant et en utilisant la formule de Huygens.
    Il y a peut être une preuve plus géométrique en considérant $\Sigma_{i}(x_i-\bar{x})(y_i-\bar{y})$ comme un produit scalaire $<X, Y>$, puis en exploitant les propriétés qui vont avec.
    Cordialement
  • ... Je voulais dire : $Cov(X,Y)=<X_c,Y_c>$ où $X_c$ et $Y_c$ sont respectivement les variables $X$ et $Y$ centrées
  • Merci, n'y a-t-il pas erreur ?
    $\operatorname{Cov}(X, Y)=\Sigma_{i}\left(x_{i}-\overline{x}\right)\left(y_{i}-\overline{y}\right)=\frac{1}{2} \Sigma_{i, j}\left(x_{i}-x_{j}\right)\left(y_{i}-y_{j}\right) p_{i} p_{j}$.

    Ou sont les $p_i,p_j$ dans cette partie $\Sigma_{i}\left(x_{i}-\overline{x}\right)\left(y_{i}-\overline{y}\right)$ ?
    Peut être suis je fatigué mais j'ai l'impression qu'il manque quelque chose ?
  • Si $X$ et $Y$ sont iid de moyenne $m$ et avec second moment, alors
    $$\mathbb{E}[(X-Y)^2]=\mathbb{E}[((X-m)-(Y-m))^2]=\mathbb{E}[(X-m)^2]+\mathbb{E}[(Y-m)^2]-2\mathbb{E}[(X-m)]\mathbb{E}[(Y-m)]=2\mathbb{E}[(X-m)^2]$$ Application $X\sim\sum_{i}p_i\delta_{x_i},\ m=\overline{x}.$
Connectez-vous ou Inscrivez-vous pour répondre.