Norme L2 variable aléatoire

Bonjour,

J'ai des variables i.i.d. $X_i$ telle que pour tout entier naturel $i$, $P(X_i=-1)=P(X_i=1)=\dfrac{1}{2}$.
On a $S_n = \sum \limits_{k=1}^{n} \dfrac{X_k}{k}$.
Comment procéder pour calculer la norme $L^2$ de $S_n$ ? Je ne veux pas du tout le résultat final mais simplement les quelques premières lignes pour commencer.
J'ai besoin d'exemples pour comprendre un peu la théorie de la mesure et là je bloque complètement. Et notamment, à quel moment on passe d'une intégrale sur $\Omega$ en fonction de la mesure de probabilité $P$ à une expression qui fait intervenir $-1$ et $1$ et les probabilités que $X_i$ prenne l'une ou l'autre de ces valeurs...

Pour l'instant, et sauf erreur très probable de ma part, j'ai :
$\vert \vert S_n \vert \vert _2 ^2 = \sum \limits_{k=1}^{n} \dfrac{\int_{\Omega} X_k^2 dP}{k^2} + \sum \limits_{1\leq i<j\leq n} \dfrac{1}{ij} \int_\Omega X_i X_j dP$
mais je ne sais pas si c'est correct, ni comment poursuivre le cas échéant.

Merci d'avance et meilleurs voeux à tous.

Réponses

  • Remarque que la norme $L^2$ de $S_n$ est sa variance. Et la variance d'une somme de v.a indépendantes est égale à...
  • Toutes les covariances se simplifient donc il nous reste uniquement $n E(X_i ^2)$?

    Merci pour ta réponse. En revanche pour la suite de mon calcul comment cela se traduit-il ? Que faire par exemple de $\int_{\Omega} X_i^2 dP$ ? Est-ce à dire que ceci est directement égal à l'espérance de $X_i^2$ ?
  • Sachant que dans le cas de v.a indépendantes, la variance de la somme est égale à la somme des variances, tu as $\vert \vert S_n \vert \vert _2 ^2 = \sum \limits_{k=1}^{n} \dfrac{\int_{\Omega} X_k^2 dP}{k^2}$

    Ensuite si $X$ est une v.a qui prend ses valeurs dans $\{-1,1\}$, que peux-tu dire de la v.a $X^2$ ?
  • Merci pour ta réponse.

    En fait je vois à peu près ou on veut en venir en posant les calculs hors de toute considération des intégrales de Lebesgue (on peut facilement calculer la variance d'une somme de v.a. i.i.d., là en plus c'est très simple puisqu'on a des variables qui prennent des valeurs simples et qui sont en plus centrées donc bref je saurais m'en sortir si on sortait du cadre de la théorie de la mesure).

    Ce que je ne comprends pas en revanche, c'est si on a bien (et accessoirement comment on obtient) :
    $\int_{\Omega} X_i dP = E(X_i)$
    $\int_{\Omega} X_i X_j dP = cov(X_i,X_j)$ (ou bien $= E(X_i X_j)$ ?)
    $\int_{\Omega} X_i^2 = E(X_i^2)$

    En gros, comment se simplifie rigoureusement ma grosse expression pour arriver à ce que tu as écrit ? En utilisant non pas des arguments probabilistes mais de théorie de la mesure et en rentrant vraiment dans ce que veulent dire les intégrales... Je ne sais pas si je suis clair ?


    Pour ta deuxième question : elle est égale à $1$ presque sûrement ?
  • Pour rappel : si $X$ est une v.a, par définition, l'espérance de $X$ est $\int_{\Omega} X dP$ et ceci est la définition générale valable que $X$ doit discrète ou pas.

    Pour répondre à tes questions :

    Pour $\int_{\Omega} X_i dP = E(X_i)$ c'est la définition de l'espérance donc oui c'est juste.

    Pour $\int_{\Omega} X_i X_j dP = cov(X_i,X_j)$ c'est juste aussi car par définition $cov(X_i,X_j)= \int_{\Omega} (X_i-E(X_1)(X_j-E(X_j)) dP$ mais $E(X_i)=E(X_j)=0$ pour tout $i,j$.

    Et oui $\int_{\Omega} X_i X_j dP=E(X_iX_y)$ toujours par définition de l'espérance.

    Enfin $\int_{\Omega} X_i^2 dP = E(X_i^2)$ est juste aussi toujours par définition de l'espérance.

    Ton expression se simplifie car si $i\neq j$, $\int_{\Omega} X_i X_j dP=\int_{\Omega} X_i dP\cdot \int_{\Omega} X_j dP$ grâce à l'indépendance. Et vu que $\int_{\Omega} X_i dP=\int_{\Omega} X_j dP=0$...

    C'est un résultat à connaitre : si deux fonctions mesurables sont indépendantes alors l'intégrale du produit est égale au produit des intégrales.
  • Merci pour ton temps et pour ces réponses hyper claires, ça m'aide beaucoup !

    Meilleurs voeux !
Connectez-vous ou Inscrivez-vous pour répondre.