Espérance conditionnelle, cas simple

Bonjour,

Voilà, j'ai une application de mon cours sur l'espérance conditionnelle que je n'arrive pas à résoudre.

Soit X1 et X2 deux variables aléatoires i.i.d. de loi Ber(p). On pose S1 = X1 et S2 = X1+X2. On me demande de calculer E[S2 | sigma(S1)] avec sigma(S1) la tribu engendrée par S1.

Je pense que dans un premier temps il faut déterminer sigma(S1). Mon intuition me dit que sigma(S1) = { ensemble vide, omega, {S1=0}, {S1=1} } mais je n'arrive pas à le montrer rigoureusement.

Quelqu'un me donner des explications sur comment obtenir la tribu engendrée par une variable aléatoire ? De même quelqu'un peut il me donner des pistes pour le calcul de l'espérance conditionnelle ?

Bien cordialement et merci d'avance,
William


Edit @ 14h11 : après quelques recherches, je trouve E[S2 | S1] = a0 * 1{S1=0} + a1 * 1{S2=0} où 1A est l'indicatrice de l'ensemble A. Après, à l'aide de la définition de l'espérance conditionnelle (ie, pour tout Z va qui a les bonnes propriétés, E[XZ] = E[YZ] Ssi Y = E[X|S1] ) et en l'appliquant à Z = 1{S1=0} et Z = 1{S1=1}, on trouve les constantes a0 et a1.

Maintenant, est-il juste d'écrire que E[S2 | S1] = E[S2 | sigma(S1)] ??

Réponses

  • Salut,

    Ton intuition est excellente. Par définition $\sigma(X_1)$ est la plus petite tribu rendant $X_A$ mesurable. Il te suffit donc, si tu poses $\mathcal{G}=\left\{\emptyset, \, \{X_1=0\}, \, \{X_1=1\}, \Omega \right\}$, de vérifier :
    - que $\mathcal{G}$ est une tribu ;
    - que $X_1$ est $\mathcal{G}$-mesurable ;
    - que pour toute tribu $\mathcal{H}$, si $X_1$ est $\mathcal{H}$-mesurable alors $\mathcal{G} \subset \mathcal{H}$ ;
    et ces trois points sont à peu près triviaux (mais c'est bien de le faire une fois dans sa vie).

    Bon en fait c'est un peu plus subtil que ça, car $X_1$ pourrait prendre d'autres valeurs que $0$ ou $1$, mais ces valeurs sont de probabilité nulle.. donc pour l'instant oublions ça et on verra éventuellement plus tard comment préciser ce point.

    Pour la suite de l'exo : tu sais que l'espérance conditionnelle va être $\mathcal{G}$-mesurable. Que peux-tu dire d'une variable $\mathcal{G}$-mesurable ? Combien de valeurs peut-elle prendre ?
  • J'ai modifié mon premier message à l'instant après ce que j'ai trouvé entre temps.

    J'ai réussi à écrire E[S2 | S1] mais je ne sais pas si ma démarche (cf. plus haut) est rigoureuse et si je peux écrire E[S2 | S1] = E[S2 | sigma(S1)].
  • Salut,

    tu veux calculer E(X1+X2 | X1) (c'est équivalent à ce que tu as posé).

    Par linéarité de l'espérance conditionnelle c'est égale à la somme de

    * E(X1 | X1)
    Ce terme vaut X1 : tu peux le vérifier en revenant à la définition de l'espérance conditionnelle comme unique v.a. Y mesurable selon la tribu engendrée par X1 qui vérifie E(Indicatrice de A*Y)=E(indicatrice de A*X1) pour tout A dans sigma(X1), ou tu peux voir ça de façon plus imagée : E(X1|X1) est l'image de X1 par une fonction mesurable qui approxime le mieux X1, c'est donc X1 elle-même.

    * E(X2|X1)
    X1 et X2 sont indépendantes donc ce terme vaut E(X2)

    En espérant que cela t'aide.
  • Oui je n'avais pas vu ça comme ça !

    Mais a t on : E[S1|S2] = E[S1| sigma(S2)] ?
  • Oui !

    C'est une définition.

    L'espérance conditionnelle sachant une v.a. est égale à l'espérance conditionnelle sachant la tribu qu'elle engendre.
  • Ah oui merci, en fait ce sera la suite de notre cours ! (Nous n'avons vu, pour l'instant, que l'espérance conditionnellement à une sous tribu).

    Mais j'ai maintenant une question.

    Prenons le cas p=1/3, donc X1 et X2 suivent une loi Ber(1/3).

    Donc quand je calcule E[S2 | S1] = E[X1+X2|X1] = X1 + 1/3


    Maintenant si j'utilise la méthode que j'avais développé plus haut, c'est-à-dire d'écrire :

    E[X1+X2 | sigma(X1)] = a0 * 1{X1=0} + a1 * 1{X1=1} où 1A est l'indicatrice de l'ensemble A

    puis de revenir à la définition de l'espérance conditionnelle (E[YZ]=E[XZ]) en utilisant comme cas particulier Z = 1{X1=0} puis Z = 1{X2=0} j'obtiens alors :

    a0 = E[(X1+X2)*1{X1=0}] / Pr[X1=0] = E[X2]/Pr[X1=0] = (1/3) / (2/3) = 1/2

    et de même

    a1 = E[(X1+X2)*1{X1=1}] / Pr[X1=1] = (1+ E[X2])/Pr[X1=1] = (4/3) / (1/3) = 4

    d'où

    E[X1+X2 | sigma(X1)] = 1/2 * 1{X1=0} + 4 * 1{X1=1} ce qui est différent de X1 + 1/3

    Où me suis-je trompé ?

    Merci pour votre patience et vos réponses !
  • Salut,

    deux remarques :

    1 - tu dis "en utilisant comme cas particulier Z = 1{X1=0} puis Z = 1{X2=0}" alors que c'est "puis Z = 1{X1=1}" (ce que tu fais bien ensuite)

    2 - pourquoi divises-tu par Pr[X1=0] et Pr[X1=1] dans le calcul des espérances ?
  • Pour la première remarque, c'est en effet une erreur de frappe :)

    En fait, on a E[ E[X1+X2|X1]*1{X1=0} ] = E[ (a0*1{X1=0} + a1*{X1=1}) * 1{X1=0}] = E[a0*1{X1=0}] = a0*E[1{X1=0}] = a0*Pr[X1=0]

    D'un autre côté, en utilisant la définition de l'espérance conditionnelle : E[ E[X1+X2|X1]*1{X1=0} ] = E[ (X1+X2)*1{X1=0} ]

    D'où a0 = E[ (X1+X2)*1{X1=0} ] / Pr[X1=0]

    de même pour a1
  • "a0 = E[ (X1+X2)*1{X1=0} ] / Pr[X1=0] "

    Oui je suis d'accord, par contre "a0 = E[(X1+X2)*1{X1=0}] / Pr[X1=0] = E[X2]/Pr[X1=0]" je ne suis pas d'accord :

    E[(X1+X2)*1{X1=0}]=E[X2*1{X1=0}]=E[X2]*E[1{X1=0}]=E[X2]*Pr(X1=0)

    Donc le Pr(X1=0) s'élimine au final et on trouve le même résultat.
  • Ah oui voilà mon erreur !

    Merci bien Thomas :)
Connectez-vous ou Inscrivez-vous pour répondre.