Exo sur v.a. indépendantes.

Bonjour

J'ai l'exo suivant: Soit $X$ et $Y$ deux va indépendantes, et supposons que $P(X+Y=\alpha)=1$ où $\alpha$ est une constante. Montrer que $X$ et $Y$ sont des constantes presque surement.

Je compte utiliser le fait que si $f$ et $g$ sont mesurables, alors $E(f(X)g(Y))=E(f(X))E(g(Y))$, afin d'aboutir au fait que $P(X=c)=1$ où
$c$ est une constante.

Qu'en pensez vous?

Réponses

  • Bonjour,

    Essaie d'aller au bout de ton idée et tu verras bien si ça marche ou non.
  • Je pense qu'on peut faire plus élémentaire. Si $X$ n'est pas constante, on peut trouver $a$ avec $P(X\le a)>0$ et $P(X>a)>0$. Idem pour $Y$ (avec $b$). De là, on peut en déduire que si, en plus, $X$ et $Y$ sont indépendants, alors $X+Y$ n'est pas constante.
  • Ok,

    D'ailleurs, dans mon raisonnement (probablement faux), j'arrive à : $\forall A,\ P(\{X\in A\})=1$.
    Si cela est vrai, je voudrais savoir ce que cela implique pour $X$
  • Ca, c'est pas possible. (Prendre $A=\varnothing$.)
  • Autre chose:
    je me suis posé la question suivante:
    Si X et Y sont indépendantes, alors est ce que X ou -Y le sont?

    A priori non.
  • Si. De manière plus générale, si $X$ et $Y$ sont indépendantes (sous $\mathbb{P}$) et que $f$ et $g$ sont des fonctions $(\mathbb{R},\mathcal{B}(\mathbb{R}))-(\mathbb{R},\mathcal{B}(\mathbb{R}))$ mesurables, alors $f(X)$ et $g(Y)$ sont indépendantes (sous $\mathbb{P}$) . Si tu as compris la définition de l'indépendance, ce n'est pas pas un exercice très difficile.
  • Ok,
    sinon,pour revenir sur l'exo, je vais d'abord me concentrer sur le cas où $P(X+Y=0)$.
  • Est-il possible d'écrire $P(X+Y< c)$ sous forme d'intégrale.
    Par exemple, dans le cas fini, on a $P(X+Y< c)=\sum_i P(X+i< c\mid Y=i)P(Y=i)$

    Je cherche la même chose pour le cas continu.
  • J'ai beau chercher je ne vois pas comment faire. Je suis parti de la méthode d'Alea :
    Soit $X$ et $Y$ deux va indépendantes.
    Si $X$ ou $Y$ ne sont pas constantes, alors $X+Y$ ne peut pas l’être.

    Si quelqu'un peut me donner un indice pour commencer, des éléments qui me permettent d'avancer.
  • Je t'ai proposé de montrer:

    "Si $ X$ n'est pas constante, on peut trouver $ a$ avec $ P(X\le a)>0$ et $ P(X>a)>0$"
  • Montre que $\mathbb P\{X+Y\leqslant a+b\}>0$ et que $\mathbb P\{X+Y> a+b\}>0$ en exhibant un sous-ensemble dont on peut, par indépendance, bien estimer la probabilité.
  • "Si $ X$ n'est pas constante, on peut trouver $ a$ avec $ P(X\le a)>0$ et $ P(X>a)>0$"

    Dire que $X$ est constante signifie que:
    $\exists c, P(X=c)=1$ et $\forall a\neq c, P(X= a)=0$

    donc si $X$ n'est pas constante, signifie que:
    $\forall c, P(X=c)<1$ ou $\exists a\neq c, P(X= a)>0$

    ok?
  • alea a écrit:
    Si $ X$ n'est pas constante, on peut trouver $ a$ avec $ P(X\le a)>0$ et $ P(X>a)>0$

    Non, honnêtement, je ne vois pas. Ça doit être tout simple, mais je ne vois pas.
  • "Si $ X$ n'est pas constante, on peut trouver $ a$ avec $ P(X\le a)>0$ et $ P(X>a)>0$
    >Je pense y etre arrivé. Il faut utiliser la fonction de répartition, puis ensuite, on peut trouver une valeur qui fait qu'on a bien (par croissance de la fonction) $F(a)=P(X\le a)>0$ et $ P(X>a)>0$
    Montre que $\mathbb P\{X+Y\leqslant a+b\}>0$ et que $\mathbb P\{X+Y> a+b\}>0$ en exhibant un sous-ensemble dont on peut, par indépendance, bien estimer la probabilité.

    Je pense utiliser la fonction de partition de X+Y. Mais je voudrais avoir des renseignements:
    Peut-on déduire la fonction de partition de X+Y en fonction de celle de X et de Y?
    Je pense utiliser le théorème de Fubini. Cela peut aboutir?
  • La fonction de répartition permet effectivement de rédiger une bonne solution.
    Pour la suite, on peut noter que réciproquement, si une variable $X$ est constante, on a pour tout $a$ réel $\mathbb{P}(X\le a)\mathbb{P}(X>a)=0$.
  • Ok, oui,

    En fait, la question que je me pose depuis le début, c'est peut-on transformer la probabilité $P(X+Y< a)$ en $P(X<a,Y<b)$ Car ensuite, on peut utiliser l'indépendance.
  • Déjà dans le cas d'une variable discrete, on peut faire:
    $P(X+Y\leq z)=\sum_{k=-\infty}^zP(X+Y=k)=\sum_{k=-\infty}^z\sum_x P(X=x,Y=k-x)=\sum_{k=-\infty}^z\sum_x P(X=x)P(Y=k-x)$

    $P(X+Y\leq z)=\sum_{k=-\infty}^z\sum_x P(X=x)P(Y=k-x)$

    Ensuite, on peut utiliser les résultats précédents. Ok?
  • Bon, allé, j’arrête là. Je sais que j'y arriverai pas. Si vous voulez bien me donner la solution complete, je l'étudierai. Sinon, tant pis.
  • \renewcommand{\P}{\ensuremath{\mathbb{P}}}
    Pour $a$ réel, posons $F(a)=\P(X\le a)$. On a ``$\P(X\le a)>0$ et $\P(X>a)>0$'' si et seulement si $F(a)\in ]0,1[$. Comme $F$ est croissante, avec une limite $0$ en $-\infty$ et une limite $1$ en $+\infty$, si l'on suppose que $F(a)\in\{0,1\}$ pour tout $a$, alors il existe $c$ tel que $F(x)=0$ pour $x<c$ et $F(x)=1$ pour $x>c$.
    Ainsi, pour tout $n\ge 1$, $\P(X\in [c-1/n,c+1/n[)=F(c+1/n)-F(c-1/n)=1-0=1$.
    D'après le théorème de continuité séquentielle décroissante, on obtient $\P(X=c)=1$ et $X$ est constante. Par contraposée, si $X$ n'est pas constante, il existe un réel $a$ tel que $F(a)\in ]0,1[$, soit donc $\P(X\le a)>0$ et $\P(X>a)>0$.
    On peut noter que réciproquement, si $X$ est constante, on a pour tout $a$ réel $\P(X\le a)\P(X>a)=0$.
    Maintenant, si $X$ et $Y$ ne sont pas constantes, on a $a$ et $b$ avec $\P(X\le a)>0$, $\P(X>a)>0$, $\P(Y\le b)>0$, $\P(Y>b)>0$. On a $\P(X+Y\le a+b)\ge \P(X\le a,Y\le b)=\P(X\le a)\P(Y\le b)>0$ et $\P(X+Y> a+b)\ge \P(X> a,Y> b)=\P(X> a)\P(Y> b)>0$.
    Ainsi $\P(X+Y\le a+b)\P(X+Y> a+b)>0$ et $X+Y$ n'est pas constante.
  • Ok, merci
    C'est ça que je n'avais pas vu :
    $\mathbb P(X+Y\le a+b)\ge \mathbb P(X\le a,Y\le b)$
    Je cherchais à exprimer $\mathbb P(X+Y\le a+b)$ en fonction de $ \mathbb P(X\le a,Y\le b)$ sous forme d'égalité. Pas sous forme d'inégalité.
  • On m'a proposé une autre solution:
    On suppose que $E(X)=0, E(Y)=0$ et donc $\alpha=0$
    .Si ce n'est pas le cas, on prend $X-E(X)$ et $Y-E(Y)$
    Donc:
    $E((X+Y)²)=0=E(X²)+E(Y²)+2E(XY)$
    Or, $E(XY)=E(X)E(Y)=0$

    Donc
    $E(X²)+E(Y²)=0$

    Donc $E(X²)=0$ et $E(Y²)=0$

    Donc $X=Y=0$

    Ok?
  • Cette preuve utilise le fait que les variables $X$ et $Y$ ont un moment d'ordre 2. Ca ne me semble pas évident.
  • Ok. Ca suppose que $E(X²)<\infty$. Et effectivement, ce n'est pas dans les hypothèses de l'énoncé.
  • Curieux que personne n'ait proposé d'utiliser la bonne vieille fonction caractéristique. Rappel : si $\varphi_X(t_0)=e^{iat_0}$ est de module 1, alors $X$ est concentrée sur $a+t_02\pi\mathbb{Z}$, puisqu'alors $$ \int\big(1-\cos t_0(x-a)\big)\mu_X(dx)=0.$$ Donc si $X$ et $Y$ sont indépendantes telles que $Pr(X+Y=0)=1$ alors $$ \varphi_X(t)\varphi_Y(t)=1$$ et donc puisqu'une fonction caractéristique est de module $\leq 1$ alors $\varphi_X(t)$ est de module 1 pour tout $t$, donc $X$ est concentrée sur $a_t+t2\pi\mathbb{Z}$ pour $t$ tendant vers l'infini : donc $X$ est concentrée en un point.
  • Si $X$ et $Y$ sont indépendantes alors $\Pr(X+Y=\alpha)=\int \Pr(X+y=\alpha) d\mu(y)$ où $\mu$ est la loi de $Y$. Si $\Pr(X+Y=\alpha)=1$ on a donc $ \Pr(X+y=\alpha)=1$ pour $\mu$-presque tout $y$. Cela n'arrive nécessairement que pour un seul $y$, et c'est fini.
  • @SN: je trouve vraiment ta preuve très jolie, et conforme à l'intuition.

    Cependant, j'ai un peu l'impression qu'il y a une petite difficulté qui est mise sous le tapis, alors je me permets de lever le lièvre, quitte à obscurcir la preuve.

    Si je note $\Delta=\{(x,y)\in\R^2; x+y=\alpha\}$, le théorème de Tonelli me dit que $y\mapsto \mu(\{x\in\R; (x,y)\in\Delta\})$ est une application mesurable. Je reprends ton raisonnement: cette application est majorée par $1$, d'intégrale $1$, donc l'image réciproque de $1$ (qui est bien mesurable) est de masse $1$. En particulier, c'est un ensemble non vide et c'est fini.

    PS: en fait j'exagère ce n'est même pas Tonelli, c'est dans la définition-construction d'une mesure produit.
  • Je n'ai pas compris ce qui te gêne. Je dis que $E[f(X,Y)] = \int g(y) d\mu(y)$ avec $f$ mesurable et $g(y)=E[f(X,y)]$. En plus ici on a $g \leq 1$ donc forcément $\mu\{y \mid g(y)<1\}=0$ si $ \int g(y) d\mu(y)=1$. Quel est le point obscur ?
  • En utilisant une fois $(1)$ le fait que $X$ et $Y$ sont indépendantes et deux fois $(2)$ le fait que $X+Y=a$ presque sûrement, on montre que $X$ est indépendante d'elle même : pour tout $u,v \in \Bbb R$, $P(X \leq u, X \leq v) \overset{(2)}{=} P(X \leq u, Y \geq a - v) \overset{(1)}{=} P(X \leq u)P(Y \geq a - v) \overset{(2)}{=} P(X \leq u)P(X \leq v)$.

    Ceci entraîne classiquement que presque sûrement, $X$ est égale à une constante. On peut le voir en prenant $u=v$ ci-dessus, ce qui entraîne que la fonction de répartition $F$ de $X$ vérifie $F(u)=F(u)^2$ pour tout $u \in \Bbb R$, c'est à dire $F(u) \in \{0,1\}$ pour tout $u \in \Bbb R$. Il suffit alors de prendre $c = \inf\{u : F(u) = 1\}$.
  • @SN: le passage du presque tout au choix d'un $y$ ne me paraissait pas très clair, d'autant que tu insistes sur l'unicité, alors que c'est plutôt l'existence qu'on utilise d'abord.
  • @aléa : Si $\Pr(E)>0$ (ici $=1$) alors $E$ est non vide, je me suis effectivement permis de passer ce point.
Connectez-vous ou Inscrivez-vous pour répondre.