Exo sur v.a. indépendantes.
Bonjour
J'ai l'exo suivant: Soit $X$ et $Y$ deux va indépendantes, et supposons que $P(X+Y=\alpha)=1$ où $\alpha$ est une constante. Montrer que $X$ et $Y$ sont des constantes presque surement.
Je compte utiliser le fait que si $f$ et $g$ sont mesurables, alors $E(f(X)g(Y))=E(f(X))E(g(Y))$, afin d'aboutir au fait que $P(X=c)=1$ où
$c$ est une constante.
Qu'en pensez vous?
J'ai l'exo suivant: Soit $X$ et $Y$ deux va indépendantes, et supposons que $P(X+Y=\alpha)=1$ où $\alpha$ est une constante. Montrer que $X$ et $Y$ sont des constantes presque surement.
Je compte utiliser le fait que si $f$ et $g$ sont mesurables, alors $E(f(X)g(Y))=E(f(X))E(g(Y))$, afin d'aboutir au fait que $P(X=c)=1$ où
$c$ est une constante.
Qu'en pensez vous?
Réponses
-
Bonjour,
Essaie d'aller au bout de ton idée et tu verras bien si ça marche ou non. -
Je pense qu'on peut faire plus élémentaire. Si $X$ n'est pas constante, on peut trouver $a$ avec $P(X\le a)>0$ et $P(X>a)>0$. Idem pour $Y$ (avec $b$). De là, on peut en déduire que si, en plus, $X$ et $Y$ sont indépendants, alors $X+Y$ n'est pas constante.
-
Ok,
D'ailleurs, dans mon raisonnement (probablement faux), j'arrive à : $\forall A,\ P(\{X\in A\})=1$.
Si cela est vrai, je voudrais savoir ce que cela implique pour $X$ -
Ca, c'est pas possible. (Prendre $A=\varnothing$.)
-
Autre chose:
je me suis posé la question suivante:
Si X et Y sont indépendantes, alors est ce que X ou -Y le sont?
A priori non. -
Si. De manière plus générale, si $X$ et $Y$ sont indépendantes (sous $\mathbb{P}$) et que $f$ et $g$ sont des fonctions $(\mathbb{R},\mathcal{B}(\mathbb{R}))-(\mathbb{R},\mathcal{B}(\mathbb{R}))$ mesurables, alors $f(X)$ et $g(Y)$ sont indépendantes (sous $\mathbb{P}$) . Si tu as compris la définition de l'indépendance, ce n'est pas pas un exercice très difficile.
-
Ok,
sinon,pour revenir sur l'exo, je vais d'abord me concentrer sur le cas où $P(X+Y=0)$. -
Est-il possible d'écrire $P(X+Y< c)$ sous forme d'intégrale.
Par exemple, dans le cas fini, on a $P(X+Y< c)=\sum_i P(X+i< c\mid Y=i)P(Y=i)$
Je cherche la même chose pour le cas continu. -
J'ai beau chercher je ne vois pas comment faire. Je suis parti de la méthode d'Alea :
Soit $X$ et $Y$ deux va indépendantes.
Si $X$ ou $Y$ ne sont pas constantes, alors $X+Y$ ne peut pas l’être.
Si quelqu'un peut me donner un indice pour commencer, des éléments qui me permettent d'avancer. -
Je t'ai proposé de montrer:
"Si $ X$ n'est pas constante, on peut trouver $ a$ avec $ P(X\le a)>0$ et $ P(X>a)>0$" -
Montre que $\mathbb P\{X+Y\leqslant a+b\}>0$ et que $\mathbb P\{X+Y> a+b\}>0$ en exhibant un sous-ensemble dont on peut, par indépendance, bien estimer la probabilité.
-
"Si $ X$ n'est pas constante, on peut trouver $ a$ avec $ P(X\le a)>0$ et $ P(X>a)>0$"
Dire que $X$ est constante signifie que:
$\exists c, P(X=c)=1$ et $\forall a\neq c, P(X= a)=0$
donc si $X$ n'est pas constante, signifie que:
$\forall c, P(X=c)<1$ ou $\exists a\neq c, P(X= a)>0$
ok? -
"Si $ X$ n'est pas constante, on peut trouver $ a$ avec $ P(X\le a)>0$ et $ P(X>a)>0$Montre que $\mathbb P\{X+Y\leqslant a+b\}>0$ et que $\mathbb P\{X+Y> a+b\}>0$ en exhibant un sous-ensemble dont on peut, par indépendance, bien estimer la probabilité.
Je pense utiliser la fonction de partition de X+Y. Mais je voudrais avoir des renseignements:
Peut-on déduire la fonction de partition de X+Y en fonction de celle de X et de Y?
Je pense utiliser le théorème de Fubini. Cela peut aboutir? -
La fonction de répartition permet effectivement de rédiger une bonne solution.
Pour la suite, on peut noter que réciproquement, si une variable $X$ est constante, on a pour tout $a$ réel $\mathbb{P}(X\le a)\mathbb{P}(X>a)=0$. -
Ok, oui,
En fait, la question que je me pose depuis le début, c'est peut-on transformer la probabilité $P(X+Y< a)$ en $P(X<a,Y<b)$ Car ensuite, on peut utiliser l'indépendance. -
Déjà dans le cas d'une variable discrete, on peut faire:
$P(X+Y\leq z)=\sum_{k=-\infty}^zP(X+Y=k)=\sum_{k=-\infty}^z\sum_x P(X=x,Y=k-x)=\sum_{k=-\infty}^z\sum_x P(X=x)P(Y=k-x)$
$P(X+Y\leq z)=\sum_{k=-\infty}^z\sum_x P(X=x)P(Y=k-x)$
Ensuite, on peut utiliser les résultats précédents. Ok? -
Bon, allé, j’arrête là. Je sais que j'y arriverai pas. Si vous voulez bien me donner la solution complete, je l'étudierai. Sinon, tant pis.
-
\renewcommand{\P}{\ensuremath{\mathbb{P}}}
Pour $a$ réel, posons $F(a)=\P(X\le a)$. On a ``$\P(X\le a)>0$ et $\P(X>a)>0$'' si et seulement si $F(a)\in ]0,1[$. Comme $F$ est croissante, avec une limite $0$ en $-\infty$ et une limite $1$ en $+\infty$, si l'on suppose que $F(a)\in\{0,1\}$ pour tout $a$, alors il existe $c$ tel que $F(x)=0$ pour $x<c$ et $F(x)=1$ pour $x>c$.
Ainsi, pour tout $n\ge 1$, $\P(X\in [c-1/n,c+1/n[)=F(c+1/n)-F(c-1/n)=1-0=1$.
D'après le théorème de continuité séquentielle décroissante, on obtient $\P(X=c)=1$ et $X$ est constante. Par contraposée, si $X$ n'est pas constante, il existe un réel $a$ tel que $F(a)\in ]0,1[$, soit donc $\P(X\le a)>0$ et $\P(X>a)>0$.
On peut noter que réciproquement, si $X$ est constante, on a pour tout $a$ réel $\P(X\le a)\P(X>a)=0$.
Maintenant, si $X$ et $Y$ ne sont pas constantes, on a $a$ et $b$ avec $\P(X\le a)>0$, $\P(X>a)>0$, $\P(Y\le b)>0$, $\P(Y>b)>0$. On a $\P(X+Y\le a+b)\ge \P(X\le a,Y\le b)=\P(X\le a)\P(Y\le b)>0$ et $\P(X+Y> a+b)\ge \P(X> a,Y> b)=\P(X> a)\P(Y> b)>0$.
Ainsi $\P(X+Y\le a+b)\P(X+Y> a+b)>0$ et $X+Y$ n'est pas constante. -
Ok, merci
C'est ça que je n'avais pas vu :
$\mathbb P(X+Y\le a+b)\ge \mathbb P(X\le a,Y\le b)$
Je cherchais à exprimer $\mathbb P(X+Y\le a+b)$ en fonction de $ \mathbb P(X\le a,Y\le b)$ sous forme d'égalité. Pas sous forme d'inégalité. -
On m'a proposé une autre solution:
On suppose que $E(X)=0, E(Y)=0$ et donc $\alpha=0$
.Si ce n'est pas le cas, on prend $X-E(X)$ et $Y-E(Y)$
Donc:
$E((X+Y)²)=0=E(X²)+E(Y²)+2E(XY)$
Or, $E(XY)=E(X)E(Y)=0$
Donc
$E(X²)+E(Y²)=0$
Donc $E(X²)=0$ et $E(Y²)=0$
Donc $X=Y=0$
Ok? -
Cette preuve utilise le fait que les variables $X$ et $Y$ ont un moment d'ordre 2. Ca ne me semble pas évident.
-
Ok. Ca suppose que $E(X²)<\infty$. Et effectivement, ce n'est pas dans les hypothèses de l'énoncé.
-
Curieux que personne n'ait proposé d'utiliser la bonne vieille fonction caractéristique. Rappel : si $\varphi_X(t_0)=e^{iat_0}$ est de module 1, alors $X$ est concentrée sur $a+t_02\pi\mathbb{Z}$, puisqu'alors $$ \int\big(1-\cos t_0(x-a)\big)\mu_X(dx)=0.$$ Donc si $X$ et $Y$ sont indépendantes telles que $Pr(X+Y=0)=1$ alors $$ \varphi_X(t)\varphi_Y(t)=1$$ et donc puisqu'une fonction caractéristique est de module $\leq 1$ alors $\varphi_X(t)$ est de module 1 pour tout $t$, donc $X$ est concentrée sur $a_t+t2\pi\mathbb{Z}$ pour $t$ tendant vers l'infini : donc $X$ est concentrée en un point.
-
Si $X$ et $Y$ sont indépendantes alors $\Pr(X+Y=\alpha)=\int \Pr(X+y=\alpha) d\mu(y)$ où $\mu$ est la loi de $Y$. Si $\Pr(X+Y=\alpha)=1$ on a donc $ \Pr(X+y=\alpha)=1$ pour $\mu$-presque tout $y$. Cela n'arrive nécessairement que pour un seul $y$, et c'est fini.
-
@SN: je trouve vraiment ta preuve très jolie, et conforme à l'intuition.
Cependant, j'ai un peu l'impression qu'il y a une petite difficulté qui est mise sous le tapis, alors je me permets de lever le lièvre, quitte à obscurcir la preuve.
Si je note $\Delta=\{(x,y)\in\R^2; x+y=\alpha\}$, le théorème de Tonelli me dit que $y\mapsto \mu(\{x\in\R; (x,y)\in\Delta\})$ est une application mesurable. Je reprends ton raisonnement: cette application est majorée par $1$, d'intégrale $1$, donc l'image réciproque de $1$ (qui est bien mesurable) est de masse $1$. En particulier, c'est un ensemble non vide et c'est fini.
PS: en fait j'exagère ce n'est même pas Tonelli, c'est dans la définition-construction d'une mesure produit. -
Je n'ai pas compris ce qui te gêne. Je dis que $E[f(X,Y)] = \int g(y) d\mu(y)$ avec $f$ mesurable et $g(y)=E[f(X,y)]$. En plus ici on a $g \leq 1$ donc forcément $\mu\{y \mid g(y)<1\}=0$ si $ \int g(y) d\mu(y)=1$. Quel est le point obscur ?
-
En utilisant une fois $(1)$ le fait que $X$ et $Y$ sont indépendantes et deux fois $(2)$ le fait que $X+Y=a$ presque sûrement, on montre que $X$ est indépendante d'elle même : pour tout $u,v \in \Bbb R$, $P(X \leq u, X \leq v) \overset{(2)}{=} P(X \leq u, Y \geq a - v) \overset{(1)}{=} P(X \leq u)P(Y \geq a - v) \overset{(2)}{=} P(X \leq u)P(X \leq v)$.
Ceci entraîne classiquement que presque sûrement, $X$ est égale à une constante. On peut le voir en prenant $u=v$ ci-dessus, ce qui entraîne que la fonction de répartition $F$ de $X$ vérifie $F(u)=F(u)^2$ pour tout $u \in \Bbb R$, c'est à dire $F(u) \in \{0,1\}$ pour tout $u \in \Bbb R$. Il suffit alors de prendre $c = \inf\{u : F(u) = 1\}$. -
(tu)
-
@aléa : Si $\Pr(E)>0$ (ici $=1$) alors $E$ est non vide, je me suis effectivement permis de passer ce point.
Connectez-vous ou Inscrivez-vous pour répondre.
Bonjour!
Catégories
- 163.1K Toutes les catégories
- 8 Collège/Lycée
- 21.9K Algèbre
- 37.1K Analyse
- 6.2K Arithmétique
- 53 Catégories et structures
- 1K Combinatoire et Graphes
- 11 Sciences des données
- 5K Concours et Examens
- 11 CultureMath
- 47 Enseignement à distance
- 2.9K Fondements et Logique
- 10.3K Géométrie
- 62 Géométrie différentielle
- 1.1K Histoire des Mathématiques
- 68 Informatique théorique
- 3.8K LaTeX
- 39K Les-mathématiques
- 3.5K Livres, articles, revues, (...)
- 2.7K Logiciels pour les mathématiques
- 24 Mathématiques et finance
- 312 Mathématiques et Physique
- 4.9K Mathématiques et Société
- 3.3K Pédagogie, enseignement, orientation
- 10K Probabilités, théorie de la mesure
- 772 Shtam
- 4.2K Statistiques
- 3.7K Topologie
- 1.4K Vie du Forum et de ses membres