Somme de variables aléatoires indépendantes
Bonsoir.
Quelqu'un connaitrait-il les arguments de la propriété qui dit que la somme de deux variables aléatoires indépendantes suit une loi de densité la convolée des deux densités des variables aléatoires initiales ?
Merci.
Quelqu'un connaitrait-il les arguments de la propriété qui dit que la somme de deux variables aléatoires indépendantes suit une loi de densité la convolée des deux densités des variables aléatoires initiales ?
Merci.
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses
Tout dépend du niveau auquel tu te places. Si tu connais la théorie de la mesure, c'est assez immédiat. Sinon, il vaut mieux au moins connaître les densités conjointes, savoir que la densité conjointe de $(X,Y)$ lorsque $X$ et $Y$ sont indépendantes est $f_{(X,Y)}(x,y)=f_X(x)f_Y(y)$, et connaître le théorème de Fubini pour écrire la fonction de répartition de $Z=X+Y$ comme une intégrale double.
Je te remercie de ta réponse.
Oui, je connais la théorie de la mesure, et c'est une preuve dans ce domaine que je recherche.
Merci encore.
On applique ça à $Z=X+Y$ : pour toute $h$ mesurable positive, on a $$\mathbb{E}(h(Z))=\mathbb{E}(h(X+Y))=\int \! \! \! \int_{\R^2} h(x+y) f_X(x) f_Y(y) \, dx \, dy$$ par le théorème de transfert. On fait le changement de variable $(x,z)=(x,x+y)$, d'où avec Fubini : $$\mathbb{E}(h(Z))=\int \! \! \! \int_{\R^2} h(z) f_X(x) f_Y(z-x) \, dx \, dz =\int_{z \in \R} h(z) \int_{x \in \R} f_X(x) f_Y(z-x) \, dx \, dz=\int_{z \in \R} h(z) f_X \star f_Y(z) \, dz$$ CQFD. La méthode plus élémentaire consistant à déterminer la fonction de répartition $F_Z(a)$ revient en fait à prendre $h(z)=1_{]-\infty,a]}(z)$.
Comme applications plus ou moins simples de la "méthode de la fonction muette", tu as par exemple :
- si $U$ est uniforme sur $[0,1]$, trouver la loi de $U^n$ et $-\ln U$ ;
- si $(U,V)$ sont uniformes sur $[0,1]$, indépendantes, trouver la loi de $UV$ ;
- si $(X,Y)$ est uniforme sur le disque unité, trouver la loi de $X$ ;
- si $X_1,...,X_n$ sont i.i.d. suivant la loi exponentielle de paramètre $\lambda$, trouver la loi de $S=X_1+\cdots+X_n$ et la loi conjointe de $(M,N)$ où $M=\min(X_1,...,X_n)$ et $N$ l'entier aléatoire tel que $M=X_N$ ;
etc.
Merci Dimitri Fedorovitch, je connaissais la méthode mais pas le nom "de la fonction muette" (et je le trouve d'ailleurs fort bien choisi).
je reviens sur ce vieux topic pour vérifier si un résultat est bon. Dans le cas où les deux variables ne sont pas indépendantes, mais de loi jointe $f(x,y)$, la démonstration d'Egoroff permet si je ne m'abuse d'obtenir la densité de la somme S par :
\[g(s)=\int f(x,s-x) dx
\]
Est-ce correct ?
si l'une des deux intégrales (i.e celle de f(x-t)g(t)dt et celle de f(t)g(x-t)) converge, alors l'autre converge et les deux intégrales sont égales.
Si le produit de convolution f*g est continu sauf peut - être en un nombre fini de points, alors X + Y est à densité, et f*g est une densité de X + Y.
Si l'une des deux deux densités est à support borné, alors le produit de convolution est défini ; X + Y est à densité, et f*g est une densité de X + Y.
Dans la même gamme, je me demande comment montrer que si $X$ et $Y$ sont deux variables i.i.d réelles de loi $\mu$ et de fonction de répartition $F$ continue alors
$P(X-Y \le z) = \int F(x+y) d\mu(y)$
$$\mathbb P(X-Y \leq z) = \int_{(X-Y)^{-1}(]-\infty, z])} d\mathbb P = \int_{\mathbb R^2} \mathbf 1_{]-\infty, z]}(x-y) \,d\mathbb P_{(X,Y)}(x,y) = \int_{\mathbb R} \left( \int_{\mathbb R} \mathbf 1_{]-\infty, z]}(x-y) \,d\mathbb P_X(x) \right) \,d\mathbb P_Y(y)$$ et comme pour $x, y \in \mathbb R$, $\mathbf 1_{]-\infty, z]}(x-y) = \mathbf 1_{]-\infty, z+y]}(x),$ on trouve $$\int_{\mathbb R} F_X(z+y) \,d\mathbb P_Y(y).$$