Convergence en loi... sans limite !
Bonjour à tous. Je dispose d'une suite de variables aléatoires $(X_n)_n$ qui "converge en loi" au sens où, pour toute fonction lipschitzienne (je n'ai pas besoin de bornitude dans mon cas particulier) $f$ la suite $(\mathbb E(f(X_n)))_n$ converge. Est-il possible d'en déduire l'existence d'une variable aléatoire $X$ telle que $(X_n)_n$ converge en loi vers $X$ ? En fait, je sais que la réponse est oui, mais j'aimerais savoir s'il y a un argument plus simple que celui que je connais.
Merci d'avance pour vos réponses.
Merci d'avance pour vos réponses.
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses
"Simple" ça veut dire élémentaire ou bien rapide quitte à utiliser des gros théorèmes ?
Je tente un truc sans savoir si ça te conviendra. Si l'espace est $\Bbb R^n$ (je ne sais pas si c'est le cas, ça n'est pas précisé), alors la suite est tendue, car sinon $\limsup \Bbb E(\|X_n\|) =+\infty$ (juste en contredisant la définition). Donc la suite est tendue, et elle admet une valeur d'adhérence d'après le théorème de Prokhorov (ainsi que ses suites extraites...). Cette valeur d'adhérence est unique (les fonctions lipschiziennes sont denses dans $L^1$ ou tout autre argument convenable), donc $(X_n)$ converge.
Edit : Banach-Alaoglu (+ Riesz-Markov) permet de prouver Prokhorov, donc on reste dans la même histoire.
En fait je dispose d'une série de variables aléatoires hautement non indépendantes, j'aimerais montrer que cette série converge p.s. pour faire certaines manipulations algébriques, mais j'arrive seulement à montrer la convergence en loi du premier message à propos des sommes partielles. J'en dirais peut-être un peu plus demain.
Pour tous $t \in \mathbb R$ et $\varepsilon > 0$, notons $\phi_{t,\varepsilon}$ la fonction constante sur $\left]-\infty;t\right]$ et sur $\left[t+\epsilon;+\infty\right[$ et telle que : $$\forall x\in [t;t+\epsilon],\ \phi_{t,\varepsilon}(x) = 1-(x-t)/\epsilon.$$
Alors il ne semble pas trop dur de montrer que la fonction
$$
F : t \longmapsto \inf_{\varepsilon > 0} \lim_{n\to\infty} E[\phi_{\varepsilon,t}(X_n)]
$$
est une fonction de répartition qui donne la loi limite.
Pour les limites en $-\infty$ et $+\infty$, on appliquera simplement l'inégalité de Markov aux $|X_n|$ (comme sous-entendu par Calli).
Je ne pensais pas à Markov. Ce que je voulais dire avec $\|X_n\|$ c'est que, si la suite n'est pas tendue, il existe $\varepsilon$ tel qu'aucun compact ne concentre uniformément les probas à $\varepsilon$-près. Donc, pour tout $R>0$, il existe $n$ tel que $\Bbb P(X_n \not\in \overline{B}(0,R/\varepsilon))>\varepsilon$ et donc $\Bbb E(\|X_n\|) \geqslant \Bbb E(\|X_n\| \,\mathbf{1}_{\Bbb R^n\setminus \overline{B}(0,R/\varepsilon)} ) \geqslant \varepsilon\, R/\varepsilon=R$. Donc $\Bbb E(\|X_n\|)$ ne converge pas dans $\Bbb R$ : absurde.
$$
\mathbb P\left(X_n \notin \overline B(0,R/\varepsilon)\right)
\ =\
\mathbb P(\|X_n\| > R/\varepsilon)
\ \leqslant\ \frac{\varepsilon}{R}\mathbb E(\|X_n\|)
$$
Pour schématiser ce que je veux faire, je dispose d'une série $\sum_{n \geq 0} Y_n$ où les $Y_n$ sont des v.a. pas du tout indépendantes (par contre elles ne sont pas corrélées), et je sais que la série converge en loi. J'aimerais alors manipuler $"Y = \sum_{n=0}^{+\infty} Y_n"$ comme une variable aléatoire, sur laquelle je peux faire des manipulations algébriques, et calculer des choses du style $\mathbb P(Y > 0)$. Bien sûr, je sais que cette dernière quantité c'est $\mu(]0, +\infty[)$ où $\mu$ est la loi limite, mais je voudrais pouvoir parler "variable aléatoire" au lieu de "mesure" pour "voir" les choses.
Ce qui est frustrant c'est que si mes $Y_n$ sont indépendantes, je peux montrer la convergence p.s. de la série car elles sont centrées et de variances sommables, mais tout le sel de ce que je fais c'est justement de ne pas disposer de cette indépendance. Peut-être que la non-corrélation permet quand même de conclure à la convergence p.s. ?
Dans ce cas tu pourrais t'en sortir avec le théorème de convergence des martingales bornées dans $L^2$.
Grosso modo je dispose de variables $Z_1, \dots, Z_r$ indépendantes et uniformes sur le cercle unité. Mes $Y_n$ sont, à un scalaire près qui contribue à la convergence de la série des variances, de la forme $Z_1^{a_{1, n}} \dots Z_r^{a_{r,n}} + \overline{Z_1^{a_{1, n}} \dots Z_r^{a_{r,n}}}$ avec les $a_{i,n}$ entiers. Et bien sûr si $n \neq m$ on a $(a_{i,n})_{1 \leq i \leq r} \neq (a_{i,m})_{1 \leq i \leq r}$. De là il est facile de voir que ces variables sont centrées et deux à deux non corrélées. Pour déterminer les espérances conditionnelles par contre, j'avoue que ce n'est pas clair pour moi.
Édit : oups, mauvaise symétrie. Je regarderai plus précisément quand j'aurai le temps.
Soit $E$ l'espace de Banach des fonctions continues à support compact sur $\mathbb{R}$ à valeurs dans $\mathbb{R}$. $E$ est séparable [EDIT] Mais peu importe[/EDIT] et les fonctions lipschitziennes à support compact sont denses dedans. Pour toute v.a. $X$ sur $\mathbb{R}$, l'application $f \mapsto \mathbb{E}[f(X)]$ est linéaire continue positive, on la note $E_{X}$.
Soit $f$ une fonction continue à support compact. Montrons que la suite $(E_{X_n}(f))_n$ est convergente. Pour cela, montrons qu'elle est de Cauchy. Soit $\epsilon > 0$, soit $g$ lipschitzienne à support compact telle que $\Vert f - g \Vert_\infty < \epsilon/3$ et soit $N$ tel que pour tout $n,m > N$, $\vert E_{X_n}(g) - E_{X_m}(g) \vert < \epsilon/3$. Alors soient $n,m \geq N$. On a $\vert E_{X_n} - E_{X_m} \vert = \vert \mathbb{E}[f(X_n) - f(X_m)] \vert \leq \vert \mathbb{E}[f(X_n) - g(X_n)] \vert + \vert \mathbb{E}[g(X_n) - g(X_m)] \vert + \vert \mathbb{E}[g(X_m) - f(X_m)] \vert < \epsilon$. Donc la suite $(E_{X_n}(f))_n$ est convergente.
Posons, pour toute $f$ continue à support compact sur $\mathbb{R}$, $\lambda(f) := \lim_{n \to \infty} E_{X_n}(f)$. Alors $\mu$, comme limite simple de fonctions linéaires positives continues, est linéaire, positive et surtout continue (par le corollaire de Banach-Steinhaus).
Donc, d'après le théorème de Riesz, $\lambda$ est bien l'intégrale par rapport à une mesure $\mu$ sur $\mathbb{R}$, et si on pose $\mathbf{1}$ la fonction constante égale à $1$, alors on a $\mu(\mathbb{R}) = \lambda(\mathbf{1}) = \lim_{n \to \infty} E_{X_n}(\mathbf{1}) = \lim_{n \to \infty} 1 = 1$ donc c'est bien une mesure de probabilité.
EDIT : Remarque sur la séparabilité inutile et rajout du fait que la mesure obtenue est bien de proba.
Mon vrai problème c'est de pouvoir parler de la variable aléatoire somme comme si elle était bien définie. J'attends de voir si Siméon peut me sauver. :-D
Difficile d'en dire beaucoup plus sans exposer tout mon problème, ce que je n'ai pas envie de faire !
[Edit : je viens de voir que « en vérité mon r est infini a priori ». La martingale n'est donc peut-être pas à jeter ! Il faudrait en savoir plus sur les $(a_{i,j})$.]
À la réflexion pour ce que tu veux faire « manipuler $\sum_{n=0}^\infty Y_n$ comme une variable aléatoire avec des calculs algébriques », tu n'as peut-être pas besoin de la convergence presque sûre. La convergence en probabilité peut tout à fait suffire (et elle entraînerait la convergence p.s. pour des sous-suites). Elle découlerait directement de la convergence $L^2$ par exemple, mais je n'ai pas bien compris si tu en disposes.
[Edit : apparemment oui puisque tu écris que $\sum_{n\geq 0} E(Y_n^2)$ converge.]
Difficile de t'aider davantage sans connaître les $E(|Y_n|^2)$ ni les $(a_{i,j})$, mais je comprends bien que tu ne veuilles pas trop en dire. Tu peux me contacter par MP si tu préfères.