Convergence en loi... sans limite !

Bonjour à tous. Je dispose d'une suite de variables aléatoires $(X_n)_n$ qui "converge en loi" au sens où, pour toute fonction lipschitzienne (je n'ai pas besoin de bornitude dans mon cas particulier) $f$ la suite $(\mathbb E(f(X_n)))_n$ converge. Est-il possible d'en déduire l'existence d'une variable aléatoire $X$ telle que $(X_n)_n$ converge en loi vers $X$ ? En fait, je sais que la réponse est oui, mais j'aimerais savoir s'il y a un argument plus simple que celui que je connais.

Merci d'avance pour vos réponses.

Réponses

  • Je suppose que tu ne veux pas utiliser la tension ?
  • Effectivement c'est une manière de le voir. On m'a parlé d'un "théorème de sélection de Helly" assez obscur qui apparemment fait le job sinon, ou de Banach-Alaoglu dans l'espace des mesures de proba, vue comme formes linéaires continues sur un certain espace de fonctions.
  • Salut,
    "Simple" ça veut dire élémentaire ou bien rapide quitte à utiliser des gros théorèmes ?
    Je tente un truc sans savoir si ça te conviendra. Si l'espace est $\Bbb R^n$ (je ne sais pas si c'est le cas, ça n'est pas précisé), alors la suite est tendue, car sinon $\limsup \Bbb E(\|X_n\|) =+\infty$ (juste en contredisant la définition). Donc la suite est tendue, et elle admet une valeur d'adhérence d'après le théorème de Prokhorov (ainsi que ses suites extraites...). Cette valeur d'adhérence est unique (les fonctions lipschiziennes sont denses dans $L^1$ ou tout autre argument convenable), donc $(X_n)$ converge.

    Edit : Banach-Alaoglu (+ Riesz-Markov) permet de prouver Prokhorov, donc on reste dans la même histoire.
  • J'entendais simple dans le sens élémentaire oui, je connais ce genre de raisonnement, qui malheureusement ne sont pas constructif et ne permet pas de se faire une idée de la loi limite.

    En fait je dispose d'une série de variables aléatoires hautement non indépendantes, j'aimerais montrer que cette série converge p.s. pour faire certaines manipulations algébriques, mais j'arrive seulement à montrer la convergence en loi du premier message à propos des sommes partielles. J'en dirais peut-être un peu plus demain.
  • Cher Poirot, puisque tu parles du théorème de sélection de Helly, j'imagine que tes variables sont à valeurs réelles. Si c'est bien le cas, je te propose un truc ras des pâquerettes :

    Pour tous $t \in \mathbb R$ et $\varepsilon > 0$, notons $\phi_{t,\varepsilon}$ la fonction constante sur $\left]-\infty;t\right]$ et sur $\left[t+\epsilon;+\infty\right[$ et telle que : $$\forall x\in [t;t+\epsilon],\ \phi_{t,\varepsilon}(x) = 1-(x-t)/\epsilon.$$

    Alors il ne semble pas trop dur de montrer que la fonction
    $$
    F : t \longmapsto \inf_{\varepsilon > 0} \lim_{n\to\infty} E[\phi_{\varepsilon,t}(X_n)]
    $$
    est une fonction de répartition qui donne la loi limite.

    Pour les limites en $-\infty$ et $+\infty$, on appliquera simplement l'inégalité de Markov aux $|X_n|$ (comme sous-entendu par Calli).
  • Siméon a écrit:
    Pour les limites en $-\infty$ et $+\infty$, on appliquera simplement l'inégalité de Markov aux $|X_n|$ (comme sous-entendu par Calli).

    Je ne pensais pas à Markov. Ce que je voulais dire avec $\|X_n\|$ c'est que, si la suite n'est pas tendue, il existe $\varepsilon$ tel qu'aucun compact ne concentre uniformément les probas à $\varepsilon$-près. Donc, pour tout $R>0$, il existe $n$ tel que $\Bbb P(X_n \not\in \overline{B}(0,R/\varepsilon))>\varepsilon$ et donc $\Bbb E(\|X_n\|) \geqslant \Bbb E(\|X_n\| \,\mathbf{1}_{\Bbb R^n\setminus \overline{B}(0,R/\varepsilon)} ) \geqslant \varepsilon\, R/\varepsilon=R$. Donc $\Bbb E(\|X_n\|)$ ne converge pas dans $\Bbb R$ : absurde.
  • Cher Calli, c'est très exactement l'inégalité de Markov que tu viens d'écrire (et démontrer) :
    $$
    \mathbb P\left(X_n \notin \overline B(0,R/\varepsilon)\right)
    \ =\
    \mathbb P(\|X_n\| > R/\varepsilon)
    \ \leqslant\ \frac{\varepsilon}{R}\mathbb E(\|X_n\|)
    $$
  • Ah oui, c'est vrai. Je n'avais pas vu les choses comme ça. :-D
  • Merci pour vos réponses. J'interviens peu car je fais ma recherche en parallèle et j'espère encore parvenir à montrer la convergence presque sûre de ma série, même si j'ai peur que ça m'emmène finalement beaucoup trop loin.

    Pour schématiser ce que je veux faire, je dispose d'une série $\sum_{n \geq 0} Y_n$ où les $Y_n$ sont des v.a. pas du tout indépendantes (par contre elles ne sont pas corrélées), et je sais que la série converge en loi. J'aimerais alors manipuler $"Y = \sum_{n=0}^{+\infty} Y_n"$ comme une variable aléatoire, sur laquelle je peux faire des manipulations algébriques, et calculer des choses du style $\mathbb P(Y > 0)$. Bien sûr, je sais que cette dernière quantité c'est $\mu(]0, +\infty[)$ où $\mu$ est la loi limite, mais je voudrais pouvoir parler "variable aléatoire" au lieu de "mesure" pour "voir" les choses.

    Ce qui est frustrant c'est que si mes $Y_n$ sont indépendantes, je peux montrer la convergence p.s. de la série car elles sont centrées et de variances sommables, mais tout le sel de ce que je fais c'est justement de ne pas disposer de cette indépendance. Peut-être que la non-corrélation permet quand même de conclure à la convergence p.s. ?
  • À défaut d'indépendance, est-ce que tu as tout de même $E(Y_{n+1}\mid Y_0,\dots,Y_n) = 0$ ?
    Dans ce cas tu pourrais t'en sortir avec le théorème de convergence des martingales bornées dans $L^2$.
  • Je suis un peu rouillé en terme d'espérance conditionnelles... Si je ne dis pas de bêtises, $\mathbb E(Y_n \mid Y_0, \dots, Y_{n-1})$ c'est (sous les bonnes conditions, qui sont respectées ici, chaque $Y_n$ étant bornée) la projection orthogonale de $Y_n$ sur le sous-espace des variables $\sigma(Y_0, \dots, Y_{n-1})$ mesurables.

    Grosso modo je dispose de variables $Z_1, \dots, Z_r$ indépendantes et uniformes sur le cercle unité. Mes $Y_n$ sont, à un scalaire près qui contribue à la convergence de la série des variances, de la forme $Z_1^{a_{1, n}} \dots Z_r^{a_{r,n}} + \overline{Z_1^{a_{1, n}} \dots Z_r^{a_{r,n}}}$ avec les $a_{i,n}$ entiers. Et bien sûr si $n \neq m$ on a $(a_{i,n})_{1 \leq i \leq r} \neq (a_{i,m})_{1 \leq i \leq r}$. De là il est facile de voir que ces variables sont centrées et deux à deux non corrélées. Pour déterminer les espérances conditionnelles par contre, j'avoue que ce n'est pas clair pour moi.
  • Parfait. Il faudrait vérifier les détails mais je pense que ça va fonctionner car la loi des $(Z_i)$ conditionnellement à $Y_0,...,Y_n$ semble invariante par $z \mapsto \bar z$.

    Édit : oups, mauvaise symétrie. Je regarderai plus précisément quand j'aurai le temps.
  • La chose suivante ne marche pas ?

    Soit $E$ l'espace de Banach des fonctions continues à support compact sur $\mathbb{R}$ à valeurs dans $\mathbb{R}$. $E$ est séparable [EDIT] Mais peu importe[/EDIT] et les fonctions lipschitziennes à support compact sont denses dedans. Pour toute v.a. $X$ sur $\mathbb{R}$, l'application $f \mapsto \mathbb{E}[f(X)]$ est linéaire continue positive, on la note $E_{X}$.
    Soit $f$ une fonction continue à support compact. Montrons que la suite $(E_{X_n}(f))_n$ est convergente. Pour cela, montrons qu'elle est de Cauchy. Soit $\epsilon > 0$, soit $g$ lipschitzienne à support compact telle que $\Vert f - g \Vert_\infty < \epsilon/3$ et soit $N$ tel que pour tout $n,m > N$, $\vert E_{X_n}(g) - E_{X_m}(g) \vert < \epsilon/3$. Alors soient $n,m \geq N$. On a $\vert E_{X_n} - E_{X_m} \vert = \vert \mathbb{E}[f(X_n) - f(X_m)] \vert \leq \vert \mathbb{E}[f(X_n) - g(X_n)] \vert + \vert \mathbb{E}[g(X_n) - g(X_m)] \vert + \vert \mathbb{E}[g(X_m) - f(X_m)] \vert < \epsilon$. Donc la suite $(E_{X_n}(f))_n$ est convergente.

    Posons, pour toute $f$ continue à support compact sur $\mathbb{R}$, $\lambda(f) := \lim_{n \to \infty} E_{X_n}(f)$. Alors $\mu$, comme limite simple de fonctions linéaires positives continues, est linéaire, positive et surtout continue (par le corollaire de Banach-Steinhaus).

    Donc, d'après le théorème de Riesz, $\lambda$ est bien l'intégrale par rapport à une mesure $\mu$ sur $\mathbb{R}$, et si on pose $\mathbf{1}$ la fonction constante égale à $1$, alors on a $\mu(\mathbb{R}) = \lambda(\mathbf{1}) = \lim_{n \to \infty} E_{X_n}(\mathbf{1}) = \lim_{n \to \infty} 1 = 1$ donc c'est bien une mesure de probabilité.

    EDIT : Remarque sur la séparabilité inutile et rajout du fait que la mesure obtenue est bien de proba.
  • @GA : c'est le genre d'argument que je connaissais, mais comme je l'ai dit plus haut j'aurais aimé quelque chose de plus constructif pour appréhender ma limite.
  • @Poirot : Alors je ne suis pas sûr de savoir ce que tu entends par constructif. Voici quelque chose de certainement très constructif :-D : soit $(a_{i,n})_{(i,n) \in \{1,\cdots,r\} \times \mathbb{N}}$ une suite d'entiers et soit $(r_n)_{n \in \mathbb{N}}$ une bonne suite de réels. Alors la loi de $X$ que tu cherches est la loi image de la loi uniforme sur $[0,1]^r$ par l'application $f$ qui, à tout $(t_1,\cdots,t_r)$ associe $f(t) := \displaystyle 2Re\left(\sum_{n \in \mathbb{N}} r_n e^{i2\pi \sum^r_{i=1} a_{i,n}t_i}\right)$. D'ailleurs si on pose, pour tout $(t_1,\cdots,t_r)$, $g(t) := \displaystyle \sum_{n \in \mathbb{N}} r_n e^{i2\pi \sum^r_{i=1} a_{i,n}t_i}$, le $(n_1,\cdots,n_r)$-ème coefficient de Fourier de $g$ est $\sum_{n \in \mathbb{N}} r_n \delta_{(n_1,\cdots,n_r) , (a_{1,n},\cdots,a_{r,n})}$. Mais bon.
  • Ça je le sais aussi ;-)

    Mon vrai problème c'est de pouvoir parler de la variable aléatoire somme comme si elle était bien définie. J'attends de voir si Siméon peut me sauver. :-D
  • Ah tu voudrais une convergence presque sûre ? Parce qu'en fait, je crois bien que ma $f$, c'est... ta $X$. Attention, il est tard, je m'expose à raconter des énormités. Si la somme qui définit $f$ converge dans $L^2$ (ce qui est vrai si la suite des $(r_n)_{n \in \mathbb{N}}$ est de carré sommable), alors... elle converge presque partout, par le théorème de Carleson !
  • Effectivement, ta $f$ c'est mon $X$. Je voudrais une convergence presque sûre, mais Carleson c'est un peu trop par rapport à ce que je veux utiliser. Ce qui me laisse vraiment croire qu'il y a convergence p.s. c'est que je sais que $f$ converge sur une partie dense $\Gamma$ de $[0, 1]^r$, et même un peu plus que ça (c'est une partie paramétrée par un paramètre réel, et il y a équirépartition au sens où $\frac{1}{X} \int_0^X g(\Gamma(t)) \,\mathrm{d}t \underset{X \to +\infty}{\longrightarrow} \int_{[0, 1]^r} g$), mais je ne sais pas montrer que $\mathbb P(\Gamma)=1$. Et en vérité mon $r$ est infini a priori (les $(a_{i, n})_i$ sont presque nulles) donc même pas sûr que Carleson s'applique.

    Difficile d'en dire beaucoup plus sans exposer tout mon problème, ce que je n'ai pas envie de faire !
  • Désolé Poirot mais ce que je proposais ne fonctionne pas du tout : pour $n$ assez grand il faut s'attendre à ce que $Y_{n+1}$, et même $Z_1,\dots,Z_r$, soient entièrement déterminés par $Y_0,\dots,Y_n$ à moins de conditions très particulières sur le rang de $(a_{i,j})$. Les sommes partielles ne forment donc pas une martingale.

    [Edit : je viens de voir que « en vérité mon r est infini a priori ». La martingale n'est donc peut-être pas à jeter ! Il faudrait en savoir plus sur les $(a_{i,j})$.]

    À la réflexion pour ce que tu veux faire « manipuler $\sum_{n=0}^\infty Y_n$ comme une variable aléatoire avec des calculs algébriques », tu n'as peut-être pas besoin de la convergence presque sûre. La convergence en probabilité peut tout à fait suffire (et elle entraînerait la convergence p.s. pour des sous-suites). Elle découlerait directement de la convergence $L^2$ par exemple, mais je n'ai pas bien compris si tu en disposes.

    [Edit : apparemment oui puisque tu écris que $\sum_{n\geq 0} E(Y_n^2)$ converge.]

    Difficile de t'aider davantage sans connaître les $E(|Y_n|^2)$ ni les $(a_{i,j})$, mais je comprends bien que tu ne veuilles pas trop en dire. Tu peux me contacter par MP si tu préfères.
  • Merci d'avoir pris le temps d'y réfléchir. Il est fort probable que la convergence en proba me suffise, je vais réfléchir à si on a convergence $L^2$ dans mon contexte. Je reviendrai vers toi par MP si rien ne fonctionne. Merci encore !
Connectez-vous ou Inscrivez-vous pour répondre.