Cesàro, convergence en $L^1$ et probabilité

Bonjour,
J'essaye de faire cet exercice mais je reste bloqué sur la question e.
J'ai bien montré la première partie de la question e, mais pour le en déduire... je ne vois pas comment faire.
J'ai pensé à écrire : Y1+...+Yn >= Mn
mais aussi Y1+...+Yn >= nMn et je n'arrive pas à conclure.
Pour la question f, comment débuter ?

Merci pour vos réponses
iris

Réponses

  • Les images sont beaucoup trop petites, c'est illisible. Peux-tu les renvoyer avec une meilleure taille ?
  • Est- ce mieux?
  • Oui c'est mieux.

    As-tu réussi à montrer l'inégalité demandée sur $\limsup_{n \to +\infty} \mathbb P(M_n \leq n \varepsilon)$, où est-ce là-dessus que tu bloques ?
  • J'ai réussi à montrer l'inégalité, c'est le en déduire après l'inégalité qui me pose problème.
  • C'est moi qui déconne ou bien $M_n$ est bien la loi uniforme sur $\{1,\ldots,n\}$ ? Comment prouvez-vous cette inégalité de e) sans voir ça sinon ?
  • J'ai montré que $ P(Mn \leq k ) \leq (1-\dfrac{1}{n})^{n-k-1} $ Puis j'ai remplacé $ k$ par $n \varepsilon$ et j'ai trouvé que la limite de $(1-\dfrac{1}{n})^{n-k-1}$ était $ e^{\varepsilon -1}$.
    Pour $\varepsilon$ assez petit, j'arrive à $e^{\varepsilon-1}<\frac{1}{2}$
  • Si $(D_n)_n$ converge vers $0$ en probabilité, c'est que pour tout $\varepsilon > 0$, on a (les $Y_i$ étant positives p.s.) $$\mathbb P(Y_1 + \dots + Y_n > n \varepsilon) \underset{n \to +\infty}{\rightarrow} 0.$$ Sauf que d'après le résultat d'avant, $$\liminf_{n \to +\infty} \mathbb P(\max_{1 \leq i \leq n}(Y_i) > n \varepsilon) > \frac{1}{2}$$ pour $\varepsilon$ assez petit, ce qui empêche bien sûr la probabilité ci-dessus de converger vers $0$, puisque $$\{\max_{1 \leq i \leq n}(Y_i) > n\varepsilon\} \subset \{Y_1 + \dots + Y_n > n \varepsilon\}.$$
  • Iris, tu peux remarquer que tes tes variables sont p.s. positives du coup $\frac{M_n}{n}\le D_n$ et de passer au complémentaire.

    EDIT: Poirot est trop rapide :p
  • Merci pour votre réponse Poirot, je cherchais à le faire directement et pas en supposant l'inverse.

    Est-ce que vous auriez une piste pour la question f car je ne sais pas du tout comment commencer la question?

    J'avais essayé de faire votre méthode Krokop mais je n'aboutissais à rien.
  • Pense utiliser l'indépendance des $Y_i$ pour calculer $$\mathbb E\left(e^{- \lambda D_n}\right).$$
  • En plus de Poirot: si tu vois un log avec une espérance tu peux imaginer que tu vas avoir un produit donc.. et l'intervalle $[0,1]$ comme limite dans ton intégrale, à quoi cela peut bien te faire penser ? Une fois compris où tu veux aller, le reste c'est juste de l'écriture.
  • En utilisant l'indépendance, je trouve $E(e^{-\lambda Dn})=\prod\limits_{k=1}^n E(e^{-\lambda Y_k /n})$, Puis, $E(e^{-\lambda Dn})=\prod\limits_{k=1}^n \dfrac{e^{-\lambda k/n}+k-1}{k}$
    Donc avec le log:
    $-\log E(e^{-\lambda Dn}) = \sum\limits_{k=1}^n -\log( \dfrac{e^{-\lambda k/n}+k-1}{k})$.
  • C'est bon. Maintenant que se passe-t-il quand tu fais tendre $n$ vers $+\infty$ ?
  • Voilà un sujet bien intéressant. Puis-je savoir d'où il vient ?
  • Désolé mais je n'arrive pas à calculer la limite car n est un indice de la somme et il est aussi dans la somme.

    Il vient de notre fiche de TD de probabilité.
  • 1) Tu peux essayer un développement limité; en étant soigneux pour contrôler les restes car le nombre de termes n'est pas borné.

    2) Oui, mais qui est l'auteur de la fiche ?
  • Si $0<x<1$ alors $1-e^{-\lambda x}<\lambda x$ et donc pour $1\leq k\leq n$ on a $u_{k,n}=(1-e^{-\lambda k/n})/k\leq \lambda/n.$ Ensuite
    $$|-\log(1-u_{k,n})-u_{k,n}|\leq C(u_{k,n})^2\leq C\lambda^2/n^2.$$ Enfin par somme de Riemann$$\sum_{k=1}^nu_{k,n}\to_{n\to \infty}\int_0^1(1-e^{\lambda x})dx/x=I$$ Donc comme $\sum_{k=1}^n C(u_{k,n})^2\leq C\lambda^2/n\to_{n\to \infty}0$ on a
    $$\sum_{k=1}^n-\log(1-u_{k,n})\to_{n\to \infty}I.$$
  • Oh, j'ai honte de ne pas avoir reconnu une somme de Riemann, c'est presque ce que j'avais sous les yeux depuis tout à l'heure...



    Merci à tous pour vos réponses, elles m'ont été d'une grande aide!!
  • Effectivement exercice intéressant.

    En quoi la dernière question prouve-t-elle une convergence en loi ?
  • Skyffer3, je me suis posé la même question. Je suppose qu'on part d'une fonction test qu'on approche uniformément par un polynôme puis par exp via convergence dominée. Qu'en penses-tu ? (Et bien le bonsoir ça faisait longtemps)
  • Il y a convergence en loi puisque l'on regarde, au log près, la transformée de Laplace de $D_n$.
  • Merci Poirot, je connaissais le critère avec la fonction caractéristique (transformée de Fourier), mais pas celui avec Laplace.

    Bonsoir Krokop ! Oui j'ai été bien moins actif ces derniers temps, après une pause sur ce forum. Pour prouver ce critère, peut-être qu'on peut adapter la démonstration du théorème de continuité de Lévy. Dans ton esquisse je ne saisis pas comment tu approximes un polynôme avec des exponentielles.
  • Re, effectivement la première idée que j'avais ne fonctionne pas vraiment.

    On a deux variables aléatoires positives $X,Y$ tels que $E(e^{-\lambda X})=E(e^{-\lambda Y})$ avec $\lambda\ge 0.$ Pour montrer qu'elles ont même loi, il suffit de montrer que pour toute fonction $f$ continue à support compact on ait $E(f(X))=E(f(Y)).$

    On part de $f$ on utilise le théorème de Weierstrass à $g=f\circ \log$ pour avoir une approximation uniforme par un polynôme en $P(\exp(-\lambda x))$ pour tout $x\ge 0$ et de là on en déduit le résultat. (Sauf erreur)

    Mais en fait, en utilisant le théorème de Morera $s\mapsto E(\exp(-sX))$ est holomorphe sur le demi plan ouvert $H:=\{s;Re(s)>0\}$ donc par prolongement analytique notre égalité de départ $E(e^{-\lambda X})=E(e^{-\lambda Y})$ s'étend à $H$ et à son bord par continuité à mon avis. Donc on est ramené à une égalité sur les fonctions caractéristiques.
  • Joli !

    Mais tu n'as pas démontré la convergence en loi ;-)
  • Ah la boulette...

    Tu avais raison, faut adapter la démo je pense. L'idée serait de montrer l'équitension de la suite des mesures avec une "tail estimate." En utilisant Fubini on peut écrire $$\frac{1}{c}\int_{0}^c(1-\mathcal{L}(t))dt\ge \frac{1}{e} \mu\{x; x\ge\frac{1}{c}\}.

    $$ En utilisant la continuité de $\mathcal{L}$ et la convergence ponctuelle pour tout $t$ de $\mathcal{L}_n(t)\to \mathcal{L}(t)$ on obtient $$\lim_{r\to \infty}\sup_{n}\mu_n\{x: \vert x\vert>r\}=0.

    $$ La suite est donc équitendue. Ensuite on utilise le fait que la réunion de deux familles équitendues de mesure de probabilité est encore équitendue + le théorème Weierstrass comme avant, ça devrait fonctionner, non ?

    Bonne nuit !
  • 1) Marrant, j'ai eu Livio Flaminio comme prof de TD en Géométrie différentielle en 1994-1995... Je ne savais pas qu'il aimait les probas. Et qui fait le cours ?

    2) Alors, si mes souvenirs sont bons, ça marche si on a convergence de la transformée de Laplace dans un voisinage de $0$, mais il faut savoir que c'est une transformée de Laplace. Je croyais que c'était fait dans Ouvrard 2, mais je ne l'y retrouve pas.

    3) En fait, ce n'est pas très dur de travailler avec la fonction caractéristique et le 2e théorème de Levy.

    Si $f_{\lambda}(x)=\frac{e^{-i\lambda x}-1}x$, on doit comparer $\prod_{k=1}^n (1+\frac1{n} f_{\lambda}(k/n))$ et $\prod_{k=1}^n \exp(\frac1{n} f_{\lambda}(k/n))$. C'est une différence de produits de nombres de module $\le 1$ et ça roule bien.
  • Krokop, je ne suis pas sûr de voir suffisamment les détails sur la dernière partie de ta preuve (utilisation de la tension et de Weierstrass), mais tes idées ont l'air bien intéressantes.

    @aléa : J'ai l'impression qu'on peut souvent se passer de Laplace, me trompé-je ?
  • J'essaye de rédiger ça proprement.

    Soit $\mathbb{P}$ une mesure de probabilité sur $[0,\infty[.$ Notons $\mathcal{L}:t\ge 0\mapsto \int_{0}^{+\infty}e^{-tx}\mathbb{P}(dx)$ la transformée de Laplace de $\mathbb{P}.$
    Soit $(\mathbb{P}_n)_{n\in\mathbb{N}}$ une suite de mesures de transformée de Laplace $\mathcal{L}_n.$
    On suppose que pour tout $t\ge 0$ on a la convergence ponctuelle $\mathcal{L_n}(t)\to \mathcal{L}(t).$ On souhaite montrer la convergence faible de $ \mathbb{P}_n$ vers $\mathbb{P}.$

    Une condition suffisante pour cela est que $(\mathbb{P}_n)_n$ soit équitendue et que pour toute fonction continue $f:[0,+\infty[\to\mathbb{R}$ à support compact on a $\mathbb{P}_nf\to \mathbb{P}f.$
    Le deuxième point c'est ma "boulette" d'hier.

    Pour le premier point.
    Lemme
    La suite $(\mathbb{P}_n)_n$ est équitendue.
    Preuve. Soit $c>0$, on a (théorème de Fubini)
    \begin{eqnarray*}
    \frac{1}{c}\int_{0}^c(1-\mathcal{L}_n(t)dt &=& \frac{1}{c}\int_{0}^{+\infty}\int_{0}^c(1-e^{-tx})dt\mathbb{P}_n(dx)\\
    &\ge& \frac{1}{e}\mathbb{P}_n(\vert x\vert \ge \frac{1}{c})
    \end{eqnarray*}
    Soit $\varepsilon>0$ par continuité de $\mathcal{L}$ en $0$ en remarquant que $\mathcal{L}(0)=1$ on obtient en prenant $a:=\frac{1}{c}$ qu'il existe $N$ tel que pour tout $n\ge N$ on ait $$\mathbb{P_n}(\vert x\vert>a)\le\varepsilon/e.$$
    Ce qui montre que la suite est équitendue (Oui il ne faut pas oublier les $P_n$ pour $n<N$).
  • @Krokop: on peut faire un peu plus simplement pour $t,c\ge 0$:

    $1-e^{-tX_n}\ge 1_{X_n\ge c} (1-e^{-tc})$, on intègre et $P(X_n\ge c)\le\frac{1-L_{X_n}(t)}{1-e^{-tc}}$.
    Après comme toi $tc=1$, etc.

    Après, on conclut avec Prohorov.
  • Ceci dit, nous venons de montrer l'équivalent du 1er théorème de Levy.
    Sauf à connaître déjà la distribution de Dickman, il faudrait encore bosser un peu pour montrer que la fonction limite trouvée est bien une transformée de Laplace.
    (Mais tout cela n'est évidemment pas le but de l'exercice, on fait du rab.)
  • Oui effectivement il reste encore à montrer cela, peut-être établir le second théorème de Levy pour une transformée de Laplace ? C'est bien continue en 0. Dans mes souvenirs la seule chose à montrer pour ce théorème est qu'il n'y a pas de perte de masse.
  • Pour montrer l'équivalent du 2e théorème de Levy, il suffit d'établir que la fonction limite est bien une transformée de Laplace. Cela peut se faire simplement à partir du théorème de Bernstein.
  • Je ne connaissais pas le théorème, belle culture.
  • Je complique à plaisir. En fait, on n'a nullement besoin de savoir que la fonction limite est une transformée de Laplace, dans la preuve de la tension, on utilise uniquement le fait que la fonction limite est supposée continue en zéro, après c'est Prohorov qui fait tout le boulot.
Connectez-vous ou Inscrivez-vous pour répondre.