Loi 0-1 de Kolmogorov

Salut, j'aimerai avoir votre aide, s'il vous plaît concernant cet exercice.

On considère un espace probabilisé $(\Omega,\mathcal{A},\mathbb{P}).$
Soit $(X_n)_{n}$ une suite indépendante de v.a.r. et de même loi. On suppose qu'il existe une suite $(x_n)_n$ de réels tels que : $$
\mathbb{P}(\limsup_n\left|\frac{1}{n} \sum_{k=1}^{n}{X_k}-x_n\right| <+\infty)>0.

$$ a) Prouver qu'il existe $\alpha \in \mathbb{R}_+$ tel que $\limsup_n\left|\frac{1}{n} \sum_{k=1}^{n}{X_k}-x_n\right|=\alpha, \ \ p.s$

b) Soit $(Y_n)_n$ une copie indépendante de $(X_n)_n$ et $V_n=X_n-Y_n.$ Prouver que :
i) $\limsup_n\left| \frac{1}{n}V_n\right|<+\infty,$ presque sûrement.
ii) il existe $\beta \in \mathbb{R}_+$ tel que $\limsup_n\left| \frac{1}{n}V_n\right|=\beta, \ p.s.$
iii) $\sum_n{\mathbb{P}(\left|V_n \right|>n(1+\beta))}<+\infty \text{ et } \mathbb{E}(\left|V_1 \right|) <+\infty$

c) Soit $(H_n)_n$ une suite indépendante de v.a.r et de même loi avec $\mathbb{E}(\left|H_1 \right|) =+\infty.$
Prouver que, pour toute suite $(x_n)_n$ de réels, $\limsup_n\left|\frac{1}{n} \sum_{k=1}^{n}{H_k}-x_n\right| =+\infty, \ \ p.s.$

Pour la solution.
a) On applique la loi 0-1 de Kolmogorov à $\limsup_n\left|\frac{1}{n} \sum_{k=1}^{n}{X_k}-x_n\right|$ (On considère la suite de tribu indépendantes $(\sigma(X_n))_n$ et on prouve qu'elle est constante en utilisant le fait que sa fonction de répartition ne prend que 0 et 1 comme valeurs).

b) i) Pouvez-vous me donner une indication ?
ii) Comme dans a) en appliquant la loi 0-1 à $\limsup_n|\frac{1}{n}V_n|$ (Dans ce cas on considère la suite de tribu indépendante $(\sigma(\frac{1}{n}V_n))_n$ puisque $(X_n)_n$ est indépendante de $(Y_n)_n$)
iii) On a : $$
1=P(\limsup_n \frac{1}{n}V_n=\beta) \leq P(\limsup_n \frac{1}{n}V_n<\beta+1) \leq P(\liminf_n \left\{\frac{1}{n}V_n \leq \beta+1 \right\}).
$$ Donc $P(\limsup_n\left\{\frac{1}{n}V_n >\beta+1\right\})=0$ et par Borel-Cantelli, on aura la convergence de la série puis l'intégrabilité de $V_1$
($X_1$ et $Y_1$ sont de même loi)

c) C'est la contraposée de la partie b)
Alors j'aimerai avoir l'aide pour b) i) et j'espère que les autres questions sont correctes.
Merci d'avance.

Réponses

  • Des idées s'il vous plait!!
  • J'aimerais bien également avoir la solution de cet exercice.
    Néanmoins je crois qu'il manque quelque chose pour appliquer le critère de la fonction de répartition qui vaut $0$ ou $1$ dans la question:

    a) Prouver qu'il existe $\alpha \in \mathbb{R}_+$ tel que $\limsup_n\left|\frac{1}{n} \sum_{k=1}^{n}{X_k}-x_n\right|=\alpha, \ \ p.s$

    En effet il faut vérifier que $\limsup_n\left|\frac{1}{n} \sum_{k=1}^{n}{X_k}-x_n\right|$ est bien $\mathcal{F}_{\infty}$-mesurable où $\mathcal{F}_{\infty}$ est la tribu asymptotique formée des tribus indépendantes $\sigma(X_n)$. Ce qui n'est pas simple à montrer à cause de la somme, n'est-ce pas? (Je ne sais même pas si c'est vrai ici)

    Merci d'avance
  • Pour répondre a la question de Bogdanov: en effet, $\limsup_n \frac{1}{n} \sum_{k=1}^n (X_k- x_k)$ est $\mathcal{F}_\infty$ mesurable:

    Il sufit de démontrer que por $M_0$ fixe quelconque, $\{ \limsup_n \frac{1}{n}| \sum_{k=1}^n (X_k- x_k)| >r \} \in \sigma(X_k, \, k \geq M_0)$

    L'astuce est noter que, por $M_0$ fixe, les termes $\frac{1}{n} \sum_{k=1}^{M_0} (X_k - x_k)$ deviennent arbitrairement petits por $n$ sufisament grand et alors ne "contribuent pas". Alors, si on considère $n>M_0$,

    $ \{ \limsup_n \frac{1}{n}| \sum_{k=1}^n (X_k- x_k)| >r \} = \{ \limsup_n | \frac{1}{n} \sum_{k=1}^{M_0} (X_k- x_k) + \frac{1}{n} \sum_{k=M_0+1}^{n} (X_k- x_k) | >r \} $

    $= \{ \limsup_n | \frac{1}{n} \sum^{n} _{k=M_0+1}(X_k- x_k) | >r \} \in \sigma(X_k, \, k \geq M_0)$

    J'espere ça va vous aider por le reste de l'exercice, j'ai pas pensé aux autres questions.
  • Merci beaucoup de votre aide, oui au moins ça justifie que l'on peut appliquer la loi du 0-1 de Kolmogorov sur la fonction de répartition.
  • la question la plus difficile est b) i)
  • Pour la question b) i) je ne suis pas sûre mais est-ce que cela est correct? :

    On a déjà:
    $$P(\limsup_n\left| \frac{1}{n}V_n\right|<+\infty) = 0 \ \text{ou} \ 1$$ par la loi du 0-1 de Kolmogorov.
    Si: $P(\limsup_n\left| \frac{1}{n}V_n\right|<+\infty) = 0$, alors on a $\limsup_n\left| \frac{1}{n}V_n\right|=+\infty$ p.s.

    Ainsi pour tout $x >0$ on a:

    $$P(\limsup_n\left| \frac{1}{n} V_n \right| >x) = 1$$

    Or si $\left\{ \limsup_n\left| \frac{1}{n} V_n \right| >x \right\}$ se réalise alors $ \liminf_n \left\{ \left| \frac{1}{n} V_n \right| > x \right\}$ se réalise aussi d'où:
    $$1 = P(\limsup_n\left| \frac{1}{n} V_n \right| >x) \leq P( \liminf_n \left\{ \left| \frac{1}{n} V_n \right| > x \right\} ) $$
    D'où:
    $$ P( \limsup_n \left\{ \left| \frac{1}{n} V_n \right| \leq x \right\} ) = 0$$
    Par le lemme de Borel-Cantelli, on aurait:
    $\sum P(| V_n | \leq nx)$ qui convergerait. Or comme $X_n$ et $Y_n$ ont même loi on a qu'il existe $M>0$ tel que $P( |X_n - Y_n| <M)= 1$ pour tout $n$ et donc la série divergerait, contradiction en prenant $x=M$?
  • Il y a une faute à la ligne 8 (c'est $\limsup_n(|V_n/n>x|)$ et pas $\liminf_n$)
    Je pense que s'il y a une contradiction ça doit etre dans l'hypothèse initiale
  • Ah effectivement ça n'implique pas la réalisation souhaitée.

    Par curiosité, d'où est tiré cet exercice?
  • Il s'agit d'un exercice donné en TD, mais le prof a décidé de ne pas le faire faute du temps, voici l'exercice
    ex.pdf 130.5K
  • Merci pour le pdf.

    D'ailleurs comment concluez-vous que $V_1$ est d'espérance finie en question b) iii) ?
    ça ne me semble pas si immédiat que cela.
Connectez-vous ou Inscrivez-vous pour répondre.