Série de va

Bonjour,
je vous soumets un exercice où je n'ai pas la moindre idée pour démarrer.

Soit $(X_n)_{n \geq 1}$ une suite de variables aléatoires géométriques de paramètre $p \in\, ]0; 1[$ et $\alpha > 0$. Déterminer la probabilité que la série de terme général $\frac{1}{n^{\alpha} X_n}$ converge.

Évidemment, si $\alpha > 1$, alors la série va converger, donc ma probabilité sera 1, mais je n'ai pas la moindre idée de ce qu'il va se passer pour $\alpha$ entre 0 et 1. Et surtout, je ne trouve pas de critère pour décider si ma série va converger ou pas.

Réponses

  • Tu peux noter que

    $\sum_{k=2^i}^{2^{i+1}-1}\frac{1}{k^{\alpha} X_k}\ge \frac1{(2^{i+1})^{\alpha}} \sum_{k=2^i}^{2^{i+1}-1} 1_{\{X_k=1\}}$
  • Merci de ta réponse. Je suppose que l'idée d'aller chercher cette somme part du fait que tu veux montrer que la série diverge (au moins pour certains $\alpha$) et que tu prends une "tranche de Cauchy" (je ne suis pas trop sûr que ce terme soit bien le bon).
    Ensuite, il faudrait minorer la somme partielle. Le terme général vaut 1 avec probabilité $p$, donc cette somme vaut en moyenne $p 2^i$ et donc on a majoré la tranche de Cauchy par $\dfrac{p}{(2^i)^{\alpha}}$. Et ce terme est plus grand que $\varepsilon$, donc la série diverge.

    Je ne suis pas convaincu par mon "Le terme général vaut 1 avec probabilité $p$, donc cette somme vaut en moyenne $p 2^i$". Mon "donc" me paraît abusif en l'état, mais je ne sais pas comment l'écrire proprement.
    Ensuite, je n'ai pas l'habitude d'utiliser le critère de Cauchy, mais je pense que je devrais pouvoir le faire plus proprement
  • Ton intuition est bonne, mais effectivement il reste un peu de travail.

    En fait il est possible de montrer que le minorant converge presque sûrement vers une limite non nulle. (penser à la loi des grands nombres).
  • Bonjour,

    Je ne connais aucun théorème de probabilité, mais ce qui suit doit convenir.
    J'ai supposé que les $X_n$ étaient indépendantes . Ainsi, $\:\:\forall n,k \in \N^*, \: \Pr [X_n = k] = (1-p) p^{k-1}$, où $0<p<1$.
    Soient $0<\alpha<1\:$ , $\beta\:\:$ tel que $0<\beta< 1- \alpha ,\:\:$ $N \in \N^*,\:\: \forall n \in \N^*, S_n = \displaystyle \sum_{k=1}^n \dfrac 1{k^{\alpha} X_k},\:$ et $E$ l'évènement "la suite $(S_n)$ converge".
    La série $ \sum_{n\geqslant 1} \dfrac 1{Nn^{\alpha + \beta}}$ diverge, $E\:$ et $\displaystyle \left(\bigcap_ {n\in \N^*} [X_n \leqslant N n^{\beta}]\right)$ sont dès lors incompatibles, et cela entraine que; $$ \displaystyle{\Pr(E) \leqslant 1 - \Pr \left( \bigcap_ {n\in \N^*} [X_n \leqslant N n^{\beta}] \right ) =1-\prod_{n=1} ^{+\infty}(1- p^{\lfloor Nn^{\beta}\rfloor})}$$
    Alors, l'uniforme convergence en $N$ du produit infini permet d'affirmer que $\displaystyle{\lim _{N\to + \infty} \prod _{n=1}^{+\infty} (1 - p^{Nn^{\beta}}) = 1}$ ,d'où l'on déduit que $\boxed{\Pr (E) =0}$
  • Je tente d'écrire avec la loi forte des grands nombres. Je fixe un entier naturel non nul $i$ et je considère les va $1_{X_k=1}$ pour tout $k$ entre $2^i$ et $2^{i + 1} - 1$. Ces va suivent la loi de Bernoulli de paramètre $p$ et sont indépendantes (je suppose que les va $X_k$ de mon énoncé initial sont indépendantes, ce que je ne faisais pas au départ, mais il doit s'agir d'un oubli dans mon exo). Puis, je pose :
    $$Y_i=1/2^i\sum_{k=2^i}^{2^{i+1}-1} 1_{X_k=1}$$
    Alors $Y_i$ converge presque sûrement vers $E(1_{X_k=1})=p$. Donc la tranche de Cauchy es équivalente à $p/(2^i)^{\alpha}$ et on peut appliquer le critère de Cauchy.
  • Oui, mais attention il faut un peu ruser, on ne peut pas appliquer directement la loi des grands nombres (sauf à avoir un théorème de convergence presque complète), donc il faut écrire

    $\sum_{k=2^i}^{2^{i+1}-1}=\sum_{k=0}^{2^{i+1}-1}-\sum_{k=0}^{2^{i}-1}$.
  • On peut appliquer la loi des grands nombres mais à une transformée de la somme.
    On suppose que les variables aléatoires $(X_{k})_{k\geq1}$ sont indépendantes et suivent une loi géométrique de paramètre $p.$
    Par le théorème de transfert, on a : $$\mathbb{E}\big[ \frac{1}{X_{k}} \big]=p\sum_{k\geq 1}\frac{(1-p)^{k-1}}{k}=-\frac{p}{1-p}\ln(p):=l.$$
    Ainsi, en notant $\displaystyle S(t)=\sum_{1 \leq k\leq t}\frac{1}{X_{k}},$ la loi des grands nombres nous donne $$\lim_{t\rightarrow +\infty}\frac{S(t) }{t}=l \mbox{ ps. }$$
    Ainsi, par une IPP (ou une transformation d'Abel) en utilisant le formalisme des intégrales de Lebesgue-Stieljes, on a pour $t\gg 1,$
    \begin{align*}
    A(t) & :=\sum_{1 \leq k \leq t}\frac{X_{k}}{k^{\alpha}}\\
    & = \int_{1}^{t} \frac{dS(u)}{u^{\alpha}}\\
    & =\Big[ \frac{S(u)}{u^{\alpha}} \Big]_{1}^{t} +\alpha\int_{1}^{t}\frac{S(u)}{u^{\alpha+1}}dt \mbox{ }(*).
    \end{align*}

    On peut alors commencer la discussion en utilisant la loi des grands nombres citée précédemment et la relation $(*)$.
    *ou $\alpha>1:$ et, on a ps : $$\frac{S(u)}{u^{\alpha}}\sim \frac{1}{u^{\alpha-1}}\longrightarrow 0 \mbox{ et } \frac{S(u)}{u^{\alpha+1}}\sim \frac{l}{u^{\alpha}} \mbox{ qui est intégrable au voisinage de } +\infty.$$
    Ainsi, $\left( A(n) \right)$ est ps une série convergente.
    **ou $\alpha=1:$ et, on a ps: $$\frac{S(u)}{u}\longrightarrow l \mbox{ et } \frac{S(u)}{u^{2}}\sim \frac{l}{u} \mbox{ qui n'est pas intégrable au voisinage de } +\infty.$$
    Ainsi, $\left( A(n) \right)$ est ps une série divergente.
    ***ou $0<\alpha<1:$ et, on a ps: $$\frac{S(u)}{u^{\alpha}}\sim \frac{l}{u^{\alpha-1}}\longrightarrow +\infty \mbox{ et } \frac{S(u)}{u^{\alpha+1}}\sim \frac{l}{u^{\alpha}}\mbox{ qui n'est pas intégrable au voisinage de } +\infty.$$
    Finalement, $\left( A(n) \right)$ est ps une série divergente.
  • Bonjour,

    Je ne sais quelle inhibition m'avait fait penser que "ma preuve élémentaire" ne fonctionnait pas bien avec $\alpha = 1.$ Il n'y a en fait aucun obstacle à cela:
    Avec $\alpha = 1$, je reprends mes notations et me donne un entier $N$ tel que $p^N < \mathrm e^{-1}$
    La série $ \sum _n \dfrac 1 {Nn\log n }$ diverge, donc $\displaystyle \Pr (E) \leqslant 1-\Pr \left( \bigcap _{n=3}^{+\infty} [X_n \leqslant N \log n]\right )= 1 - \prod _{n=3}^{+\infty} \Pr [X_n \leqslant N \log n] \leqslant 1-\prod _{n=3} ^{+\infty} (1- p^{N \log n -1}) $
    Et j'ai très soigneusement vérifié que $ \displaystyle{ \lim _{N\to + \infty} \prod _{n=3}^{+\infty} (1 - p^{N\log n -1}) = 1}$, ce qui conduit à $\Pr(E) =0$.
  • Merci Aléa, je n'ai effectivement pas fait suffisamment attention. Je regarde les autres approches proposées dès que j'ai un peu plus de temps.
  • En fait, ce que tu dis peux marcher en procédant comme suit.

    On choisit $\varepsilon$ avec $0<\varepsilon<p/2$.

    Alors, pour $\alpha\le 1$ l'événement "la série converge" est inclus dans l'événement $\liminf\{ Y_n\le 2\varepsilon\}$. D'après le lemme de Fatou, cet événement a une probabilité plus petite que $\liminf P( Y_n\le 2\epsilon)$. Or cette limite est nulle, car $Y_n$ tend en probabilité vers $p>2\epsilon$ (loi faible des grands nombres).
Connectez-vous ou Inscrivez-vous pour répondre.