Moments d'une variable aléatoire

Bonjour à tous
J'aimerais soumettre à votre expertise deux questions simples sur les moments.

J'ai lu la phrase suivante.
Gardez à l'esprit un exemple de loi non déterminée par ses moments : pensez à la loi log normal.

Quelqu'un peut m'expliquer ce que ça veut dire ?
Déjà je ne connaissais pas cette loi, j'ai regardé sur wiki. J'ai vu les moments. J'imagine alors qu'il existe une variable aléatoire de loi différente mais de même moment.
Mais je ne connais pas les moments à tous ordres de beaucoup de loi. Je connais juste les moments de la loi normale en fin de compte à tout ordre. Et pas par cœur même si les calculs sont faciles.

Ce qui m’amène à ma deuxième question. Montrez que les lois normales sont “déterminées par leurs moments”, c’est-à-dire que si une variable aléatoire a les mêmes moments qu’une variable aléatoire distribuée selon la loi $N(m, \sigma^{2})$, alors cette variable suit la loi $N(m,\sigma^{2})$.

Si on arrive à se ramener au cas d'une loi centrée réduite c'est facile. Et on pourrait montrer que si on connaît les moments de la centrée réduite alors on connaît de toutes les normales (du moment où l'on a les paramètres).
En écrivant
$$
\mathbb{E}\left[ \left(\frac{X-m}{\sigma^{2}}\right)^{k} \right] = \frac{1}{\sigma^{2k}} \sum_{i=1}^{k} {k \choose i} E[X^{i}](-m)^{k-i}.

$$ On voit qu'on va pouvoir s'en sortit mais comment le prouver ?

Réponses

  • Il y a effectivement des exemples de lois qui ont les mêmes moments à tout ordre et qui pourtant ne sont pas les mêmes. Je n'ai pas d'exemple sous le coude, mais sur la log normale j'ai trouvé ça : https://mathoverflow.net/questions/3525/when-are-probability-distributions-completely-determined-by-their-moments#:~:text=Roughly speaking, if the sequence,is determined by its moments.

    En revanche, si deux lois ont même fonction génératrice des moments, alors elles sont les mêmes. On dit que la fonction génératrice (si elle existe sur un ouvert dans $\mathbb R$ de $0$), caractérise la loi. La preuve fait appel à des connaissances avancées (Laplace, holomorphie, fonction caractéristique), donc selon de là où tu pars je ne crois pas que ça puisse tomber en 2 lignes.

    Après peut-être qu'il y a une preuve plus simple dans le cas des moments gaussiens.
  • Maintenant, supposons qu'une loi a les mêmes moments qu'une gaussienne.

    La fonction génératrice d'une gaussienne existe pour tout réel $t$. Par ailleurs, la fonction génératrice, quand elle existe, est analytique ($t\mapsto e^{tX}$ l'est, puis théorème d'interversion série intégrale), et vaut en particulier $\sum_n m_nt^n / n!$.

    Il en est de même de notre loi (on écrit la série de Taylor de $e^{tX}$ et on intègre, i.e. on prend l'espérance). Donc les fonctions génératrices coincident, donc les lois sont les mêmes.

    Pour faire simple, quand la série $\sum_n m_nt^n / n!$ a un rayon de convergence $>0$, alors elle est égale à la fonction génératrice, donc les moments caractérisent la fonction génératrice, et la fonction génératrice caractérise la loi.
  • Bonjour Skyffer3,

    Ravi de vous lire :-D.

    La fonction caractéristique par définition
    $$
    z \rightarrow \mathbb{E}(z^{X}) = \sum_{n \in \mathbb{N}} \mathbb{P}(X=n)z^{n}
    $$
    est une série entière de rayon $R \ge 1$ donc holomorphe sur $B(0,1)$.

    Et si deux variables aléatoires ont une même loi alors leurs fonction génératrices sont égales. Réciproquement si deux fonctions génératrices sont égales, est-ce que les variables aléatoires ont la même loi ? Oui par unicité du développement analytique.

    La fonction génératrice existe toujours et caractérise la loi. Après je pense que j'appelle fonction génératrice pas ce que vous appelez la fonction génératrice.

    Merci pour le lien, c'est exactement la question que j'avais en tête ! Seul bémole calculer les moments des variables aléatoire qu'il donne ! C'est trop dur pour un samedi midi.
  • Je parlais de la fonction génératrice des moments, qui a une définition générale, et qui n'existe pas toujours pour $t\neq 0$ : $M_X(t) = \mathbb E[e^{tX}]$.

    Si je ne me trompe pas, on a :

    1) Si la fonction génératrice des moments est dérivable $n$ fois en $0$, alors sa dérivée $n$-ième en $0$ est le moment d'ordre $n$.
    Pourquoi ?

    2) Si une loi a des moments à tout ordre $m_n$, et que la série $\sum_n m_n t^n / n!$ converge, alors la fonction génératrice des moments existe en $t$ et vaut cette série.
    Pourquoi ?

    3) Si la fonction génératrice des moments existe sur $]-t,t[$, $t > 0$, alors elle y est analytique (et donc $C^\infty$).
    Pourquoi ?

    4) Si la fonction génératrice est $C^\infty$ sur un ouvert de $0$ dans $\mathbb R$, alors les moments à tout ordre existent et la fonction génératrice vaut $\sum_n m_n t^n / n!$ dans cet ouvert.
    Pourquoi ?

    5) Si deux fonctions génératrices coincident sur un ouvert de $0$ dans $\mathbb R$, alors les deux lois correspondantes sont égales.
    Pourquoi ?

    C'est loin d'être évident de prouver ces 5 points, je n'ai même pas de référence où c'est prouvé rigoureusement.
  • Si on a des moments gaussiens, on calcule la fonction caractéristique en développant l'exponentielle en série et roule ma poule.
  • Cela revient fondamentalement à ce que j'ai proposé sauf erreur de ma part (et qui fait l'objet du point 2) : intégrer la série entière de l'exponentielle. Ensuite, égalité des fonctions caractéristiques ou bien des fonctions génératrices, peu importe, on en déduit qu'on a la même loi.

    Aléa, est-ce que tu peux confirmer qu'il n'y a pas d'erreur dans mes 5 points, et le cas échéant pointez une référence sur les preuves ?
  • Hmm... Je ne suis pas un grand connaisseur des histoires de moments, mais ta stratégie me semble un peu trop optimiste.

    La preuve que donne Billingsley dans PM utilise la formule de Taylor, et dans mes souvenirs, ce n'est pas du tout trivial.

    En revanche, dans le cas gaussien, comme il y a des moments exponentiels de tous ordres, on peut y aller comme un gros bourrin car pour $z$ complexe, la série des $\frac{E(|z|^k |X|^k)}{k!}$ converge, ce qui permet d'inverser la série et l'espérance dans le développement.
    (noter que $|X|^{2k-1}\le X^{2k}+1$).
  • Bonjour Aléa.

    Est-ce que vous vous ramenez au cas centré réduit ? Dans ce cas l'exo est facile en effet, si on veut être très propre comme l'étudiant que je suis on a envie de montrer proprement qu'on caractérise les moments d'une loi normale de moyenne $m$ et variance $\sigma^{2}$ à partir des moments d'une centrée réduite.
  • J'ai forcément raté un truc, car j'ai l'impression qu'on peut faire beaucoup plus simple.

    Soit $\phi$ la fonction caractéristique de la gaussienne $X$ considérée. Alors, comme c'est une gaussienne, les $\mathbb E[X^n]$ existent, et on vérifie que $\phi(t) = \sum_n \dfrac{i^n}{n!}t^n \mathbb E[X^n]$ (par exemple en vérifiant juste que ça converge puis en utilisant l'interversion série-intégrale pour justifier l'égalité comme fait ci-dessous).

    Soit $Y$ de mêmes moments que $X$. Alors les $\mathbb E[Y^n]$ existent, et $\mathbb E[Y^n]=\mathbb E[X^n]$, donc on a aussi que $\sum_n \dfrac{i^n}{n!}t^n \mathbb E[Y^n]$ converge (pour tout $t$).

    Donc d'après le théorème d'interversion série-intégrale, on a $\mathbb E[\exp(itY)] = \sum_n \dfrac{i^n}{n!}t^n \mathbb E[Y^n]$.

    Donc $\mathbb E[\exp(itY)] = \mathbb E[\exp(itX)]$ pour tout $t$, donc les fonctions caractéristiques sont égales, et donc les lois.
  • Comment justifies-tu ton interversion série-intégrale exactement ?
  • Comme ça : https://fr.wikipedia.org/wiki/Théorème_d'interversion_série-intégrale

    J'ai dû rater des hypothèses, c'est ça quand on est rouillé, je vais regarder.
  • Ok, il fallait vérifier que $\mathbb E[|Y|^n]$ existent (ce qui est vrai par hypothèse), et que $\sum_n \dfrac{t^n \mathbb E[|Y|^n]}{n!}$ converge, ce que je n'ai pas vérifié, donc j'étais bien à côté ...
  • @skyffer3 votre raisonnement fonctionne pour les variables gaussiennes centrées réduites. En effet on peut calculer les moments dans ce cas là et vérifier alors que la série converge en module pour intervertir série intégrale.
    Les moment impaires sont nuls et les moments paires s'obtiennent par récurrence en faisant une IPP.
  • Je suis en train d'essayer de suivre le raisonnement d'aléa.

    Comment on obtient $\mathbb E[|X|^{2n+1}] \leq 1 + \mathbb E[|X|^{2n+2}]$ ?
  • C'est déterministe: $|x|^{2n+1}\le \max(1,|x|^{2n+2})\le 1+x^{2n+2}$ et on intègre.
  • J'avais essayé de partitionner entre $X\leq 1$ et $X>1$ sans succès.

    Merci beaucoup.
  • Il y a un $c_{\theta}$ qui manque et un $2$, mais ça ne fait pas de mal.
  • Merci aléa, j'ai pu suivre.

    Tu as astucieusement démontré l'hypothèse qui me manquait pour intervertir série et intégrale.
  • Au cas où ça pourrait aider, voici une fiche sur la loi log-normale, conçue pour en poser des bouts en colle et donner le corrigé aux élèves. Il y a plusieurs propriétés de cette loi, peut-être pas toutes intéressantes (mode, médiane, entropie), et il y a finalement le résultat évoqué dans ce fil à propos de lois distinctes qui ont les mêmes moments.
    Bonne soirée.
    Fr. Ch.
  • Bonjour Chaurien,

    Votre lien est mort pouvez vous l'update s'il vous plaît ?

    Merci !
  • Forum francophone : update ?
  • Le lien n'est pas mort chez moi.

    @Chaurien : update = mettre à jour.
  • Eh bien, pourquoi ne pas écrire : mettre à jour ?
  • C'est bon merci :).
Connectez-vous ou Inscrivez-vous pour répondre.