Les-Mathematiques.net - Cours de mathématiques universitaires - Forum - Cours à télécharger

A lire
Deug/Prépa
Licence
Agrégation
A télécharger
Télécharger
102 personne(s) sur le site en ce moment
E. Cartan
A lire
Articles
Math/Infos
Récréation
A télécharger
Télécharger
Théorème de Cantor-Bernstein
Théo. Sylow
Théo. Ascoli
Théo. Baire
Loi forte grd nbre
Nains magiques
 
 
 
 
 
Les variables aléatoires à valeurs entières. next up previous
suivant: Transformée de Laplace d'une monter: Moments, fonctions génératrices, transformées précédent: Moments et variance

Les variables aléatoires à valeurs entières.

Nous allons nous concentrer pour un moment sur les variables à valeurs dans l'ensemble $ {\bf N}$ des entiers $ \geq 0.$ Dans ce cas les moments seront plus faciles à calculer grâce à l'introduction de la notion de fonction génératrice de $ X$ :

Théorème 6.6 Soit $ X$ une v.a. à valeurs dans $ {\bf N}$ de loi $ P_X=\sum_{n=0}^{+\infty}p_n\delta_n$. On désigne par $ f_X(z)$ la somme de la série entière

$\displaystyle \sum_{n=0}^{+\infty}p_nz^n$

de rayon de convergence $ R$. Alors
  1. $ R\geq 1$ et, pour $ \vert z\vert\leq 1$ on a $ f_X(z)=\hbox{I\hskip -2pt E}(z^X)$.
  2. Pour tout $ n$ on a $ p_n=\frac{1}{n!}f_X^{(n)}(0).$ En particulier, la connaissance de $ f_X$ donne la connaissance de la loi de $ X$.
  3. Pour tout $ n$ le moment d'ordre $ n$ $ \hbox{I\hskip -2pt E}(X^n)$ existe si et seulement si la dérivée à gauche d'ordre $ n$ au point 1 de la fonction $ z\mapsto f_X(z)$ définie sur $ [-1,1]$ existe et est finie. Dans ce cas,

    $\displaystyle \hbox{I\hskip -2pt E}(X(X-1)\cdots(X-n+1))=f_X^{(n)}(1)=\sum_{k=n}^{\infty}k(k-1)\cdots(k-n+1)p_n;$

    en particulier $ \hbox{I\hskip -2pt E}(X)= f_X'(1)$, $ \hbox{I\hskip -2pt E}(X^2)=f_X''(1)+f_X'(1).$

  4. Si $ X_1,X_2,\ldots, X_N$ sont des variables aléatoires indépendantes à valeurs dans $ {\bf N}$ et si $ S=X_1+X_2+\cdots+ X_N$ alors pour $ \vert z\vert\leq 1$:

    $\displaystyle f_S(z)=f_{X_1}(z)\cdots f_{X_N}(z),$

    c'est-à-dire que la fonction génératrice d'une somme est le produit des fonctions génératrices.

$  $

Démonstration Il est clair que la série entière converge pour $ z=1$ puisque $ \sum_{n=0}^{+\infty}p_n=1$ et donc que $ f_X(1)=1$. Donc $ R\geq 1.$ Ensuite, si $ \vert z\vert=1$ la série est absolument convergente. Pour le 2), cela découle du lien entre la formule de Taylor et la somme d'une série entière.

Le 3) est plus délicat. Nous le montrons pour $ n=1$. Le principe pour $ n$ quelconque est le même. Supposons d'abord que $ \hbox{I\hskip -2pt E}(X)$ existe, c'est-à-dire, d'après la proposition 5.4, que $ \sum_{n=0}^{+\infty}np_n$ converge. Montrons qu'alors la dérivée à gauche en 1 de $ f_X$ existe et est finie. Celle ci est définie comme la limite quand $ z$ croît vers 1 de la fonction

$\displaystyle \frac{f_X(z)-f_X(1)}{z-1}=\frac{1-f_X(z)}{1-z}=
\sum_{n=0}^{+\infty}p_n\frac{1-z^n}{1-z}=
\sum_{n=0}^{+\infty}p_n(1+z+\cdots+z^{n-1}).$

Or si $ 0\leq z\leq 1$ on a $ 1+z+\cdots+z^{n-1}\leq n$. Comme $ \sum_{n=0}^{+\infty}np_n$ converge la série précédente converge normalement et sa limite est pour $ z$ tendant vers 1 est $ \hbox{I\hskip -2pt E}(X).$

Inversement, supposons que la dérivée à gauche en 1, notée $ f_X'(1)$ existe. Appliquons le théorème des accroissement finis à l'intervalle $ [z,1]$ et à la fonction $ f_X.$ Il existe donc $ c\in ]z,1[$ tel que

$\displaystyle \frac{1-f_X(z)}{1-z}=f_X'(c)=\sum_{n=1}^{+\infty}np_nc^{n-1}.$

Ceci tend vers une limite finie si $ z$ croit vers 1 par hypothèse. Il est clair puisque $ c$ tend vers 1 avec $ z$, que cette limite est supérieure ou égale à toutes les sommes partielles de la série $ \sum_{n=0}^{+\infty}np_n$, ce qui prouve que cette série converge. Enfin, trivialement,

$\displaystyle \sum_{n=1}^{+\infty}p_nc^{n-1}\leq \sum_{n=1}^{+\infty}np_n,$

ce qui montre finalement que $ f_X'(1)=\hbox{I\hskip -2pt E}(X).$

Le 4) est une conséquence immédiate du fait que si les $ X_j$ sont indépendants, alors les $ z^{X_j}$ sont indépendants, et que l'espérance du produit de variables indépendantes est le produit des espérances:

$\displaystyle f_S(z)=\hbox{I\hskip -2pt E}(z^{X_1+\cdots+X_N})=\hbox{I\hskip -2...
...pt E}(z^{X_1})\cdots\hbox{I\hskip -2pt E}(z^{X_N})=f_{X_1}(z)\cdots f_{X_N}(z).$


Commentaires: la démonstration du 3) n'est pas facile si $ R=1,$ comme on l'a vu. Si $ R>1$, c'est simple et immédiat par le théorème de dérivation d'une série entière à l'intérieur de l'intervalle de convergence.

Nous étudions maintenant 4 exemples fondamentaux de lois sur $ {\bf N}.$

Définition - Proposition \fbox{\bf La loi de Bernoulli $B_{1,p}$.} Pour $ 0<p<1$ c'est la loi

$\displaystyle B_{1,p}=(1-p)\delta_0+p\delta_1.$

Sa fonction génératrice est $ f(z)=(1-p)+pz$, son espérance est $ p$ et sa variance est $ (1-p)p.$

Définition - Proposition \fbox{\bf La loi binomiale $B_{N,p}$.} C'est la loi du nombre de succès dans le schéma Succès Echec fini à $ N$ essais:

$\displaystyle B_{N,p}=\sum_{k=0}^NC_N^k(1-p)^{N-k}p^k\delta_k.$

Sa fonction génératrice est d'après la formule du binôme, $ f(z)=((1-p)+pz)^N$. Donc en prenant sa dérivée à l'ordre 1, son espérance est donc $ Np.$ Quant à sa variance, c'est $ N(1-p)p.$

On remarque que si $ X$ et $ Y$ sont indépendantes et de lois respectives $ B_{N,p}$ et $ B_{M,p}$, alors la loi de $ X+Y$ est $ B_{N+M,p},$ comme on le voit par la fonction génératrice.

Un bon moyen de retenir ces résultats sur la loi binomiale est d'observer que si $ X_1,\ldots,X_N$ sont des variables aléatoires indépendantes de même loi de Bernoulli $ B_{1,p}$, alors $ S=X_1+\cdots+X_N$ est de loi binomiale $ B_{N,p}$ comme on le voit par la fonction génératrice $ f_S.$

Définition - Proposition \fbox{\bf La loi de Poisson $\mathcal{P}_{\lambda}$. }Pour $ \lambda>0$, c'est la loi définie par

$\displaystyle \mathcal{P}_{\lambda}=
\sum_{n=0}^{\infty}\frac{\lambda^n}{n!}e^{-\lambda}\delta_n.$

Sa fonction génératrice est $ f(z)=\exp(\lambda(z-1)),$ son espérance et sa variance sont toutes deux égales à $ \lambda.$

On remarque que si $ X$ et $ Y$ sont indépendantes et de lois respectives $ \mathcal{P}_{\lambda}$ et $ \mathcal{P}_{\mu}$, alors la loi de $ X+Y$ est $ \mathcal{P}_{\lambda+\mu},$ comme on le voit par la fonction génératrice.

La manière la plus courante de rencontrer cette loi de Poisson dans la nature est en tant qu'approximation de la loi binomiale. En effet, la suite de lois $ B_{N,\lambda/N}$ tend vers $ \mathcal{P}_{\lambda}$ dans le sens suivant: pour tout entier $ k$ on a

$\displaystyle \lim_{N\rightarrow\infty}B_{N,\lambda/N}(\{k\})=
\mathcal{P}_{\lambda}(\{k\}).$

Pour le voir, on observe que la suite du premier membre est

$\displaystyle C_N^k(1-\frac{\lambda}{N})^{N-k}(\frac{\lambda}{N})^k=
\frac{N(N...
...{N^k}
(1-\frac{\lambda}{N})^{-k}\frac{\lambda^k}{k!}(1-\frac{\lambda}{N})^{N}.$

Le premier produit tend vers $ 1$, comme quotient de deux polynômes de $ N$ de degré $ k$ ayant même terme de plus haut degré. Il est clair que toute l'expression tend vers $ \frac{\lambda^k}{k!}e^{-\lambda}$ si $ N$ tend vers l'infini, par la formule connue $ \lim_{N\rightarrow\infty}(1+\frac{x}{N})^N=\exp x.$

Définition - Proposition \fbox{\bf La loi de Pascal et la loi négative binomiale.} Dans le schéma Succès Echec infini, intéressons nous à la loi du temps d'attente $ T_1$ du premier succès , soit $ T_1(\omega)=\mathrm{inf} \{n ;  \omega_j=S\}.$ La loi de $ T_1$ se calcule facilement en remarquant que dire que $ T_1>n$ est dire que les $ n$ premiers essais ont été des échecs, un évènement de probabilité $ (1-p)^n.$ Donc, puisque

$\displaystyle P(T_1=n)=P(T_1>n-1)-P(T_1>n)=(1-p)^{n-1}-(1-p)^n=(1-p)^{n-1}p,$

la loi de $ T_1$, dite loi de Pascal, ou loi géométrique, est

$\displaystyle P_{T_1}=p\delta_1+(1-p)p\delta_2+\cdots+(1-p)^{n-1}p\delta_n+\cdots$

Sa fonction génératrice est la fonction homographique $ f_{T_1}(z)=\frac{pz}{1-(1-p)z},$ sa moyenne est $ 1/p,$ un résultat qu'il est bon de retenir. Quant à sa variance, c'est $ \sigma^2(T_1)= (1-p)/p^2.$

Si ensuite on s'intéresse au temps d'attente $ T_k$ du $ k$ ième succès, il est intuitivement clair, bien que pas si facile à montrer rigoureusement, que c'est la somme de $ k$ variables aléatoires indépendantes $ I_1,\ldots,I_k$, de même loi que $ T_1$: la v.a. $ I_k$ représente l'intervalle de temps entre les $ k-1$ ième et $ k$ ième succès. La fonction génératrice est donc $ f_{T_k}(z)=(\frac{pz}{1-(1-p)z})^k,$ la moyenne $ k/p$ et la variance $ k(1-p)/p^2.$ Toutefois, la loi de $ T_k$ est concentrée sur les entiers supérieurs ou égaux à $ k$, et il y a avantage en vue d'une généralisation à considérer plutôt la loi de $ T_k-k$, concentrée sur $ {\bf N}$, de fonction génératrice

$\displaystyle f_{T_k-k}(z)=(\frac{p}{1-(1-p)z})^k=
\sum_{n=0}^{\infty}\frac{1}{n!}k(k+1)\cdots(k+n-1)p^k(1-p)^nz^n,$

en développant selon la formule du binôme de Newton. Cela entraîne donc que si $ n\geq k:$

$\displaystyle P(T_k=n)=P(T_k-k=n-k)=\frac{1}{(n-k)!}k(k+1)\cdots(n-1)p^k(1-p)^{n-k}=
C_{n-1}^{k-1}p^k(1-p)^{n-k},$

une formule difficile à retenir.

Maintenant, on peut généraliser la loi de $ T_k-k$ en remplaçant le paramètre entier $ k$ par le paramètre continu positif $ \lambda.$ L'interprétation probabiliste disparait, mais les formules demeurent. On introduit donc la loi dite négative-binomiale définie par:

Définition - Proposition \fbox{\bf La loi négative binomiale} est la loi $ NB_{\lambda,p}$ définie pour $ \lambda>0$ et $ 0<p<1$ par

$\displaystyle NB_{\lambda,p}=
\sum_{n=0}^{\infty}\frac{1}{n!}
\lambda(\lambda+1)\cdots(\lambda+n-1)p^{\lambda}(1-p)^n\delta_n.$

Une variable aléatoire $ X$ qui suit une telle loi est donc telle que si $ n\in {\bf N}:$

$\displaystyle P(X=n)=\frac{1}{n!}
\lambda(\lambda+1)\cdots(\lambda+n-1)p^{\lambda}(1-p)^n,$

sa fonction génératrice est $ f_X(z)=(\frac{p}{1-(1-p)z})^{\lambda}$, sa moyenne est $ \lambda(1-p)/p$ et sa variance est $ \lambda(1-p)/p^2.$

Exercices sur 6.2

  1. Montrer que si deux dés sont marqués sur leurs faces $ 1,2,3,4,5,6$ il est impossible de les piper de sorte que la somme $ X+Y$ de leur points soit telle que $ P(X+Y=n)=\frac{1}{11}$ pour $ n=2,3,\ldots, 12.$ Méthode: montrer que les fonctions génératrices $ f_X(z)$ et $ f_Y(z)$ sont telles que $ f_X(z)/z$ et $ f_X(z)/z$ sont des polyn“mes ayant au moins un zéro réel, et que $ f_{X+Y}(z)/z^2$ n'a que des zéros imaginaires.
  2. Une fonction génératrice $ f_X$ est telle que $ f_X(z)=(1-\sqrt{1-z})/z.$ Quelle est la probabilité pour que $ X=n?$ Est ce que $ \hbox{I\hskip -2pt E}(X)$ existe?
  3. Soit $ X$ et $ Y$ deux variables aléatoires indépendantes qui suivent des lois de Pascal pas nécessairement identiques. Soit $ Z=\mathrm{min}(X,Y).$ Calculer pour $ n$ fixé $ P(X>n$, $ P(Y>n)$, $ P(Z>n)$, $ P(Z=n)$. Montrer que $ Z$ suit une loi de Pascal. Exprimer sa moyenne en fonction des moyennes de $ X$ et $ Y$.

$  $


next up previous
suivant: Transformée de Laplace d'une monter: Moments, fonctions génératrices, transformées précédent: Moments et variance
Gérard_Letac_Les-Mathematiques.net
 

 
©Emmanuel Vieillard Baron 01-01-2001
Adresse Mail:

Inscription
Désinscription

Actuellement 16057 abonnés
Qu'est-ce que c'est ?
Taper le mot à rechercher

Mode d'emploi
En vrac

Faites connaître Les-Mathematiques.net à un ami
Curiosités
Participer
Latex et autres....
Collaborateurs
Forum

Nous contacter

Le vote Linux

WWW IMS
Cut the knot
Mac Tutor History...
Number, constant,...
Plouffe's inverter
The Prime page