Les-Mathematiques.net - Cours de mathématiques universitaires - Forum - Cours à télécharger

A lire
Deug/Prépa
Licence
Agrégation
A télécharger
Télécharger
212 personne(s) sur le site en ce moment
E. Cartan
A lire
Articles
Math/Infos
Récréation
A télécharger
Télécharger
Théorème de Cantor-Bernstein
Théo. Sylow
Théo. Ascoli
Théo. Baire
Loi forte grd nbre
Nains magiques
 
 
 
 
 
Appendice 2: Convergence des lois binomiales epfb3 vers la loi de Poisson epfb4 next up previous
monter: fpb précédent: fpb

Appendice 2: Convergence des lois binomiales vers la loi de Poisson

Par Gérard Letac $  $
Cet appendice montre une chose peu connue: c'est que la suite des lois binomiales de paramètres convenables converge vers une loi de Poisson, non seulement faiblement, mais aussi au sens de la convergence en norme de mesures. Cet appendice peut intéresser aussi les étudiants d'agrégation qui ont à traiter du sujet ``lois binomiales, lois de Poisson''.

Adoptons les notations suivantes: $ \delta_a$ désigne la masse de Dirac en $ a$; si $ m>0$, on définit la loi de Poisson de moyenne $ m$ par

$\displaystyle p_m(dx)=\sum_{n=0}^{\infty}e^{-m}\frac{m^n}{n!}\delta_n(dx)$

et si $ 0<p<1$ on définit la loi de Bernoulli de moyenne $ p$ par

$\displaystyle b_{1,p}(dx)=(1-p)\delta_0(dx)+p\delta_1(dx).$

Si $ n$ est un entier $ >0$, on définit la loi binomiale $ b_{n,p}$ comme la nième puissance de convolution de la loi de Bernoulli:

$\displaystyle b_{n,p}(dx)=(b_{1,p})^{*n}(dx)=((1-p)\delta_0+p\delta_1)^{*n}(dx)=
\sum_{k=0}^n C^k_n(1-p)^{n-k}p^k\delta_k(dx).$

C'est un résultat simple et important que de constater que la suite de probabilités $ (b_{n,m/n})_{n>m}$ converge faiblement vers $ p_m$. En effet si $ n\geq k$, alors

$\displaystyle C^k_n\left(1-\frac{m}{n}\right)^{-k}\left(\frac{m}{n}\right)^k$

est une fraction rationnelle en $ n$ et l'examen des termes de plus haut degré au numérateur et au dénominateur montre que

$\displaystyle \lim_{n\rightarrow+\infty}C^k_n\left(1-\frac{m}{n}\right)^{n-k}\left(\frac{m}{n}\right)^k
=e^{-m}\frac{m^k}{k!}.$

Toutefois, un résultat plus fort est vrai, puisque en fait $ (b_{n,m/n})_{n>m}$ converge fortement vers $ p_m$. S'agissant ici de probabilités concentrées sur l'ensemble $ {\bf N}$ des entiers, cette convergence forte est une convergence dans $ {\it l}_1({\bf N})$ et revient à affirmer que

$\displaystyle \Vert b_{n,m/n}-p_m\Vert=\sum_{k=0}^n \left
\vert C^k_n\left(1-\...
...k
-e^{-m}\frac{m^k}{k!}\right\vert
+\sum_{k=n+1}^{\infty}e^{-m}\frac{m^k}{k!}$

tend vers 0 si $ n\rightarrow+\infty.$ Nous allons montrer ce résultat de deux manières. Celle de Le Cam(1960) est courte et utilise une ingénieuse idée de couplage. Celle de Prohorov (1963) donne plus d'informations en montrant que $ \Vert b_{n,m/n}-p_m\Vert$ est équivalente à un $ \phi(m)/n$ et calcule explicitement $ \phi(m).$

Théorème 1: (Le Cam) Si $ n>m>0$ on a

$\displaystyle \Vert b_{n,m/n}-p_m\Vert\leq \frac{4m^2}{n}.$

$  $

Démonstration Posons pour simplifier $ p=m/n\in ]0,1[$ et considérons des variables aléatoires $ (X_1,Y_1),\ldots,(X_n,Y_n)$ de $ {\bf N} ^2$ indépendantes et de même loi $ m_p$ définie par

$\displaystyle m_p(0,0)$ $\displaystyle =$ $\displaystyle e^{-p}-p+pe^{-p}$  
$\displaystyle m_p(0,1)$ $\displaystyle =$ $\displaystyle p-pe^{-p}$  
$\displaystyle m_p(1,1)$ $\displaystyle =$ $\displaystyle pe^{-p}$  
$\displaystyle m_p(n,0)$ $\displaystyle =$ $\displaystyle \frac{p^n}{n!}e^{-p} \mathrm{si} n\geq 2,$  

et $ m_p(a,b)=0$ ailleurs. Alors on constate facilement que $ X_i$ suit une loi de Poisson et que $ Y_i$ suit une loi de Bernoulli, toutes deux de moyenne $ p.$ Elles ne sont pas indépendantes, et satisfont à l'inégalité

$\displaystyle \Pr(X_i=Y_i)=m_p(0,0)+m_p(1,1)=e^{-p}-p+2pe^{-p}\geq 1-2p^2,$

héritée du fait que $ e^{-p}\geq 1-p$ pour tout réel $ p.$ Notons pour simplifier $ X=X_1+\cdots+X_n$, qui est donc de loi de Poisson $ p_m,$ et $ Y=Y_1+\cdots+Y_n,$ de loi binomiale $ b_{n,p}.$ Donc

$\displaystyle \Pr(X\neq Y)\leq \Pr(\cup_{i=1}^n(X_i\neq Y_i)\leq \sum _{i=1}^n\Pr(X_i\neq Y_i)\leq 2np^2.$

Ensuite, si $ A$ est une partie de $ {\bf N},$ on a l'inclusion d'évènements

$\displaystyle (X\in A)=(X=Y\in A)\cup(Y\neq X\in A)\subset (Y\in A)\cup(X\neq Y)$

qui entraine $ \Pr (X\in A)-\Pr(Y\in A)\leq P(X\leq Y).$ Le raisonnement fait en échangeant les rôles de $ X$ et $ Y$ donne finalement

$\displaystyle \vert\Pr (X\in A)-\Pr(Y\in A)\vert\leq 2np^2=\frac{2m^2}{n}.$

Pour terminer, on applique cette inégalité à l'ensemble $ E=\{k\in {\bf N}; p_m(k)\geq b_{n,p}(k)\}$ puis à son complémentaire $ E'={\bf N}\setminus E$. Comme

$\displaystyle \Vert b_{n,m/n}-p_m\Vert=(\Pr (X\in E')-\Pr(Y\in E'))+(\Pr (Y\in E)-\Pr(X\in E))\leq \frac{4m^2}{n},$

le résultat est montré.

Théorème 2: (Prohorov) Soit $ X$ une variable aléatoire de loi de Poisson $ p_m.$ Soit

$\displaystyle \frac{\phi_n(m)}{n}=\Vert b_{n,m/n}-p_m\Vert.$

Alors

$\displaystyle \lim_{n\rightarrow+\infty}\phi_n(m)=\phi(m)=
\frac{1}{2}{\bf E}(\vert X-(X-m)ý\vert).$


Démonstration Notons $ p_k=e^{-m}\frac{m^k}{k!}$ pour simplifier les notations. Observons d'abord que le résultat n'est pas si surprenant, car pour $ k$ fixé, en notant

$\displaystyle a_k(n)=\frac{n}{p_k} \left(C^k_n\left(1-\frac{m}{n}\right)^{n-k}\left(\frac{m}{n}\right)^k-p_k\right)   \mathrm{si}  0\leq k \leq n,$ (0.1)

$\displaystyle a_k(n)=-n  \mathrm{si}  n<k ,$

alors

$\displaystyle \lim_{n\rightarrow+\infty}a_k(n)=\frac{1}{2}(k-(k-m)ý)$ (0.2)

par un calcul standard et laborieux de développement limité (voir le détail de ce calcul dix lignes ci dessous). On est donc fondé de penser que

$\displaystyle \lim_{n\rightarrow+\infty}\sum_{k=0}^{\infty}p_k\vert a_k(n)\vert =\frac{1}{2} \sum_{k=0}^{\infty}p_k\vert k-(k-m)ý\vert.$ (0.3)

Le point délicat est alors de justifier cette interversion de limites. On va le faire par convergence dominée. L'idée pour cela est de considérer pour $ k$ fixé

$\displaystyle \frac{1}{p_k}
C^k_n\left(1-\frac{m}{n}\right)^{n-k}\left(\frac{m}{n}\right)^k$

comme une fonction $ f_k$ de $ 1/n$, en introduisant donc

$\displaystyle f_k(h)= (1-h)(1-2h)\ldots(1-(k-1)h)(1-mh)^{-k}
\exp[m+\frac{1}{h}\log(1-mh)].$

Cette fonction $ f_k$ est définie sur $ h>-1/m$, et une reformulation de (2) est d'affirmer que $ f'_k(0)=\frac{1}{2}(k-(k-m)ý);$ on le voit ainsi:

$\displaystyle f_k(h)=[1-(1+2+\cdots+k-1)h+o(h)][1+kmh+o(h)]
\exp[m+\frac{1}{h}(-mh-mýhý/2+o(hý))]$

$\displaystyle =[1-\frac{k(k-1)}{2}h+o(h)][1+kmh+o(h)][1-\frac{mý}{2}h+o(h)]
=1+\frac{1}{2}(k-(k-m)ý)h+o(h).$

Fixons désormais $ k_0>m.$ Pour $ k>k_0$, soit

$\displaystyle M_k=\mathrm{max}_{0\leq h\leq \frac{1}{k}}f_k(h).$

Montrons que $ M=\mathrm{sup}_{k>k_0}M_k$ est fini. Pour cela, notons

$\displaystyle K=\mathrm{max}_{0\leq h\leq \frac{1}{k_0}}\exp[m+\frac{1}{h}\log(1-mh)],$

qui existe comme maximum d'une fonction continue sur un compact. Ensuite, si $ 0\leq h \leq \frac{1}{k}\leq \frac{1}{k_0}<\frac{1}{m},$ alors $ 0\leq 1-jh \leq 1$ si $ j=1,\dots,k-1$ et $ (1-mh)^{-k}\leq (1-\frac{m}{k})^{-k}.$ Donc

$\displaystyle M_k\leq K(1-\frac{m}{k})^{-k}.$

Or $ \lim_{k\rightarrow+\infty}(1-\frac{m}{k})^{-k}=\exp(-m)$ est finie. Donc la suite $ (M_k)_{k>k_0}$ est bornée et $ M$ est fini.


Soit maintenant

$\displaystyle M'_k=\mathrm{max}_{0\leq h\leq \frac{1}{k}}\vert f'_k(h)\vert.$

Montrons que $ M'=\mathrm{sup}_{k>k_0}k^{-3}M_k$ est fini. Notons $ G(h)=\frac{1}{h}\log(1-mh)$ si $ h\neq 0$ et $ G(0)=-m:$ $ G$ est donc continument dérivable. Soit

$\displaystyle K'=\mathrm{max}_{0\leq h\leq \frac{1}{k_0}}\vert G'(h)\vert.$

Alors

$\displaystyle \frac{f'_k(h)}{f_k(h)}
=\frac{km}{1-mh}+G'(h)-\sum_{j=1}^{k-1}\frac{j}{1-jh}.$

Ensuite, si $ 0\leq h \leq \frac{1}{k}\leq \frac{1}{k_0}<\frac{1}{m},$ alors

$\displaystyle \left\vert-\sum_{j=1}^{k-1}\frac{j}{1-jh}\right\vert
\leq \sum_{j=1}^{k-1}\frac{j}{1-\frac{j}{k}}\leq k\sum_{j=1}^{k-1}j
=\frac{ký(k-1)}{2},$

et

$\displaystyle \frac{km}{1-mh}\leq\frac{km}{1-\frac{m}{k}}\leq \frac{kým}{k_0-m}. $

Donc

$\displaystyle \left\vert\frac{f'_k(h)}{f_k(h)}\right\vert
\leq \frac{kým}{k_0-m}+K'+\frac{ký(k-1)}{2}.$

Comme dans cet intervalle $ f_k$ est dans $ ]0,M]$, on en déduit

$\displaystyle k^{-3}M'k\leq \frac{M}{2}(1-1/k)+\frac{Mm}{k(k_0-m)}+\frac{MK'}{k^3}
\leq \frac{M}{2}+\frac{Mm}{k_0(k_0-m)}+\frac{MK'}{k_0^3}.$

$ M'$ est donc fini.


On peut alors terminer la démonstration du théorème: on a donc par la formule des accroissements finis pour $ 0\leq k \leq n:$

$\displaystyle \vert a_k(n)\vert=\vert n(f_k(1/n)-f_k(0)\vert=\vert f'_k(\theta/n)\vert\leq M'k^3$

et pour $ k>n$ $ \vert a_k(n)\vert=n\leq k^3.$ Soit $ M''$ le maximum de 1 et $ M'$. Observons que $ \sum_{n=0}^{\infty}M''k^3p_k$ converge. On est donc dans les conditions d'application du théorème de la convergence dominée et donc (3) est démontré. Voici quelques raffinements intéressants sur la fonction de Prohorov $ \phi$ du théorème précédent:

Proposition 2: Pour $ m>0$ on note $ p_k=e^{-m}\frac{m^k}{k!}$ et $ p_{-1}=0$. Soit $ r$ et $ R$ les racines du trin“me $ P(x)=x-(x-m)ý$, avec $ 0<r<R$, et soient $ a$ et $ A$ les parties entières de $ r$ et $ R$. Alors

$\displaystyle \phi(m)=mý(p_a-p_{a-1}+p_{A-1}-p_A).$

De plus, les deux fonctions de $ m$ définies par $ q(m)=m(p_a-p_{a-1})$ et $ Q(m)=m(p_{A-1}-p_A))$ sont continues, positives et tendent vers $ \frac{1}{\sqrt{2\pi e}}$ à l'infini.

Démonstration Remarquons que les racines $ r$ et $ R$ existent, car le discriminant simplifié de $ P$ est $ m+1/4>0$, et qu'elles sont $ >0$ car de somme $ 2m+1>0$ et de produit $ mý>0.$ Si $ X$ est une variable aléatoire de Poisson de moyenne $ m$, alors
$ {\bf E}(X-(X-m)ý)=0.$ Donc, puisque $ P(x)$ est positif si et seulement si $ r<x<R$, on a

$\displaystyle \phi(m)=\frac{1}{2}{\bf E}(\vert P(X\vert)=\frac{1}{2}{\bf E}(\vert P(X)\vert+P(X))
=\sum_{r<k<R}p_kP(k)=\sum_{k=a+1}^Ap_kP(k)$

$\displaystyle =mý\sum_{k=a+1}^A(-p_{k-2}+2p_{k-1}-p_k)
=mý\left(-\sum_{k=a-1}^{A-2}p_k
+2\sum_{k=a}^{A-1}p_k-\sum_{k=a+1}^{A}p_k\right)$

$\displaystyle =mý(p_a-p_{a-1}+p_{A-1}-p_A).$


Définissons la fonction $ m\mapsto r(m)=m+\frac{1}{2}-\sqrt{m+\frac{1}{4}}$ sur $ [0,+\infty)$. Elle est continue, et sa dérivée $ r'(m)>0.$ $ r$ est une bijection croissante de $ [0,+\infty)$ sur lui même de fonction réciproque $ m=r^{-1}(x)=x+\sqrt{x}.$ Donc $ a\leq r<a+1$ implique que

$\displaystyle a+\sqrt{a}= r^{-1}(a)\leq m<r^{-1}(a+1)=a+1+\sqrt{a+1}.$

Donc sur l'intervalle

$\displaystyle I_n=\{m;  a=n\}=[n+\sqrt{n},n+1+\sqrt{n+1})$

la fonction $ q$ prend la valeur

$\displaystyle q(m)=e^{-m}\frac{m^n(m-n)}{n!}.$

Elle est donc bien positive. Sa limite à l'extrémité droite de $ I_n$ est bien $ q(n+1+\sqrt{n+1})$ ce qui montre sa continuité. Quant à sa limite à l'infini, c'est évident avec la formule de Stirling. La démonstration pour $ Q$ est entièrement analogue: sur l'intervalle

$\displaystyle J_N=\{m;  A=N\}=[N-\sqrt{N},N+1-\sqrt{N+1}),$

la fonction $ Q$ prend la valeur

$\displaystyle Q(m)=e^{-m}\frac{m^N(N-m)}{N!}.$

Sur les intervalles $ I_n$ et $ J_N,$ les fonctions $ q$ et $ Q$ sont concaves.

Commentaires:
Il y a de nombreuses références sur cette question, (voir la bibliographie ci dessous, qui conduit à d'autres références) mais pas très accessibles un jour de concours d'agrégation. Dans Letac (1981), Problème IV 3 4ème et 5ème, on trouve la démonstration de Le Cam (1960).

Références:

LE CAM, L. "An approximation theorem for the Poisson binomial distribution". Pacific J. Math. 10, 1181-1197.

LETAC, G. (1982), Intégration et Probabilités, Analyse de Fourier, Exercices corrigés. Masson, Paris. (Seconde édition 1997).

PROHOROV, Ju. V. (1953), " Asymptotic behavior of the binomial distribution" (en russe). Uspehi Matematiceskih Nauk. 8, 135-142.

VERVAAT, W. (1969), " Upper bounds for the distance in total variation between the binomial and the Poisson distribution". Statistica Neerlandica, 23, 79-86.

JOHNSON, N. J. and SIMMONS, G. (1971), "On the convergence of the binomial to Poisson distribution". Annals of Math. Statist. 49, 1735-1736.


next up previous
monter: fpb précédent: fpb
G_Letac
 

 
©Emmanuel Vieillard Baron 01-01-2001
Adresse Mail:

Inscription
Désinscription

Actuellement 16057 abonnés
Qu'est-ce que c'est ?
Taper le mot à rechercher

Mode d'emploi
En vrac

Faites connaître Les-Mathematiques.net à un ami
Curiosités
Participer
Latex et autres....
Collaborateurs
Forum

Nous contacter

Le vote Linux

WWW IMS
Cut the knot
Mac Tutor History...
Number, constant,...
Plouffe's inverter
The Prime page