Les-Mathematiques.net - Cours de mathématiques universitaires - Forum - Cours à télécharger

A lire
Deug/Prépa
Licence
Agrégation
A télécharger
Télécharger
220 personne(s) sur le site en ce moment
E. Cartan
A lire
Articles
Math/Infos
Récréation
A télécharger
Télécharger
Théorème de Cantor-Bernstein
Théo. Sylow
Théo. Ascoli
Théo. Baire
Loi forte grd nbre
Nains magiques
 
 
 
 
 
Le schéma Succès-Echec. next up previous
suivant: Le cas où monter: epb précédent: Le cas équiprobable.

Le schéma Succès-Echec.

Le schéma Succès-Echec fini. Si une expérience a deux issues, arbitrairement notées succès $ (S)$ et échec $ (E)$ et si on la répète $ n$ fois, ce qu'on observe est une suite de longueur $ n$ de $ S$ et de $ E.$ Pour modéliser cela, on introduit l'espace des observables $ \Omega=\{E,S\}^n$ formé des $ 2^n$ suites $ \omega=(\omega_1,\ldots,\omega_n)$ où les $ \omega_j$ sont égaux à $ E$ ou $ S$. On munit $ \Omega$ de la tribu $ \mathcal{P}(\Omega)$. Quant à la probabilité, on se fixe un nombre $ p$ tel que $ 0<p<1$ qui est la probabilité d'un succès si on n'effectue qu'une fois l'expérience. Introduisons alors l'importante quantité $ X(w)$ définie ainsi: si $ \omega=(\omega_1,\ldots,\omega_n)\in \Omega$ alors $ X(w)$ désigne le nombre de succès que comprend la suite $ \omega.$ Par exemple, $ X(SSES)=3$, $ X(EEEE)=0.$ Pour $ \omega\in \Omega$ tel que $ X(\omega)=k$ on définit alors $ P(\{ \omega\})=p^k(1-p)^{n-k};$ Comme tout évènement $ A\in \mathcal{P}(\Omega)$ est réunion de singletons $ \{ \omega\}$ deux à deux disjoints, cela suffit à définir $ P(A)$ et donc la probablité $ P$ sur $ (\Omega,\mathcal{P}(\Omega)).$

Parmi ces évènements, les plus importants sont les $ \{X=k\}$ ( ceci est une sténographie que nous utiliserons souvent pour écrire brièvement l'évènement $ \{\omega\in \Omega ; X(\omega)=k\}$). Voici leur probabilité:

Proposition 2.9 Pour le schéma Succès Echec finiassocié à la probabilité $ p$ d'un succès, si $ X$ est le nombre de succès en $ n$ expériences, alors

$\displaystyle P(X=k)=C_n^kp^k(1-p)^{n-k}.$

$  $

Démonstration Notons $ A=\{\omega\in \Omega ; X(\omega)=k\}$. Définissons l'application de $ A$ dans $ \mathcal{P}_k(\{1,2,\ldots,n\})$ par $ \omega\mapsto \{j ; \omega_j=S\}.$ Il est clair que c'est une bijection; donc d'après le Théorème 2.5 b), $ \vert A\vert=C_n^k$. Enfin puisque tous les $ \{ \omega\}$ contenus dans $ A$ ont la même probabilité $ p^k(1-p)^{n-k}$ on obtient

$\displaystyle P(A)=\sum_{\omega\in A}P(\{ \omega\})=
\vert A\vert p^k(1-p)^{n-k}=C_n^kp^k(1-p)^{n-k}.$

$  $

Le schéma Succès-Echec infini. Il s'agit ensuite de modéliser le cas où on veut effectuer un nombre arbitraire d'expériences: par exemple on peut vouloir répéter les essais jusqu'à ce qu'apparaisse 4 succès consécutifs. Une telle modélisation est impossible avec le schéma fini ci dessus, et on prend alors pour espace $ \Omega$ des observablesl'ensemble $ \{E,S\}^{{\bf N^*}}$ des suites infinies de $ S$ et de $ E$, en notant par $ {\bf N^*}$ l'ensemble des entiers $ >0.$ Il est clair que $ \Omega$ est en bijection avec les parties de $ {\bf N^*}$, et donc d'après la proposition 2.2 $ \Omega$ n'est pas dénombrable. Cela cause une sérieuse difficulté en ce qui concerne la construction de l'espace de probabilité correspondant. On construit la tribu $ \mathcal{A}$ et la probabilité $ P$ par un procédé d'approximation que nous décrivons maintenant.

Fixons l'entier $ n$ et définissons $ \Omega'=\{E,S\}^{\{1,\ldots,n\}}$ et $ \Omega''=\{E,S\}^{\{n+1,n+2,\ldots\}}$, de sorte que $ \Omega=\Omega'\times\Omega''$, et définissons la tribu suivante de parties de $ \Omega:$

$\displaystyle \mathcal{A}_n=\{A\times \Omega'' ; A\in \mathcal{P}(\Omega')\} .$

Intuitivement, les évènements de $ \mathcal{A}_n$ sont les évènements ne dépendant que de ce qui s'est passé jusqu'à l'instant $ n.$ En particulier, nous avons $ \mathcal{A}_n\subset \mathcal{A}_{n+1}.$

Si $ \omega'=(\omega_1,\dots,\omega_n)\in \Omega'$ comprend $ k$ succès, définissons la probabilité $ P_n(\{\omega'\}\times \Omega'')=p^k(1-p)^{n-k}.$ Cela permet donc de définir la probabilité $ P_n$ sur $ \mathcal{A}_n.$ L'espace de probabilité $ (\Omega,\mathcal{A}_n, P_n)$ est presque identique à l'espace du schéma Succès Echec fini décrit ci dessus.

Maintenant, notons

$\displaystyle \mathcal{A}'=\cup_{n\geq 1}\mathcal{A}_n.$

La famille $ \mathcal{A}'$ n'est pas une tribu, car ce n'est pas fermé pour la réunion dénombrable. Voici un contre exemple. Soit $ A_n$ l'ensemble des suites $ \omega$ infinies comprenant au moins un succès à l'instant $ n$ ou avant. Alors $ A_n$ est dans $ \mathcal{A}_n$ et donc dans $ \mathcal{A}'.$ Pourtant $ A=\cup_{n\geq 1} A_n$ n'est pas dans $ \mathcal{A}'.$ En effet $ A$ est l'ensemble des suites $ \omega$ infinies comprenant au moins un succès. Mais il n'existe pourtant aucun $ n$ tel que $ A\in \mathcal{A}_n$, et donc $ A\notin \mathcal{A}'.$ Réaliser cette chose subtile fait progresser dans la compréhension de la théorie. On définit alors la tribu $ \mathcal{A}$ sur $ \Omega$ comme la plus petite tribu contenant $ \mathcal{A}'$.

Pour définir enfin la probabilité $ P$ sur $ \mathcal{A}$, on fait l'observation essentielle suivante: on a non seulement $ \mathcal{A}_n\subset \mathcal{A}_{n+1},$ mais de plus la restriction de $ P_{n+1}$ au sous ensemble $ \mathcal{A}_n$ de $ \mathcal{A}_{n+1},$ qui était le domaine de définition de $ P_{n+1}$, coincide avec $ P_n.$ Par conséquent, il existe une fonction universelle $ P'$ définie sur $ \mathcal{A}'$ telle que pour tout $ A\in \mathcal{A}'$ on ait $ P'(A)=P_n(A)$ pour tous les $ n$ tels que $ A\in \mathcal{A}_n.$ A partir de ce point, les choses cessent d'être élémentaires, et nous sommes obligés d'admettre le théorème suivant, dont la démonstration est donnée en troisième année d'université:

Théorème 2.10 Il existe une et une seule probabilité $ P$ sur $ \mathcal{A}$ telle que pour tout $ A\in \mathcal{A}'$ on ait $ P(A)=P'(A).$

On peut ainsi démontrer l'idée intuitive qu'un évènement de probabilité strictement positive, même petite, finit toujours par arriver. Plus précisément, si $ A$ est l'ensemble des $ \omega\in \Omega$ comprenant au moins un succès, alors $ P(A)=1.$ En effet, si $ B_n$ est l'ensemble des $ \omega\in \Omega$ comprenant au moins un succès avant l'instant $ n$ ou à l'instant $ n$, alors $ A=\cup_{n\geq 1}B_n$ et $ B_n\subset B_{n+1}.$ Par continuité monotone (Th. 1.3, (2)) on a donc $ \lim P(B_n)=P(A).$ Comme $ P(B^c)=(1-p)^n$ tend vers 0, on a le résultat. Plus généralement on peut montrer que toute séquence $ a$ finie donnée à l'avance ( par exemple SSEESSEESSEESSEE, ou le codage en binaire d'une fable de La Fontaine) finira par arriver. Plus précisément:

Théorème 2.11 Soit $ a=(a_1,\ldots,a_n)\in \{E,S\}^n$ une suite fixée de longueur $ n$ de succès et d'échecs, et soit

$\displaystyle A=\{\omega \in \Omega ; \mathrm{il existe} N\geq 0 \
\mathrm{avec} \omega_{N+1}=a_1,\ldots,\omega_{N+n}=a_n\}.$

Alors $ P(A)=1.$

Démonstration Soit $ k$ le nombre de $ S$ dans la suite $ a$. Notons

$\displaystyle A_N=\{\omega \in \Omega ; \omega_{N+1}=a_1,\ldots,\omega_{N+n}=a_n\}.$

Alors $ P(A_N)=p^k(1-p)^{n-k}$ par définition de $ P.$ Introduisons $ B_m=\cup_{j=0}^{m-1}A_{jn}$. Alors $ B_m\subset B_{m+1}$ et

$\displaystyle A=\cup_{N\geq 0}A_N\supset B=\cup_{m\geq 0}B_m.$

On a de plus

$\displaystyle P(B_m^c)=P(\cap_{j=0}^{m-1}A_{jn}^c)=(1-p^k(1-p)^{n-k})^m
\rightarrow_{m\rightarrow \infty} 0.$

Par continuité monotone, on a donc $ P(B^c)=0.$ D'où $ 1=P(B)\leq P(A)=1.$


next up previous
suivant: Le cas où monter: epb précédent: Le cas équiprobable.
Gérard_Letac_Les-Mathematiques.net
 

 
©Emmanuel Vieillard Baron 01-01-2001
Adresse Mail:

Inscription
Désinscription

Actuellement 16057 abonnés
Qu'est-ce que c'est ?
Taper le mot à rechercher

Mode d'emploi
En vrac

Faites connaître Les-Mathematiques.net à un ami
Curiosités
Participer
Latex et autres....
Collaborateurs
Forum

Nous contacter

Le vote Linux

WWW IMS
Cut the knot
Mac Tutor History...
Number, constant,...
Plouffe's inverter
The Prime page