Les-Mathematiques.net - Cours de mathématiques universitaires - Forum - Cours à télécharger

A lire
Deug/Prépa
Licence
Agrégation
A télécharger
Télécharger
173 personne(s) sur le site en ce moment
E. Cartan
A lire
Articles
Math/Infos
Récréation
A télécharger
Télécharger
Théorème de Cantor-Bernstein
Théo. Sylow
Théo. Ascoli
Théo. Baire
Loi forte grd nbre
Nains magiques
 
 
 
 
 
Les variables aléatoires étagées. next up previous
suivant: Espérance d'une variable aléatoire monter: L'espérance mathématique d'une variable précédent: L'espérance mathématique d'une variable

Les variables aléatoires étagées.

Définition Soit $ (\Omega,\mathcal{A},P)$ un espace de probabilité. Désignons par $ \mathcal{E}$ l'ensemble de toutes les variables aléatoires réelles étagées définies sur $ \Omega.$ A tout élément $ X$ de $ \mathcal{E}$ nous associons un nombre appelé espérance mathématique de $ X$, noté $ \hbox{I\hskip -2pt E}(X)$, et défini ainsi: si la loi de $ X$ est

$\displaystyle P_X=p_1\delta_{a_1}+\cdots+p_N\delta_{a_N},$

alors

$\displaystyle \hbox{I\hskip -2pt E}(X)=p_1a_1+\cdots+p_Na_N.$

$  $

En fait, $ \mathcal{E}$ est un espace vectoriel et $ X\mapsto \hbox{I\hskip -2pt E}(X)$ est une forme linéaire positive dessus, comme le montre le théorème suivant:

Théorème 5.1 (Linéarité et positivité de l'espérance)

Si $ X$ et $ Y$ sont des v.a. étagées sur $ \Omega$ alors $ \lambda X+ \mu Y$, pour des réels $ \lambda$ et $ \mu$, est encore une v.a. étagée. De plus $ \hbox{I\hskip -2pt E}(\lambda X+ \mu Y)=\lambda \hbox{I\hskip -2pt E}(X)+ \mu \hbox{I\hskip -2pt E}(Y)$. Enfin $ \hbox{I\hskip -2pt E}(X)\geq \hbox{I\hskip -2pt E}(Y)$ si $ X\geq Y.$

Démonstration Introduisons les lois de $ X$ et $ Y$:

$\displaystyle P_X=p_1\delta_{a_1}+\cdots+p_N\delta_{a_N}, P_Y=q_1\delta_{b_1}+\cdots+q_M\delta_{b_M},$

notons $ X^{-1}(\{a_i\})=A_i$, $ Y^{-1}(\{b_j\})=B_j$ et $ C_{ij}=A_i\cap B_j$ et $ r_{ij}=P(C_{ij}).$ La matrice $ (r_{ij})$ a pour somme des lignes le vecteur ligne $ (q_1,\ldots,q_M)$ et pour somme des colonnes le vecteur colonne $ ^t(p_1,\ldots,p_N).$ Les valeurs prises par $ Z=\lambda X+ \mu Y$ sont les $ c_{ij}=\lambda a_i+\mu b_j$ et comme $ Z^{-1}(\{c_{ij}\})=C_{ij}\in \mathcal{A},$ on en déduit que $ Z$ est aussi une v.a. Sa loi est

$\displaystyle P_Z=\sum_{ij}r_{ij}\delta_{c_{ij}},$

et est donc d'espérance

$\displaystyle \hbox{I\hskip -2pt E}(Z)=\sum_{ij}r_{ij}c_{ij}=\sum_{ij}r_{ij}(\l...
...j\sum_ir_{ij}=
\lambda \hbox{I\hskip -2pt E}(X)+ \mu \hbox{I\hskip -2pt E}(Y).$

Quant à l'inégalité, il suffit d'observer que $ \hbox{I\hskip -2pt E}(X-Y)\geq 0$ par définition de l'espérance et d'appliquer ensuite la linéarité qu'on vient de démontrer.

Définition Variable aléatoire de Bernoulli. Un exemple particulièrement simple et important de v.a étagée est celui où $ X$ ne prend que les valeurs 0 et 1, c'est à dire où la loi de $ X$ est

$\displaystyle P_X=(1-p)\delta_0+p\delta_1,$

$ p\in [0,1]$. Sa loi est appelée une loi de Bernoulli. $ p$ est appelé le paramètre de la loi de Bernoulli.

Proposition L'espérance d'une loi de Bernoulli $ X$ de paramètre $ p$ est $ p$. Si $ X$ est définie sur l'espace de probabilité $ (\Omega,\mathcal{A},P)$, soit $ A=\{\omega ; X(\omega)=1\}$ alors $ X={\bf 1}_A$ est l'indicateur de $ A$, et on a donc

$\displaystyle \hbox{I\hskip -2pt E}({\bf 1}_A)=P(A).$

Inversement, un indicateur a toujours une loi de Bernoulli.

Nous allons utiliser le théorème précédent et les indicateurs pour terminer la démonstration du théorème 3.2. On veut donc montrer que si $ B_j\in \mathcal{A}_j=\{\emptyset,A_j,A_j^c,\Omega\}$ et si les $ A_j$ sont indépendants, alors

$\displaystyle P(\cap_{j=1}^NB_j)=\prod_{j=1}^NP(B_j).$

On le montre en remarquant d'abord que dans les 4 cas possibles pour $ B_j$, il existe deux nombres $ a_j$ et $ b_j$ tels que

$\displaystyle {\bf 1}_{B_j}=a_j+b_j{\bf 1}_{A_j};$

on prend en effet $ a_j=b_j=0$ si $ B_j$ est vide, $ a_j=1$, $ b_j=0$ si $ B_j$ est plein, $ a_j=0$, $ b_j=1$ si $ B_j=A_j$, $ a_j=1$, $ b_j=-1$ si $ B_j=A_j^c.$ D'où le calcul:

$\displaystyle P(\cap_{j=1}^NB_j)=\hbox{I\hskip -2pt E}(\prod_{j=1}^N{\bf 1}_{B_...
...I\hskip -2pt E}[\sum_{I}(\prod_{j\in I^c}a_j)(\prod_{j\in I}b_j{\bf 1}_{A_j})]=$

$\displaystyle \sum_{I}(\prod_{j\in I^c}a_j)(\prod_{j\in I}b_j)
\hbox{I\hskip -...
...{A_j})=
\sum_{I}(\prod_{j\in I^c}a_j)(\prod_{j\in I}b_j)
P(\cap_{j\in I}A_j)=$

$\displaystyle \sum_{I}(\prod_{j\in I^c}a_j)(\prod_{j\in I}b_j)
(\prod_{j\in I}...
...(A_j))=\prod_{j=1}^N\hbox{I\hskip -2pt E}({\bf 1}_{B_j})=
\prod_{j=1}^NP(B_j).$

Dans cette chaîne de 9 égalités, la première, la cinquième et les 2 dernières s'appuient sur le fait que l'espérance de l'indicateur est la probabilité, la deuxième sur la définition des $ a_j$ et $ b_j$, la troisième et la septième sur un développement algébrique; enfin, surtout, la quatrième s'appuie sur le théorème précédent et la sixième sur l'indépendance des $ A_j$.


next up previous
suivant: Espérance d'une variable aléatoire monter: L'espérance mathématique d'une variable précédent: L'espérance mathématique d'une variable
Gérard_Letac_Les-Mathematiques.net
 

 
©Emmanuel Vieillard Baron 01-01-2001
Adresse Mail:

Inscription
Désinscription

Actuellement 16057 abonnés
Qu'est-ce que c'est ?
Taper le mot à rechercher

Mode d'emploi
En vrac

Faites connaître Les-Mathematiques.net à un ami
Curiosités
Participer
Latex et autres....
Collaborateurs
Forum

Nous contacter

Le vote Linux

WWW IMS
Cut the knot
Mac Tutor History...
Number, constant,...
Plouffe's inverter
The Prime page