Les-Mathematiques.net - Cours de mathématiques universitaires - Forum - Cours à télécharger

A lire
Deug/Prépa
Licence
Agrégation
A télécharger
Télécharger
146 personne(s) sur le site en ce moment
E. Cartan

Les maths pour l'agreg

A lire
Articles
Math/Infos
Récréation
A télécharger
Télécharger
Théorème de Cantor-Bernstein
Théo. Sylow
Théo. Ascoli
Théo. Baire
Loi forte grd nbre
Nains magiques
 
 
 
 
 
Variables aléatoires indépendantes next up previous index
suivant: Espérance monter: Variables aléatoires précédent: Définitions : variable aléatoire,   Index

Variables aléatoires indépendantes

Intuitivement des variables aléatoires sont indépendantes lorsqu'aucune d'elles ne dépend, d'aucune façon, des autres. Par exemple dans un sondage en vue d'un référendum, il est souhaitable que la variable "être sondée" soit indépendente de la variable "être partisan du oui" (chose très difficile à réaliser en pratique), sans quoi le sondage risque d'être biaisé. La notion d'indépendance est formalisée ci-dessous.

Définition [$ \sigma $-algèbres indépendantes] Soit $ S$ un $ \sigma $-algèbre , et $ (S_i)_{i \in I}$ une famille de sous-$ \sigma $-algèbres de $ S$; alors les $ S_i$ sont dites $ \sigma $-algèbres indépendantes si pour toute famille $ (s_i)_{i\in J} \in \Pi_{i\in J} S_i$ avec $ J$ partie finie de $ I$, on a $ P(\cap_{i \in J} s_i)=\Pi_{i \in J} P(s_i)$.
Soit $ (X_i)_{i \in I}$ une famille de variables aléatoires; alors les $ X_i$ sont dites variables aléatoires indépendantes si les $ S_i$ sont des $ \sigma $-algèbres indépendantes avec $ S_i=X_i^{-1}({\cal B})$ ($ {\cal B}$ la $ \sigma $-algèbre borélienne de $ \mathbb{R}$).
Des évènements $ E_i$ sont dits évènements indépendants si les $ \sigma $-algèbres $ \{ E_i , \Omega \setminus E_i, \emptyset, \Omega\}$ sont indépendantes; ce qui équivaut au fait que les fonctions caractéristiques des $ E_i$, en tant que variables aléatoires, sont indépendantes.
On appelle suite de variables aléatoires identiquement distribuées une suite de variables aléatoires indépendantes et ayant la même fonction de répartition.

Rappel de vocabulaire:
$ \bullet\ $Un triplet de probabilité est un triplet $ (\Omega,{\cal F},P)$, avec $ {\cal F}$ une tribu sur $ X$, et $ P$ une mesure de probabilité sur $ (\Omega,{\cal F})$.
$ \bullet\ $$ \Omega$ est appelé univers.
$ \bullet\ $Un évènement est une partie mesurable de $ \Omega$, c'est à dire un élément de $ {\cal F}$.
$ \bullet\ $Une variable aléatoire sur $ \Omega$ est une application mesurable de $ \Omega$ dans $ \mathbb{R}$ (muni des boréliens usuels).
$ \bullet\ $La loi de probabilité d'une variable aléatoire $ X$ est l'application $ {\cal L}_X$ qui à un borélien $ B$ inclus dans $ \mathbb{R}$ associe $ P(X^{-1}(B))$.
$ \bullet\ $La fonction de répartition d'une variable aléatoire $ X$ est l'application qui à un réel $ t$ associe $ P(\{{\omega}\in \Omega / X({\omega}) \leq t \})$.

Proposition Pour que des évènements $ E_i$ pour $ i \in I$ soient indépendants il suffit de vérifier que $ P(\cap_{i\in J} E_i)=\Pi_{i \in J} P(E_i)$ pour tout $ J$ fini dans $ I$.

Démonstration: Il suffit de considérer les propriétés d'additivité de $ P$, pour voir que cette formule permet de déduire les cas où des $ E_i$ sont remplacés par leurs complémentaires (cas de $ E_i$ remplacé par l'ensemble vide ou $ \Omega$ trivial).$ \sqcap$$ \sqcup$

Définition Deux $ \Pi$-système $ P_1$ et $ P_2$ sur un même ensemble sont dits indépendants si pour tout $ p_1 \in P_1$ et tout $ p_2 \in P_2$ on a

$\displaystyle P(p_1 \cap p_2) = P(p_1).P(p_2)$


Lemme Supposons $ S_1$ et $ S_2$ deux $ \sigma $-algèbres sur $ X$ engendrées respectivement par $ P_1$ et $ P_2$ des $ \Pi$-systèmes. Alors $ S_1$ et $ S_2$ sont indépendantes si et seulement si $ P_1$ et $ P_2$ sont des $ \Pi$-systèmes indépendants.

Démonstration: Le sens "seulement si" étant trivial on se préoccupe de l'autre sens.
Fixons $ p_1$ dans $ P_1$, et considérons les mesures $ m_1$ et $ m_2$ définies sur $ S_2$ par

$\displaystyle m_1(E)=P(E \cap p_1)$

et

$\displaystyle m_2(E)=P(E).P(p_1)$

Ces deux mesures coïncident sur $ P_2$ et donnent une mesure finie à $ X$; donc par le lemme [*] elles sont égales.
Fixons maintenant $ p_2$ dans $ P_2$.
On définit maintenant les deux mesures $ m_3$ et $ m_4$ sur $ S_1$ par

$\displaystyle m_3(E)=P(E \cap p_2)$

et

$\displaystyle m_4(E)=P(E).P(p_2)$

Elles coïncident sur $ P_1$ et donnent une mesure finie à $ X$; donc par le lemme [*] elles sont égales.

On a donc montré le résultat souhaité pour $ p_1$ et $ p_2$ dans les cas suivants:
$ \bullet\ $ $ p_1 \in P_1$ et $ p_2 \in P_2$, clair par hypothèse.
$ \bullet\ $ $ p_1 \in P_1$ et $ p_2$ quelconque, par le lemme [*].
$ \bullet\ $$ p_1$ quelconque et $ p_2$ quelconque, en fixant $ p_2$ et en utilisant le lemme [*].

Le résultat est donc prouvé.$ \sqcap$$ \sqcup$

Lemme [Second lemme de Borel-Cantelli] Si $ (E_n)_{n \in \mathbb{N}}$ est une suite d'évènements indépendants, alors

$\displaystyle \sum_n P(E_n) = + \infty \to P(limsup\ E_n)=1$


Intuitivement, cela signifie que si la somme des probabilités pour qu'un évènement arrive à l'instant $ n$ pour $ n \in N$ tend vers $ +\infty$, alors l'évènement a une probabilité $ 1$ d'avoir lieu une infinité de fois.

Démonstration: Notons que

$\displaystyle (limsup\ E_n)^c = (\cap_m \cup_{n \geq m} E_n)^c$

$\displaystyle =\cup_m ( (\cup_{n \geq m} E_n) ^c)$

$\displaystyle =\cup_m \cap_{n \geq m} (E_n^c)$

$\displaystyle =liminf\ (E_n^c)$

Avec $ p_n=P(E_n)$, pour tout $ p$, par définition de l'indépendance, on a

$\displaystyle P(\cap_{p\geq n \geq m} E_n^c)=\Pi_{p \geq n\geq m} (1-p_n)$

Donc en passant à la limite, par monotonie de l'intersection des $ E_n^c$, on a

$\displaystyle P(\cap_{n \geq m} E_n^c) = \Pi_{n \geq m} (1-p_n)$

$ 1-x \leq exp(-x)$, donc $ \Pi_{n \geq m} (1-p_n) \leq \Pi_{n \geq m} exp(-p_n) \leq exp(-\sum_{n \geq m} p_n)\leq 0$, d'où le résultat.$ \sqcap$$ \sqcup$

Le premier lemme de Borel-Cantelli, évoqué en partie [*], fournit un complément à ce lemme.

Exemple 1 (Application des deux lemmes de Borel-Cantelli)   On définit les $ (E_n)_{n \geq 1}$ comme des évènements aléatoires, indépendants, par

$\displaystyle E_n = [\alpha .log(n),+\infty[$

avec $ X$ variable aléatoire définie par sa fonction de répartition $ F_X=e^{-x}$.
$ P(E_n)=n^{-\alpha }$, donc $ \sum_{n \geq 1} P(E_n) = +\infty$ si et seulement si $ \alpha \leq 1$, et donc par les deux lemmes de Borel-Cantelli $ E_n$ a lieu infiniment souvent (c'est à dire que $ P(limsup\ E_n)=1$) si et seulement si $ \alpha > 1$.

Définition [$ \sigma $-algèbre asymptotique] Etant donnée une suite de variables aléatoires $ X_1$, ... , $ X_n$, ... , on appelle $ \sigma $-algèbre asymptotique de la suite $ (X_n)_{n \in \mathbb{N}}$ la $ \sigma $-algèbre $ \cap_n \tau _n$, avec $ \tau _n$ la $ \sigma $-algèbre engendrée par $ (X_{n+1},X_{n+2},...)$.

Pour bien comprendre cette définition il faut voir que:
$ \bullet\ $$ \tau _n$ est la $ \sigma $-algèbre qui rendre toutes les variables aléatoires $ X_i$ mesurables pour $ i>n$.
$ \bullet\ $$ \tau $ est l'intersection des $ \tau _n$.

Intuitivement la $ \sigma $-algèbre asymptotique contient les évènements qui ne dépendent que du comportement à la limite.

Proposition Les évènements suivants sont par exemples mesurables pour la $ \sigma $-algèbre asymptotique des $ X_i$ (on les appelle évènements asymptotiques) :
$ \bullet\ $ $ \{{\omega}/ lim_{n \to + \infty} X_i({\omega})$    converge$ \}$
$ \bullet\ $ $ \{{\omega}/ \sum_{n \to + \infty} X_i({\omega})$    converge$ \}$
$ \bullet\ $ $ \{{\omega}/ \lim_{n\to +\infty} sum_{i \in [0,1]} X_i({\omega}) )/n$    converge$ \}$
Les variables aléatoires suivantes sont dans $ \tau $ (on les appelle variables asymptotiques):
$ \bullet\ $ $ \limsup_{n\to +\infty} sum_{i \in [0,1]} X_i({\omega}) /n)$
$ \bullet\ $ $ \liminf_{n\to +\infty} sum_{i \in [0,1]} X_i({\omega}) /n)$

Pour contre-exemples on peut citer par exemple $ X_10$ (variable aléatoire non-asymptotique dans le cas général), ou la somme des $ X_i$ pour $ 0 \leq i \leq 10$.

Démonstration: pour les trois premiers points il faut donc montrer que l'ensemble $ E$ donné est inclus dans chaque $ \tau _n$.
$ \bullet\ $Les $ X_i$ sont mesurables, donc $ liminf\ X_i$ et $ limsup\ X_i$ sont mesurables, donc $ (liminf\ X_i-limsup\ X_i)^{-1} (\{0\})$ est une partie mesurable. Donc $ E \in \tau _1$; de la même manière $ E \in \tau _n$, pour tout $ n$, donc $ E \in \tau $.
$ \bullet\ $Les $ X_i$ sont mesurables, donc une somme finie de $ X_i$ est mesurables, donc

$\displaystyle limsup_{n \to +\infty}\ \sum_{i=1..n} X_i$

est mesurable, pareil avec $ lim inf$, d'où le résultat en considérant

$\displaystyle (limsup_{n \to +\infty}\ \sum_{i=1..n} X_i - limsup_{n \to +\infty}\ \sum_{i=1..n} X_i)^{-1}(\{0\}).$


$ \bullet\ $Par une méthode similaire aux deux cas précédents on montre que $ E$ appartient à $ \tau _1$, il suffit de voir ensuite que $ \lim_{n\to +\infty} sum_{i \in [0,1]} X_i({\omega}) )/n$ converge si et seulement si $ \lim_{n\to +\infty} sum_{i \in [0,1]} X_i({\omega}) )/(n-K+1)$ converge pour conclure que $ E$ appartient aussi à $ \tau _K$.
Pour les variables aléatoires qui suivent les façons de raisonner sont les mêmes.$ \sqcap$$ \sqcup$

Théorème [Loi $ 0-1$ de Kolmogorov] Soit $ (X_n)_{n \in \mathbb{N}}$ une suite de variables aléatoires indépendantes, et soit $ \tau $ la $ \sigma $-algèbre asymptotique des $ X_n$; alors :
$ \bullet\ $Tout évènement asymptotique a une probabilité 0 ou $ 1$.
$ \bullet\ $Pour toute variable asymptotique $ Y$, il existe un unique $ z\in [-\infty,+\infty]$ tel que $ P(Y=z)=1$.

Démonstration: On procède par étapes:
$ \bullet\ $On montre tout d'abord que les $ \sigma $-algèbres suivantes sont indépendantes pour tout $ n$:
- la $ \sigma $-algèbre engendrée par $ X_1,...,X_n$, notée par la suite $ Y_n$.
- la $ \sigma $-algèbre engendrée par $ X_{n+1},X_{n+2},...$, notée comme d'habitude $ \tau _n$.
En effet:
- la première de ces deux $ \sigma $-algèbres est engendrée par le $ \Pi$-système des ensembles de la forme $ \{ {\omega}/ \forall i\in[1,n] X_i({\omega}) \leq x_i\}$ avec $ x_i \in
]-\infty,+\infty]$.
- la seconde de ces deux $ \sigma $-algèbres est engendrée par le $ \Pi$-système des ensembles de la forme $ \{ {\omega}/ \forall j\in[n+1,n+1+K] X_i({\omega}) \leq x_j \}$ avec $ x_j \in ]-\infty,+\infty]$.
Par le lemme [*], nos deux $ \sigma $-algèbres sont donc indépendantes.
$ \bullet\ $$ Y_n$ et $ \tau $ sont indépendantes
Il suffit de voir que $ \tau \subset \tau _n$.
$ \bullet\ $$ \tau _1$ et $ \tau $ sont indépendantes.
L'union des $ Y_n$ est un $ \Pi$-système (facile), qui engendre $ \tau _1$ (facile aussi). D'après l'étape précédente, l'union des $ Y_n$ et $ \tau $ sont indépendantes au sens des $ \Pi$-systèmes; donc les $ \sigma $-algèbre engendrées sont indépendantes.
$ \bullet\ $$ \tau $ étant inclus dans $ \tau _1$, $ \tau $ est indépendante de $ \tau $, et donc pour tout $ E \in \tau $, on a $ P(E)=P(E\cap E)=P(E).P(E)$.

Le premier des deux points est alors prouvé. Pour trouver $ z$ du second point il suffit de considérer le plus grand $ z$ tel que $ P(Y \leq z)=0$.$ \sqcap$$ \sqcup$


next up previous index
suivant: Espérance monter: Variables aléatoires précédent: Définitions : variable aléatoire,   Index
C_Antonini,J_F_Quint,P_Borgnat,J_Bérard,E_Lebeau,E_Souche,A_Chateau,O_Teytaud
 

 
©Emmanuel Vieillard Baron 01-01-2001
Adresse Mail:

Inscription
Désinscription

Actuellement 16057 abonnés
Qu'est-ce que c'est ?
Taper le mot à rechercher

Mode d'emploi
En vrac

Faites connaître Les-Mathematiques.net à un ami
Curiosités
Participer
Latex et autres....
Collaborateurs
Forum

Nous contacter

Le vote Linux

WWW IMS
Cut the knot
Mac Tutor History...
Number, constant,...
Plouffe's inverter
The Prime page
Autres...