La notion précédente
d'évènements indépendants
a l'avantage d'être élémentaire, et les inconvénients de ne pas être
très maniable et de ne pas refléter la réalité:
l'intuition nous fait plutôt
penser que c'est un groupe d'évènements qui est indépendant
d'un autre groupe, plutôt que deux évènements isolés. Par exemple, il est facile
de vérifier que si est indépendant de , alors est aussi indépendant
de . La bonne notion de "groupe" d'évènements est en fait celle de sous tribu.
D'où la définition suivante:
Définition
Soit
une famille finie de sous tribus d'un espace de
probabilité. On dit que c'est une famille indépendante
si pour tous
on a
(Plus la peine donc d'examiner tous les sous ensembles .) En fait, c'est une
puissante généralisation de la notion d'évènements indépendants, d'après le théorème suivant:
Théorème 3.2 Soient
des évènements. Soient les tribus à quatre
éléments engendrées par les :
Alors la famille de sous tribus
est indépendante si et seulement si la famille d'évènements
est indépendante.
Démonstration Pour
, soit une partie de
.
Prenons alors si et
sinon. Alors
Bien qu'une démonstration par récurrence soit possible immédiatement pour la réciproque,
nous attendons la section 5 pour avoir une démonstration plus simple.
Exercices sur la section 3.
Dans le schéma Succès Echec fini à N essais,on suppose
et on considère les deux évènements = que des succès ou que des échecs, et
= pas plus d'un succès. Montrer que et sont indépendants
si et seulement si
On munit le segment
de la probabilité
telle que
pour tout intervalle
.
On considère les trois évènements ,
Quelles sont les paires d'évènements parmi qui sont indépendantes?