Indépendance et complémentation
Bonjour,
J'aimerais généraliser la propriété bien connue suivante (un espace de probabilité étant fixé) "$A$ et $B$ sont indépendants si et seulement si $A$ et $B^c$ le sont, ssi $A^c$ et $B$ le sont, ssi $A^c$ et $B^c$ le sont'' à une famille quelconque d’événements (indépendants).
Soit donc $(A_i)_{i\in I}$ une famille d'événements indépendants indexée par un ensemble $I$, $\{I_1,I_2\}$ une partition de $I$ et la famille $(B_i)$ définie par $$
B_i = \left\{
\begin{array}{ll}
A_i & \mbox{si } i \in I_1 \\
A_i^c & \mbox{si } i \in I_2
\end{array}
\right.
$$ Il faut montrer que les $B_i$ sont indépendants. Pour cela, il faut prouver que pour toute partie finie $J\subset I$, on a $$\mathbb{P}\left(\bigcap_{j\in J} B_j\right)=\prod_{j\in J} \mathbb{P}(B_j).
$$ Soit donc un tel $J$, soit $J_i=I_i\cap J$ , $i\in \{1,2\}$, qu'on suppose non vides (je me poserai plus tard la question du prix de cette hypothèse). On a $$\bigcap_{j\in J} B_j=\left(\bigcap_{j\in J_1} A_j\right)\cap\left(\bigcap_{j\in J_2} A_j^c\right)=\left(\bigcap_{j\in J_1} A_j\right)\cap\left(\bigcup_{j\in J_2} A_j\right)^c.
$$ On peut mettre ceci sous la forme du complémentaire d'une réunion, en vue d'appliquer les formules "$\mathbb{P}(A^c)=1-\mathbb{P}(A)$" et de Poincaré (ce que j'ai fait)
Je n'arrive cependant pas à retrouver la formule proposée dans un bouquin (malgré un nombre de tentatives tel que la curiosité a dépassé la "flemme" de rédiger ce message (un peu fastidieux en terme d'écriture latex...)) à savoir : $$ \mathbb{P}\left(\bigcap_{j\in J} B_j\right)=\mathbb{P}\left(\bigcap_{j\in J_1} A_j\right)-\sum_{\substack{K\subset J_2\\ |K|=1}}\mathbb{P}\left(\bigcap_{j\in K\cup J_1} A_j\right)+\sum_{\substack{K\subset J_2\\ |K|=2}}\mathbb{P}\left(\bigcap_{j\in K\cup J_1} A_j\right)-\cdots+(-1)^{|J_2|}\mathbb{P}\left(\bigcap_{j\in J} A_j\right).
$$ Comment arrive-t-on à cette expression ? Bien sûr, c'est un coup de formule de Poincaré, mais appliqué à quelle réunion ? Y a-t-il une formule utilisée intermédiairement ?
J'aimerais généraliser la propriété bien connue suivante (un espace de probabilité étant fixé) "$A$ et $B$ sont indépendants si et seulement si $A$ et $B^c$ le sont, ssi $A^c$ et $B$ le sont, ssi $A^c$ et $B^c$ le sont'' à une famille quelconque d’événements (indépendants).
Soit donc $(A_i)_{i\in I}$ une famille d'événements indépendants indexée par un ensemble $I$, $\{I_1,I_2\}$ une partition de $I$ et la famille $(B_i)$ définie par $$
B_i = \left\{
\begin{array}{ll}
A_i & \mbox{si } i \in I_1 \\
A_i^c & \mbox{si } i \in I_2
\end{array}
\right.
$$ Il faut montrer que les $B_i$ sont indépendants. Pour cela, il faut prouver que pour toute partie finie $J\subset I$, on a $$\mathbb{P}\left(\bigcap_{j\in J} B_j\right)=\prod_{j\in J} \mathbb{P}(B_j).
$$ Soit donc un tel $J$, soit $J_i=I_i\cap J$ , $i\in \{1,2\}$, qu'on suppose non vides (je me poserai plus tard la question du prix de cette hypothèse). On a $$\bigcap_{j\in J} B_j=\left(\bigcap_{j\in J_1} A_j\right)\cap\left(\bigcap_{j\in J_2} A_j^c\right)=\left(\bigcap_{j\in J_1} A_j\right)\cap\left(\bigcup_{j\in J_2} A_j\right)^c.
$$ On peut mettre ceci sous la forme du complémentaire d'une réunion, en vue d'appliquer les formules "$\mathbb{P}(A^c)=1-\mathbb{P}(A)$" et de Poincaré (ce que j'ai fait)
Je n'arrive cependant pas à retrouver la formule proposée dans un bouquin (malgré un nombre de tentatives tel que la curiosité a dépassé la "flemme" de rédiger ce message (un peu fastidieux en terme d'écriture latex...)) à savoir : $$ \mathbb{P}\left(\bigcap_{j\in J} B_j\right)=\mathbb{P}\left(\bigcap_{j\in J_1} A_j\right)-\sum_{\substack{K\subset J_2\\ |K|=1}}\mathbb{P}\left(\bigcap_{j\in K\cup J_1} A_j\right)+\sum_{\substack{K\subset J_2\\ |K|=2}}\mathbb{P}\left(\bigcap_{j\in K\cup J_1} A_j\right)-\cdots+(-1)^{|J_2|}\mathbb{P}\left(\bigcap_{j\in J} A_j\right).
$$ Comment arrive-t-on à cette expression ? Bien sûr, c'est un coup de formule de Poincaré, mais appliqué à quelle réunion ? Y a-t-il une formule utilisée intermédiairement ?
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses
1) On note qu'une famille d'événements est indépendante si et seulement si toute partie finie est indépendante. On est alors ramené à étudier le cas d'une famille finie.
2) Ramené à une famille finie, il suffit de voir qu'en remplaçant un événement par son complémentaire, on a encore une famille indépendante.
C'est fait en exercice corrigé dans Garet-Kurtzmann, chapitre 3.
"une famille d'événements est indépendante si et seulement si toute partie finie est indépendante" : n'est-ce pas là "la" définition de l'indépendance d'une famille quelconque ?
Cela dit, je suis toujours preneur si quelqu'un a une explication pour mon truc.
Mais il faut bien noter que dire $P(\cap_{j\in J} A_j)=\prod_{j\in J}P(A_j)$ n'est pas dire que $(A_j)_{j\in J}$ est indépendante.
Justement, c'est dans ce livre qu'il y a cette égalité "parachutée" à laquelle je ne suis toujours pas venu à bout.