Statistique exhaustive
dans Statistiques
Bonjour,
1) J'essaie de comprendre la notion de statistique exhaustive au travers de l'exemple classique d'un échantillon aléatoire $(X_1,...,X_n)=\underline{X}^n$ (iid) issus d'une loi de Bernoulli de paramètre $p$.
Je n'arrive pas à comprendre pourquoi la statistique $T=\sum_1^n X_i$ nous donne "autant d'information" que l'échantillon sur le paramètre $p$ ?
Voici une interprétation de la notion d'information que l'on m'a communiquée et que je ne suis pas sûr de bien comprendre.
"Pour préciser cela on entend qu'une "statistique exhaustive $T(\underline{X}^n)$ restitue autant d'informations que le $n$-échantillon $\underline{X}^n$ (suivant une loi de paramètre $\theta_0$ inconnue)" si connaissant uniquement $T$ ((ie) on est capable de générer la va $T$) on est capable de générer un $n$-échantillon $\underline{X}^n$ de loi $P_{\theta_0}$."
a) Dans mon exemple, si je connais $T=\sum_1^n X_i$ et que je connais la taille de l'échantillon $n$ comment puis-je générer un échantillon $\underline{X}_n$ de loi $B(p)$ ?
(Je sens bien que l'estimateur $T$ est plus intéressant que $\sum_1^{n-1} X_i$, mais je n'arrive pas à montrer en quoi il nous permet de faire autant de chose que l'échantillon aléatoire).
b) En quoi la formulation du dessus est équivalente à dire que la loi conditionnelle de $\underline{X}_n$ à $T$ fixé ne dépend plus de $p$ ? (on peut en effet montrer que $\mathbb{P}_p(\underline{X}^n|T)=\dfrac{1}{\binom{n}{\sum_1^nX_i}}\mathbf{1}_{\sum X_i=T}$).
2) Que signifie la notation $\mathbb{P}(X=x|S(X)=s,\theta)$ ? Est-ce la même chose que la notation que l'on voit souvent : $\mathbb{P}_{\theta}(X=x|S(X)=s)$ ? https://fr.wikipedia.org/wiki/Statistique_exhaustive
[ Bernoulli ne prend pas de 'i' avant 'lli'. AD]
1) J'essaie de comprendre la notion de statistique exhaustive au travers de l'exemple classique d'un échantillon aléatoire $(X_1,...,X_n)=\underline{X}^n$ (iid) issus d'une loi de Bernoulli de paramètre $p$.
Je n'arrive pas à comprendre pourquoi la statistique $T=\sum_1^n X_i$ nous donne "autant d'information" que l'échantillon sur le paramètre $p$ ?
Voici une interprétation de la notion d'information que l'on m'a communiquée et que je ne suis pas sûr de bien comprendre.
"Pour préciser cela on entend qu'une "statistique exhaustive $T(\underline{X}^n)$ restitue autant d'informations que le $n$-échantillon $\underline{X}^n$ (suivant une loi de paramètre $\theta_0$ inconnue)" si connaissant uniquement $T$ ((ie) on est capable de générer la va $T$) on est capable de générer un $n$-échantillon $\underline{X}^n$ de loi $P_{\theta_0}$."
a) Dans mon exemple, si je connais $T=\sum_1^n X_i$ et que je connais la taille de l'échantillon $n$ comment puis-je générer un échantillon $\underline{X}_n$ de loi $B(p)$ ?
(Je sens bien que l'estimateur $T$ est plus intéressant que $\sum_1^{n-1} X_i$, mais je n'arrive pas à montrer en quoi il nous permet de faire autant de chose que l'échantillon aléatoire).
b) En quoi la formulation du dessus est équivalente à dire que la loi conditionnelle de $\underline{X}_n$ à $T$ fixé ne dépend plus de $p$ ? (on peut en effet montrer que $\mathbb{P}_p(\underline{X}^n|T)=\dfrac{1}{\binom{n}{\sum_1^nX_i}}\mathbf{1}_{\sum X_i=T}$).
2) Que signifie la notation $\mathbb{P}(X=x|S(X)=s,\theta)$ ? Est-ce la même chose que la notation que l'on voit souvent : $\mathbb{P}_{\theta}(X=x|S(X)=s)$ ? https://fr.wikipedia.org/wiki/Statistique_exhaustive
[ Bernoulli ne prend pas de 'i' avant 'lli'. AD]
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses
Si S tombe sur k, tu choisis au hasard une partie de cardinal k dans [1..n]
Et pour faire ceci, pas besoin de connaître p.
Vous expliquez , je suppose, 1)a) comment simuler un n-échantillon aléatoire issu d'une loi de Bernoulli à partir d'une va S qui suit une loi binomiale B(n,p).
Mais je ne comprends pas l'algo, pourriez-vous l'écrire plus explicitement ? (en pseudo code où avec votre langage de programmation préféré ? En entrée : on peut simuler une binomiale S en sortie on a un n-échantillon de loi mère Bernoulli)
On définit $F: 0;n \times \Omega \to \{0,1\}^n$, qui est telle que si $S\hookrightarrow B(n,p)$, alors $F(S)$ est un échantillon de Bernoulli $B(p)$ (en plus avec $\sum (f(S)) = S$.)
Bien sûr, il faudrait noter $F : 0;n \times \Omega \to \to \{0,1\}^n$, car $F(s)$ est aléatoire, et ce que je dis est pour $S$ indépendante de la tribu $\Omega$.
Comme $n=2$, il y a trois cas à traiter.
$F(0)$. Correspond à $$. Dans ce cas : 0 points à distribuer : $F(0) = (0,0)$ (correspond à $\emptyset \subset 1;n$)
$F(2)$. Correspond à $$. Dans ce cas : 2 points à distribuer : $F(2) = (1,1)$ (correspond à $0;n \subset 1;n$)
$F(1)$. Correspond à $$. Dans ce cas : 1 point à distribuer
Il y a deux manières de faire :
$(1,0)$ (correspond à $\{1\} \subset 1;2$)
et $(0,1)$ (correspond à $\{2\} \subset 1;2$).
On choisit l'un des deux avec équiprobabilité.
Je lance $n$ fois ma pièce de monnaie et je note $S$ le nombre de piles obtenu.
Je remplis maintenant une urne avec $n$ jetons :
$S$ jetons marqués "Pile"
$n-S$ jetons marqués "Face"
Je simule maintenant un tirage de $n$ pile ou face en effectuant un tirage sans remise complet des $n$ jetons.
Ce tirage donnera nécessairement en tout $S$ fois pile.