Risque quadratique et variance estimateur
dans Statistiques
Bonjour,
Je suis en train de faire les exercices pour mes étudiants: j'aimerais donner un estimateur et ils vérifient s'il est sans biais et convergent.
J'ai un petit souci avec la convergence. Je trouve sur internet (anglais, français) que si l'estimateur $\hat{\theta}$ de $\theta$ est sans biais, dans ce cas $V(\hat{\theta}) = \frac{\theta^2}{n}$ indépendamment de la loi? Si oui, comment le démontrer et qui l'a démontré (si jamais c'est trop compliquer pour les élèves...)?
J'ai deux estimateur sans biais:
$X$ suit la loi géométrique de paramètre $p$ et un $n$-échantillon $iid$, alors estimateur sans biais est $\hat{p} = \frac{1}{1 + \bar{X}_n}$. La variance sera $V(\hat{p}) = p^2 / n$ ou $V(\hat{p}) = \frac{V(X)}{n} = \frac{(1-p)}{np^2}$ ?
Pareil pour la loi exponentielle de paramètre $\lambda$. Si on pose $\hat{\lambda} = \bar{X}_{n}^{-1}$ il est sans biais et je trouve sur l'internet la variance $V(\hat{\lambda}) = \frac{\lambda^2}{n}$. SI je cherche moi même EMV, je tombe bien sur cet estimateur et l'information Fisher $\frac{n}{\lambda^2}$. Mais je n'arrive pas à calculer la variance de $V(\bar{X}_{n}^{-1})$.
Merci à l'avance pour l'aide et l'explication.
Je suis en train de faire les exercices pour mes étudiants: j'aimerais donner un estimateur et ils vérifient s'il est sans biais et convergent.
J'ai un petit souci avec la convergence. Je trouve sur internet (anglais, français) que si l'estimateur $\hat{\theta}$ de $\theta$ est sans biais, dans ce cas $V(\hat{\theta}) = \frac{\theta^2}{n}$ indépendamment de la loi? Si oui, comment le démontrer et qui l'a démontré (si jamais c'est trop compliquer pour les élèves...)?
J'ai deux estimateur sans biais:
$X$ suit la loi géométrique de paramètre $p$ et un $n$-échantillon $iid$, alors estimateur sans biais est $\hat{p} = \frac{1}{1 + \bar{X}_n}$. La variance sera $V(\hat{p}) = p^2 / n$ ou $V(\hat{p}) = \frac{V(X)}{n} = \frac{(1-p)}{np^2}$ ?
Pareil pour la loi exponentielle de paramètre $\lambda$. Si on pose $\hat{\lambda} = \bar{X}_{n}^{-1}$ il est sans biais et je trouve sur l'internet la variance $V(\hat{\lambda}) = \frac{\lambda^2}{n}$. SI je cherche moi même EMV, je tombe bien sur cet estimateur et l'information Fisher $\frac{n}{\lambda^2}$. Mais je n'arrive pas à calculer la variance de $V(\bar{X}_{n}^{-1})$.
Merci à l'avance pour l'aide et l'explication.
Réponses
-
Personne assez courageux pour dire que j'ai écrit n'importe quoi? :-D Bon j'ai trouvé la réponse pour la loi exponentielle de façon générale et j'ai jeté à la poubelle virtuelle le cours trouvé sur internet qui disait n'importe quoi.
Mais reste toujours la petite question, que fait-on dans le cas où $X_i$ suit la loi géométrique et on veut trouver $E(\frac{1}{X_i})$?
Connectez-vous ou Inscrivez-vous pour répondre.
Bonjour!
Catégories
- 163.2K Toutes les catégories
- 9 Collège/Lycée
- 21.9K Algèbre
- 37.1K Analyse
- 6.2K Arithmétique
- 53 Catégories et structures
- 1K Combinatoire et Graphes
- 11 Sciences des données
- 5K Concours et Examens
- 11 CultureMath
- 47 Enseignement à distance
- 2.9K Fondements et Logique
- 10.3K Géométrie
- 65 Géométrie différentielle
- 1.1K Histoire des Mathématiques
- 68 Informatique théorique
- 3.8K LaTeX
- 39K Les-mathématiques
- 3.5K Livres, articles, revues, (...)
- 2.7K Logiciels pour les mathématiques
- 24 Mathématiques et finance
- 314 Mathématiques et Physique
- 4.9K Mathématiques et Société
- 3.3K Pédagogie, enseignement, orientation
- 10K Probabilités, théorie de la mesure
- 773 Shtam
- 4.2K Statistiques
- 3.7K Topologie
- 1.4K Vie du Forum et de ses membres