Estimateur bayesien de variance

Bonjour,
je cherche à estimer le paramètre $\theta$ à partir de $n$ variables aléatoires : $X_i \thicksim \mathcal{N} (0, \theta)$ et en utilisant la répartition a priori de Jeffreys.
Sauf erreur de ma part :
$ \pi (\theta) \varpropto \dfrac{1}{\theta}$, car l'information de Fisher est $2 \theta$
$L(X_i \mid \theta) \varpropto \theta ^{-\tfrac{n}{2}} \exp\Big(-\dfrac{\sum x_i^2}{2 \theta}\Big)$, on trouverait donc :
$L(\theta \mid X_i) \varpropto \theta ^{-\tfrac{n}{2} - 1} \exp\Big(-\dfrac{\sum x_i^2}{2 \theta}\Big)$
Par identification avec le distribution gamma et en posant $ x = \dfrac{1}{y}$
$L\Big( \dfrac{1}{y} \mid X_i\Big) \varpropto y^{\tfrac{n}{2} + 1} \exp\Big(-\dfrac{\sum x_i^2}{2}y\Big) \varpropto \Gamma \Big( \dfrac{n+4}{2}, \dfrac{\sum x_i^2}{2}\Big) $


On obtient une espérance pour $y$ : $ \dfrac{n+4}{\sum x_i^2}$ et donc une espérance pour $\theta$ : $ \dfrac{\sum x_i^2}{n+4}$

Mon raisonnement est-il correct ? Est-ce donc un estimateur correct ?

(Le symbole $\varpropto$ est utilisé pour signifier proportionnel, afin de supprimer les coefficients.)

Réponses

  • Bonjour,

    Je ne comprends pas la première ligne de tes calculs. La mesure de Jeffreys est la racine carrée de l'information de Fisher. Or, l'information de Fisher que tu nous donnes ne peut conduire à la prior de Jeffreys utilisée.

    Cordialement.
  • Mais ici c'est l'information de Fisher su un seul paramètre. Je ne ne prends donc pas la matrice.
  • De mon téléphone :
    Je n'aime pas trop prendre des informations sur Wikipedia mais j'ai seulement ça sous le coude. Peux-tu regarder un certain passage sur la prior de Jeffreys dans https://en.wikipedia.org/wiki/Jeffreys_prior?
    Cordialement.
Connectez-vous ou Inscrivez-vous pour répondre.