esperance et variance asymptotiques

Bonjour

quelqu'un pourrait me donner les formules de l'esperance et et de la variance asymptotiques?
d'avance merci!!

Céline

Réponses

  • Bonjour,
    pour quel estimateur ?
    Si c'est pour l'estimateur du maximum de vraisemblance ( ML ), l'espérance asymptotique est nulle car l'estimateur ML est non biaisé et la matrice de variance-covariance asymptotique est l'inverse du hessien de la log-vraisemblance.
    Amicalement,
  • heu ... disons que je n'ai pas tout compris là.
  • Pour que je puisse être plus clair, à quel niveau êtes-vous et dans quel cadre désirez-vous calculer l'espérance et la variance asymptotique ?
    Amicalement,
  • esperance, c'est toi! espoir de te retrouver! Enfin excuse moi je vais bouquiner puis te repondre!
    Amicalement, ney!
  • ben en fait (je suis en maitrise de maths) j'ai un exercice où on me fait calculer un estimateur UVMB et dans la question d'apres on me demande de montrer que cet estimateur est asymptotiquement normal en precisant son esperance et sa variance asymptotique. (jai la formule pr montrer quil est asymptotiquement normal).
    le pb est que je ne comprends pas pq l'espérance asymptotique est nulle lorsque l'estimateur est non biaisé et d'autre part, je ne sais pas ce qu'est l'inverse du hessien de la log-vraisemblance.
    voilà
    d'avance merci
  • Bonjour,
    je note $\hat{\theta}_n$ l'estimateur que vous considérez. S'il est UVMB, alors il est non biaisé et sa variance atteint la borne de Cramer-Rao.
    Son espérance est donc $\theta$, paramètre qu'on estime ( hier j'avais donné 0 car en général on exprime les résultats asymptotiques sous la forme $a_n(\hat{\theta}_n-\theta) \rightarrow N(0,1)$, ce qui donne une espérance nulle.. ). Sa variance est égale à la borne de Cramer-Rao, c'est à dire l'inverse de l'information de Fisher dans le cas où $\theta$ est de dimension 1. Dans le cas des dimensions supérieures, c'est le "hessien" ( la matrice des dérivées secondes ) de la fonction log-vraisemblance ( ça normalement vous savez ce que c'est ). Ici, comme je suppose maintenant que vous travaillez en dimension 1, l'information de Fisher $I_n$ peut se calculer tout simplement par sa définition :
    $$ I_n=-E [ \frac{\partial^2 log L}{\partial \theta^2}] $$
    où L est la vraisemblance de votre modèle.
    Dans le cas d'un échantillon iid, cette expression se simplifie en :
    $$ I_n= - n E [ \frac{\partial^2 log f}{\partial \theta^2}] $$
    où f est la densité commune à vos variables.
    Amicalement,
  • oui, :mais pour un échantillonnage d'importance en fait comment pour l'avoir c-à-d (fonction approximée / une constant de normalisation) je veux les étapes exacte pour le calcule si non pour le résultat je l'ai vous pouvez prendre un cas où le tous et gaussien ( je parle de la variance asymptotique, même sur green c'est pas clair)

    :)-D
    cordialement
Connectez-vous ou Inscrivez-vous pour répondre.