Estimateur maximum vaisemblance
Salut,
En ce moment je travail avec le méthode du maximum de vraisemblance, je me pose quelques questions et je ne trouve pas les réponses dans les livres.
Je lis un livre qui montre que il existe un estimateur qui est solution de l'équation de maximum de vraisemblance qui converge presque sûrement et qui efficace, etc...
Mais ma question c'est, est ce que si on a un estimateur qui est maximum strict de la fonction de vraisemblance alors il converge presque sûrement vers notre paramètre.
En trafiquant une preuve du livre je trouve une preuve que je pense être correct mais j'ai de gros doutes, n'étant pas mathématicien quelque chose a du m’échapper.
Dans la suite je suppose des fonctions continues et qui ont toutes des bonnes propriétés.
soit $f(x; \theta)$ la fonction de densité de probabilité de $x$ et $L(x_1,...,x_n; \theta_0) = \prod \limits_i f(x_i; \theta_0)$ la fonction de vraisemblance.
Posons $A_n(\theta) = {1 \over n} \sum \limits_i \ln f(X_i; \theta)$.
Alors selon le théorème de Kolmogorov on a $A_n(\theta) \to^{p.s.} E(\ln f(X; \theta)) = W(\theta, \theta_0)$.
(*) Or $\widehat{\theta}_n$ est un maximum strict de $A_n(\theta), \forall n$ donc $A_n(\widehat{\theta}_n) \to^{p.s.} W(\widehat{\theta}_n, \theta_0)$ donc a la limite si $\widehat{\theta}_n$ est maximum strict de $A_n(\theta)$ alors il est aussi maximum strict de $W(\theta, \theta_0)$.
Or le maximum strict de $W(\theta, \theta_0)$ est $\theta_0$ d'ou $\widehat{\theta}_n \to^{p.s.} \theta_0$.
Je pense que a (*) je fais une erreur mais je ne suis pas sur, la convergence presque sur c'est quelque chose de nouveau pour moi.
Merci d'avance!
En ce moment je travail avec le méthode du maximum de vraisemblance, je me pose quelques questions et je ne trouve pas les réponses dans les livres.
Je lis un livre qui montre que il existe un estimateur qui est solution de l'équation de maximum de vraisemblance qui converge presque sûrement et qui efficace, etc...
Mais ma question c'est, est ce que si on a un estimateur qui est maximum strict de la fonction de vraisemblance alors il converge presque sûrement vers notre paramètre.
En trafiquant une preuve du livre je trouve une preuve que je pense être correct mais j'ai de gros doutes, n'étant pas mathématicien quelque chose a du m’échapper.
Dans la suite je suppose des fonctions continues et qui ont toutes des bonnes propriétés.
soit $f(x; \theta)$ la fonction de densité de probabilité de $x$ et $L(x_1,...,x_n; \theta_0) = \prod \limits_i f(x_i; \theta_0)$ la fonction de vraisemblance.
Posons $A_n(\theta) = {1 \over n} \sum \limits_i \ln f(X_i; \theta)$.
Alors selon le théorème de Kolmogorov on a $A_n(\theta) \to^{p.s.} E(\ln f(X; \theta)) = W(\theta, \theta_0)$.
(*) Or $\widehat{\theta}_n$ est un maximum strict de $A_n(\theta), \forall n$ donc $A_n(\widehat{\theta}_n) \to^{p.s.} W(\widehat{\theta}_n, \theta_0)$ donc a la limite si $\widehat{\theta}_n$ est maximum strict de $A_n(\theta)$ alors il est aussi maximum strict de $W(\theta, \theta_0)$.
Or le maximum strict de $W(\theta, \theta_0)$ est $\theta_0$ d'ou $\widehat{\theta}_n \to^{p.s.} \theta_0$.
Je pense que a (*) je fais une erreur mais je ne suis pas sur, la convergence presque sur c'est quelque chose de nouveau pour moi.
Merci d'avance!
Connectez-vous ou Inscrivez-vous pour répondre.