Maximum de vraisemblance, Fisher information
dans Statistiques
Bonjour,
voici la densité de probabilité suivante : $$
f_\theta (x) = \frac{x}{\theta^2} e^\tfrac{-x^2}{2 \theta^2} 1_{x \geqslant 0}.
$$ Je trouve que :
$\ell_ \theta (X_1, \ldots, X_n) = n \ln(\prod x_i) - \frac{n}{2}\ln(\theta) - \frac{1}{2 \theta^2} \sum x_i ^2$
Je dérive pour le point critique :
$ \ell'_\theta (X_1, \ldots, X_n) = \frac{-n}{2 \theta} + \frac{1}{\theta^3} \sum x_i ^2$
Je dérive à nouveau pour l'information de Fisher :
$ \ell''_\theta (X_1, \ldots, X_n) = \frac{n}{2 \theta^2} - \frac{3}{\theta^4} \sum x_i ^2$
Ceci est faux, et je ne vois pas mon erreur, Une petite aide serait bien venue.
voici la densité de probabilité suivante : $$
f_\theta (x) = \frac{x}{\theta^2} e^\tfrac{-x^2}{2 \theta^2} 1_{x \geqslant 0}.
$$ Je trouve que :
$\ell_ \theta (X_1, \ldots, X_n) = n \ln(\prod x_i) - \frac{n}{2}\ln(\theta) - \frac{1}{2 \theta^2} \sum x_i ^2$
Je dérive pour le point critique :
$ \ell'_\theta (X_1, \ldots, X_n) = \frac{-n}{2 \theta} + \frac{1}{\theta^3} \sum x_i ^2$
Je dérive à nouveau pour l'information de Fisher :
$ \ell''_\theta (X_1, \ldots, X_n) = \frac{n}{2 \theta^2} - \frac{3}{\theta^4} \sum x_i ^2$
Ceci est faux, et je ne vois pas mon erreur, Une petite aide serait bien venue.
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses
Une réflexion me vient : est-tu obligé d'introduire les valeurs de l'échantillon pour déterminer cette information de Fisher ? Par exemple, pour une loi de Bernoulli de paramètre p, l'information de Fisher est [p(1-p)]-1.
Cordialement.
Il faut alors calculer $\frac{\delta}{\delta\theta}\ln\left(f_{\theta}\left(x\right)\right)$ puis, $\frac{\delta^{2}}{\delta\theta^{2}}\ln\left(f_{\theta}\left(x\right)\right)$ et finalement, $E\left(\frac{\delta^{2}}{\delta\theta^{2}}\ln\left(f_{\theta}\left(x\right)\right)\right)$.
Cordialement.
L'information de Fisher est $-E[ \ell''_ \theta]$
En l'occurence ma dérivée seconde semble fausse et je ne vois pas pourquoi.
C'est pour cela que j'ai détaillé mon calcul ...
Bon courage.
Bon courage.
voici la correction.
$\ell_ \theta (X_1, \ldots, X_n) = n \ln(\prod x_i) - 2n \ln(\theta) - \frac{1}{2 \theta^2} \sum x_i ^2$
La variance est : $\frac{\theta^2}{4n}$
Dans cette situation, le vote s'impose (interdit de commencer à vouloir faire un calcul, polissons! ).
Cordialement.
$$I_F(\theta)=\int_{\Omega}\ell_{w}'(\theta)\otimes \ell_{w}'(\theta)e^{\ell_w(\theta)}\nu(dw)=-\int_{\Omega}\ell_{w}''(\theta)e^{\ell_w(\theta)}\nu(dw).$$ Si $G=\{e^{\ell^1_v(\theta)}\nu_1(dv); \theta \in \Theta\}$ est un autre modele sur $\Omega_1$ et si $H= \{e^{\ell_w(\theta)+\ell^1_v(\theta)}\nu(dw)\nu_1(dv); \theta \in \Theta\}$ est le modele produit sur $\Omega\times \Omega_1$ , alors $I_H(\theta)=I_F(\theta)+I_G(\theta).$ Et donc si on reproduit $n$ fois le modele $F$ pour faire le modele $F_n$ et bien $ I_{F_n}=nI_F.$