Fisher
dans Statistiques
Bonjour
Je m’intéresse à la loi uniforme sur $[0,\theta]$ avec le paramètre $\theta$ inconnu. J'ai calculé la fonction de vraisemblance et obtiens :
$1/\theta ^n 1_{x(n)\leq \theta}$
(je n'ai pas compté l'autre indicatrice car toutes nos valeurs sont presque sûrement strictement positive.).
1) Mon enseignante ne définie pas le log de cette quantité car pour une valeur x qui n'est pas dans $[0,\theta]$ le log prend la valeur infinie... Dans un cadre général lorsque l'on s'intéresse à l'estimation des paramètres par la méthode du maximum de vraisemblance je ne vois pas de problèmes à considérer une fonction qui prend la valeur $-\infty$ (car on s’intéresse au maximum) ; c'est courant en optimisation non ?
2) Dans ce lien (exercice trouvé sur le net) je ne comprends pas cette histoire d'homogénéité ? Est-ce que ça veut dire régularité *?
*On constate qu'à $x$ fixé la vraisemblance est nulle en $\theta=x(n)$ et donc la log vraisemblance vaut $-\infty$ donc effectivement ça n'a aucun sens de dériver...
[Ronald Fisher (1890-1962) mérite le respect de son patronyme ('sh', pas 'sch'). AD]
https://snag.gy/or3Zx1.jpg
Je m’intéresse à la loi uniforme sur $[0,\theta]$ avec le paramètre $\theta$ inconnu. J'ai calculé la fonction de vraisemblance et obtiens :
$1/\theta ^n 1_{x(n)\leq \theta}$
(je n'ai pas compté l'autre indicatrice car toutes nos valeurs sont presque sûrement strictement positive.).
1) Mon enseignante ne définie pas le log de cette quantité car pour une valeur x qui n'est pas dans $[0,\theta]$ le log prend la valeur infinie... Dans un cadre général lorsque l'on s'intéresse à l'estimation des paramètres par la méthode du maximum de vraisemblance je ne vois pas de problèmes à considérer une fonction qui prend la valeur $-\infty$ (car on s’intéresse au maximum) ; c'est courant en optimisation non ?
2) Dans ce lien (exercice trouvé sur le net) je ne comprends pas cette histoire d'homogénéité ? Est-ce que ça veut dire régularité *?
*On constate qu'à $x$ fixé la vraisemblance est nulle en $\theta=x(n)$ et donc la log vraisemblance vaut $-\infty$ donc effectivement ça n'a aucun sens de dériver...
[Ronald Fisher (1890-1962) mérite le respect de son patronyme ('sh', pas 'sch'). AD]
https://snag.gy/or3Zx1.jpg
Connectez-vous ou Inscrivez-vous pour répondre.
Bonjour!
Catégories
- 163.1K Toutes les catégories
- 7 Collège/Lycée
- 21.9K Algèbre
- 37.1K Analyse
- 6.2K Arithmétique
- 52 Catégories et structures
- 1K Combinatoire et Graphes
- 11 Sciences des données
- 5K Concours et Examens
- 11 CultureMath
- 47 Enseignement à distance
- 2.9K Fondements et Logique
- 10.3K Géométrie
- 62 Géométrie différentielle
- 1.1K Histoire des Mathématiques
- 68 Informatique théorique
- 3.8K LaTeX
- 39K Les-mathématiques
- 3.5K Livres, articles, revues, (...)
- 2.7K Logiciels pour les mathématiques
- 24 Mathématiques et finance
- 312 Mathématiques et Physique
- 4.9K Mathématiques et Société
- 3.3K Pédagogie, enseignement, orientation
- 10K Probabilités, théorie de la mesure
- 772 Shtam
- 4.2K Statistiques
- 3.7K Topologie
- 1.4K Vie du Forum et de ses membres