Estimation de densité à noyau gamma
dans Statistiques
Bonjour
En reprenant les détails de calculs d'un article en rapport avec l'estimation de densité à noyau gamma, je me suis retrouvé face à un petit truc qui m'échappe. Je vous serais reconnaissant si quelqu'un pouvait m'éclairer là-dessus.
Soit un échantillon aléatoire $X_1, X_2, \dots, X_n$ issu d'une densité de probabilité inconnue $f$ définie sur $\mathbb{R}^+$. Un estimateur à noyau gamma de $f$ est donné par : $$
\hat{f}_{n} = \frac{1}{n}\sum K^{G}_{(\frac{x}{h}+1,h)}(X_{i}),
$$ avec $ K^{G}_{(\frac{x}{h}+1,h)}$ la densité gamma de paramètres $(\frac{x}{h}+1)$ et $h$ : $$
K^{G}_{(\frac{x}{h}+1,h)}(t) = \frac{t^{\frac{x}{h}}e^\frac{-t}{h}}{h^{\frac{x}{h}+1}\Gamma (\frac{x}{h}+1)}.
$$ La variance de cet estimateur est alors donnée par : $$
Var\lbrace\hat{f}_{n}(x)\rbrace = \frac{1}{n}E\lbrace[K^{G}_{(\frac{x}{h}+1,h)}(X_{1})]^2\rbrace - \frac{1}{n}E^{2}\lbrace K^{G}_{(\frac{x}{h}+1,h)}(X_1)\rbrace.
$$ En essayant de réécrire le terme $[K^{G}_{(\frac{x}{h}+1,h)}(X_{1})]^2$ à l'aide d'une densité gamma de paramètres $(\frac{2x}{h}+1)$ et $h$ je me retrouve avec la forme : $$
[K^{G}_{(\frac{x}{h}+1,h)}(X_{1})]^2 = \frac{\Gamma(\frac{2x}{h}+1)}{h\Gamma^{2}(\frac{x}{h}+1)}e^{-\frac{X_1}{h}}K^{G}_{(\frac{2x}{h}+1,h)}(X_1).
$$ Dans le papier en question, on retrouve que $$
E\lbrace[K^{G}_{(\frac{x}{h}+1,h)}(X_{1})]^2\rbrace = \frac{h^{-1}\Gamma(\frac{2x}{h}+1)}{2^{\frac{2x}{h}+1}\Gamma^{2}(\frac{x}{h}+1)}E\lbrace K^{G}_{(\frac{2x}{h}+1,h)}(X_1)\rbrace.
$$ Là, je ne sais pas d'où est-ce que je peux sortir le $2^{\frac{2x}{h}+1}$ et quel est son rapport avec le $e^{-\frac{X_1}{h}}$.
Merci !
En reprenant les détails de calculs d'un article en rapport avec l'estimation de densité à noyau gamma, je me suis retrouvé face à un petit truc qui m'échappe. Je vous serais reconnaissant si quelqu'un pouvait m'éclairer là-dessus.
Soit un échantillon aléatoire $X_1, X_2, \dots, X_n$ issu d'une densité de probabilité inconnue $f$ définie sur $\mathbb{R}^+$. Un estimateur à noyau gamma de $f$ est donné par : $$
\hat{f}_{n} = \frac{1}{n}\sum K^{G}_{(\frac{x}{h}+1,h)}(X_{i}),
$$ avec $ K^{G}_{(\frac{x}{h}+1,h)}$ la densité gamma de paramètres $(\frac{x}{h}+1)$ et $h$ : $$
K^{G}_{(\frac{x}{h}+1,h)}(t) = \frac{t^{\frac{x}{h}}e^\frac{-t}{h}}{h^{\frac{x}{h}+1}\Gamma (\frac{x}{h}+1)}.
$$ La variance de cet estimateur est alors donnée par : $$
Var\lbrace\hat{f}_{n}(x)\rbrace = \frac{1}{n}E\lbrace[K^{G}_{(\frac{x}{h}+1,h)}(X_{1})]^2\rbrace - \frac{1}{n}E^{2}\lbrace K^{G}_{(\frac{x}{h}+1,h)}(X_1)\rbrace.
$$ En essayant de réécrire le terme $[K^{G}_{(\frac{x}{h}+1,h)}(X_{1})]^2$ à l'aide d'une densité gamma de paramètres $(\frac{2x}{h}+1)$ et $h$ je me retrouve avec la forme : $$
[K^{G}_{(\frac{x}{h}+1,h)}(X_{1})]^2 = \frac{\Gamma(\frac{2x}{h}+1)}{h\Gamma^{2}(\frac{x}{h}+1)}e^{-\frac{X_1}{h}}K^{G}_{(\frac{2x}{h}+1,h)}(X_1).
$$ Dans le papier en question, on retrouve que $$
E\lbrace[K^{G}_{(\frac{x}{h}+1,h)}(X_{1})]^2\rbrace = \frac{h^{-1}\Gamma(\frac{2x}{h}+1)}{2^{\frac{2x}{h}+1}\Gamma^{2}(\frac{x}{h}+1)}E\lbrace K^{G}_{(\frac{2x}{h}+1,h)}(X_1)\rbrace.
$$ Là, je ne sais pas d'où est-ce que je peux sortir le $2^{\frac{2x}{h}+1}$ et quel est son rapport avec le $e^{-\frac{X_1}{h}}$.
Merci !
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses
Quelle équation donne $E(K^{G}_{(.,.)}(X_1)$ ?
E\lbrace K^{G}_{(\frac{x}{h}+1,h)}(X_1)\rbrace = E\lbrace f(\mathcal{K}^{G}_{(\frac{x}{h}+1,h)})\rbrace
$$ car $$
E\lbrace K^{G}_{(\frac{x}{h}+1,h)}(X_1)\rbrace = \int K^{G}_{(\frac{x}{h}+1,h)}(t)f(t) dt = E\lbrace f(\mathcal{K}^{G}_{(\frac{x}{h}+1,h)})\rbrace.
$$ Pour le calcul, la formule de Taylor au point $E\lbrace \mathcal{K}^{G}_{(\frac{x}{h}+1,h)}\rbrace$ à l'ordre 2 donne $$
f(\mathcal{K}^{G}_{(\frac{x}{h}+1,h)})= f(E\lbrace \mathcal{K}^{G}_{(\frac{x}{h}+1,h)}\rbrace)+(\mathcal{K}^{G}_{(\frac{x}{h}+1,h)} - E\lbrace \mathcal{K}^{G}_{(\frac{x}{h}+1,h)}\rbrace)f^{'}(E\lbrace \mathcal{K}^{G}_{(\frac{x}{h}+1,h)}\rbrace)+\frac{1}{2}(\mathcal{K}^{G}_{(\frac{x}{h}+1,h)} - E\lbrace \mathcal{K}^{G}_{(\frac{x}{h}+1,h)}\rbrace)^{2}f{''}(E\lbrace \mathcal{K}^{G}_{(\frac{x}{h}+1,h)}\rbrace) \\ + o ((\mathcal{K}^{G}_{(\frac{x}{h}+1,h)} - E\lbrace \mathcal{K}^{G}_{(\frac{x}{h}+1,h)}\rbrace)^{2}) $$
D'où $$
E\lbrace f(\mathcal{K}^{G}_{(\frac{x}{h}+1,h)})\rbrace = f(E\lbrace \mathcal{K}^{G}_{(\frac{x}{h}+1,h)}\rbrace) + \frac{1}{2}Var(\mathcal{K}^{G}_{(\frac{x}{h}+1,h)})f{''}(E\lbrace \mathcal{K}^{G}_{(\frac{x}{h}+1,h)}\rbrace)) + o ((\mathcal{K}^{G}_{(\frac{x}{h}+1,h)} - E\lbrace \mathcal{K}^{G}_{(\frac{x}{h}+1,h)}\rbrace)^{2})
$$ On a aussi, si $X \sim \gamma(\alpha, \beta)$ alors $E(X) = \alpha\beta$ et $Var(X) =\alpha\beta^2 $ donc en développant un peu on trouve $$
E\lbrace K^{G}_{(\frac{x}{h}+1,h)}(X_1)\rbrace = E\lbrace f(\mathcal{K}^{G}_{(\frac{x}{h}+1,h)})\rbrace = f(x) + hf{\,'}(x)+\frac{1}{2}xhf{''}(x)+o(h).
$$