Loi d'une statistique
Bonjour,
soit $(X_1,\ldots,X_n)$ un échantillon de va iid (on me pardonne les abréviations :-D) suivant des lois uniformes sur l'intervalle $[\theta,\theta+1]$.
Je dois trouver la loi de $S:=X_{(n)}-X_{(1)}$ où $X_{(n)}=\max(X_i)$ et $X_{(1)}=\min(X_i)$.
Je tente via les fonctions de répartition. Soit $x \in \mathbb{R}$. On a $$
F_S(x)=\mathbb{P}(X_{(n)} \leq x+X_{(1)}) =\prod_{i=1}^n \mathbb{P}(X_i \leq x+X_{(1)}) = \prod_{1\leq i,j \leq n} \mathbb{P}(X_i - X_j \leq x),
$$ par indépendance des $X_i$. Est-ce correct jusque là ? Si oui, il me faut la fonction de répartition de $X-Y$ où $X$ et $Y$ sont deux va iid de même loi uniforme. Est-ce connu ?
Merci.
soit $(X_1,\ldots,X_n)$ un échantillon de va iid (on me pardonne les abréviations :-D) suivant des lois uniformes sur l'intervalle $[\theta,\theta+1]$.
Je dois trouver la loi de $S:=X_{(n)}-X_{(1)}$ où $X_{(n)}=\max(X_i)$ et $X_{(1)}=\min(X_i)$.
Je tente via les fonctions de répartition. Soit $x \in \mathbb{R}$. On a $$
F_S(x)=\mathbb{P}(X_{(n)} \leq x+X_{(1)}) =\prod_{i=1}^n \mathbb{P}(X_i \leq x+X_{(1)}) = \prod_{1\leq i,j \leq n} \mathbb{P}(X_i - X_j \leq x),
$$ par indépendance des $X_i$. Est-ce correct jusque là ? Si oui, il me faut la fonction de répartition de $X-Y$ où $X$ et $Y$ sont deux va iid de même loi uniforme. Est-ce connu ?
Merci.
Réponses
-
Si $X$ et $Y$ suivent la loi uniforme sur $[\theta, \theta+1]$ et sont indépendantes, alors $-Y$ suit la loi uniforme sur $[-1-\theta, -\theta]$, et la densité de $X-Y$ est $$\mathbf 1_{[-1-\theta,-\theta]} * \mathbf 1_{[\theta,\theta+1]} : x \mapsto \int_{\mathbb R} \mathbf 1_{[-1-\theta,-\theta]}(x-y) \mathbf 1_{[\theta,\theta+1]}(y) \,dy = \int_{\theta}^{\theta+1} 1_{[-1-\theta,-\theta]}(x-y) \,dy.$$ Je te laisse continuer.
-
Moi je ne suis pas d'accord avec :
$\displaystyle\prod_{i=1}^n \mathbb{P}(X_i \leq x+X_{(1)}) = \prod_{1\leq i,j \leq n} \mathbb{P}(X_i - X_j \leq x)$
En effet, la variable $X_{(1)}$ n'est pas indépendante de $X_i$.
PS : d'ailleurs, je ne suis pas d'accord non plus avec
$
\displaystyle\mathbb{P}(X_{(n)} \leq x+X_{(1)}) =
\prod_{i=1}^n \mathbb{P}(X_i \leq x+X_{(1)})
$,
car on a bien :
$\displaystyle[X_{(n)} \leq x+X_{(1)}] = \bigcap_i
[X_i \leq x+X_{(1)}]
$,
mais ces événements ne sont pas indépendants (ou alors ça ne me crève pas les yeux !)
PPS : non décidément, ces événements ne sont pas indépendants car si aucun des $n-1$ d'entre eux ne se réalise, ça signifie que $X_{(1)}$ est tombé sur une valeur particulièrement basse (notamment si $x=1$ !!), donc le dernier a bien plus de chances de venir aussi. -
ok... Parce que je suis sensé montrer que la densité de $S$ est indépendante de $\theta$ et donnée par $f_S(x)=n(n-1)x^{n-2}(1-x)\mathbb{1}_{[0,1]}(x) $...
-
Je dirais plutôt la chose suivante :
Soit $K$ tel que $X_{(1)} = X_{K}$, supposée tombée sur $a$.
Les $(n-1)$ autres $X_i$ sont toujours uniformes indépendantes sur le segment $[a;1]$. (je prends $\theta=0$.)
Leur max a donc pour fonction de répartition $F_{X_{(n)}}(x)[\text{ sachant $X_{(1)}=a$}] = \frac{(x-a)^{n-1}}{(1-a)^{n-1}}$, sauf pour $x \le a$ : alors $0$, et $x\ge 1$, alors $1$.
Pour trouver la vraie probabilité $F_{X_{(n)}-X_{(1)}}(x)$ déconditionnée, il reste à intégrer en remplaçant $x$ par $x+a$ en pondérant par la densité de $X_{(1)}$, soit $n \cdot (1-a)^{n-1}$. (formule des probabilités totales à densité)
Soit $
\begin{aligned}[t]
F_{X_{(n)}-X_{(1)}}(x) & \displaystyle = \int_0^1 \min\Big[\frac{x^{n-1}}{(1-a)^{n-1}},1\Big] \cdot n(1-a)^{n-1} da \\
& \displaystyle = \int_0^{1-x} n x^{n-1}da + \int_{1-x}^1 n (1-a)^{n-1} da \\
& = n(1-x) x^{n-1} + x^n \\
\end{aligned}
$
Pour la densité, on dérive : $\big[F_{X_{(n)}-X_{(1)}}(x)\big]' = \big[n(1-x) x^{n-1} + x^n\big]' = n(n-1)(1-x)x^{n-2}$. -
Bonsoir Alexique.
Pour l'indépendance de $\theta$, c'est presque une évidence car les $Y_i=X_i-\theta$ suivent indépendamment des lois uniformes sur $[0;1]$ et $S=X_{(n)}-X_{(1)} =Y_{(n)}-Y_{(1)}$.
L'introduction de $\theta$ est un peu artificielle, ici.
Cordialement. -
Oui, oui tout à fait... L'essentiel est de trouver la densité ou la loi de S, peu importe... S est une statistique dite "libre" du fait qu'elle est ne dépend pas du paramètre $\theta$ dont dépend les va qui constituent l'échantillon... Il doit y avoir des exemples plus pertinents de telles statistiques.
-
Bonjour,
J'ai corrigé des erreurs dans ce que je disais, et terminé le calcul. -
Bonjour,
entendu, merci pour la rédaction même si je ne m'attendais pas à ce que ce soit aussi délicat :-S
Est-ce plus simple en passant par le théorème de transfert ? Si $h$ est borélienne positive, on a $\mathbb{E}(h(S))=\int_{[\theta,\theta+1]^n}h(x_n-x_1) \mathbb{1}_{x_1\leq ... \leq x_n} \mathrm{d}x_1...\mathrm{d}x_n$ et on applique ensuite un changement de variable du genre $x=x_n-x_1$... -
Oui, tu as sans doute raison : c'est mieux comme tu proposes.
On a : $$
E[h(S)] = n! \cdot \int_{0 \le x_1\le \dots \le x_n \le 1}
h(x_n-x_1) dx_1\dots dx_n
$$
On intègre sur $x_2$ de $x_1$ à $x_3$ : on trouve $x_3-x_1$
On intègre sur $x_3$ de $x_1$ à $x_4$ : on trouve $\frac{(x_4-x_1)^2}{2}$
etc.
On intègre sur $x_{n-1}$ de $x_1$ à $x_{n}$ : on trouve $\frac{(x_n-x_1)^{n-2}}{(n-2)!}$
Il reste : $$E[h(S)] = n(n-1) \cdot \int_{0\le x_1 \le x_n \le 1} h(x_n-x_1) \cdot (x_n-x_1)^{n-2} dx_1 dx_n$$.
Changement de variables $s = x_n-x_1$, $x_1=x_1$, jacobien = 1.
$$
\begin{align}
E[h(S)] & = n(n-1) \cdot \int_{0\le s \le 1} \int_{0\le x_1 \le 1-s} h(s) \cdot s^{n-2} dx_1 ds \\
& = n(n-1) \cdot \int_{0\le s \le 1} h(s) \cdot (1-s) \cdot s^{n-2} ds
\end{align}
$$
La densité est bien $f(s) = n(n-1)(1-s)s^{n-2}$. -
Sinon, on peut trouver directement la densité de $S$ en conditionnant comme j'ai fait hier (mais c'était compliqué parce que je m'étais pas mal embrouillé).
La densité de $X_{(n)}$ est $f_{X_{(n)}}(x_n) = n \cdot x_n^{n-1}$.
Conditionnellement à $X_{(n)} = x_n$, les $n-1$ autres sont indépendantes et uniformes sur $[0;x_n]$.
Ainsi, conditionnellement, la densité de $X_{(1)}$ est
$f_{X_{(1)}|X_{(n)}=x_n}(x_1) = (n-1) \cdot \frac{(x_n-x_1)^{n-2}}{x_n^{n-1}}$.
pour $0\le x_1\le x_n$.
Donc la densité conditionnelle de $S = x_n - X_{(1)}$ est :
$f_{S|X_{(n)}=x_n}(s) = (n-1) \cdot \frac{s^{n-2}}{x_n^{n-1}}$.
pour $0\le s\le x_n$.
(on a écrit $(s = x_n-x_1)$.)
On déconditionne :
$$
\begin{align}
f_S(s) & = \int_{0}^1 f_{S|X_{(n)}=x_n}(s) \cdot f_{X_{(n)}}(x_n) dx_n
\\
& = \int_{s}^1 (n-1) \cdot \frac{s^{n-2}}{x_n^{n-1}} \cdot n \cdot x_n^{n-1} dx_n \\
& = n(n-1) s^{n-2} \int_{s}^1 dx_n \\
& = n(n-1) s^{n-2} (1-s).\\
\end{align}
$$
Remarque : connaissant $X_{(n)}$, les variables $S$ et $X_{(n-1)}$ ont même loi ! (et dans l'absolu aussi.) -
ha là, c'est très limpide par contre, merci beaucoup (tu)(:D J'avais juste oublié le $n!$ des permutations de $S_n$ dans mes calculs. Et en fait, quitte à faire le changement de variable $\tilde{x_i}=x_i-\theta$ dès le début de jacobien 1, on peut supposer $\theta=0$ ce qui donne ton intégrale de début...ce qui revient à ce qu'a dit gerard0...
Connectez-vous ou Inscrivez-vous pour répondre.
Bonjour!
Catégories
- 163.1K Toutes les catégories
- 7 Collège/Lycée
- 21.8K Algèbre
- 37.1K Analyse
- 6.2K Arithmétique
- 52 Catégories et structures
- 1K Combinatoire et Graphes
- 11 Sciences des données
- 5K Concours et Examens
- 11 CultureMath
- 47 Enseignement à distance
- 2.9K Fondements et Logique
- 10.3K Géométrie
- 62 Géométrie différentielle
- 1.1K Histoire des Mathématiques
- 68 Informatique théorique
- 3.8K LaTeX
- 39K Les-mathématiques
- 3.5K Livres, articles, revues, (...)
- 2.7K Logiciels pour les mathématiques
- 24 Mathématiques et finance
- 312 Mathématiques et Physique
- 4.9K Mathématiques et Société
- 3.3K Pédagogie, enseignement, orientation
- 10K Probabilités, théorie de la mesure
- 772 Shtam
- 4.2K Statistiques
- 3.7K Topologie
- 1.4K Vie du Forum et de ses membres