Probabilité loi normale
Bonjour,
En cherchant à calculer $$\mathbb{P}(\sqrt{t}|X|>\sqrt{1-t}|Y|)$$ où $X$ et $Y$ sont indépendantes de loi $\mathcal{N}(0,1)$ je suis tombé sur cette justification :
En cherchant à calculer $$\mathbb{P}(\sqrt{t}|X|>\sqrt{1-t}|Y|)$$ où $X$ et $Y$ sont indépendantes de loi $\mathcal{N}(0,1)$ je suis tombé sur cette justification :
Mais je ne comprends pas du tout ce que ça veut dire. Je trouve bien le résultat par un calcul d'intégrale mais je n'arrive pas à faire le lien entre les deux. Auriez-vous une explication ?Par isotropie de $(X,Y)$ cette probabilité vaut $$\mathbb{P}((X,Y)\in\Delta)=4\cdot\frac{\arcsin\sqrt{t}}{2\pi}=2\cdot\frac{\arcsin\sqrt{t}}{\pi}$$ avec $$\Delta = \left\{(\pm r\cos \theta, r\sin\theta): r>0, |\theta|<\arcsin\sqrt{t}\right\}$$
Réponses
-
J'ajoute les détails de mon calcul:$$\mathbb{P}(\sqrt{t}|X|>\sqrt{1-t}|Y|)=\int_{\left\{(x,y):y\leq x\right\}}\frac{2}{\pi\sqrt{t(1-t)}}e^{-x^2/2t}e^{-y^2/2(1-t)}dydx=\int_{\left\{(u,v):v \leq u\sqrt{\frac{t}{1-t}}\right\}}\frac{2}{\pi}e^{-(u^2+v^2)/2}dvdu$$ Avec $u=x/\sqrt{t}$ et $v=y/\sqrt{1-t}$. En passant en coordonnées polaires on trouve $$\int_{0}^{\arcsin\sqrt{t}}\int_{0}^{\infty}\frac{2}{\pi}re^{-r^2/2}drd\theta=\frac{2}{\pi}\arcsin\sqrt{t}$$
-
Bonjour,
La probabilité $p$ se réecrit $\mathbb{P}(-\alpha|X| < Y < \alpha|X|)$ où $\alpha := \sqrt{\frac{t}{1-t}}$.
En dessinant dans le plan les graphes de $y = \alpha|x|$ et $y = -\alpha|x|$, on se rend compte que la zone d'étude est symétrique à la fois par rapport à l'axe des ordonnées mais aussi par rapport à l'axe des abscisses: on peut se restreindre au premier quadrant en utilisant deux fois l'isotropie de (la loi de) $(X, Y)$.
D'où $p = 2 \times 2 \times \mathbb{P}(0 < Y < \alpha X, X > 0)$.
Maintenant, en passant en polaires $
=\left\{
\begin{array}{ll}
x = r\cos\theta& \\
y = r \sin\theta &
\end{array}
\right.
$ avec $r > 0, \theta \in \left[-\pi, \pi \right]$ la zone d'étude devient
$
\left\{
\begin{array}{ll}
0 < \sin\theta < \alpha \cos\theta& \\
\cos\theta > 0 &
\end{array}
\right. \iff \left\{
\begin{array}{ll}
0 < \tan\theta < \alpha & \\
-\pi/2 < \theta < \pi/2 &
\end{array}
\right.\iff \left\{
\begin{array}{ll}
0 < \theta < \arctan\alpha = \arcsin \sqrt t& \\
-\pi/2 < \theta < \pi/2 &
\end{array}
\right. \iff 0 < \theta < \arcsin \sqrt t
$
car $\arcsin$ est à valeurs dans $\left[-\pi/2, \pi/2\right]$ par construction.
On en déduit donc $p = 4\displaystyle \int_0^{\arcsin\sqrt t} \int_0^{+\infty} \frac1{2\pi} e^{-r^2/2} r \,\mathrm{d}r \,\mathrm{d}\theta = \frac2\pi \arcsin\sqrt t \int_0^{+\infty} e^{-r^2/2} r \,\mathrm{d}r = \frac2\pi \arcsin\sqrt t $.
Note: j'ai utilisé l'identité $\forall t \in ]0, 1[$, $\arctan \sqrt \frac{t}{1-t} = \arcsin \sqrt t$ obtenue en remarquant que ces deux fonctions ont pour même dérivée $\frac1{2\sqrt{t(1-t)}}$ et valent toutes deux $0$ en $0$. -
Merci, c'est beaucoup plus clair maintenant ! Juste pour être vérifier que j'ai bien compris, est-ce que les deux points suivants sont corrects ?
1. On définit l'isotopie par : la loi de $X=(X_1,...,X_n)$ est isotope si pour toute matrice orthogonale $U$, les variables $X$ et $UX$ ont même loi. Par exemple, la loi normale est isotope car si $X\sim\mathcal{N}(0_n,\sigma^2I_n)$ alors pour toute matrice orthogonale $U$ le vecteur $UX$ est gaussien d'espérance $U0_n=0_n$ et de variance $\sigma^2U^\top I_nU=\sigma^2I_n$.
2. Est-ce que ce lemme et sa preuve sont corrects ?
Lemme. Si la loi de $(X,Y)$ est isotope alors la probabilité des parties du plan de la forme (en coordonnées polaires) $$\Delta_a^b=\left\{(r,\theta): r\geq 0, \theta\in[a,b]\right\}, \quad 0\leq a<b\leq 2\pi$$ vaut $(b-a)/2\pi$.
Preuve. Par rotation, on peut se ramener à un ensemble de la forme $\Delta^c_0$. Ensuite, si $c=2\pi/k$ avec $k\in\mathbb{N}^*$ par rotation et par $\sigma$-additivité $$\mathbb{P}\big((X,Y)\in\Delta_0^{2\pi}\big)=1=\mathbb{P}\big((X,Y)\in\Delta_0^{2\pi/k}\big)+\mathbb{P}\big((X,Y)\in\Delta_{2\pi/k}^{2\cdot 2\pi/k}\big)+...+\mathbb{P}\big((X,Y)\in\Delta_{(k-1)\cdot 2\pi/k}^{2\pi}\big)=k\mathbb{P}\big((X,Y)\in\Delta_0^{2\pi/k}\big)$$ donc $\mathbb{P}\big((X,Y)\in\Delta_0^{2\pi/k}\big)=1/k$. Par le même raisonnement, pour tout $(k,\ell)\in\mathbb{N}^*\times\mathbb{N}$ tel que $\ell/k\leq 1$, on a $\mathbb{P}\big((X,Y)\in\Delta_0^{2\pi\cdot\ell/k}\big)=\ell/k$. Enfin si $c\in[0,2\pi]$, on prend une suite positive croissante de rationnels $(q_n)_{n\mathbb{N}}$ telle que $2\pi\cdot q_n\uparrow c$ et on a $$\mathbb{P}\big((X,Y)\in\Delta_0^{2\pi\cdot q_n}\big)=\int_{[0,\infty[\times[0,2\pi]}\mathbf{1}_{\left\{\theta\leq 2\pi \cdot q_n\right\}}P_{(X,Y)}(dr,d\theta)=q_n$$ donc par convergence monotone $$\mathbb{P}\big((X,Y)\in\Delta_0^c\big)=\lim_{n\rightarrow\infty}\mathbb{P}\big((X,Y)\in\Delta_0^{2\pi\cdot q_n}\big)=\frac{c}{2\pi}$$ -
1) Oui c'est ça à ceci près que si l'on a en général $\text{var}[AX] = A\text{var}[X]A^T$ plutôt que $A^T \text{var}[X]A$.
2) Ca me parait bien -
Super, merci beaucoup sevaus!
Connectez-vous ou Inscrivez-vous pour répondre.
Bonjour!
Catégories
- 163.2K Toutes les catégories
- 9 Collège/Lycée
- 21.9K Algèbre
- 37.1K Analyse
- 6.2K Arithmétique
- 53 Catégories et structures
- 1K Combinatoire et Graphes
- 11 Sciences des données
- 5K Concours et Examens
- 11 CultureMath
- 47 Enseignement à distance
- 2.9K Fondements et Logique
- 10.3K Géométrie
- 65 Géométrie différentielle
- 1.1K Histoire des Mathématiques
- 69 Informatique théorique
- 3.8K LaTeX
- 39K Les-mathématiques
- 3.5K Livres, articles, revues, (...)
- 2.7K Logiciels pour les mathématiques
- 24 Mathématiques et finance
- 314 Mathématiques et Physique
- 4.9K Mathématiques et Société
- 3.3K Pédagogie, enseignement, orientation
- 10K Probabilités, théorie de la mesure
- 773 Shtam
- 4.2K Statistiques
- 3.7K Topologie
- 1.4K Vie du Forum et de ses membres