Probabilité loi normale

Bonjour,

En cherchant à calculer $$\mathbb{P}(\sqrt{t}|X|>\sqrt{1-t}|Y|)$$ où $X$ et $Y$ sont indépendantes de loi $\mathcal{N}(0,1)$ je suis tombé sur cette justification :
Par isotropie de $(X,Y)$ cette probabilité vaut $$\mathbb{P}((X,Y)\in\Delta)=4\cdot\frac{\arcsin\sqrt{t}}{2\pi}=2\cdot\frac{\arcsin\sqrt{t}}{\pi}$$ avec $$\Delta = \left\{(\pm r\cos \theta, r\sin\theta): r>0, |\theta|<\arcsin\sqrt{t}\right\}$$
Mais je ne comprends pas du tout ce que ça veut dire. Je trouve bien le résultat par un calcul d'intégrale mais je n'arrive pas à faire le lien entre les deux. Auriez-vous une explication ?

Réponses

  • J'ajoute les détails de mon calcul:$$\mathbb{P}(\sqrt{t}|X|>\sqrt{1-t}|Y|)=\int_{\left\{(x,y):y\leq x\right\}}\frac{2}{\pi\sqrt{t(1-t)}}e^{-x^2/2t}e^{-y^2/2(1-t)}dydx=\int_{\left\{(u,v):v \leq u\sqrt{\frac{t}{1-t}}\right\}}\frac{2}{\pi}e^{-(u^2+v^2)/2}dvdu$$ Avec $u=x/\sqrt{t}$ et $v=y/\sqrt{1-t}$. En passant en coordonnées polaires on trouve $$\int_{0}^{\arcsin\sqrt{t}}\int_{0}^{\infty}\frac{2}{\pi}re^{-r^2/2}drd\theta=\frac{2}{\pi}\arcsin\sqrt{t}$$
  • Bonjour,

    La probabilité $p$ se réecrit $\mathbb{P}(-\alpha|X| < Y < \alpha|X|)$ où $\alpha := \sqrt{\frac{t}{1-t}}$.

    En dessinant dans le plan les graphes de $y = \alpha|x|$ et $y = -\alpha|x|$, on se rend compte que la zone d'étude est symétrique à la fois par rapport à l'axe des ordonnées mais aussi par rapport à l'axe des abscisses: on peut se restreindre au premier quadrant en utilisant deux fois l'isotropie de (la loi de) $(X, Y)$.

    D'où $p = 2 \times 2 \times \mathbb{P}(0 < Y < \alpha X, X > 0)$.

    Maintenant, en passant en polaires $
    =\left\{
    \begin{array}{ll}
    x = r\cos\theta& \\
    y = r \sin\theta &
    \end{array}
    \right.
    $ avec $r > 0, \theta \in \left[-\pi, \pi \right]$ la zone d'étude devient

    $
    \left\{
    \begin{array}{ll}
    0 < \sin\theta < \alpha \cos\theta& \\
    \cos\theta > 0 &
    \end{array}
    \right. \iff \left\{
    \begin{array}{ll}
    0 < \tan\theta < \alpha & \\
    -\pi/2 < \theta < \pi/2 &
    \end{array}
    \right.\iff \left\{
    \begin{array}{ll}
    0 < \theta < \arctan\alpha = \arcsin \sqrt t& \\
    -\pi/2 < \theta < \pi/2 &
    \end{array}
    \right. \iff 0 < \theta < \arcsin \sqrt t
    $

    car $\arcsin$ est à valeurs dans $\left[-\pi/2, \pi/2\right]$ par construction.

    On en déduit donc $p = 4\displaystyle \int_0^{\arcsin\sqrt t} \int_0^{+\infty} \frac1{2\pi} e^{-r^2/2} r \,\mathrm{d}r \,\mathrm{d}\theta = \frac2\pi \arcsin\sqrt t \int_0^{+\infty} e^{-r^2/2} r \,\mathrm{d}r = \frac2\pi \arcsin\sqrt t $.

    Note: j'ai utilisé l'identité $\forall t \in ]0, 1[$, $\arctan \sqrt \frac{t}{1-t} = \arcsin \sqrt t$ obtenue en remarquant que ces deux fonctions ont pour même dérivée $\frac1{2\sqrt{t(1-t)}}$ et valent toutes deux $0$ en $0$.
  • Merci, c'est beaucoup plus clair maintenant ! Juste pour être vérifier que j'ai bien compris, est-ce que les deux points suivants sont corrects ?

    1. On définit l'isotopie par : la loi de $X=(X_1,...,X_n)$ est isotope si pour toute matrice orthogonale $U$, les variables $X$ et $UX$ ont même loi. Par exemple, la loi normale est isotope car si $X\sim\mathcal{N}(0_n,\sigma^2I_n)$ alors pour toute matrice orthogonale $U$ le vecteur $UX$ est gaussien d'espérance $U0_n=0_n$ et de variance $\sigma^2U^\top I_nU=\sigma^2I_n$.

    2. Est-ce que ce lemme et sa preuve sont corrects ?

    Lemme. Si la loi de $(X,Y)$ est isotope alors la probabilité des parties du plan de la forme (en coordonnées polaires) $$\Delta_a^b=\left\{(r,\theta): r\geq 0, \theta\in[a,b]\right\}, \quad 0\leq a<b\leq 2\pi$$ vaut $(b-a)/2\pi$.

    Preuve. Par rotation, on peut se ramener à un ensemble de la forme $\Delta^c_0$. Ensuite, si $c=2\pi/k$ avec $k\in\mathbb{N}^*$ par rotation et par $\sigma$-additivité $$\mathbb{P}\big((X,Y)\in\Delta_0^{2\pi}\big)=1=\mathbb{P}\big((X,Y)\in\Delta_0^{2\pi/k}\big)+\mathbb{P}\big((X,Y)\in\Delta_{2\pi/k}^{2\cdot 2\pi/k}\big)+...+\mathbb{P}\big((X,Y)\in\Delta_{(k-1)\cdot 2\pi/k}^{2\pi}\big)=k\mathbb{P}\big((X,Y)\in\Delta_0^{2\pi/k}\big)$$ donc $\mathbb{P}\big((X,Y)\in\Delta_0^{2\pi/k}\big)=1/k$. Par le même raisonnement, pour tout $(k,\ell)\in\mathbb{N}^*\times\mathbb{N}$ tel que $\ell/k\leq 1$, on a $\mathbb{P}\big((X,Y)\in\Delta_0^{2\pi\cdot\ell/k}\big)=\ell/k$. Enfin si $c\in[0,2\pi]$, on prend une suite positive croissante de rationnels $(q_n)_{n\mathbb{N}}$ telle que $2\pi\cdot q_n\uparrow c$ et on a $$\mathbb{P}\big((X,Y)\in\Delta_0^{2\pi\cdot q_n}\big)=\int_{[0,\infty[\times[0,2\pi]}\mathbf{1}_{\left\{\theta\leq 2\pi \cdot q_n\right\}}P_{(X,Y)}(dr,d\theta)=q_n$$ donc par convergence monotone $$\mathbb{P}\big((X,Y)\in\Delta_0^c\big)=\lim_{n\rightarrow\infty}\mathbb{P}\big((X,Y)\in\Delta_0^{2\pi\cdot q_n}\big)=\frac{c}{2\pi}$$
  • 1) Oui c'est ça à ceci près que si l'on a en général $\text{var}[AX] = A\text{var}[X]A^T$ plutôt que $A^T \text{var}[X]A$.

    2) Ca me parait bien
  • Super, merci beaucoup sevaus!
Connectez-vous ou Inscrivez-vous pour répondre.