Questions sur les probas

Bonjour, j'ai plusieurs questions/remarques sur la théorie des probabilités.

Tout d'abord une remarque :

Je remarque dans les ouvrages auxquels je fais référence que l'on distingue volontiers variable aléatoire discrète et continue. Dans le premier cas on a une loi de probabilité dite discrète, dans l'autre une loi dite « à densité ». Cette apparente rupture conceptuelle n'est-elle qu'apparente ? En effet, il me semble qu'il y a un outil qui résout le problème et qui s'appelle les distributions. En particulier, la distribution de Dirac, pondérée d'un coefficient adéquat, permet de décrire n'importe quelle distribution de probabilité discrète ($\int_{-\infty}^{+\infty}\delta(x)\mathrm dx = 1$).

Ensuite les questions :

J'ai beaucoup de questions concernant les notions de convergence et j'aurais aimé dégager un point de vue synthétique à défaut d'être complet. On sait que l'on a :

$$\fbox{Convergence forte (ou presque sûre)}\\\Rightarrow \fbox{Convergence en probabilité}\\\Rightarrow \fbox{Convergence en loi (faible)}$$

Mais j'ai du mal avec la notion de variable aléatoire et surtout de suite de variable aléatoire car je ne saisis pas ce qu'est une suite de variable aléatoire. D'après ce que j'ai pu lire, lorsque les notions énoncées ci dessus sont appliquées, elles le sont sur un même espace probabilisé $(\Omega,\mathcal{M},P)$, autrement cela n'a pas de sens de faire la comparaison.

Or une variable aléatoire est une application de $\Omega$ dans $\mathbb{R}$ (en général la variable est réelle).

Est-ce qu'on peut faire la comparaison avec les suites de fonctions, c'est à dire que la convergence faible correspond à la convergence tout court de la suite $f_n$ vers $f$ ($f$ est une fonction de distribution) et la convergence en loi correspond à une convergence uniforme de la suite $f_n$ vers $f$ ?

En fait c'est la notion de variable aléatoire qui rend ma compréhension difficile car une variable aléatoire est en fait purement et simplement une fonction, non ?

Réponses

  • albertine écrivait:

    > En fait c'est la notion de variable aléatoire qui rend ma compréhension difficile car une variable aléatoire est en fait purement et simplement une
    > fonction, non ?

    Eh oui. Par pure perversité, ou juste pour emm... le monde, les probabilistes appellent « variable aléatoires » des fonctions toutes bêtes. Et ils ne s'arrêtent pas là : ils appellent « espérance » l'intégrale toute bête. Je pourrais continuer, comme faire la transformation de Fourier à l'envers et l'appeler fonction caractéristique, etc., etc. Tout ça pour se faire remarquer, tsk, tsk. :-D
  • Tu n'as pas complètement tort remarque. On ne s'en sortira pas tant que les analystes continueront d'appeler les variables aléatoires des fonctions, et mettront un $-$ dans la fonction caractéristique.
  • Concernant les modes de convergence, dans le document à la page 238, figure 8.1, il y a un schéma qui synthétise les implications.

    [Correction du lien. ;-) AD]
  • Une variable aléatoire est une fonction sur un espace probabilisé $(\Omega,\mathcal{F},P)$.
    La loi d'une variable aléatoire $X$ sur un espace probabilisé $(\Omega,\mathcal{F},P)$ est la mesure image de $P$ par $X$. Cette mesure est une mesure de probabilité. (*)
    Dès lors, les notions de variables aléatoires discrète ou continue sont en réalité des propriétés, non des fonctions, mais de leurs lois.

    (*) Bien sûr, si la variable aléatoire est à valeur dans $\R^d$, la mesure est une mesure sur $\R^d$ donc tu peux la voir comme une distribution.

    Pas de barrière infranchissable, donc, mais pour percevoir ce continuum, le prix à payer est de connaître la notion de mesure. C'est le point de vue que tu trouveras par exemple dans Garet-Kurtzmann (Lucas s'étonnerait si je ne le citais pas); en revanche les ouvrages voulant faire l'impasse sur la notion de mesure seront contraints de mettre des barrières.

    Quant à la convergence presque sûre, ce n'est rien d'autre que la convergence ponctuelle sur une partie de l'espace dont le complémentaire est de mesure (de probabilité) nulle.
  • Concernant ta première remarque et pour aller dans ton sens : une variable aléatoire discrète possède une densité, par rapport à la mesure de comptage, qui est une somme de masses de Dirac. De la même façon qu'une variable aléatoire continue possède une densité par rapport à la mesure de Lebesgue. Cela permet d'unifier le point de vue.

    Après, à mon avis il est quand même important de bien saisir la spécificité du point de vue probabiliste. On peut voir une v.a. comme une fonction, mais on ne sait absolument rien de l'espace de départ (c'est un ensemble d'événements, pas un ensemble avec des propriétés mathématiques).

    Attention, les notions de convergence en probabilité et de convergence en loi n'ont pas d'équivalent évident en termes de fonctions (sauf en théorie de la mesure). Surtout, il faut bien voir que la convergence en loi ne concerne pas les variables aléatoires mais leur loi (c'est-à-dire, leur "comportement" aléatoire).

    Une petite question que certains jurys posent à des candidats pour tester leur compréhension du point de vue probabilités : si $X$ suit une loi normale $N(0,1)$, quelle est la loi de $-X$ ?
  • @Lucas : (tu):-)

    Ceci dit, le fait que le vocabulaire « variable aléatoire » est un des premiers obstacles à la compréhension initiale des probas est bien illustré par le post d'albertine.
  • Effectivement, Remarque,

    mais c'est la variable aléatoire conçue intuitivement comme "un nombre qui dépend d'une situation probabiliste" qui permet l'essentiel des usages pratiques des probabilités. Couper les probabilités de leur utilisation est le plus sûr moyen de ne pas en faire. Je l'ai vécu, j'ai suivi un certificat de licence (25% des cours de l'année) qui parlait d'analyse et de mesure, je n'ai compris que 20 ans après en étudiant les probabilités que l'essentiel des problèmes qu'on se posait étaient liés aux probas (le prof était trop faible pour lier son cours aux espaces fonctionnels, mais il avait, en bon bourbakiste, une sainte horreur des probas !!!).

    Cordialement.
  • Ce n'est pas le problème. Le péché originel est d'appeler une fonction « variable », ce qui est profondément contradictoire quand on débute et induit facilement des nœuds dans la tête. On pouvait l'appeler n'importe quoi d'autre pour distinguer le fait que l'on ne s'en autorise qu'une connaissance partielle, mais pas variable. Enfin c'est un peu tard et peu importe.
  • @gerard (tu)
    Je suis d'accord, ne faire que de la théorie de la mesure sans s'intéresser au point de vue probabiliste, c'est le moyen le plus sûr de ne rien comprendre aux probabilités.

    @remarque : on n'a pas appelé une fonction "variable" , on a conçu la notion de variable aléatoire, comme un nombre qui dépend d'un aléa, et on s'est aperçu, plus tard, que ça pouvait être vu comme une "fonction" d'un ensemble un peu mystérieux (que l'on nomme pudiquement $\Omega$, mais personne ne sait très bien ce que c'est) dans $\mathbb{R}$ (ou un autre ensemble de nombres ou de vecteurs) qui est l'ensemble qui nous intéresse.
  • Le cheminement historique a peu d'importance sur la compréhension des débutants.

    > En fait c'est la notion de variable aléatoire qui rend ma compréhension difficile car une variable aléatoire est en fait purement et simplement une fonction, non ?
  • Remarque : Pour celui qui lance un dé, la variable aléatoire est bien une variable : Le résultat du dé. Nulle part il ne peut voir la fonction !!
    Une partie des difficultés de certains étudiants dans l'utilisation des fonctions vient du fait qu'on a presque supprimé une façon de les présenter : Une variable qui varie "en fonction" d'une autre. Notion dynamique, oubliée au profit de la notion statique de relation fonctionnelle, donnée d'un bloc.
    D'ailleurs, quand on fait des probas, il est fréquent de faire d'une variable aléatoire X la "variable" dans un calcul où intervient f(X).

    Les difficultés du débutant peuvent momentanément provenir des dénominations (voir le cas des nombres complexes, qui font peur parce que compliqués), mais il n'existe pas de vocabulaire à la fois unique et utile.

    Cordialement
  • Je ne comprends pas cet aveuglement devant une difficulté de vocabulaire évidente au moment de l'apprentissage de base de la chose. M'enfin, je m'en fous en fait et de toutes façons, ça ne changera pas. :-)
  • Je ne pense pas qu'il s'agisse uniquement d'une difficulté de vocabulaire, mais plutôt d'une difficulté conceptuelle par rapport à la notion d'aléatoire.
  • Bof non. Une fois qu'on a compris qu'une variable est juste une fonction, on a fait un grand pas en avant. Et si ça s'appelait autrement, il n'y aurait pas le problème. Mais bon, merci de confirmer mon point de vue sur l'aveuglement si je puis dire. :-D
  • Bonjour, je suis assez d'accord avec remarque et sa remarque.

    Je ne suis pas trop d'accord avec Blaise : http://www.les-mathematiques.net/phorum/read.php?12,1279051,1279137#msg-1279137

    Blaise, la loi de $-X$ dans le cas que tu évoques es la même : la distribution gaussienne centrée réduite est une fonction paire.

    Je mets ci dessous un petit document que j'ai trouvé sur le net dans un poly de mathématiques pour les physiciens.

    575041a37caa3.png

    Peut être qu'un point de vue unifié (en terme de notation, de théorie, etc) doit pouvoir se justifier. Par exemple le traitement du signal fait un usage soutenu des moments d'une distribution. En tous cas ce serait bien utile d'avoir un point de vue synthétique et cela me semble pertinent vu les usages actuels divers de ces mathématiques. Enfin j'en suis convaincu (idées qui me viennent : traitement du signal, théorie ergodique, etc). Bon, peut être pas au niveau collège cependant. Merci beaucoup pour vos remarques cela m'a bien fait progresser.
  • @ Remarque.

    Depuis quand l'hôpital tire-t-il sur les ambulances de la charité ?
    Tu vas pas me dire que ça te choque qu'une fonction soit une variable ?
    Ou bien tu as tes pudeurs chaque fois qu'une fonction bouffe des fonctions et que tu l'appelles fonctionnelle ?

    amicalement,

    e.v.
    Personne n'a raison contre un enfant qui pleure.


  • Nan mais c'est même pas vrai, je tire sur rien du tout, c'est juste que des fois le coup part tout seul.

    Par exemple... bam ! encore une variable aléatoire qui vient de passer dis donc !
  • @albertine : exact, et cela paraît indiquer que dans une convergence en loi, il n'y a pas unicité de la limite : si $X_n$ converge en loi vers $X$ loi normale centrée réduite, $X_n$ converge également en loi vers $-X$. Ce qui est un peu bizarre. En fait, c'est plutôt la suite des lois des variables aléatoires $X_n$ qui converge vers la loi de $X$. Et là, il y a bien unicité de la limite. Ou on peut dire, comme dans ton poly, que c'est le suite des fonctions de répartition qui converge vers la fonction de répartition limite (mais il faut faire attention aux points de discontinuité).
  • Attention, dans ton poly, il y a quelque chose de très étrange dans la définition de la convergence en proba, il y a un $\forall \omega \in \Omega$ qui n'a rien à faire là.
  • Je ne comprends pas très bien non plus, mais la convergence p.s. semble être équivalente à la convergence simple d'une suite de fonction (où $X_n$ est la suite de fonction et $X$ la fonction dès lors que l'on considère un sous-ensemble négligeable de $\Omega$.

    En effet la convergence en proba est écrite de manière étrange, car $X_n(\omega)$ mais $X$ est tout seul. Mais il me semble que l'on peut simplifier la définition :
    • convergence p.s. : $\forall \epsilon>0,\forall \omega\in(\Omega\setminus\Omega_0), \exists N\textrm{ tel que } \forall n>N,|X_{n}(\omega)-X(\omega)|<\epsilon$, c'est à dire que la suite des fonctions $X_n$ converge simplement vers $X$.
    • convergence en probabilité : $\forall h>0,\forall \omega \in\Omega, \lim_{n\to\infty}P(|X_{n}(\omega)-X(\omega)|>h) = 0$
    • convergence en loi : la suite $F_{X_n}$ des fonctions de répartition converge simplement vers $F_X$.
    Blaise, à toutes fins utiles pour le CAPES, si je calcule une limite quelconque, et que ça converge, j'ai au moins convergence en loi, non ?

    En fait je pense par ex. à la distribution de Poisson, cas limite de la loi binomiale quand $n\to\infty$.
  • Cette façon d'écrire la convergence en probabilité me semble fausse. Il faut écrire :
    $$\forall h>0,\lim_{n\to\infty}P(\{\omega \in \Omega, |X_{n}(\omega)-X(\omega)|>h\}) = 0$$

    On écrit en général, plus simplement :
    $$\forall h>0,\lim_{n\to\infty}P(|X_{n}-X|>h) = 0$$

    Ou, en français, pour tout $h$ aussi petit que l'on veut, la probabilité que la distance entre $X_n$ et $X$ soit plus grande que $h$ tend vers $0$.
Connectez-vous ou Inscrivez-vous pour répondre.