Variance nulle, rédaction

Bonjour, et voici un énoncé tout simple que je n'arrive pas à rédiger.

Si $V(X)=0$ alors $X=C^{ste}$.

En effet, si $X$ est à densité, cela donne l'intégrale de $(x-E(X))^2 f(x)$ nulle donc cette fonction est nulle pp donc $f=0$ pp.

Sauf que du coup $f$ n'est plus une fonction mais en quelques sortes un opérateur de Dirac, du coup je ne vois pas comment dire que $X$ est à densité dans ce cas.

Donc je vois bien que $p(X\in A)$ est $1$ si et seulement si le nombre noté $E(X)$ est dans $A$ mais ce problème simple me questionne sur des fondamentaux et j'ai l'impression qu'il y a quelque chose que je n'ai pas saisi.
Comment rédiger ce problème très simple sans utiliser de densité, donc dans le cas général ?

Ceci pose encore deux questions :
(1) à part la variable constante, que peut-on trouver comme exemple de variable aléatoire réelle qui ne soit ni discrète ni à densité (à part trivialement un mélange des deux ce que ça, je conçois bien) ;
(2) je m'aperçois que je ne comprends pas ce que la notation, pourtant fondamentale en probas, $X(\omega)$, signifie. Je pensais avoir bien compris que $\mathbb{P}(A)$ était la mesure de $A$ et que $p(X\in A)$ en était une notation naïve. Mais $X(\omega)$ ça représente quoi ? $X$ est une fonction de $\Omega$ dans $\mathbb{R}$ ?

Réponses

  • Ta question 1 n'a pas vraiment de réponse, une variable aléatoire réelle, c'est essentiellement la même chose qu'une mesure de probabilité sur $\mathbb R$, et il y en a tout un tas... Tu peux regarder du côté de la décomposition de Lebesgue pour avoir une idée de ce que l'on peut dire de général sur de telles mesures.

    Oui, une variable aléatoire (réelle) sur $\Omega$, c'est une fonction mesurable de $\Omega \to \mathbb R$. Ici, $\Omega$ est un espace muni d'une tribu dont on tait le nom en général et d'une mesure de probabilité $\mathbb P$, de sorte que la notation $\mathbb P(X \in A)$ a tout à fait un sens quand $A$ est borélien, c'est $\mathbb P(X^{-1}(A))$.

    Il me semble qu'il va te falloir potasser un peu de théorie de la mesure et d'intégration de Lebesgue, qui est vraiment à la base de la théorie moderne des probabilités, au vu de tes questionnements. Pour ta question sur la variance, ça devient immédiat avec le bon langage : on a $\int_{\Omega} (X-\mathbb E(X))^2 \,\mathrm{d}\mathbb P = 0$ donc $X-\mathbb E(X)=0$ $\mathbb P$-presque partout par positivité de l'intégrande.
  • Bonjour,
    Comme tu dis ne pas bien comprendre la notation $X(\omega)$, je me permets de préciser la notation de Poirot $\displaystyle\int_{\Omega} (X-\mathbb E(X))^2 \,\mathrm{d}\mathbb P$. Elle signifie $\displaystyle\int_{\Omega} (X(\omega)-\mathbb E(X))^2 \,\mathrm{d}\mathbb P(\omega)$ où $X$ est une fonction (mesurable) $\Omega\to\Bbb R$ (ok, ça Poirot l'avait déjà dit), $\omega\in\Omega$ est la variable d'intégration, $\mathbb P$ est la mesure de proba sur $\Omega$ et $\mathbb E(X)$ est un nombre constant (avec la signification qu'on lui connait). Par la formule de transfert, c'est aussi égal à $\displaystyle\int_{\Bbb R} (x-\mathbb E(X))^2 \,\mathrm{d}\mathbb P_X(x)$ où $\mathbb P_X$ est la mesure de proba de la variable $X$ et $x\in\Bbb R$ est la variable d'intégration.
    En espérant que ça aidera à éclaircir les choses dans ta tête.
  • Honnêtement, $X(\omega)$, ça ne veut pas dire grand-chose en probas.
    L'idée, en probas, c'est justement de partir d'un univers $\Omega$, qu'on ne connaît pas autrement que par ses variables aléatoires $X:\Omega\to\R$.
    Pour ta question, c'est l'inégalité de Bienaymé-Chebychev, mais comme c'est un corollaire de celle de Markov, il vaut mieux parler de ça.
    Pour $Y\ge 0$, on a : $E[Y] \ge P(Y \ge 1)$, donc si $Y$ est d'espérance nulle, $Y$ est majorée par 1 presque-sûrement. On peut remplacer $Y$ par $1000 \times Y$, et on apprend de même que $Y$ est majorée par $\frac{1}{1000}$.
    On voit ainsi que l'événement $[Y \le 0]$ est une réunion dénombrable d'événements impossibles, donc impossible aussi, donc $Y=0$ presque-sûrement.
    Pour le coup de la variance, c'est ce que donne ce raisonnement avec $Y = \big(X - E[X]\big)^2$.
  • Merci, je suis dessus. Je veux enfin me faire une idée claire de ce que $X$ veut dire.
    Pourriez-vous expliciter la fonction $X$ dans le cas d'une loi exponentielle ?
    Puis-je dire dans ce cas que $\mathbb{P}(A)=\int_A f_\lambda(t) \mathrm{d}t$ ?
  • Je veux enfin me faire une idée claire de ce que $X$ veut dire.
    C'est très simple : les variables aléatoires veulent tout dire, et les probabilités,que celles-ci donnent, notées "p", c'est tout ce qu'on en sait.
    Pourriez-vous expliciter la fonction $X$ dans le cas d'une loi exponentielle ?
    Bah non. Une variable aléatoire n'est pas une fonction. Une fonction est déterminée par la valeur dont on la nourrit, alors qu'une variable aléatoire est... aléatoire !
    Par ailleurs, des variables aléatoires peuvent avoir la même loi(résultat au premier dé vs 2ème dé) tout en étant complèment différentes !
    Puis je dire dans ce cas que $\mathbb{P}(A)=\int_A f_\lambda(t) \mathrm{d}t$ ?
    Dans quel cas ? Désolé, j'ai pas compris, mais je te conseille de bien te recentrer sur la question où tu lances $1000$ fois à pile ou face, et tu regardes ce qu'il se passe.
  • Pardon marsup, mais une variable aléatoire est par définition une fonction satisfaisant un certain cahier des charge. On ne la pense pas forcément comme ça, mais formellement, c'est ça. Le fait est qu'il n'y a pas une unique telle fonction qui a une loi donnée. Ce qui est important avec une variable aléatoire, c'est sa loi, pas la fonction sous-jacente.
  • Bah non : les variables aléatoires sont égales entre elles si elles donnent la même chose presque-sûrement.

    Donc ce ne ne sont pas des fonctions, si ? C'est une affaire de quotient ?
  • Presque sûrement pour quelle mesure ? Des variables aléatoires peuvent avoir même loi sans être définie sur le même espace probabilisé !
  • Ce qui est important avec une variable aléatoire, c'est sa loi, pas la fonction sous-jacente.
    Bah non, ce qui est important, ce sont les relations entre les trucs.

    (indépendants ou pas, et si pas indépendants, comment pas indépendants !)
  • De quoi parles-tu ?
    Il y a plein de façons de modéliser la même situation probabiliste (déjà vrai pour des situations physiques !!)
    La comparaison en loi entre deux variables d'univers différents est-elle pertinente ? non.
    C'est comme de dire la tour Eiffel est plus haute que si on divise la gravité par 10.
    La loi d'une variable aléatoire est transposable d'un univers à un autre, parce que c'est une notion simpliste.
    C'est plus compliqué de transférer une suite infinie dénombrable de pile ou face qu'un seul, et une fois qu'on a fait ça, on a tout fait.
    L'intérêt vient du fait que les relations ne sont pas marginales, mais conjointes !
  • Ce qui est important avec une variable aléatoire, c'est sa loi, pas la fonction sous-jacente.
    En fait, je crois qu'on est d'accord : ce qui est intéressant avec une variable aléatoire, c'est sa loi *conditionnellement à toutes les autres* et pas quoi ce ce soit d'autre.
    Et la chose qu'on a dénoté par $\Omega$ n'a aucune espèce d'importance, pourvu qu'elle soit assez riche. En général, $\Omega = [0;1]$ convient/
  • Je croyais que $\Omega$ était l"univers", donc par exemple $\Omega=D=\{1,2,3,4,5,6\}$ dans le cas du tirage d'un dé.
    Mais dans ce cas-là, pour que la notation $p(X\in A)$ ait un sens, il faut au contraire que ce soit l'image de $X$ qui soit égale à $D$.
    Donc toujours dans ce cas du tirage d'un dé, si j'essaie de comprendre, j'ai $X:?\rightarrow D$... mais je ne parviens pas à comprendre quel est l'ensemble de départ de $X$ ni ce qu'elle représente en tant que fonction...
  • La seule chose qui est vraiment importante dans $X:(\Omega,\mathcal A,P) \to \left ( \R, \mathcal B_{\R}\right )$ est la mesure image de $P$ par $X$ (dite "loi de $X$") autrement dit l'application qui a $A\in \mathcal B_{\R}$ fait correspondre $P \left (X^{-1} (A) \right )$.
    $\Omega$, les probabilistes s'en fichent, il représente au mieux les "causes inconnues de ce qu'on observe". Cette présentation sert surtout à démontrer des théorèmes d'analyse.
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • Eloduwen,

    dans ton exemple, il manque l'ensemble image de $X$. Comme tu penses sûrement à des variables aléatoires réelles, cet ensemble d'arrivée est $\mathbb R$ et donc ton $A$ est une partie de $\mathbb R$. Bien sûr, si $X$ modélise la valeur du dé, les parties A qui nous intéressent sont des parties de {1,2,3,4,5,6}, mais l'événement $X\ge \pi$ a bien un sens; et il y a un risque de confusion entre l'univers et les images utiles. Pour mieux voir, suppose que $X$ est -3 fois la valeur du dé, tu verras que les valeurs qui nous intéressent ne sont pas dans {1,2,3,4,5,6}. Cet exemple n'est pas absurde, il modélise le jeu "perdre 3 fois la mise par point sur le dé".

    Cordialement.
  • @Marsup : s'il te plaît ne va pas écrire qu'une variable aléatoire "n'est pas une fonction", surtout pour des étudiants qui ne maîtrise pas bien tout cela.

    Pour parler de variable aléatoire il faut avoir un espace probabilisé $(\Omega,\mathcal{F},\mathbb {P})$ et un espace image muni d'une tribu $(I,\mathcal{I})$. Techniquement, une variable aléatoire sur $(\Omega,\mathcal{F},\mathbb {P})$ à valeurs dans $(I,\mathcal{I})$ est une classe d'équivalence des fonctions mesurables
    égales presque partout.

    Mais d'un point de vue pédagogique / de compréhension il faut toujours voir une variable aléatoire comme une fonction de $\Omega$ dans $I$. En pratique, comme dit Foys, les probabiliste se contre-fiche généralement de qui est ce $\Omega$, et on s'intéresse uniquement à la mesure image de la variable aléatoire...

    @Eldouwen : pour l'exemple du dé il faut distinguer les faces du dés de la valeur prise par la variable aléatoire.
    Par exemple suppose que les faces du dé soit nommées par des lettres, alors $\Omega = \{A,B,C,D,E,F\}$
    (en classe je dessine les points des faces, mais j'ai un peu la flemme).
    La probabilité $\mathbb{P}$ est une mesure sur $\Omega$. Ici cela signifie que c'est une fonction des parties de $\Omega$ dans $[0,1]$ (vérifiant quelques propriétés d'additivités...) que l'on peut simplement décrire par $\mathbb{P}(O) = card(O)/6$, où $O \subset \Omega$ dans le cas d'un dé équilibré.
    Ta variable $X$ est une fonction de $\Omega$ dans $\{1,2,...,6\}$ définie par $X(A)=1$, $X(B)=2$ ..., $X(F)=6$.

    L'expression $\mathbb{P}(X \in A)$ où $A \subset \mathbb{R}$ est une notation contractée de $\mathbb{P} (\{ \omega \in \Omega \; | \; X(\omega) \in A \})$.

    En général on explicite $\Omega$ uniquement pour des variables aléatoires discrètes, et a peu près exclusivement à des fins pédagogiques. Dans l'immense majorité des usages probabilistes il reste un espace abstrait.

    Pour terminer sur les remarques techniques qui font que $X$ n'est pas une fonction mais une classe d'équivalence,
    [ à lire dans un second temps - il s'agit uniquement de difficulté technique pour être rigoureux]
    cela signifie juste que si on avait considéré que $\Omega = \{A,B,C,D,E,F,T\}$ où $T$ représente le fait de tomber sur la tranche, en déclarant que la probabilité de tomber sur la tranche est nulle. Alors toutes les fonctions $X :\Omega \to \mathbb{R}$ qui coïncident sur $ \{A,B,C,D,E,F\}$ correspondent à la même variable aléatoire. En clair : $X$ se fiche de la valeur que tu lui fait prendre sur l'évènement $T$ qui est de probabilité nulle. C'est une difficulté technique, car on ne peut pas proprement employer l'expression $X(\omega)$...
  • Généralement, on considère que les variables aléatoires sont des fonctions, pas des classes.

    Par exemple, quand on parle d'espérance conditionnelle, on rajoute partout presque partout, justement parce que l'espérance conditionnelle est, elle, par construction, une classe.
  • Merci merci. Désolé d'insister...
    Mais avec ton exemple où $\Omega=\{A,B,C,D,E,F\}$ un dé équilibré à quatre faces marquées d'une lettre :
    combien vaut $X(A)$ ? Est-ce que la question a un sens ?

    J'ai bien compris l'histoire de classes d'équivalence de fonctions mesurables mais j'ai pas du tout encore une vision claire de l'objet X.

    Si $\Omega=\{A,B,C,D,E,F\}$ et si $X:\Omega\rightarrow\mathbb{R}$ comment la notation $\mathbb{P}(X=A)$ peut-elle avoir un sens si $A$ est dans l'ensemble de départ de $X$ ?
  • Non mais là tu confonds le $A$ utilisé comme élément de l'espace de départ $\Omega$ et le $A$ partie de l'espace d'arrivée dont on parlait au début pour écrire des choses comme $\mathbb P(X \in A)$, c'est un simple conflit de notations.

    Quant à $X(A)$ eh bien ça peut être $1,2,3,4,5$ ou $6$ pardi ! Mais ça n'a strictement aucune importance du point de vue du probabiliste. Disons que $X$ est la fonction qui associe à une de nos lettres sa position dans l'ordre alphabétique, et $X'$ la fonction qui associe la même chose décalé de $1$ (avec bien sûr $X'(F)=1$).

    Alors $X$ et $X'$ sont toutes les deux des variables aléatoires qui ont la même loi : pour tout $i \in \{1, \dots, 6\}, \mathbb P(X=i) = \mathbb P(X'=i) = \frac{1}{6}$ et donc ces deux variables aléatoires, distinctes (même au sens presque sûrement !) modélisent la même expérience aléatoire du lancer de dé. Ce sont ces probabilités là qui importent pour une variable aléatoire (encore et toujours, sa loi), pas de quelle fonction précise on parle. Même l'espace de départ $\Omega$ est rarement important (tant qu'il est suffisamment grand pour posséder les variables aléatoires qui nous intéresse).

    Et je suis bien d'accord avec aléa, on ne considère pas les variables aléatoires comme des classes de fonctions en général, même si c'est leur comportement presque sûr qui nous intéresse.
  • @Poirot : effectivement il y a un conflit de notation dans mon message :-?

    @eldouwen : je confirme $X(A)$ a un sens (1 dans mon exemple). $P(X \in \{1,2,5\})$ a un sens, c'est la mesure de l'ensemble des $\omega$ tel que $X(\omega)$ soit dans $\{1,2,5\}$.
    aléa a écrit:
    Généralement, on considère que les variables aléatoires sont des fonctions, pas des classes.

    Edit : effectivement, en retournant voir dans mes livres de références je réalise que le terme variable aléatoire
    est d'abord donné pour les fonctions.
    Ceci dit j'ai l'impression de toujours appeler variables aléatoires les éléments de $L^p(\Omega, \mathcal{F}, \mathbb{P})$ par exemple...
  • Mais alors pourquoi ne peut-on pas poser que $X$ est l'identité ?
    E
    t dire pour le dé que $p(X=1)=p(X\in\{1\})$ est simplement la mesure de $\{1\}$ et pour d'autres lois $(p(X\in A)$ est la mesure de $A$ donc $\mathbb{P}$.

    Et que donc $\Omega$ est toujours $\mathbb{R}$ sauf à restreindre $\mathbb{R}$ à une notion style "ensemble de définition" ou "support" de $\mathbb{P}$ et qui serait en fait tout sous-ensemble de $\mathbb{R}$ du style $\mathbb{R}\setminus U$ où $\mathbb{P}(U)=0$.

    C'est sûrement ce que vous dites et que je reformule, enfin j'espère...

    Mais si l'on reprend l'exemple avec les lettres (en changeant les lettres…) : si $\Omega=\{R,S,T,U,V,W\}$ pour un dé dont les faces seraient marquées par ces lettres.

    La valeur de $X$ étant aléatoire par définition, comment définir $X(R)$ ? Pourquoi dire que $X(R)=1$ ? Comment le sait-on ? Que représente $R$ ? Quelque chose de concret ou quelque chose d'aléatoire ?
  • On peut très bien poser $\Omega = \{1,2,3,4,5,6\}$ et prendre pour $X$ l'identité. Mais ça n'a aucune importance. On a posé $A,B,C,D,E,F$ à cause de ce message qui montrait que tu n'avais pas saisi que l'espace de départ et celui d'arrivée ne jouent pas du tout le même rôle.

    Comme dit plus haut, $\Omega = [0, 1]$ muni de la mesure de Lebesgue est suffisant en pratique pour les résultats usuels vus en L3/M1.

    L'aléatoire ça n'a pas de sens. On t'a donné tous les outils au-dessus. C'est simplement quand on dit que $\mathbb P(X=1)=\frac{1}{6}$ que l'on introduit de l'aléa fictivement dans notre cerveau. Mais ça veut simplement dire que la mesure des $\omega$ tels que $X(\omega)=1$ vaut $\frac{1}{6}$.
  • Effectivement, l'aléatoire (au sens habituel) n'est nulle part dans la théorie probabiliste. Il n'est que dans les situations qu'on modélise avec des outils probabilistes (jeux de dés ou de cartes, tirages ou enquêtes statistiques, modèles de diffusion, ...). Quant à ce qui détermine qu'une situation concrète est aléatoire, en dehors des cas où les modélisations probabilistes marchent bien (*), c'est plutôt une question philosophique. Christophe te dira que ça n'existe que dans le contexte quantique, d'autres attribuent l'aléatoire à l'incomplète connaissance, d'autres à une notion de "propension", de "tendance à". Mais la théorie probabiliste s'est complétement dégagée de ces questions de signification concrète.

    Cordialement.

    (*) Et les gérants de salles de jeux des casinos savent que ça marche bien !
  • eldouwen a écrit:
    La valeur de X étant aléatoire par définition, comment définir X(R) ? Pourquoi dire que X(R)=1 ? Comment le sait-on ? Que représente R ? Quelque chose de concret ou quelque chose d'aléatoire ?

    La question n'est pas très bonne. Il y a deux point de vue sur une question de proba : le point de vue "pratique" et le point de vue "théorique".

    Le point de vue pratique c'est : "je joue au poker, on m'a distribué 5 cartes au hasard, 5 à mon adversaire, quelle est la probabilité, connaissant mes cartes, que ma main soit meilleure que la sienne ?". C'est à dire que tu t'imagines une situation, avec une question (plus ou moins) précise.
    Pour attaquer cette question tu utilises un formalisme mathématique en introduisant un Omega, des variables aléatoires...

    Le point de vue théorique c'est : "soit $\Omega$, soit $X:\Omega \to R$ suivant une loi normale centré reduite, que vaut $P(X > 1)$ ?". Dans ce cas X n'est pas "aléatoire", X est une fonction parfaitement définie, et la probabilité en question est une intégrale contre une mesure particulière.


    Dans l'exemple du dé j'ai introduit {A,B,C,D,E,F} effectivement pour bien faire la distinction entre l'ensemble $\Omega$ qui est n'importe quoi et l'ensemble image {1,2,3,4,5,6} qui est ce qui nous intéresse.

    Un autre exemple "pratique" : je lance 2 pièces équilibrées et je m'intéresse au nombre de face obtenu que je note $X$.
    Un $\Omega$ naturel : {PP,PF,FP,FF}, munie de la mesure uniforme.
    On a alors $X(PP)=0$, $X(PF)=X(FP)=1$ et $X(FF)=2$.
    Tu aurais pu choisir $\Omega = {1,2,3}$, $X$ l'identité, et $P$ une mesure non uniforme,
    ou $\Omega = {0,1,2,3}$, une mesure uniforme et $X(0)=0$, $X(1)=X(2)=1$, $X(3)=0$,
    ou $\Omega = [0,1]$ avec le tribu de Lebesgue (ou une tribu plus grossière), et X constante par morceaux...
    Les autres modélisations sont peut être moins naturelles / intuitive que la première.
    Dans tous les cas la loi de $X$ (c'est à dire la mesure portée par l'image de $X$) est la même.
  • ok je pense avoir compris grâce à ton exemple PP, PF... :

    $\Omega$ est l'ensemble des issues possibles, exemple tirage de deux pièces $\Omega=\{PP,PF,FP,FF\}$.

    $X$ est un nombre réel qui "décrit" les issues, exemples:
    * nombre de piles : $X(PP)=2$ etc ;
    * 1 si deux pièces pareilles : $X(PP)=1$ etc ;

    $\mathbb{P}$ est la mesure sur $\Omega$, exemples :
    * pièces non truquées, $\mathbb{P}(a)=\frac{1}{4}$ pour tout $a\in\Omega$
    * pièces truquées, $\mathbb{P}(PP)=p$ etc.

    En combinant judicieusement $X$ et $\mathbb{P}$, je peux décrire la même loi (et le même jeu), exemple:
    je rajoute $PPP$ dans $\Omega$ avec $\mathbb{P}(PPP)=0$ et $X(PPP)$ égal un nombre réel au pif.

    Je ne parviens pas à écrire proprement le fait que $X$ est une classe d'équivalence de fonctions mesurables, bien que l'exemple précédent soit parlant puisque tous les "pifs" possibles donnent autant de fonctions $X$. Mais on ne dispose pas de l'ensemble des $\Omega$ possibles donc la relation d'équivalence est définie sur quel ensemble ?
  • @elodouwen :
    oui ton explication de $\Omega$, $X$ et $\mathbb{P}$ est presque un sans faute. Un petit détail : $\mathbb{P}$ est une mesure positive sur $\Omega$, c'est donc une application des sous-ensembles* de $\Omega$ et non des éléments de $\Omega$. En clair pour être parfaitement rigoureux il faudrait écrire $\mathbb{P}(\{PP\})=0.25$ plutôt que $\mathbb{P}(PP)$, tout comme on peut vouloir écrire $\mathbb{P}(\{PP,FF\})=0.5$.

    Oublie l'histoire des classes d'équivalence. C'est une erreur de ma part. La plupart des cours / livres de références définissent une variable aléatoire comme une application (mesurable) de Omega. Le côté classe d'équivalence vient plus tard quand on passe de $\mathcal{L}^p$ à $L^p$ en continuant parfois d'utiliser le terme "variable aléatoire".

    Cependant pour répondre à ta question.
    Je pose $\Omega = \{P,F,T\}$ avec comme loi de probabilité $\mathbb{P}(P)=\mathbb{P}(F)=0.5$ et $\mathbb{P}(T)=0$.

    Les variables aléatoires réelles définies sur $\Omega$ sont les fonctions de $\Omega$ dans $\mathbb{R}$.
    $X$ et $Y$ sont égales $\mathbb{P}$-presque sûrement si $X(P)=Y(P)$ et $X(F)=Y(F)$ (leur valeur en $T$
    peut différer). On travaille souvent avec la classe d'équivalence des fonctions de $\Omega$ dans $\mathbb{R}$ par rapport à l'égalité presque partout (dès qu'on veut parler d'espérance conditionnelles, d'espace de Hilbert...).

    (*) la mesure $\mathbb{P}$ n'est pas nécessairement défini sur tous les sous-ensemble de $\Omega$ mais seulement sur ceux dits "mesurables", c'est-à-dire qui sont des éléments de $\mathcal{F}$.
    Quand $\mathcal{F}$ n'est pas précisé, c'est par défaut : l'ensemble des parties de $\Omega$ si ce dernier est fini, l'ensemble des boréliens ou des parties Lebesgue-mesurables, si $\Omega$ est un sous-ensemble de $\mathbb{R}^n$. Si ces termes ne te disent rien mieux vaut laisser de côté pour le moment...
  • @Sylviel, tes attentions sont mignonnes quand tu dis "mieux vaut oublier" mais si j'ai ouvert ce fil c'est pour comprendre le fond du fond, le détail du détail ;-)
    J'ai bien compris tout ton message et maintenant je me fais une idée plus claire de l'objet "variable aléatoire". Cependant, ça me ferait plaisir si tu pouvais me définir avec le max de rigueur l'histoire des classes d'équivalences, car vu que $\Omega$ peut être en quelques sortes étendu à l'infini par des événements $T$ ou autres, je ne vois pas comment rédiger cela.
    Bonne matinée !
  • $\Omega$ ne peut pas "être étendu à l'infini". $\Omega$ est fixé une fois pour toutes en tout début d'énoncé / d'exercice / de chapitre...
    Il n'est généralement pas explicité sauf pour des raisons pédagogiques (par pour des exemples simples avec des pièces / des dés).
    Cela peut-être n'importe quel ensemble suffisamment gros.

    Souvent en probabilité ce qui t'intéresse c'est la loi de la variable aléatoire. C'est à dire une mesure sur l'image de ta variable aléatoire,
    et non la variable aléatoire au sens de fonction et son ensemble de départ.
    Donc pour l'histoire du comptage du nombre de Face sur un lancer de pièce, tu peux choisir différents $\Omega$ pour représenter la même loi.
    J'en ai donné quelques exemples plus haut (des ensembles dont les éléments sont humainement interprétable "PP", "PF" - avec ou sans la tranche- ou des ensemble sans interprétation directe, typiquement [0,1]).

    Dans la suite je te détaille l'histoire des classes d'équivalence.

    [je mets en italique les termes dont tu peux trouver la définition précise dans un cours bien fichu de probabilité / théorie de la mesure]

    Donc, pour reprendre la construction, on se donne un ensemble $\Omega$ qui est l'univers des évènements possibles.
    On se donne une collections de sous-ensembles de $\Omega$ qui forme une tribu noté $\mathcal{F}$. Les éléments de cette tribu sont ce que l'on appelle les sous-ensembles mesurables de $\Omega$, où encore les évènements.
    On se donne une mesure de probabilité sur $(\Omega,\mathcal{F})$, c'est à dire une application de $\mathcal{F}$ dans $[0,1]$ qui vérifie certaines propriétés.

    Une variable aléatoire réelle définie sur $(\Omega,\mathcal{F}, \mathbb{P})$ est une fonction mesurable de $(\Omega,\mathcal{F})$ dans $\mathbb{R}$ munie de la tribu de Lebesgue. Je note l'ensemble de ces variables aléatoires $\mathcal{L}^0(\Omega,\mathcal{F},\mathbb{P})$.

    Soit $X$ et $X'$ deux éléments de $\mathcal{L}^0(\Omega,\mathcal{F},\mathbb{P})$. On dit qu'elles sont égales $\mathbb{P}$-presque sûrement
    si $\mathbb{P}(X=X') = \mathbb{P}(\{ \omega \in \Omega \; | \; X(\omega)=X'(\omega) ) = 1 $.
    On note $X\sim X'$ ssi $X'$ et $X$ sont égales $\mathbb{P}$-presque sûrement.
    $\sim$ est une relation d'équivalence sur $\mathcal{L}^0(\Omega,\mathcal{F},\mathbb{P})$.
    On note $L^0(\Omega,\mathcal{F},\mathbb{P})=\mathcal{L}^0(\Omega,\mathcal{F},\mathbb{P})/\sim$ l'ensemble des classes d'équivalences associées à cette relation.
    [Par abus de langage il arrive (je le fais quotidiennement) de continuer d'appeler les éléments de $L^0(\Omega,\mathcal{F},\mathbb{P})$ des variables aléatoires, ce qui a causé ma confusion dans les messages ci-dessus, repris par Aléa et Poirot]

    On a en particulier besoin des ensemble de classe d'équivalence $L^p$ par opposition à $\mathcal{L}^p$ quand on veut parler de produit scalaire associé à l'espérance selon une mesure de probabilité. En effet $E[X^2] =0$ implique que $\mathbb{P}(X=0)=1$ seulement, et non que $X$ est identiquement nul. L'espérance conditionnelle pouvant être vue comme une projection orthogonale pour ce produit scalaire on la définiras également dans l'ensemble des classes d'équivalence, etc...

    Est-ce plus clair ?
  • Oui j'ai tout compris.
    Donc par rapport à ma question, à $\Omega$ fixé, on peut définir les $X$ comme des classes d'équivalence modulo la mesure.
    Mais il faut fixer $\Omega$ avant de parler de quoi que ce soit du coup.
    Ok.
    Merci à vous tout est plus clair je vais mettre ça au propre.
  • Donc par rapport à ma question, à $\Omega$ fixé, on peut définir les X comme des classes d'équivalence modulo la mesure.

    Dans la majorité des livres / cours, les variables aléatoires sont définies comme des fonctions et non leurs classes d'équivalence.
    Parfois on manipule des éléments de $L^p$ qui sont donc les classes d'équivalences et qu'on continue éventuellement, par "abus" d'appeler variables aléatoires.
  • Est-ce que j'ai bien rédigé ?
  • Oui c'est bien ça, sauf que, pour $X:(\Omega,\mathbb{P}) \to (\R,\mathcal{L})$ il n'y a pas besoin de mesure de Lebesgue sur $\R$, seulement de tribu de Lebesgue.

    La mesure de Lebesgue est quand même utile pour les variables à densité : $f_X = \frac{d\mathbb{P}_X}{d\mu}$.

    D'ailleurs tu demandais au tout début si certaines variables aléatoires étaient autre chose que des mélanges "variable-discrète"/"variable à densité" la réponse est : "pas vraiment", mais au lieu de "discrète", il faut parler de variable "étrangère". Ce résultat est le Théorème de Radon-Nikodym-Lebesgue.

    La loi transférée $\mathbb P_X = X_* \mathbb{P}$ est définie par $\mathbb P_X(F) = X_* \mathbb{P}(F) = \mathbb{P}(X^{-1}(F)) = \mathbb{P}(X\in F)$. (Je pense que c'est une grosse bêtise de noter seulement $\mathbb{P}(F)$, car tu oublies de parler de la seule chose intéressante : la variable aléatoire $X$ !!!)

    Je me permets de remarquer que la façon dont $X$ transfère $\mathbb{P}$ par $\mathbb{P}_X$ ne dépend de $X$ qu'en dehors des événements de probabilité nulle. Plus généralement, personne ne pourra jamais rien savoir d'autre sur $X$ que $X$ modulo ces événements négligeables. Définir "variable aléatoire" sans tenir compte de ce fait, me semble un peu raté. D'ailleurs ton énoncé initial : Si $\text{var}(X) = 0$, alors $X = E[X]$ est faux en dehors de la bonne définition presque-sûre des variables aléatoires. Personne ne t'a corrigé, parce que tout le monde le sait, mais personne ne le dit, sous prétexte que les étudiants trouveraient ça compliqué :-(.

    Enfin, tu as oublié de parler du roi des exemples d'univers : $\Omega = [0,1]$. Quand tu as une telle variable uniforme continue $U = \text{Id}_{\Omega\to[0,1]}$, tu peux fabriquer un schéma de Bernoulli (pile ou face mutuellement indépendants) infini en écrivant $U$ en base 2. Tu peux aussi fabriquer n'importe quelle loi continue $X = Q_X(U)$ en composant par $Q_X = F^{-1}_X$ croissante. (fonction quantile, bijection réciproque de la fonction de répartition.) À noter que dans cet univers, toute variable aléatoire $V$ est déterminée par cette variable uniforme $U$ comme $V = \varphi(U)$ ($\varphi$ pas spécialement croissante !). Aucune variable aléatoire définie sur $\Omega$ n'est indépendante de $U$ !
  • Merci Marsup pour ton message très dense que je prendrai le temps de potasser.
    Autre question, sur wikipedia ils ne définissent le moment que pour les variables aléatoires ayant une densité.
    Pouvez-vous me confirmer qu'on peut définir $V(X)$ sans que $X$ n'ait de densité ?
  • Pardon la réponse est dans le premier message de Poirot.
  • Accessoirement, il est généralement difficile de prendre wikipédia en défaut tant qu'on ne rentre pas dans des sujets très pointu (ou au coeur de l'actualité). Sur la page wikipédia liés aux moments comme $E[X^r]$, et l'espérance n'a pas besoin de densité pour être définie.
  • Petite remarque en passant, à toutes fins utiles (j'arrive après la bataille)

    > Pouvez-vous me confirmer qu'on peut définir V(X) sans que X n'ait de densité ?

    Cette question (ainsi que la question initiale du post) suggère que tu penses que les variables aléatoires constantes ont une densité, mais ce n'est pas le cas.
  • Oui je m'en suis aperçu après. La densité d'une v.a. constante serait une sorte de Dirac n'est-ce pas ?
  • La distribution d'une variable aléatoire constante est une mesure de Dirac.
  • elodouwen écrivait : http://www.les-mathematiques.net/phorum/read.php?12,2183564,2189478#msg-2189478
    [Inutile de recopier l'avant-dernier message. Un lien suffit. AD]

    C'est ça (mais ce n'est pas une densité du coup ;-) )
  • @Chalk : En français on emploie plutôt "loi" que "distribution".

    @elodouwen : Les variables aléatoires à densité sont des cas très particuliers de variables aléatoires. Ce sont celles dont la loi (la mesure image si tu veux, c'est-à-dire la mesure $A \mapsto \mathbb P(X \in A)$, parfois notée simplement $\mathbb P_X$) est donnée par l'intégrale contre une fonction (densité). Les variables aléatoires constantes n'en font pas partie. Leurs lois sont effectivement des mesures de Dirac, mais ce ne sont pas des lois à densité car il n'y a pas de fonction positive d'intégrale $1$ sur $\mathbb R$ tell que pour tout borélien $A \subset \mathbb R$, $$\int_A f(x) \,\mathrm{d}x = \delta_a(A).$$
Connectez-vous ou Inscrivez-vous pour répondre.