p(espérance(densité quelconque) = e0) ?

Bonjour a tous
J'ai dû condenser le titre ainsi pour ne pas dépasser la limite de caractères autorisés.
Je me pose une question par curiosité, mais je n'ai pas les compétences nécessaires pour y répondre.

Question
Si je sais seulement que X est une variable aléatoire continue telle que $a \leq X \leq b$.
Quelle est la probabilité que son espérance soit $\ E_0 \in [a,b]\quad ?$

Simplification 1
Si le problème est infaisable, on peut peut-être se ramener a:

Je sais seulement que X est une variable aléatoire continue de densité $$f_X: [a,b] \to [0,1]$$

Simplification 2
Si on ne peut pas répondre pour le cas continu, alors peut-on discrétiser pour y répondre ? J'ai des lointains souvenirs de mathématiques discrètes où on calculait le nombre de fonctions $\ [\![1; N]\!] \to [\![1; N]\!]\ $ dont la somme vaut $1$, mais je n'ai pas réussi a trouver le résultat sur internet.

Dans ce cas discret la probabilité serait le nombre de fonctions dont l'espérance vaut $E0$ divisé par le nombre de fonctions totales. Puis on pourrait regarder si le quotient a une limite quand $N$ devient grand.

Merci d'avance pour votre aide,
Julien

Réponses

  • $f_X$ n'est pas une distribution (une distribution est une mesure), donc je ne sais pas ce que c'est. On dirait que tu penses aux densités vu ton analogie avec le cas discret, mais une densité n'est pas bornée par $1$.

    Par ailleurs pour calculer une probabilité sur des distributions il faut munir l'espace des distributions d'une probabilité (et d'une tribu), ce qui a l'air tout de même plus facile et raisonnable dans le cas discret.
  • Bonjour skyffer3,
    Merci pour ton intérêt.

    Je vais corriger mon message selon tes remarques pour que ma question soit plus cohérente.
  • Bonjour.

    Si X est une variable aléatoire qui prend ses valeurs sur [a,b], alors soit son espérance n'existe pas, soit elle est comprise entre a et b (propriétés de l'intégrale).

    "Simplification" 1 : Pourquoi la densité serait-elle comprise entre 0 et 1 ? Si b-a<1, c'est d'ailleurs impossible.

    La fin de ton message est assez incompréhensible ("la probabilité serait le nombre de fonctions dont l'espérance vaut E0 divisé par le nombre de fonctions totales" ??) Quel rapport avec une variable aléatoire X donnée ?

    En essayant de relier ça à "Quelle est la probabilité que son espérance soit ..." j'ai l'impression que tu veux parler d'une probabilité sur un ensemble de variables aléatoires. Il faudrait alors définir comment on probabilise cet ensemble de variables aléatoires. Et dans ce cas, la question initiale est toujours très mal posée.

    Cordialement.
  • Bonjour Gerard0,

    Je vois que ma question n'est pas très claire alors je vais essayer de la reformuler comme suit:

    D'abord, pour que vous compreniez mieux mes imprécisions: je n'ai jamais travaillé sur la théorie de la mesure donc je me base sur une comprehension intuitive des probabilités:

    $$p(A) = \frac{\text{nombre de cas favorables}}{\text{nombre de cas total}}$$


    Maintenant, je me donne une variable aléatoire $X$, je suppose $I$: "elle est continue, qu'elle prend ses valeurs dans $[a, b]$ et que son espérance existe et vaut $E_0$, rien de plus."

    Si je connaissais sa densité $f_X$, je pourrais (par exemple) répondre a cette question $p(x_0 \leq X \leq x_1 \mid X \sim f_X, I) = ?$:

    $$p(x_0 \leq X \leq x_1 \mid f_X, I) = \int_{x_0}^{x_1} f_X(x) \mathrm{d}x$$


    (En utilisant $X \sim f_X$ pour dire que c'est sa densité.) Mais je ne connais pas sa densité. Alors je peux utiliser la loi des probabilités totales (peut-être que je me trompe de nom):

    $$p(x_0 \leq X \leq x_1 \mid I) = \int_{f \in F} p(x_0 \leq X \leq x_1 \mid X \sim f, I) p(X \sim f \mid I) $$

    Sauf que maintenant, la question c'est de déterminer $p(X \sim f \mid I)$

    Et en écrivant le théorème de Bayes pour l'information "l'espérance existe et vaut $E_0$", j'en arrive à me poser la question du message précédent:

    Quelle est la probabilité qu'une fonction de densité qui part de $[a;b]$ ait pour espérance $E_0$ étant donné que son espérance existe?

    Une réponse partielle m'irait bien, quitte à ajouter des contraintes comme j'ai essayé de le faire dans simplification 1 et 2.
  • Comprends rien. Si une va $X$ satisfait $\Pr(X\in [a,b])=1$ ou $a$ et $b$ sont des reels, alors son esperance $E_0$ existe et est dans $[a,b].$ Il n'y a rien d'aleatoire dans le nombre $E_0$ et parler de probabilite a propos de $E_0$ n'a pas de sens.
  • Ok, ça commence à se préciser.

    Ta notion de probabilité est bien trop élémentaire pour traiter les variables continues (les "nombres de cas" sont généralement infinis). Donc il faut utiliser une théorie adaptée. Et que tu te lances dans des calculs de probas conditionnelles sans connaître la base même des probas est assez surprenant !
    Le résultat est que tu poses finalement une question qui n'a pas de sens :
    "la question c'est de déterminer $p(X \sim f \mid I)$"
    Pourquoi cette question n'a pas de sens ? Déjà parce que tu as pris au départ cette variable aléatoire X, donc qu'il n'y a rien d'aléatoire. Soit elle a pour loi $f$, de façon certaine, soit elle n'a pas pour loi f, de façon certaine. A moins (et il va encore falloir que tu changes le début de ta question) que tu veuilles dire que $X$ a été pris de façon aléatoire. Oui, mais comment, quel sont l'univers, l'ensemble d'événements (tribu) et la règle de probabilité ?

    Si tu veux travailler sur l'ensemble des variables aléatoires définies sur [a,b], même continues, toute théorisation raisonnable d'un "choix au hasard" de $X$ donne une probabilité nulle (pour une densité donnée, il y en a une infinité de très peu différentes, et bien plus encore).

    Je ne sais pas pourquoi tu t'es lancé là dedans, mais tu es parti dans le mur. Faute d'avoir étudié un petit peu sérieusement la notion générale de probabilité. A te lire, on dirait que tu veux calculer des probabilités pour une variable aléatoire inconnue. Il n'y a pas besoin d'être grand clerc pour voir que c'est impossible.

    Cordialement.
  • Mon interprétation : on considère une variable aléatoire $X$ à valeurs dans l'ensemble des variables aléatoires (disons définies sur un espace probabilisé fixé) à valeurs dans $[a, b]$ et on s'intéresse à $\mathbb P(\mathbb E(X)=E_0)$ (si cet événement est bien mesurable).

    Problème : quelle est la loi de $X$ ? Sans aucune information, on ne peut rien dire. Par exemple si $X$ suit presque-sûrement la loi uniforme sur $[a, b]$ alors la probabilité recherchée vaut $1$ ou $0$ selon si $E_0$ vaut $\frac{a+b}{2}$ ou non.
  • Bonjour gerard0
    Il m'a fallu un peu de temps pour digérer tout ca. En me basant sur vos commentaires, je pense pourvoir simplifier ma question ainsi.

    Je tire uniformément une fonction dans l'ensemble des fonctions qui vérifient les propriétés suivantes :
    - $f$ est continue $f: [a;b] \to \mathbb R$ (edit: positive)
    - $\int_{a}^{b} f(x) dx = 1$
    - $\int_{a}^{b} x f(x) dx$ existe

    Et je me demande pour chaque $E_0 \in \mathbb R$, quelle est la probabilité que $$\int_{a}^{b} x f(x) dx = E_0 \quad ?$$
  • Je pense qu'il faut également que tu exiges que $f$ est positive.
  • 1) Ça veut dire quoi uniformément quand l'ensemble est infini ?
    2) Si tu arrives à formuler mathématiquement et raisonnablement ta question, la réponse sera que la probabilité est nulle.
    3) Ça ne change rien mais je suppose que $f$ est positive en réalité ?
  • Bonjour.

    Peux-tu m'expliquer comment tu rends uniforme le tirage ? On ne sait déjà pas faire un tirage uniforme sur l'ensemble des entiers, qui est beaucoup plus petit.

    Cordialement.

    NB : l'intuition est trompeuse dès qu'il y a des infinis.
  • Il me semble possible de piocher une fonction de répartition $F : [0;1] \to [0;1]$.

    Je commence par piocher $F(\frac{1}{2})$ uniformément entre 0 et 1.

    Puis je pioche
    $F(\frac{1}{4})$ uniformément entre $0$ et $F(\frac{1}{2})$.
    $F(\frac{3}{4})$ uniformément entre $F(\frac{1}{2})$ et $1$.

    Puis je pioche
    $F(\frac{1}{8})$ uniformément entre $0$ et $F(\frac{1}{4})$.
    $F(\frac{3}{8})$ uniformément entre $F(\frac{1}{4})$ et $F(\frac{1}{2})$.
    $F(\frac{5}{8})$ uniformément entre $F(\frac{1}{2})$ et $F(\frac{3}{4})$.
    $F(\frac{7}{8})$ uniformément entre $F(\frac{3}{4})$ et $1$.

    et ainsi de suite.

    Quelle est la loi de l'espérance associée $\int_0^{1} (1-F)$ ?
    (Quelle est la loi de la fonction de répartition limite ?)
  • @marsup

    Ta question est jolie. L'espérance s'obtient sans calculs.
  • Tu as l'air plus malin que moi, Ponctuel.

    Je ne sais pas quelle est la loi de l'espérance.

    Simulation Scilab : (assez lente pour $N=6$, baissez un peu)
    N = 6              // nombre d'itérations (passage à la limite)
    R = 10^6           // taille de l'échantillon
    z = zeros(R,1)
    F = zeros(R,2^N)   // contiendra R issues de fdr aléatoires
    F(:,$)=1
    for k=N-1:-1:0
      p = 2^k
      t = F(:,2*p:2*p:2^N)
      tt=[z,t(:,1:$-1)] 
      d = t - tt       // anciens sauts empiriques
      s = rand(d) .* d // sauts aléatoires
      i = tt + s
      F(:,p:2*p:2^N) = i
    end
    m = mean(F,"c")
    clf()
    histplot(linspace(0,1),m)
    

    J'obtiens l'histogramme suivant pour l'espérance :74140
  • Un exemple de fonction de répartition aléatoire.
    N = 8              // nombre d'itérations (passage à la limite)
    R = 1              // taille de l'échantillon
    z = zeros(R,1)
    F = zeros(R,2^N)   // contiendra R issues de fdr aléatoires
    F(:,$)=1
    for k=N-1:-1:0
      p = 2^k
      t = F(:,2*p:2*p:2^N)
      tt=[z,t(:,1:$-1)] 
      d = t - tt       // anciens sauts empiriques
      s = rand(d) .* d // sauts aléatoires
      i = tt + s
      F(:,p:2*p:2^N) = i
    end
    clf()
    x = (1:2^N)/2^N
    subplot(121)
    plot(x,F)
    legend("fonction de répartition",2)
    subplot(122)
    t = 2^N * (F-[0,(F(1:$-1))])
    plot(x,t)
    legend("densité")
    
    74142
  • Hum...
    $$ F\longmapsto (x\mapsto 1-F(1-x))$$
  • Tu veux dire que je regarde $1-\mathbb{E} = \int F$ au lieu de $\mathbb{E} = \int (1-F)$ ?

    Oui, c'est juste.
  • Non, ce n'est pas ce que je veux dire.
  • Pardon. J'avais en tête l'espérance de l'espérance (qui peut s'obtenir par un argument de symétrie - voir le message de GaBuZoMeu). Pour la loi de l'espérance je n'y ai pas réfléchi.
  • Hello tout le monde,

    Donc si je comprends bien, on ne peut pas répondre à ma question parce qu'on ne sait pas comment faire pour tirer $f$ dans l'ensemble infini...
    En revanche, le processus de marsup semble apporter une réponse avec le cas simplifié où $f$ est à valeur dans $[0;1]$, c'est ça?

    Sur le graphe, ca ressemble à une gaussienne
  • Non, le processus de marsup tire des fonctions de répartition, pour des variables à valeurs presque sûrement dans $[0,1]$, au lieu de tirer des densités. A nouveau, la densité n'est pas bornée par $1$.

    Par ailleurs, le processus de marsup (qui ne donne des fonctions de répartition valides que presque sûrement et pas tout le temps) est un moyen d'essayer de donner un sens à la question. Ce n'est en aucun cas la définition d'un tirage uniforme sur les distributions. D'ailleurs, je soupçonne son procédé de donner presque sûrement des lois absolument continues (mais je n'ai pas vérifié), ce qui limite l'espace.

    Edit : et je le redis, quel que soit la manière "raisonnable" de modéliser ton problème, la probabilité qu'une distribution ait pour espérance un nombre réel en particulier sera nulle. Tout comme la probabilité qu'une variable à densité prenne une valeur particulière (par exemple une gaussienne) est nulle.
  • Bonjour.

    Le processus de Marsup définit-il un choix uniforme des fonctions de répartition ? Ce n'est pas évident. Intuitivement, certains types de fonctions de répartition sont plus fréquents, de la même façon que la planche de Galton ne donne pas une répartition uniforme, mais approximativement binomiale.
    Attention, dans les dessins, les courbes ne sont que des jonctions de points, seuls les points sont obtenus par le programme, et les traits ne correspondent à rien.
    Mais c'est une tentative intéressante :-)

    Cordialement.
  • Re bonjour skyffer3 :-)

    Je ne comprends pas bien, tirer une fonction de répartition ou une fonction de densité c'est pareil non? Puisque l'une est la dérivée de l'autre.
    En revanche, j'ai compris pourquoi la densité n'est pas bornée par 1; et ca me fait penser que ca a l'air plus raisonnable de vouloir tirer $F$ plutôt que $f$.

    Pour absolument continue, ca ne me dérange pas. Même infiniment dérivable s'il le faut, ca m'irait bien. En fait, même si on se restreint à un sous-ensemble de $\mathbb Q$ ca me semblerait déjà tout à fait satisfaisant.


    Quant à ton edit.. je dois encore y réfléchir.

    P.S. si je veux travailler la théorie nécessaire pour explorer ce genre de questions, et sachant que me restreindre à $\mathbb Q$ ne me gêne pas. J'ai besoin de travailler la théorie de la mesure, ou une introduction avec le formalisme de Kolmogorov suffirait?

    Edit: Et même, si on discrétise l'intervalle, disons par bouts de $2^{-64}$, on pourrait donner un sens à la question?
  • En combinant le graphe et les remarques de gerard0 et skyffer j’ai compris pourquoi la probabilité est nulle.

    Mais dans ce cas, on peut se demander la probabilité pour que l’espérance soit dans [E_0 - \epsilon; E_0 + \epsilon] ce qui, pour moi, revient au même.

    Édit: en fait même si la probabilité est zéro pour un nombre donné, on peut trouver sa distribution, non?
  • Pour l'instant, on est toujours dans l'intuitif, faute d'une définition précise de ce dont tu veux parler. Donc parler de probabilité alors qu'on ne sait pas de quelle situation aléatoire on parle, c'est mettre la charrue avant les bœufs.
    Et chacun essaie de trouver une interprétation à partir de tes mots alors qu'on ne sait même pas vraiment de quoi tu parles ("je choisis au hasard" ne voulant rien dire tant qu'on ne donne pas la méthode de choix, l'expérience aléatoire).

    Quelle est l'utilité, pour toi, de te poser cette question qui n'a toujours pas de signification mathématique ?
  • Dans mon exemple ci-dessus, l'espérance a plutôt l'air d'être une variable à densité, en effet.

    Tu as les idées claires sur ce qu'est une variable aléatoire à densité ?

    C'est une notion de base que tu devrais sans doute réviser avant de passer trop de temps sur une question aussi ambitieuse que celle que tu poses.

    @gerard0 bien évidemment, je ne prétends pas du tout que l'approche que je propose soit uniforme en un certain sens. C'est juste le premier truc faisable qui me soit passé par la tête.

    C'est un approche vaguement inspirée de la construction du mouvement brownien.
  • La probabilité que l'espérance se trouve dans un intervalle de longueur strictement positive se doit d'être strictement positive, sous un modèle raisonnable.

    Maintenant des modèles raisonnables de tirage uniforme sur des distributions je n'en connais pas beaucoup. Marsup a essayé une modélisation de ton problème par exemple, mais ce n'est pas l'unique façon de faire. Il n'y a pas de définition d'une mesure uniforme sur des espaces de distribution à ma connaissance.

    Le seul truc qui pourrait s'en rapprocher c'est la géométrie de l'information, qui étudie des variétés riemanniennes dont les points sont des distributions, avec une métrique telle que celle de Fisher, ce qui permet de parler de mesure (forme volume) sur des distributions, et donc d'éventuellement définir une mesure de probabilité uniforme comme on fait avec Lebesgue sur les ensembles bornés. M'enfin, je pense que ça dépasse tes connaissances, et les miennes aussi d'ailleurs ! Mais avec ça on est très loin de pouvoir parler de tirage uniforme sur l'espace de toutes les distributions.
  • Marsup,

    lma critique est facile, mais l'art est difficile. Et je n'ai rien trouvé à proposer de mieux !! Pour aller plus loin, est-on fondé à penser que la fonction de répartition se construit bien sur les réels qui restent en utilisant la continuité à droite ?

    Cordialement.
  • @gerard0 : ça me paraît fondé avec justement l'argument que tu donnes. Modulo que toutes les fonctions obtenues ne sont pas des fonctions de répartition (mais presque sûrement c'est vrai donc pas de soucis). Mais pour moi on est très loin d'un tirage "uniforme", puisque que comme je le disais j'intuite que les lois obtenues sont presque-sûrement absolument continues. Mais je suis d'accord que la critique est facile :-D
  • Spontanément, j'aurais pensé que la limite aurait été continue.

    Maintenant que j'ai écrit la simulation, je ne suis plus si sûr, parce qu'il y a des sacrées pentes dans les fonctions de répartition affines par morceaux $F_n$, comme on le voit en regardant les densités en escalier $f_n$.

    J'ai l'impression que se prononcer dans un sens ou dans l'autre sur la continuité de la limite est trop technique pour moi. X:-(
  • Skyffer3,

    sauf erreur de ma part, on obtient, en prolongeant par continuité à droite une fonction croissante, prenant ses valeurs entre 0 et 1. Il y a un problème éventuellement en 1, car on ne peut pas prolonger par continuité à droite, mais il me semble que ça donne simplement une charge (proba non nulle en un point) en 1 en posant F(1)=1.

    En y réfléchissant plus, je me rends compte que la construction n'assure pas la continuité à droite en les points $\frac 1 {2^n}$, par exemple en $\frac 1 2$. Si, par exemple $f(\frac 1 2)=0,4$, rien n'interdit que pour tous les $\frac 1 {2^n}>\frac 1 {2}$ on obtienne des valeurs supérieures à 0,5. Donc tu as bien raison, les fonctions obtenues ne sont pas toutes des fonctions de répartition.

    Cordialement.
  • 1°) Soit $(\Omega,\mathcal A,P)$ un espace probabilisé. Les variables aléatoires (à valeurs réelles) définies sur $\Omega$ sont par définition les fonctions de $\Omega$ dans $\R$ mesurables (lorsqu'on met sur $\R$ la tribu borélienne).

    2°) Soient $a,b\in \R$ tels que $a\leq b$. Soit $X:\Omega \to \R$ une variable aléatoire. On suppose que l'enemble des $\omega\in \Omega$ tels que $X(\omega) >b$ ou $X(\omega)<a$ est de mesure nulle (ce qu'on traduit par la formulation "presque sûrement $a\leq X \leq b$"). alors $X$ est intégrable et $a \leq \int_{\Omega} x(\omega) dP_{\omega}\leq b$. Le réel $\int_{\Omega} x(\omega) dP_{\omega}$ est appelé habituellement "espérance de $X$" et se note $E(X)$ (ou $EX$ ou $\mathbb E (X)$... il y a plusieurs graphies différentes.)

    3°) Soit $F$ un énoncé (une formule du premier ordre) dont les variables libres sont parmi $t_1,...,t_n,x$. Soit $U$ un ensemble. Alors pour tous $t_1,...,t_n$, il existe un ensemble $V$ tel que pour tout $z$, $z\in V$ si et seulement si $z \in U$ et $F(t_1,...,t_n,z)$ est satisfaite. Ce mode de construction de parties de $U$ s'appelle "schéma de compréhension".

    4°) On se place dans la situation décrite au 2°). Les variables libres de $"a \leq E(X) \leq b"$ sont contenues dans $a,X,b,z$ d'où, pour tout $X$ un ensemble $W$ des $\{z\in \Omega \mid a \leq E(X) \leq b\}$ qui, lorsque $X$ est une variable aléatoire comprise presque sûrement entre $a$ et $b$, s'avère être $\Omega$ lui-même (puisque l'inégalité correspondante est toujours satisfaite, cf 2°)
    On a donc: $W$ mesurable (puisqu'égal à $\Omega$ et de mesure de probabilité $1$)

    5°) Finalement vu 4°), il est vrai que "si $X$ est une variable aléatoire comprise entre $a$ et $b$, alors la probabilité que $E(X)$ soit elle aussi comprise entre $a$ et $b$ vaut $1$" cependant cette formulation peut sembler abconse, l'événement en question n'ayant rien d'incertain. Rappelons tout de même que le paradigme probabiliste prévoit de traiter d'événements déterministes (les mesures de probabilié pouvant prendre la valeur 1 ou 0).

    Le vrai message intéressant ici est celui qui est contenu dans 2°). (qui est un résultat de théorie de la mesure. J'adresse toutes mes condoléances aux enseignants qui sont obligés de le traiter-ou en tout cas d'en parler- dans les limites absurdes du programme: interdiction de la théorie de la mesure, uniquement des densités etc... je suis bien content de ne pas être étudiant aujourd'hui. Ceci était un avis personnel qui n'engage que moi)

    Bonne soirée.
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • @julien___
    Le problème avec ta question, et qu'on doit d'abord définir a priori un certain cadre avant même de pouvoir parler de la probabilité d'un événement. Par exemple la probabilité de trouver un trésor si je creuse 20 m sous ma maison n'a absolument aucun sens.
    Ici pour pouvoir dire "quelle est la probabilité qu'une densité de probabilité ait telle ou telle propriété" on est confronté au même problème. A la rigueur si l'ensemble de toutes les fonctions potentiellement convenables était fini on pourrait décréter qu'on parle de "nombres de cas favorables sur le nombre de cas possibles" (ce qui serait complètement arbitraire du reste) mais là il y a une infinité de fonctions qui conviennent.
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
Connectez-vous ou Inscrivez-vous pour répondre.