Un énoncé un peu flou

Bonjour
J'ai suis actuellement sur un problème de probabilités dont l'énoncé me parait un peu vague.

Soient $m$ et $n$ deux entiers naturels tels que $1\leq m \leq n$, $X_1,\ldots,X_n$ des variables aléatoires discrètes, indépendantes et identiquement distribuées, à valeurs dans $\mathbb{R}_+^*$. Calculer l'espérance de $\dfrac{X_1+\cdots+X_m}{X_1+\cdots+X_n}$.

Le problème est que la loi des variables est inconnue. Ma question est donc : que demande l'énoncé ? Est-ce qu'il faut exprimer l'espérance $\dfrac{X_1+\cdots+X_m}{X_1+\cdots+X_n}$ en fonction de celle de $X_1$ ? Et si oui comment faire sans connaître la loi ?
Je vous remercie d'avance pour votre aide !

Réponses

  • Tout est indépendant là-dedans, et identiquement distribué.

    Donc la loi de ton quotient ne dépend pas du choix des m variables au numérateur, donc l'espérance non plus.

    Si on somme sur tous les choix possibles, la variable obtenue est déterministe.

    On obtient ainsi l'espérance de la somme et on simplifie pour trouver la nôtre.
  • Plus simplement, pour les mêmes raisons, l'espérance de ce quotient est m fois celle de celui avec un seul terme au numérateur.

    Or quand on en met n au numérateur, elle vaut 1.

    Donc celle-ci vaut m/n.
  • Le point clef (à justifier), c'est que l'espérance de $\frac{X_i}{X_1+\dots +X_n}$ ne dépend pas de $i$.
  • Mon avis :
    Il faut démontrer que l'espérance demandée existe (raisonnement par majoration), et ensuite son calcul est assez simple (car l'espérance des Xi n'est pas nulle) : on obtient m/n.
  • En fait je me demande si l'hypothèse d'indépendance est vraiment utile. En effet, la seule chose dont j'ai besoin, c'est que les variables $\frac{X_i}{X_1+...+X_n}$ soient toutes identiques, ce qui est le cas puisque les $X_i$ sont tous identiques. Le résultat découle ensuite de la linéarité de l'espérance.
    Du coup, l'indépendance est-elle superflue?
  • Non, l'indépendance est bien nécessaire.

    Je prends $X_1',X_2'$ de Bernoulli $\frac{1}{2}$ et indépendantes, et je rajoute $\epsilon>0$ pour que ce soit positif,
    soit $X_1 = X_1' + \epsilon$, et $X_2 = X_2' + \epsilon$

    J'étends en posant $X_2 = X_3 = \dots = X_{1000}$.

    La variable $\frac{X_1}{\sum X_i}$ a une chance sur 4 de valoir $\simeq 1$.

    Alors que $\frac{X_2}{\sum X_i}$ ne peut pas dépasser $\simeq \frac{1}{1000}$.
  • Bonjour,
    Je ne comprends pas pourquoi la variable $\frac{X_1}{\sum X_i}$ a une chance sur 4 de valoir à peu près 1...
  • Ah ça y est j'ai compris. Mais du coup, comment utilise-t-on l'hypothèse d'indépendance? Je sens bien que c'est pour justifier que les variables $\frac{X_i}{\sum X_j}$ sont indépendantes, mais je ne vois pas comment le justifier...
  • Non, c'est pour justifier qu'elles ont même loi. En particulier c'est pour justifier qu'une permutation ne change pas la loi de $(X_1,...,X_n)$ (preuve ?). Ensuite on utilise que si $X$ et $Y$ ont même loi alors $f(X)$ et $f(Y)$ aussi (preuve ?).

    On n'a pas besoin d'indépendance pour faire jouer la linéarité de l'espérance.
  • Elles ne sont pas indépendantes puisque leur somme fait $1$.

    Il faut voir la loi de $\frac{X_i}{X_1+\dots X_n}$ comme la loi image d'une loi qui ne dépend pas de $i$ par une certaine transformation.
  • Ce ne serait pas plus simple d'écrire le quotient comme $\frac{1}{1 + ( X_{m+1} + .... + X_m ) / (X_1 + ... + X_m ) }$ ?

    $ X_{m+1} + .... + X_m $ et $X_1 + ... + X_m$ sont indépendantes ... (c'est d'ailleurs suffisant, inutile que tous les $X_i$ soient indépendants.)
  • Ca m'a l'air plus compliqué mais c'est toujours subjectif.

    La solution est très simple. Soit $f(x_1,...,x_n) = \dfrac{x_1}{x_1+...+x_n}$. Soit $\mu$ la loi de $X_1$.

    Soit $Y_1 = (X_1,...,X_n)$, soit $Y_i$ le même vecteur que $Y_1$ mais où on a permuté $X_1$ et $X_i$.

    Par indépendance, la loi de $Y_1$ est la loi produit $\mu^{\otimes n}$. De même, la loi de $Y_i$ est aussi $\mu^{\otimes n}$. Donc les $Y_i$ ont toutes même loi, donc les $f(Y_i)$ aussi.

    De plus, $f(Y_i) \leq 1$ donc $f(Y_i)$ est intégrable.

    On a alors, $\mathbb E(\sum_{i\leq m} f(Y_i)) = \sum_{i\leq m} \mathbb E(f(Y_i)) = m \mathbb E(f(Y_1))$.
    De même, $1 = \mathbb E(1) = \mathbb E(\sum_{i\leq n} f(Y_i)) = n \mathbb E(f(Y_1))$.

    Finalement, $\mathbb E(f(Y_1)) = 1/n$, et $\mathbb E(\sum_{i\leq m} f(Y_i)) = m/n$.
Connectez-vous ou Inscrivez-vous pour répondre.