La loi de $X_i$ est-elle uniforme

Bonjour,
Soient $X_,\dots,X_n,\quad n>1$ une famille de variables aléatoires sur un même espace probabilisé $(\Omega,A,P)$ telles que : pour tout $i\in\{1,\dots,n\},\ X_i(\Omega)=\{0,1,\dots,n\}$ et pour tout $i\neq j\in\{1,\dots,n\}$ on a

$P\big((X_i,X_j)=(s,k)\big)=0,\quad\qquad$ si $s=k$ et
$P\big((X_i,X_j)=(s,k)\big)=\frac{1}{n(n+1)},\quad$ si $s\neq k$.

Ma question est montrer que $X_1,\dots,X_n$ suivent la même loi.

Réponses

  • Tu as la loi jointe, il suffit de "marginaliser" pour avoir la loi de $X_i$ et le calcul immédiat donne que $X_i$ suit la loi uniforme.
  • Si $i\not=j$ alors $P(X_i=s)=P\big( \bigcup^n_{j=0}(X_i=s)\cap (X_j=k)\big)=\sum^n_{j=0}P\big( (X_i=s)\cap (X_j=k)\big)=\frac{n}{n(n+1)}$.Non?
    .
  • Oui tu as marginalisé la loi de $X_i$. Du coup tu as la solution non ? (le si $i \neq j$ au début n'a pas de sens, le $j$ est introduit après, tout ce qui compte est qu'il existe $j \neq i$ évidemment).
  • Oui, le $i\not=j$ intervient après.

    Maintenant si $i\not=j$, je calcule le covariance de $X_i$ et $X_j$. On a Par théorème du transfert

    $E(X_i.X_j)=\sum^n_{k=0}\sum^n_{s=0} ks P\big(X_i,X_j)=(k,s)\big)=\sum^n_{k=1}\sum^n_{s=1,s\not=k}\frac{sk}{n(n+1)}=\dots$.

    Donc

    $Cov(X_i.X_j)=E(X_i.X_j)-E(X_i)E(X_j)=\frac{n-1}{n+1}-(\frac{n}{2})^2\not=0$

    Comme conclusion les $X_i$ ne sont pas indépendantes? Non.
  • L'espérance de $X_i$ ne vaut pas $n/(n+1)$.

    Maintenant la non indépendance est encore plus simple que cela. Suppose qu'il y a indépendance et calcule ce que devrait alors valoir $P(X_i = 0, X_j = 0)$. Conclus à une absurdité.
  • L’espérance c'est $\frac{n}{2}$. J'ai oublié même le terme $sk$ lors du calcul $E(X_iX_j)$.

    Merci infiniment.
  • Une autre question @skyffer3.

    Je pose $Z=\min(X_1,\dots,X_n)$ avec les $(X_i)$ sont les variables définies en haut.

    Je veux calculer la loi de $Z$. Soit $k\in\{0,\dots,n\}$, on

    $P(k\leq Z)=P\Big(\cap^n_{i=0} \big(k\leq X_i\big)\Big)$ puisque les $X_i$ ne sont indépendantes comment je peux faire?
  • L'idée est de bien assimiler que les $X_i$ sont toutes deux à deux différentes vu ta première hypothèse. Comme elles ne peuvent prendre que $n+1$ valeurs, on a presque sûrement que l'ensemble des $X_i(\omega)$ est exactement l'ensembles $\{0,\ldots,n\}$. Donc $Z$ vaut presque sûrement $0$.
  • J'ai dit une bêtise, tu n'as que $n$ variables aléatoires et non $n+1$ ... Il faut que je réfléchisse davantage, j'ai pas de solution immédiate là. Ce qui est sûr c'est que le même raisonnement prouve que $Z$ vaut presque sûrement $0$ ou $1$, c'est une variable de Bernoulli.
  • Bonsoir,

    Il m'a semblé que $ \Pr(Z=k) = \left\{ \begin{array} {cl} \dfrac n{n+1}& \text {si} \: k=0\\ \dfrac1{n+1} & \text{si}\: k=1\\ 0& \text{sinon} \end {array} \right.$

    En effet: Les $(X_i = 0)$ sont deux à deux incompatibles donc $ \displaystyle \Pr(Z =0) = \Pr \left( \bigcup _{i =1}^n(X_i = 0) \right)= \sum _{i =1}^n \Pr ( X_i =0) = \dfrac n {n+1}$
    D'autre part, $Z\geqslant 2$ impose qu'il existe deux valeurs distinctes $i$ et $j$ dans $[\![1;n]\!]$ telles que: $X_i = X_j.\:\:\:$ Ainsi $ \:\Pr(Z\geqslant 2 ) =0$
  • Je plussoie cette solution (tu)
Connectez-vous ou Inscrivez-vous pour répondre.