Petit problème à vous soumettre

Bonjour à tous !

J'ai un problème qui me trotte dans la tête depuis quelques jours et je ne sais pas par où commencer pour le résoudre. Je précise que je n'ai pas pratiqué les mathématiques depuis des années (j'ai fais une prépa scientifique et une école d'ingé), et que j'ai toujours été une bille en proba. Bref, si quelqu'un pouvait me donner la solution, ce serait très apprécié.

Voici l'énoncé.

Dieu décide d'accorder l'intelligence à une population de primates (nombre d'individus $N$), et il souhaite le faire de manière aléatoire. Problème : l'intelligence est une denrée limitée, et il n'a qu'un total $I > 0$ d'intelligence à distribuer sur toute la population. Le processus d'attribution est le suivant:

- Dieu commence par le premier individu dans la population, et lui attribue une intelligence $i_{1}$ (un réel) aléatoire comprise entre $0$ et $I$ strictement ($0 < i_{1} < I$).
- Puis, Dieu prend le second individu, et lui attribue une intelligence $i_{2}$ aléatoire comprise entre $0$ et $I-i_{1}$ strictement.
- Pour le troisième individu, l'intelligence $i_{3}$ sera attribuée aléatoirement entre $0$ et $I-(i_{1}+i_{2})$ (toujours strictement)
- Dieu continue ainsi jusqu'au dernier individu, qui obtient donc une intelligence $i_{n}$ aléatoire, où $0 < i_{n} < I-\sum_{m=1}^{N-1}i_{m}$.

Ce que je recherche, c'est une fonction $P_{N,I}:i\rightarrow P_{N,I}(i)$, où $P_{N,I}(i)$ serait le nombre moyen d'individus (un réel) ayant une intelligence supérieure ou égale à $i$ (sachant que $0\le i\le I$), pour une population $N$ et une intelligence totale $I$ données. Logiquement, on aurait donc $P_{N,I}(0) = N$ et $P_{N,I}(I) = 0$

Merci d'avances pour vos réponses.

Édit: j'ai changé légèrement l'énoncé.

Réponses

  • La loi de l'intelligence des individus est donnée par l'énoncé ou pas ? C'est-à-dire que le premier individu, par exemple, est-ce qu'il y a la même probabilité pour qu'il ait une intelligence comprise entre $0$ et $I/2$ et entre $I/2$ et $I$ ?
  • Oui, c'est exactement ça Georges. Encore une fois, je n'ai pas pratiqué les maths depuis des années, donc je ne saurais dire quelle loi pourrait correspondre, mais l'idée c'est que c'est complètement aléatoire.

    Lorsque le premier individu se voit attribuer une intelligence $i_{1}$, où $0 < i_{1} < I$, elle est attribuée de manière aléatoire. Donc la proba que $i_{1}$ soit entre $0$ et $I/2$ est la même que la proba que $i_{1}$ soit entre $I/2$ et $I$. De la même façon, la proba que $i_{1}$ soit entre $0$ et $I/4$ est la même que la proba que $i_{1}$ soit entre $I/4$ et $I/2$, $I/2$ et $3I/4$ ou $3I/4$ et $I$.
  • Bonjour,
    Le bon terme c'est "aléatoire et uniforme". "Aléatoire" est simplement le contraire de déterministe, mais ça ne donne pas la répartition de cet aléa.

    Nommons $I_k$ la variable aléatoire égale au niveau d'intelligence du primate numéro $k$. Alors $$P_{N,I}(i) := \Bbb E(\#\{k\in[\![1,N]\!]\mid I_k\geqslant i\}) = \sum_{k=1}^N \Bbb E({\bf1}_{I_k\geqslant i}) = \sum_{k=1}^N \Bbb P(I_k\geqslant i).$$
    Ensuite pour calculer les probas dans cette somme, je ne vois pas de schéma pratique. Pour $k=1$, ok $\Bbb P(I_1<i_1) =\frac{i_1}I$. Pour $k=2$, ça va aussi : $$\Bbb P(I_2<i_2) =\int_0^{I-i_2} \Bbb P(I_2=i_2\mid I_1=i_1) \frac{{\rm d}i_1}I = \int_0^{I-i_2} \frac{i_2}{I-i_1} \frac{{\rm d}i_1}I = - \frac{i_2}I \ln\left( \frac{i_2}I \right).$$
    Mais pour $k=3$ : $$\Bbb P(I_3<i_3) =\iint \frac{i_3}{I-i_1-i_2} {\bf 1}_{i_3\leqslant I-i_1-i_2} \frac{{\rm d}i_2}{I-i_1} {\bf 1}_{i_2\leqslant I-i_1} \frac{{\rm d}i_1}I$$ $=$ :-S.

    Voilà, moi j'ai fait la partie facile. Peut-être que d'autres auront des idées pour continuer. :-D
  • Bonjour,

    Je me suis permis de modifier quelques notations mais le modèle que j'ai choisi est celui de Calli.
    $\forall n \in [\![1;N]\!],\:\:\: X_n$ désigne la "quantité d'intelligence reçue par l'individu numéro $n$ ",$\:\:Y_n := \displaystyle \sum _{k=1}^n X_k.\:\:$
    Alors $\:\:X_1$ obéit à la loi uniforme sur $[0;I]$ et $X_{n+1}$ obeit à la loi uniforme sur $[0; I-Y_n].\:\: $ Enfin:$\:\:T_{a,N}:= \text{Card} \Big\{ n \in [\![1;N]\!] \mid X_n \geqslant a \Big \}.\qquad (0\leqslant a\leqslant I).$

    Après quelques péripéties dans les calculs, on parvient à une expression relativement "agréable" de l'espérance que tu recherches:

    $$ \boxed{\mathbb E (T_{a,N})=\displaystyle \sum _{n=1}^N \Pr[X_n\geqslant a]=N -\dfrac {Na}{(N-1)!I} \left( \log\frac Ia \right)^{N-1} - \dfrac aI\left(N-\log \frac Ia\right)\sum_{k=0}^{N-2} \dfrac 1{k!} \left( \log \frac Ia\right) ^k.}$$
    On remarque que:$\:\:\displaystyle \lim_{a\to 0 }\mathbb E (T_{a,N})=N ,\qquad\lim_{a\to I }\mathbb E (T_{a,N})=0, \qquad \lim_{N\to +\infty} \mathbb E (T_{a,N})=\log\dfrac Ia.$
  • Merci beaucoup @LOU16.

    Serait-il possible d'avoir la démo complète? (Par MP dans le format de ton choix si trop embêtant à mettre sur le forum).

    Le seul petit truc qui me gène c'est que j'ai mis ta formule dans Desmos et j'ai testé pour quelques valeurs de $N$ et $I$. Le "problème" c'est que quand je laisse $I$ fixe et que j'évalue $\mathbb{E}(T_{9I/10})$ (donc le nombre moyen d'individus ayant une intelligence supérieur à $9I/10$) pour différentes valeurs de $N$, et bien je trouve que le résultat augmente à mesure que $N$ augmente.

    Cela me parait bizarre, puisque intuitivement le nombre de personnes très intelligentes devrait diminuer à mesure que la population augmente étant donné que la quantité totale d'intelligence disponible reste constante. En d'autres termes, on partage le même gâteau en beaucoup plus de parts, donc il devrait y avoir moins de personnes qui ont de très grosses parts...
  • Makownage a écrit:
    Cela me parait bizarre, puisque intuitivement le nombre de personnes très intelligentes devrait diminuer à mesure que la population augmente étant donné que la quantité totale d'intelligence disponible reste constante. En d'autres termes, on partage le même gâteau en beaucoup plus de parts, donc il devrait y avoir moins de personnes qui ont de très grosses parts...

    Mais les premiers singes sont très gourmands, donc il prennent les plus grosses parts du gâteau X:-(. Les autres se partagent les miettes. Dit plus clairement : la loi de $X_k$ est indépendante de $N$.

    LOU16 : Je suis aussi curieux de voir à quoi ressemble ces péripéties calculatoires. Pas forcément en détail, mais au moins : d'où es-tu parti ? Est-ce que tu as calculé les grosses intégrales que j'ai commencé à écrire, as-tu trouvé une formule de récurrence, ou autre chose ?
  • Je rajoute une petite question Bonus pour ceux qui ont envie de pousser l'exercice un peu plus loin (:P)

    En l'an 0, Dieu effectue la distribution d'intelligence $I$ sur la population de primate $N$ selon la méthode décrite plus haut: c'est la Grande Distribution Initiale (GDI). Sachant que le taux de natalité moyen annuel est de 4.2%, le taux de mortalité moyen annuel de 4% et le taux de croissance moyen annuel de 0.2%, pouvez vous prédire la distribution $P_{A,N,I}$ en l'an A après GDI?

    On considèrera que Dieu "stocke" l'intelligence de tout les morts d'une année et effectue une distribution de cette intelligence accumulée sur l'année suivante chaque fois qu'un nouvel humain né, selon la méthode décrite plus haut. Il aura bien évidemment gardé un stock $I_{0}$ pour la première année.
  • Je me permets de ramener le fil a l'observation classique: Si $U_1,\ldots,U_n$ sont independantes et uniformes sur $[0,1]$ alors $\log U_1U_2\ldots U_n$ suit la loi gamma de densite sur $]0,\infty[$ egale a $e^{-v}v^{n-1}/(n-1)!.$ En effet pas la peine de trimballer $I$ qu'on peut prendre egal a 1. Avec les $U_i$ ci dessus et les excellentes notations de LOU16 on fabrique les va $(X_n,Y_n)$ par recurrence ainsi
    $$X_1=Y_1=U_1,\ \ X_{n+1}=(1-Y_n)U_{n+1}=Y_{n+1}-Y_n$$ et par commodite on note $U'_n=1-U_n$ qui est egalement uniforme sur $[0,1]$ Alors par recurrence on obtient
    $$X_n=U'_1U'_2\ldots U'_{n-1}U_n$$ qui est elle aussi un produit de va uniformes independantes dont le log suit la loi gamma ci dessus. Par exemple si $T_{a,N}$ est le nombre de $X_n$ plus grands que $a$ avec $n=1,\ldots,N$ il est assommant de calculer $\mathbb{E}(T_{a,N})$ alors que $\mathbb{E}(T_{a,\infty})=G(a)$ est a peu pres aussi instructif et est
    $$G(a)=-\log a$$ Bref, si $M(A)$ est la moyenne du nombre de $X_n$ qui tombent dans l'intervalle $A\subset ]0,1]$, la densite de la mesure d'occupation $M$ (pas bornee, hein) est donc$$ -G'(a)=1/a.$$


    Edit: merci a Lou16 qui a corrige le calcul de $G(a).$
  • Bonjour

    @Maokownage:
    Ton intuition est erronée: Si, par exemple $a = \dfrac I2,$ alors:$ \:\:\forall N \in \N^* \:\:T_{a,N} \in \{0;1\}$ et, sans calcul, il me semble clair que: $ \:\: \mathbb E(T_{a,N})\leqslant \mathbb E(T_{a,N+1}).$

    $ Pr[X_1\geqslant a] = \dfrac {I-a}I.\quad $Soit $f_n$ la densité de $Y_n.$
    $ \forall x \notin [0;I], \:\:f_n(x) =0, \quad\forall x \in [0;I],\quad \Pr[Y_{n+1} \leqslant x ] = \displaystyle \int _0 ^x f_n(t) \dfrac {x-t}{I-t}\mathrm dt, \qquad f_{n+1}(x) = \displaystyle \int _0^x \dfrac {f_n(t)}{I-t}\mathrm dt.\quad (\bigstar)$
    On déduit par récurrence: $\quad \boxed{f_1(x) = \dfrac 1I,\quad\forall n \in \N^*: \:\: f_n(x) = \dfrac 1 {I(n-1)!}\left( \log \dfrac I{I-x}\right) ^{n-1}.} \quad$ D'autre part: $\:(\bigstar)$ entraîne:
    $\displaystyle f_n(x)= (I-x)f_{n+1}' (x), \qquad \int _0^x f_n \overset {\text{IPP}}= (I-x)f_{n+1}(x) +\int_0^x f_{n+1}, \qquad \int _0^{x} f_n =1- (I-x) \sum_{k=1}^ n f_k(x).$
    $ \forall n>1,\:\:\Pr[X_n\geqslant a]= \displaystyle \int _0^{I-a}f_{n-1}(t)\left(1 - \dfrac a{I-t}\right )\mathrm dt\overset {(\bigstar)}=\displaystyle \int_0^{I-a} f_{n-1}(t) \mathrm dt -a f_n(I-a)=1- a \sum_{k=1}^{ n} f_k(I-a)$

    En revenant à notre espérance:
    $\displaystyle \mathbb E(T_a) =\sum_{k=1}^N\Pr[X_k\geqslant a]=N-a\sum _{k=1}^ {N}(n+1-k) f_k(I-a) =N -\dfrac {Na}{(N-1)!I} \left( \log\frac Ia \right)^{N-1} - \dfrac aI\left(N-\log \frac Ia\right)\sum_{k=0}^{N-2} \dfrac 1{k!} \left( \log \frac Ia\right) ^k.$

    Edit Pas vu le message de Calli :les premiers servis sont toujours les mieux lotis et se moquent royalement de l'importance du nombre de ceux qui vont passer après.
    Pas vu non plus celui, éclairant ,de P qui doit éviter tous les calculs. Mais la loi "Log normale", je ne la connaissais pas.
  • Pas log normale ici (qui n'est d'ailleurs pas interessante en soi) mais la loi gamma...
  • Oui, Paul
    Tu vois, je mélange tout et en plus, je ne sais pas lire.
    "La loi dont le log suit la loi gamma" Mais là encore , je n'ai aucune familiarité avec la loi gamma.
  • Merci Lou. :-)
  • Quelques problemes decoulent de la presentation amusante du fil. Par exemple quelle est la probabilite que le second primate soit plus intelligent que le premier? ou que le troisieme soit plus ruse que le premier? Ainsi
    $$\Pr(X_1<X_2)=\Pr(U_1<U'_1U_2)=1-\log 2=0,3068...$$
  • Et le calcul de la loi de $M=\max _{i\geq 1}X_i$ pose quelques problèmes.
    En effet un peu d'observation montre que si $U$ est uniforme sur $ [0,1]$ et est indépendante de $M$ alors on a l’équation fonctionnelle $$M\sim \max (U,(1-U)M)).$$ Sauf erreur, je trouve que la densité de $M$ sur $[1/2,1]$ est $1/m$ mais je ne m'en tire pas pour $ 0<m<1/2.$
Connectez-vous ou Inscrivez-vous pour répondre.