loi binomiale et courbe en cloche
Bonjour
Voilà mon problème. Je cherche à comprendre pourquoi la loi normale s'exprime en fonction de e ?
Je comprends sa structure dans le sens ou un produit de probabilités indépendantes peut s'exprimer en puissances mais en quoi la puissance de e est-elle plus proche que toutes les autres des valeurs recherchées ... ??? Comment justifier cela ??
Bref, je ne sais pas vraiment si je me fais comprendre, du bas de mon niveau en math ...
Merci pour votre attention ...
Voilà mon problème. Je cherche à comprendre pourquoi la loi normale s'exprime en fonction de e ?
Je comprends sa structure dans le sens ou un produit de probabilités indépendantes peut s'exprimer en puissances mais en quoi la puissance de e est-elle plus proche que toutes les autres des valeurs recherchées ... ??? Comment justifier cela ??
Bref, je ne sais pas vraiment si je me fais comprendre, du bas de mon niveau en math ...
Merci pour votre attention ...
J'ai pas appris à compter à la maternelle!
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses
Tu te demanderais pas plutôt pourquoi une loi binomiale sous certaines hypothèses s'approcherait d'une (ou par une) loi normale ?
Parce que là pour répondre à ta question telle qu'elle est posée c'est extrêmement simple. C'est la définition de la loi normale qui fait que $e$ intervient. C'est tout, ça ne va pas plus loin, on l'a défini comme ça.
http://public.iutenligne.net/mathematiques/statistiques-et-probabilites/farge/variable-aleatoire-3/utilisations_de_la_loi_normale.html
Premièrement, approcher une loi à support compact par une loi à support non compact est osé. Deuxièmement, il n'y a qu'à voir les histogrammes de taille et surtout de poids pour voir que ça ne ressemble pas vraiment à une loi normale (ou alors on a qu'à dire que n'importe quelle fonction croissante puis décroissante est une gaussienne ...).
dans ce cas gerard0 va trancher;-)
Le TCL est souvent mal interprété, c'est un résultat qui porte sur la somme des résultats, ça ne change rien à la distribution initiale de la population.
Au fait, quel est le sens de ta question, celui que ton prof n'a pas compris ?
Si tu demandes aux élèves d'un établissement de lancer chacun un dé et de noter, pour chacun(e), le nombre de lancers qu'il (elle) a du faire pour avoir un 6, l'histogramme des fréquences des résultats observés ne ressemblera absolument pas à une gaussienne.
Si on observe la gaussienne souvent dans la nature, c'est (enfin on peut le penser) parce que plein de phénomènes naturels sont le résultant de sommes de variables aléatoires plus ou moins indépendantes et que très souvent, ce genre de choses converge vers une gaussienne.
le mot "normale" pour la loi de Gauss est une erreur énorme des statisticiens du dix-neuvième siècle qui croyaient que sauf cas bien particulier, la répartition des valeurs était analogue à celle des erreurs de mesure en astronomie.
On a continué à utiliser à tort le mot, la loi de Gauss s'étant révélée de nombreuses façons une loi centrale (voir le théorème limite central). nLa grande généralisation a été de justifier que si une variable aléatoire est somme de nombreuses variables continues, indépendantes et de même ordre de grandeur, alors cette loi est approximativement gaussienne.
Pour les poids des graines de senteur, pas de souci. Pour les femmes adultes, il y a maintenant des populations pour lesquelles l'approximation par une loi Normale de la répartition est très incorrecte (étalement dû à l'obésité, avec une forte "queue de distribution"). Cependant, si on choisit bien la population, si elle est suffisamment homogène, on pourra assimiler les valeurs à celle d'un échantillon de même taille d'un tirage d'une loi Normale.
En prenant les bonnes précautions, on pourra expliquer clairement que, au voisinage de la moyenne, on peut approximer des probabilités qu'une variable binomiale sont entre 2 valeurs par la probabilité qu'une variable gaussienne de même moyenne et même variance soit entre ces deux valeurs.
Mais on s'est bien éloigné de la question initiale, que je ne comprends pas vraiment, puisque la loi Normale est donnée avec e dans sa définition (mais c'est anecdotique, c'est parce qu'on ramène généralement les fonctions $a^x$ à l'exponentielle).
Tiens, c'est peut-être ça la réponse : on peut se passer de e et l'écrire avec un $2^{...}$ si on veut.
Cordialement.
Le $e$ mais aussi le $\pi$ et le radical etc.
D'où sort cette expression ?
Une limite d'une suite de fonction ?
Pour le comprendre, il vaut mieux le voir ainsi. C'est quoi la probabilité d'avoir $A$ et $B$. On a envie de dire que c'est la probabilité d'avoir $A$ sachant $B$ fois la probabilité de $B$. En effet, c'est la proportion des cas où on a bien $B$, et parmi cette proportion on prend celle où on a aussi $A$ mais sachant déjà qu'on a $B$. Bon je sais pas si j'étais clair B-)-
GBZM a bien sûr raison en disant cela :
le $e^x$ intervient comme limite de $(1+\dfrac{x}{n})^n$.
L'article de wiki nous renseigne sur l'historique de cette loi : https://fr.m.wikipedia.org/wiki/Histoire_de_la_loi_normale
Cela répond à mon message précédent («d'où ça vient») : d'abord du "binomial" apparemment.
GaBuZoMeu écrivait:
> Au fait, quel est le sens de ta question, celui
> que ton prof n'a pas compris ?
Le sens de ma question, pourquoi la formule mathématique exprime la signification littéraire de la phrase " la probabilité d'avoir A sachant B "
Veux-tu m'expliquer ce soupçon de temporalité que j'essaie d'introduire ?
En fait, j'ai revisité wikipedia. Je ne comprennais que peu le concept d'équation caractéristique.
P. précisait avec importance une égalité concernant e(x). Je crois que la démonstration du TCL
( https://fr.wikipedia.org/wiki/Théorème_central_limite) est pertinente.
merci encore
comme l'univers a pour mesure 1 (proba totale), la proba de A est la mesure de A. Si on considère B comme réalisé quand on va s'intéresser à la proba de A, c'est que l'univers se restreint à l'événement B, donc il va falloir rétablir l'équilibre en divisant par P(B) pour que le nouvel univers soit B. Quant à la réalisation de A, ce ne peut être que celle de $A\cap B$ puisque les seuls événements élémentaires possibles sont dans B. D'où la formule.
Il faut bien saisir qu'il s'agit d'une nouvelle probabilité, liée à celle de départ, mais différente, d'où la notation plus correcte $P_B$.
Cordialement.
NB : Ton prof était effectivement vraiment "léger" :-)
La référence qui est sensée soutenir le passage en discussion est:
Titre Introduction to Probability
Auteurs Grinstead, Charles Miller and Snell, James Laurie
Éditeur American Mathematical Society
Year 1997
ISBN 0821807498, 9780821807491
Longueur 510 pages
Il est amusant de repérer la façon dont Grinstead and Snell a été recraché par Wikipedia, pour être ensuite recraché par gebrane0.
Dans le contexte où il est utilisé, cet extrait donne l'impression que l'on a une loi similaire à la loi normale parce que l'effectif est grand, ce qui est évidemment une ânerie. On atteint un sommet avec "dans des conditions normales, la loi est normale".
L'extrait de wikipedia est:
Le texte recraché n'est pas très clair, alors que la signification du texte de Grinstead and Snell est toute différente: la distribution est similaire à la loi normale parce qu'il s'agit de la taille des personnes (l'effectif n'intervient ici que pour assurer que la distribution de l'échantillon est similaire à la distribution de la population totale).
Ce n'est pas le seul exemple de pataquès dans cet article de Wikipedia. Ainsi "Ce théorème signifie que tout ce qui peut être considéré comme étant la somme d'une grande quantité de petites valeurs aléatoires indépendantes est approximativement de loi normale" est suivi par "Si une grandeur physique subit l'influence d'un nombre important de facteurs indépendants et si l'influence de chaque facteur pris séparément est petite, alors la distribution de cette grandeur est une distribution gaussienne". La première partie suggère --correctement-- que la distribution de la taille des individus est normale car la taille est obtenue par la somme de divers "épisodes de croissance" (en particulier au niveau des cartilages de conjugaison). La deuxième partie est totalement débile: la loi log-normale est obtenue par l'influence d'un grand nombre de variables indépendantes... lorsque cette influence est multiplicative (exemple: polymérisation).
Quant au texte de Grinstead and Snell il indique que (pages 345-347):
The Normal Distribution and Genetics
When one looks at the distribution of heights of adults of one sex in a given
population, one cannot help but notice that this distribution looks like the normal
distribution. An example of this is shown in Figure 9.10. [...]
A natural question to ask is “How does this come about?”. Francis Galton,
an English scientist in the 19th century, studied this question, and other related
questions, and constructed probability models that were of great importance in
explaining the genetic effects on such attributes as height. In fact, one of the most
important ideas in statistics, the idea of regression to the mean, was invented by
Galton in his attempts to understand these genetic effects.
Galton was faced with an apparent contradiction. On the one hand, he knew
that the normal distribution arises in situations in which many small independent
effects are being summed. On the other hand, he also knew that many quantitative
attributes, such as height, are strongly in?uenced by genetic factors: tall parents
tend to have tall offspring. Thus in this case, there seem to be two large effects,
namely the parents. Galton was certainly aware of the fact that non-genetic factors
played a role in determining the height of an individual. Nevertheless, unless these
non-genetic factors overwhelm the genetic ones, thereby refuting the hypothesis
that heredity is important in determining height, it did not seem possible for sets of
parents of given heights to have offspring whose heights were normally distributed. [...]
En résumé: la loi des tailles est normale, que cela plaise ou non. Et il reste à recoller
les morceaux avec les lois de l'hérédité. C'est ce qui est fait dans la suite du texte.
Cordialement, Pierre.
Edit: bataille avec des "caractères suédois".
Faut quand même pas pousser mémé dans les orties. Une loi à support compact qui serait une loi normale ça ne me plaît pas, c'est le moins que je puisse dire.
En fait, on constatait ça sur les conscrits au conseil de révision (on a des statistiques sur presque 2 siècles), et très approximativement sur certaines populations animale. Quételet en avait fait un critère de solidité des données, ce qui est absurde. Mais de nombreux scientifiques considèrent que les erreurs de leurs expériences sont gaussiennes (dans ce sens), ce qui leur évite bien de réfléchir aux éventuelles causes d'erreur. Et dans les sciences humaines, cette affirmation devient parfois un dogme, alors même qu'il y a des répartitions tout autres; d'où des tests de Normalité pour des situations où ça n'a pas de sens (valeurs par codage ou échelle de valeurs).
Cordialement.
(*) donc pas des humains, hommes et femmes mélangés.
$\,$
$\,$
Je peux savoir ton explication ( le droit d'apprendre d'un apprenti d'un spécialiste )
@gerard0
merci :-)
mais j'ai un autre souci: soit B un événement négligeable, B peut se réaliser même si sa proba est nulle. Maintenant si je veux calculer la proba d'une événement A en tenant compte de l'information que l’événement B est déjà réalisé, comme procéder vu que la formule mathématiques précédente est incapable de traiter ce cas
https://en.wikipedia.org/wiki/Regular_conditional_probability
https://fr.wikipedia.org/wiki/Paradoxe_de_Borel
[Inutile de répéter le message précédent. Poirot]
A priori, tu es dans un autre espace de probabilité, lié à l'événement B de proba nulle. Comme toutes les probas induites sur B par ta proba précédentes sont nulles, tu n'as plus de loi de probabilité à ta disposition. Donc tu ne peux plus parler de proba conditionnelle.
mais si tu connais un cas concret, je veux bien le regarder. En probas géométriques, on a des situations de ce genre, le paradoxe de Bertrand est là pour nous inciter à y regarder à deux fois.
Cordialement.
Il m'a semblé utile de signaler cette discussion sur le bistro de wikipedia.fr. A suivre !
Cordialement, Pierre.
Cette démarche est légitime au vu des divers théorèmes qui disent essentiellement qu'une mesure finie sur un espace topologique raisonnable est tendue, i.e. "charge" des compacts dans un sens qu'on va préciser plus bas.
1) Si $(X,\tau)$ est localement compact et $P$ une mesure de probabilité de Radon sur $X$ alors pour tout $\varepsilon>0$, il existe une partie compacte $K$ de $X$ telle que $P(K)\geq 1-\varepsilon$.
Bon en fait ça découle trivialement de la définition de mesure de Radon.
2) Plus intéressant: si $(X,d)$ est un espace métrique séparable et $P$ une mesure de probabilité borélienne sur $X$ alors pour tout $\varepsilon>0$, il existe une partie mesurable précompacte $K$ de $X$ telle que $P(K) \geq 1-\varepsilon$.
Noter que si l'espace est complet, l'adhérence d'une telle partie est compacte et vérifie aussi cette inégalité.
Preuve résumée de 2). Soit $D=\{d_n,n\in \N\}$ une partie dénombrable dense de $E$. Soit $\varepsilon>0$. Si $k\in \N$, alors $\bigcup_{n\in \N} B(d_n,2^{-k})=X$, il existe donc $p_k\in \N$ tel que $P\left(\bigcup_{i=0}^{p_k} B(d_i,2^{-k})\right)\geq 1-2^{-(k+1)} \varepsilon$.
On vérifie que $K:=\bigcap_{k\in \N} \bigcup_{i=0}^{p_k} B(d_i,2^{-k})$ a bien les propriétés voulues.