Voilà @dlzlogic, qui montre encore une fois que tu dis n'importe quoi et que tu ne connais absolument rien aux probas/stats. Car il n'est pas possible qu'à la fois le diamètre et le volume suivent une loi gaussienne, étant donné la relation entre diamètre et volume.
dlzlogic écrivait:
> D'abord, je n'ai jamais suivi de cours de statistiques, ça n'a jamais été utile dans ma spécialité.
MDR ! Dans ta spécialité, tu ne fais que des calculs statistiques... calculer la moyenne d'une série de mesures, calculer l'écart-type, etc. Tout cela, sur des séries STATISTIQUES !
En fait, tu n'as jamais suivi de cours de proba, c'est pour cela que tu racontes n'importe quoi sur les lois de probabilités...
Les statistiques ne se résument pas, loin s'en faut, à ce genre de calcul.
L'introduction de stats' non descriptives dans les programmes de l'enseignement secondaire est très récente me semble-t-il.
Malgré cet ajout, je ne suis pas sûr que cela va aider à ce qu'une partie de la population arrête de croire que les stats' se résument à des calculs de moyennes et d'écarts-type B-)-
Je suis bien d'accord avec toi, Fin de partie, mais il se trouve que Dlzlogic ne sait (à ma connaissance) que calculer la moyenne et l'écart-type empirique d'une série statistique.
Leon1789:
Il est le produit de l'enseignement reçu. Des stats' descriptives en veux-tu en voilà
Revenons en à des trucs de fond:
Tout phénomène naturel ne peut pas nous être connu dans toute son étendue.
Mais pour ce qu'on fait de cette connaissance (de la prévision), on a juste besoin de connaître partiellement les choses.
C'est ce qui est difficile à admettre, on ne sait pas grand chose mais le peu qu'on sait suffit souvent pour nos affaires. B-)-
Je me permets de répéter mes questions :
1- pourquoi on utilise la moyenne arithmétique (et certainement pas "empirique") ?
2- comment justifier l'utilisation de l'écart type si ce n'est dans conteste de la loi normale ?
A tout hasard, je rappelle la définition de l'écart-type : c'est la valeur de l'écart moyen quadratique.
Si la "valeur vraie" est connue, alors le dénominateur est N, sinon, (N-1).
Je rappelle aussi que l'on utilise cette valeur comme unité, mais on aurait très bien pu utiliser l'écart moyen arithmétique. Le rapport entre les deux est une constante.
le peu qu'on sait suffit souvent pour nos affaires.
malheureusement, ça ne suffit pas toujours ... ça fait 20 heures que j'aimerais bien être sûr qu'il ne pleuvra pas là où je serai de 21h 30 à 23h 30 ce soir ...
Cordialement.
NB : Météo France ne suffit pas, ses prédictions étant très changeantes en ce moment :-)
J'ai une amie qui est totalement accro' aux prévisions météo (elle pratique des sports nautiques ce qui nécessite d'avoir une force suffisante du vent) et elle m'expliquait que les prévisions (elle passe son temps parfois à surveiller la météo sur plusieurs sites internet) étaient très différentes pour demain suivant le site que tu regardes. J'imagine que les modèles utilisés sont différents d'un site à l'autre ce qui explique les différences de prévision.
Dlslogic:
j'ai déjà suggéré une explication à l'utilisation de la moyenne (arithmétique) et de l'écart-type (variance).
Si on pense qu'un phénomène suit une loi normale, la question est souvent de déterminer cette loi normale, et cela revient donc à un problème d'estimation de la moyenne/variance. Je te renvoie à l'article de Wikipedia sur l'analyse de la variance (ANOVA)
Voilà @dlzlogic, qui montre encore une fois que tu dis n'importe quoi et que tu ne connais absolument rien aux probas/stats. Car il n'est pas possible qu'à la fois le diamètre et le volume suivent une loi gaussienne, étant donné la relation entre diamètre et volume.
Tu sais, c'est pas le diamètre ou le volume ou la masse qui suit LA loi normale, c'est la répartition des écarts à la moyenne.
J'avais prévu un truc comme ça, mais pas aussi énorme. Je pensais qu'il y aurait au moins quelques calculs.
Bref !
dlzlogic écrivait:
> Je me permets de répéter mes questions :
> 1- pourquoi on utilise la moyenne arithmétique (et certainement pas "empirique") ?
> 2- comment justifier l'utilisation de l'écart type si ce n'est dans conteste de la loi normale ?
Tes questions sont encore une fois la preuve de ta grande naïveté (pour ne pas dire davantage) en proba/stat. C'est comme si tu demandais :
Pourquoi utilise-t-on l'addition (et certainement pas la somme) ?
Comment justifier que l'utilisation de l'exponentielle si ce n'est dans le contexte des polygones quadrilatères ?
> A tout hasard, je rappelle la définition de l'écart-type : c'est la valeur de l'écart moyen quadratique.
> Si la "valeur vraie" est connue, alors le dénominateur est N, sinon, (N-1).
Ce n'est pas du tout une définition ! On te l'a déjà dit 1000 fois.
En fait, ce que tu écris est un résidu mental d'un théorème dont tu as oublié (ou plutôt jamais compris) les hypothèses et la conclusion : ce que dont tu parles, c'est de l'estimation d'écart-type de loi de probabilités à l'aide d'un échantillon.
Tu mélanges soigneusement tout... comme d'hab.
Fin de partie écrivait:
> C'est abusif de parler de LA loi normale. Il y a une infinité de lois normales. (déterminées uniquement par l'espérance et la variance)
Laisse tomber, Fin de partie, car Dlzlogic ne sait absolument pas ce qu'est "la" loi normale : il pense que c'est un tableau avec quelques lignes présentant des pourcentages par une petite étude (moyennes, écart-types) de séries statistiques...
Une fonction de densité de probabilité continue est la fonction dérivée de la fonction de répartition.
$G'(x)=F'(x^{\frac{1}{3}})=\dfrac{1}{3}x^{-\frac{2}{3}}f(x^{\frac{1}{3}})$
En particulier, si $X$ suit une loi normale de paramètres $\sigma$ et $\mu$ alors $X^3$ ne peut pas suivre une telle loi.
Oui, c'est vrai ce que tu dis, mais la loi normale est caractérisée par la moyenne et l'écart-type. C'est ce qui permet de mettre en coïncidence toutes les courbes représentatives à une translation et une mise à l'échelle près.
Bien-sûr, si tu connais la valeur vraie de la mesure, tu peux calculer les écarts à la valeur vraie, mais dans le cas général, tu ne la connais pas, d'où la nécessité de calculer la moyenne observée.
Là, on a parlé de théorie des erreurs. Elle découle effectivement directement des probabilités. En fait il y a une étape entre les probabilités, c'est à dire le résultat de n'importe quelle expérience aléatoire, et la théorie des erreurs.
En d'autres termes, les probabilités (loi normale et Cie) ne résultent pas d'une théorie, contrairement au calcul d'erreur.
Tu ne m'as toujours pas dit pourquoi, lorsqu'on fait plusieurs mesures d'une même quantité, on adopte la moyenna arithmétique. La justification de l'utilisation de l'écart type, ce sera pour une autre fois.
Je me permet de te rappeler que le présent sujet porte sur les probabilités. c'est à dire, est-ce qu'une expérience aléatoire est conforme aux caractéristiques de la loi normale, oui ou non ? D'ailleurs, comment fais-tu pour vérifier que les résultat d'une telle expérience est conforme à la loi normale ?
Autrement dit deux nouvelles questions.
Vu le message de FdP.
Si ce problème se pose dans un contexte réel, on fera pas de tel calculs.
Si ce type de calcul t'intéresse, je te le referai demain (comme il doit être fait) mais je me limiterai à un calcul de surface.
Puisque tu veux t'entrainer :
On fait une mesure qui consiste à faire des mesures partielles de petits éléments, la valeur recherchée est la somme des mesures partielles.
Par exemple, on mesure une route de 1km environ avec un ruban de 20 m. il y aura dons 50 portées.
On sait que chaque mesure élémentaire est entachée d'une erreur accidentelle de 15 mm. Quelle est l'erreur sur la longueur de la route ?
la loi normale est caractérisée par la moyenne et l'écart-type.
Tu veux dire qu'une loi de Poisson, ou une loi uniforme de moyenne $\mu$ et d'écart-type $\sigma$ ne sont en fait que des lois normales masquées de moyenne $\mu$ et d'écart-type $\sigma$ ?
@ ev,
Une loi de Poisson ou une loi uniforme est une loi de distribution, la répartition des écarts d'un tirage aléatoire est toujours conforme à la loi normale. C'est très facile à vérifier.
@ akf, le coup de la loi de Cauchy, on me l'a déjà fait. On oublie simplement de dire qu'entre-temps, on prend la tan de la valeur. J'ai pas compris du premier coup, mais quand on m'en parle, j'appelle ça de la tricherie.
Réflexion faite, ça sert à rien de continuer.
Si au moins il y avait une tentative de réponse à mes questions, mais même pas.
Pour info, le point de départ est la raison du choix de la moyenne arithmétique. Personne n'a tilté là dessus.
Sauf question POSIVITIVE ET CONSTRUCTIVE, j'arrête.
C'est bien ce qui distingue les statistiques et les probabilités.
En statistiques, on fait la supposition qu'une variable aléatoire suit une loi qui est un élément d'une famille de lois qu'on peut connaître par un ou plusieurs paramètres (par exemple, on peut faire la supposition que la loi cherchée appartient à la famille des lois normales de paramètre $\mu$ et $\sigma$ qui varie dans un intervalle par exemple) et on cherche à estimer les "bons" paramètres.
Bien sûr, dans le monde réel on n'aura jamais la certitude qu'un phénomène suit bien une telle loi dont on a estimé les paramètres qui la définissent, mais peu importe si l'approximation faite permet de faire des prévisions on est content.
Une loi de Poisson ou une loi uniforme est une loi de distribution, la répartition des écarts d'un tirage aléatoire est toujours conforme à la loi normale. C'est très facile à vérifier.
N'importe quoi, toutes les lois peuvent être qualifiées de loi de distribution.
C'est un peu la définition d'une distribution.
Quant à dire que la répartition des écarts d'un tirage aléatoire est toujours conforme à la loi normale, ça n'a aucune signification tant qu'on n'a pas dit aléatoire en quel sens, suivant quelle loi.
Tu as l'air de croire que la loi normale est omniprésente, dans la nature, c'est faux, des tas de choses ne la suivent pas.
Tu ouvres un cours de proba' et tu arrêtes de croire que les quelques bases que tu as pu apprendre dans une classe de lycée il y a 20 ou 30 ans te permettent de te faire une bonne idée de ce que sont les probabilités et surtout les statistiques.
dlzlogic écrivait:
> On oublie simplement de dire qu'entre-temps, on prend la tan de la valeur.
> J'ai pas compris du premier coup, mais quand on m'en parle, j'appelle ça de la tricherie.
Je ne sais pas si prendre la tangente est une tricherie (c'est quoi la définition mathématique d'une tricherie ? C'est une notion scientifique ??)
mais remarquons que tu sais toi aussi prendre la tangente quand il faut... Mais là c'est vraiment de la triche ! :-D
> Réflexion faite, ça sert à rien de continuer. Si au moins il y avait une tentative de réponse à mes questions, mais même pas.
Le problème est que tes questions n'ont souvent aucun sens, comme la plupart de tes affirmations.
Sauf question POSITIVE ET CONSTRUCTIVE, j'arrête.
MDR ! Quand on te pose des questions, tu y réponds en protestant qu'on ne répond aux tiennes ; quand on répond à tes questions, tu te fais fort d'en ignorer le contenu mathématique... C'est ta démarche qui n'est pas positive et constructive !
> Pour info, le point de départ est la raison du choix de la moyenne arithmétique.
Tu sais qu'il existe d'autres moyennes qui sont aussi utilisées dans le cadre des mesures ? (moyennes harmoniques, moyennes géométriques...)
En stats, on utilise souvent la moyenne arithmétique car (en autres propriétés) c'est un estimateur sans biais de l'espérance d'une loi. Mais bon, je ne pense pas que tu comprennes cette phrase. C'est le même argument que pour les deux estimateurs de variance $\sum_i(x_i-\mu)^2/n$ et $\sum_i(x_i-\bar{x})^2/(n-1)$ que tu as évoqués ci-dessus (lorsque tu crois donner la définition de l'écart-type en prenant les racines carrés 8-) )
Soit $X$ une variable aléatoire qui suit une loi normale.
1) Montrer que $X^3$ ne suit pas une loi normale.
2) En déduire que la machine à boules de pétanque de dlzlogic est étrange.
C'est du lourd ! Mais depuis 2012 il a peut-être ouvert un cours de probabilités où il est question d'autre chose que de boules qu'on tire dans une urne en se mettant un bandeau sur les yeux. B-)-
PS:
L'introduction de variable aléatoire dans le secondaire s'est surement faite à une époque très récente j'imagine.
Dans mon taf j'ai rencontré bon nombre de gens croyant que toute série de mesures issue d'un procédé industriel suit une loi gaussienne. C'est là que j'ai pensé à l'exemple des boules de pétanque, ce qui a toujours eu pour effet qu'ils se remettent au moins un peu en question.
Mais avec dlzlogic y'a rien à faire.
Pardon de te répondre tard, oui comme tu dis tu as répondu avant de lire mon deuxième post. Mais je crois que tu as fini par comprendre l'éventuel malentendu qu'il y a entre nous dans cet "éternel débat". Toi tu essaies tacitement ou explicitement chaque fois de me parler des communautés. Et moi, je réponds (et j'oublie parfois de préciser) que je ne parle essentiellement que des textes (là, je l'ai précisé dans mon deuxième post).
Encore une fois, il faut voir un échange scientifique non pas comme infaillible mais comme la qualité des règles formelles qui sont offertes aux objecteurs potentiels des textes. C'est en ce sens que j'ai plutôt classifié (cette classification n'est pas très profonde, je te répondais juste) l'économie en dehors des sciences et le droit dans les sciences. Un texte de droit est facilement objectable (je parle exclusivement de forme, car "l sens" hein, c'est quoi), un texte d'économie ne l'est pas pour plusieurs raisons:
les hypothèses faites sont clairement fausses et se rangent derrière l'alibi de l'approximation. Je ne prétends pas qu'ils sont forcément de mauvaise foi mais qu'ils paralysent toute objection en rendant leurs "A=>B" vrais trop facilement comme corollaires de "A=>tout" qui sont vrais. Un texte d'économie dira "B" (mais le lecteur avisé ira chercher qu'il dit A=>B, parfois d'ailleurs très difficilement vue leur structure). L'objecteur répondra au texte: "mais, msieurs-dames, vous voyez bien qu'on a "non(A)". Et finalement ... ils seront d'accord. Du coup, on va pas très loin avec ça. Attention, j'insiste: d'une part contrairement à la physique, le "A" peut être très long à trouver et d'autre part, la soit disante approximation n'a à priori aucune légitimité, même "communautairement acceptable".
Après évidemment,je n'ai pas forcément parcouru les "bons livres", etc. Idem pour le droit. Et pis, je n'ai aucunement l'intention de me lancer dans une défense des textes de droit.
@ ccnc,
Soit ton message précédent n'est pas dans la bonne discussion, soit je n'ai rien compris.
@ ev,
J'ai eu mon bac en 63 (du siècle précédent naturellement). Mais ça n'a rien à voir.
Tu as soulevé un point très important : un tirage aléatoire, de loi uniforme par exemple, produit une répartition conforme à la loi normale. C'est ce que je dis.
C'est très facile de dire "non, c'est pas vrai", et d'ajouter "tu dis n'importe quoi comme d'habitude" c'est mieux d'essayer et de regarder ce que ça donne. (de préférence pas avec Scilab, mais avec un logiciel "ordinaire", type C, Excel, PHP)
C'est très facile de dire "non, c'est pas vrai", et d'ajouter "tu dis n'importe quoi comme d'habitude"
Je pense qu'on a laissé assez de sueur sur ce forum pour tenter de te raisonner.
Et on attend encore les démonstrations par simulation de ce que tu avances. Saurais-tu simuler la machine à boules de pétanques qui génére à la fois des diamètres et des volumes suivant une loi normale ? Ou les écarts à la moyenne, etc, comme tu veux, mais vas-y montre nous tes simulations (car si nous on te fait une simulation tu vas encore dire que c'est pas ça que tu dis).
dlzlogic écrivait:
> Tu as soulevé un point très important : un tirage aléatoire, de loi uniforme par exemple,
> produit une répartition conforme à la loi normale. C'est ce que je dis.
Comme je te l'ai déjà dit 1000 fois, tu t'exprimes tellement mal que ce que tu écris est un contre-sens complet ! Tu es en train d'écrire que la loi uniforme est une loi normale !!
La répartition de quoi ? Sois précis si tu veux que l'on arrête de te prendre pour un charlot.
La loi normale avec quelle moyenne et quel écart-type (par rapport à ceux de la loi uniforme) ? Là, je pense que tu n'as pas les moyens.
Je sais bien (et je ne suis pas le seul) ce que tu veux évoquer, c'est simplement que des variables aléatoires iid X1, ..., Xn suivant une loi uniforme vérifient l'hypothèse du TCL, ce qui valide la conclusion du TCL, à savoir que la variable moyenne (X1+ ... Xn) / n suit une loi "proche" d'une loi normale (dont la moyenne et l'écart-type sont donnés à l'aide de ceux la loi uniforme et n). C'est simple, tout le monde le sait depuis des siècles !
Le problème est que tu ne sais pas mettre deux mots mathématiques l'un après l'autre sans écrire une énormité... C'est stupide de ta part de ne pas faire le moindre effort dans ce sens !
Sera-t-on un jour pourquoi Scilab n'a pas un tirage aléatoire correct d'après Dlzlogic ? Il le proclame depuis des années sur divers forum, mais n'a jamais donné (à ma connaissance) la moindre explication à ce sujet...
Soit une variable aléatoire suit une loi normale soit elle suit une loi uniforme, l'un excluant l'autre (Mais une variable aléatoire peut suivre une toute autre loi qui n'est ni une loi normale, ni une loi uniforme).
J'aimerai bien que tu nous définisses ce qu'est une loi uniforme, histoire d'essayer de t'obliger à sortir de tes croyances fausses semble-t-il.
J'étais lycéen en terminale C en 1982 et 1983 (J'ai raté le bac en 1982, note minable en mathématiques, et l'année 1983 fût, si je me souviens bien, une année de changement de programme ce qui m'a sans doute aidé).
J'ai le souvenir de mes années de lycée, que les probabilités ne se limitaient qu'à des probabilités sur des ensembles finis et que c'était un prétexte à faire du dénombrement et que je trouvais cela plutôt distrayant.
Pour Steven et Béru,
Puisqu'il s'agit de discussion ayant un rapport avec l'activité professionnelle, essentiellement dans le monde du réel, j'ai fait une simulation de fabrication de boules.
J'ai donc fabriqué 1000 boules de diamètre 70 mm (mais j'ai calculé avec le rayon) et une tolérance sur la valeur du rayon de 1 mm.
Une simulation donne le résultat suivant :
Fabrication de boules.
Répartition suivant les écarts des rayons
Nombre = 1000 Moyenne = 34.99 emq=0.57 ep=0.38
Classe 1 nb= 0 0.00% théorique 0.35% |
Classe 2 nb= 0 0.00% théorique 2% |
Classe 3 nb= 100 10.00% théorique 7% |HHHHHHHHHH
Classe 4 nb= 216 21.60% théorique 16% |HHHHHHHHHHHHHHHHHHHHHH
Classe 5 nb= 196 19.60% théorique 25% |HHHHHHHHHHHHHHHHHHHH
Classe 6 nb= 181 18.10% théorique 25% |HHHHHHHHHHHHHHHHHHH
Classe 7 nb= 188 18.80% théorique 16% |HHHHHHHHHHHHHHHHHHH
Classe 8 nb= 119 11.90% théorique 7% |HHHHHHHHHHHH
Classe 9 nb= 0 0.00% théorique 2% |
Classe 10 nb= 0 0.00% théorique 0.35% |
Répartition suivant les volumes
Nombre = 1000 Moyenne = 179596.48 emq=8819.57 ep=5879.71
Classe 1 nb= 0 0.00% théorique 0.35% |
Classe 2 nb= 0 0.00% théorique 2% |
Classe 3 nb= 98 9.80% théorique 7% |HHHHHHHHHH
Classe 4 nb= 218 21.80% théorique 16% |HHHHHHHHHHHHHHHHHHHHHH
Classe 5 nb= 201 20.10% théorique 25% |HHHHHHHHHHHHHHHHHHHHH
Classe 6 nb= 178 17.80% théorique 25% |HHHHHHHHHHHHHHHHHH
Classe 7 nb= 183 18.30% théorique 16% |HHHHHHHHHHHHHHHHHHH
Classe 8 nb= 122 12.20% théorique 7% |HHHHHHHHHHHHH
Classe 9 nb= 0 0.00% théorique 2% |
Classe 10 nb= 0 0.00% théorique 0.35% |
L'unité est le mm ou le mm3.
On constate naturellement que le répartition des rayons est la même que celle des volumes, à part quelques franchissements de limite classe.
Je ne sais toujours pas comment vous distinguez une liste satisfaisant ou pas la répartition normale.
Il ne s'agit pas de dire "j'ai simulé" et balancer les résultats. On veut voir le code, c'est la seule façon de savoir parfaitement ce que tu as simulé.
Tu peux faire un histogramme pour voir d'abord si ça ressemble à une loi normale.
<< une liste satisfaisant ou pas la répartition normale. >>
Qui parle de liste ?? En mathématique, on parle de variable aléatoire qui suit ou pas une loi normale.
Tes petits histogrammes de dix classes (obtenues par comptage STATISTIQUE...) ne sont qu'une approche très naïve d'une loi normale.
Qu'est-ce que cela prouve en fait ? Connais-tu, comprends-tu, la précision de ton histogramme ?
Cela me rappelle un challenge où tu te proclamais capable de deviner si un tirage aléatoire supposé suivre une loi uniforme était truqué ou pas. Le truc magique quoi. Je t'ai présenté des listes de nombres et tu nous as fait ces petits histogrammes... qui t'ont permis d'avoir que rarement la bonne réponse...
Steven Neutral écrivait:
> On veut voir le code, c'est la seule façon de savoir parfaitement ce que tu as simulé.
Oui, on en arrive là car c'est grâce à un langage informatique sue Dlzlogic s'exprime encore le mieux :-D
Le résultat est bien sûr on ne peut plus uniforme, pas la moindre queue de loi normale, pas de surprise.
Bien-sur, puisque tu précises que tu veux un résultat suivant une loi uniforme (paramètre unf).
Fais la même simulation avec un logiciel ordinaire (Excel, LibreOffice, C, PHP etc.) et tu verra la différence.
Je n'ai jamais dit que le résultat de Scilab était faux : si on lui demande une sortie uniforme, il donne une sortie uniforme, si on lui demande une sortie exponentielle il produit une sortie exponentielle.
Le seul reproche que je lui ai fait, est que cette option (sortie uniforme) est l'option par défaut. Autrement dit, on fait la même simulation avec scilab (sans préciser d'option) et un logiciel ordinaire et on n'obtient pas le même résultat.
J'ai déjà proposé (sur d'autres forums) l'expérience suivante :
On fait à la main un tirage d'une trentaine de jets d'un dé à 6 faces.
On note le nombre de sorties de chaque face (même si au lieu d'un nombre de points blancs il y a des petits dessins).
La répartition de ces nombres de sorties par rapport à la moyenne (disons 30/6 = 5) est toujours la même.
Scilab, n'est alors plus mis en cause (sauf si on refait cette expérience avec l'option par défaut du logiciel).
Je crois que j'ai compris le problème de @dlzlogic : il a mal compris le théorème de la limite centrale. Car si j'en crois son code et ce qu'il raconte, j'ai l'impression qu'il simule des tirages iid $x_i$ (selon une loi quelconque), il calcule les $$z_i = \frac{x_i - \bar x}{\frac{\hat\sigma_x}{\sqrt{n}}}$$ et il croit que $z_i \sim_{\text{iid}} {\cal N(0,1)}$.
Oh, tu sais Béru, je crois rien.
Ces notions sont à la base de la topométrie et des calculs d'erreur en général.
Qu'on me dise, "j'y crois pas", "ça m'est égal", "j'ai rien compris", pas de souci.
Par contre, quand on me dit "c'est pas vrai" et qu'on raconte n'importe quoi, là c'est différent. Si les auditeurs sont des étudiants, il auront bien l'occasion de se faire expliquer cela, si le besoin s'en fait sentir, donc c'est pas mon problème et tu remarqueras que je ne réagis plus lorsqu'il s'agit d'exercice.
Par contre dans un domaine plus professionnel, là ça devient plus gênant.
Pour mémoire, je te rappelle l'origine de base de ce topic. Un membre se plaignait sur le chapitre "Vie du forum" que la discussion qu'il avait engagée en alliant "mécanique quantique" et "probabilités" avait été supprimée. En fait, pour le rassurer, je lui ai dit que ces deux notions ne faisaient pas bon ménage, ce qui est parfaitement vrai.
Dès que le terme "probabilités" apparait, tout le monde monte au créneau. Tu connais la suite de la discussion.
PM L'expression "Théorème de la limite centrale" est une erreur de traduction. En fait il s'agit du "Théorème central [small]limite[/small]". L'adjectif "central" se rapporte au théorème.
dlzlogic écrivait:
> Je n'ai jamais dit que le résultat de Scilab était faux : si on lui demande une sortie
> uniforme, il donne une sortie uniforme, si on lui demande une sortie exponentielle il produit une sortie exponentielle.
Là, nous sommes d'accord.
> Le seul reproche que je lui ai fait, est que cette option (sortie uniforme) est l'option par défaut.
Oui, par défaut pour Scilab (et dans tous les langages et logiciels que je connais), la fonction random d'un logiciel suit une loi uniforme. Tu trouves que c'est un problème pour scilab, alors que les autres logiciels font exactement pareil ! Alea() pour Excel, rand() pour C, suivent une loi uniforme évidemment.
Béru écrivait:
> Je crois que j'ai compris le problème de @dlzlogic : il a mal compris le théorème de la limite centrale.
C'est absolument cela. Il ne le comprend pas (les hypothèses contiennent des mots qu'il ne connait pas) et le répète très mal, depuis des années. Cf ce que je disais au-dessus : TCL, etc.
Réponses
> D'abord, je n'ai jamais suivi de cours de statistiques, ça n'a jamais été utile dans ma spécialité.
MDR ! Dans ta spécialité, tu ne fais que des calculs statistiques... calculer la moyenne d'une série de mesures, calculer l'écart-type, etc. Tout cela, sur des séries STATISTIQUES !
En fait, tu n'as jamais suivi de cours de proba, c'est pour cela que tu racontes n'importe quoi sur les lois de probabilités...
Les statistiques ne se résument pas, loin s'en faut, à ce genre de calcul.
L'introduction de stats' non descriptives dans les programmes de l'enseignement secondaire est très récente me semble-t-il.
Malgré cet ajout, je ne suis pas sûr que cela va aider à ce qu'une partie de la population arrête de croire que les stats' se résument à des calculs de moyennes et d'écarts-type B-)-
Il est le produit de l'enseignement reçu. Des stats' descriptives en veux-tu en voilà
Revenons en à des trucs de fond:
Tout phénomène naturel ne peut pas nous être connu dans toute son étendue.
Mais pour ce qu'on fait de cette connaissance (de la prévision), on a juste besoin de connaître partiellement les choses.
C'est ce qui est difficile à admettre, on ne sait pas grand chose mais le peu qu'on sait suffit souvent pour nos affaires. B-)-
1- pourquoi on utilise la moyenne arithmétique (et certainement pas "empirique") ?
2- comment justifier l'utilisation de l'écart type si ce n'est dans conteste de la loi normale ?
A tout hasard, je rappelle la définition de l'écart-type : c'est la valeur de l'écart moyen quadratique.
Si la "valeur vraie" est connue, alors le dénominateur est N, sinon, (N-1).
Je rappelle aussi que l'on utilise cette valeur comme unité, mais on aurait très bien pu utiliser l'écart moyen arithmétique. Le rapport entre les deux est une constante.
Cordialement.
NB : Météo France ne suffit pas, ses prédictions étant très changeantes en ce moment :-)
J'ai une amie qui est totalement accro' aux prévisions météo (elle pratique des sports nautiques ce qui nécessite d'avoir une force suffisante du vent) et elle m'expliquait que les prévisions (elle passe son temps parfois à surveiller la météo sur plusieurs sites internet) étaient très différentes pour demain suivant le site que tu regardes. J'imagine que les modèles utilisés sont différents d'un site à l'autre ce qui explique les différences de prévision.
Dlslogic:
j'ai déjà suggéré une explication à l'utilisation de la moyenne (arithmétique) et de l'écart-type (variance).
Si on pense qu'un phénomène suit une loi normale, la question est souvent de déterminer cette loi normale, et cela revient donc à un problème d'estimation de la moyenne/variance. Je te renvoie à l'article de Wikipedia sur l'analyse de la variance (ANOVA)
J'avais prévu un truc comme ça, mais pas aussi énorme. Je pensais qu'il y aurait au moins quelques calculs.
Bref !
> Je me permets de répéter mes questions :
> 1- pourquoi on utilise la moyenne arithmétique (et certainement pas "empirique") ?
> 2- comment justifier l'utilisation de l'écart type si ce n'est dans conteste de la loi normale ?
Tes questions sont encore une fois la preuve de ta grande naïveté (pour ne pas dire davantage) en proba/stat. C'est comme si tu demandais :
Pourquoi utilise-t-on l'addition (et certainement pas la somme) ?
Comment justifier que l'utilisation de l'exponentielle si ce n'est dans le contexte des polygones quadrilatères ?
> A tout hasard, je rappelle la définition de l'écart-type : c'est la valeur de l'écart moyen quadratique.
> Si la "valeur vraie" est connue, alors le dénominateur est N, sinon, (N-1).
Ce n'est pas du tout une définition ! On te l'a déjà dit 1000 fois.
En fait, ce que tu écris est un résidu mental d'un théorème dont tu as oublié (ou plutôt jamais compris) les hypothèses et la conclusion : ce que dont tu parles, c'est de l'estimation d'écart-type de loi de probabilités à l'aide d'un échantillon.
Tu mélanges soigneusement tout... comme d'hab.
> C'est abusif de parler de LA loi normale. Il y a une infinité de lois normales. (déterminées uniquement par l'espérance et la variance)
Laisse tomber, Fin de partie, car Dlzlogic ne sait absolument pas ce qu'est "la" loi normale : il pense que c'est un tableau avec quelques lignes présentant des pourcentages par une petite étude (moyennes, écart-types) de séries statistiques...
énorme, tu ne sais pas que si les écarts $x_i-\mu$ suivent une loi normale alors les $x_i$ aussi ?
Ton niveau est encore bien plus bas que le ras des pâquerettes.
Une entreprise fabrique des boîtes cubiques de longueur d'arête $X$ qui suit une loi ayant une fonction densité continue $f$.
Ce volume est $Y=X^3$.
Soit $F$ La fonction de répartition de $X$.
Et soit $G$ la fonction de répartition de $Y$
$G(x)-G(0)=p\Big(0<Y<x\Big)=p\Big(0<y^{\frac{1}{3}}<x^{\frac{1}{3}}\Big)=F(x^{\frac{1}{3}})-F(0)$
puisque $Y^{\frac{1}{3}}$ suit la loi de $X$.
Une fonction de densité de probabilité continue est la fonction dérivée de la fonction de répartition.
$G'(x)=F'(x^{\frac{1}{3}})=\dfrac{1}{3}x^{-\frac{2}{3}}f(x^{\frac{1}{3}})$
En particulier, si $X$ suit une loi normale de paramètres $\sigma$ et $\mu$ alors $X^3$ ne peut pas suivre une telle loi.
En espérant ne pas avoir écrit trop d'énormités.
Bien-sûr, si tu connais la valeur vraie de la mesure, tu peux calculer les écarts à la valeur vraie, mais dans le cas général, tu ne la connais pas, d'où la nécessité de calculer la moyenne observée.
Là, on a parlé de théorie des erreurs. Elle découle effectivement directement des probabilités. En fait il y a une étape entre les probabilités, c'est à dire le résultat de n'importe quelle expérience aléatoire, et la théorie des erreurs.
En d'autres termes, les probabilités (loi normale et Cie) ne résultent pas d'une théorie, contrairement au calcul d'erreur.
Tu ne m'as toujours pas dit pourquoi, lorsqu'on fait plusieurs mesures d'une même quantité, on adopte la moyenna arithmétique. La justification de l'utilisation de l'écart type, ce sera pour une autre fois.
Je me permet de te rappeler que le présent sujet porte sur les probabilités. c'est à dire, est-ce qu'une expérience aléatoire est conforme aux caractéristiques de la loi normale, oui ou non ? D'ailleurs, comment fais-tu pour vérifier que les résultat d'une telle expérience est conforme à la loi normale ?
Autrement dit deux nouvelles questions.
Vu le message de FdP.
Si ce problème se pose dans un contexte réel, on fera pas de tel calculs.
Si ce type de calcul t'intéresse, je te le referai demain (comme il doit être fait) mais je me limiterai à un calcul de surface.
Puisque tu veux t'entrainer :
On fait une mesure qui consiste à faire des mesures partielles de petits éléments, la valeur recherchée est la somme des mesures partielles.
Par exemple, on mesure une route de 1km environ avec un ruban de 20 m. il y aura dons 50 portées.
On sait que chaque mesure élémentaire est entachée d'une erreur accidentelle de 15 mm. Quelle est l'erreur sur la longueur de la route ?
Tu veux dire qu'une loi de Poisson, ou une loi uniforme de moyenne $\mu$ et d'écart-type $\sigma$ ne sont en fait que des lois normales masquées de moyenne $\mu$ et d'écart-type $\sigma$ ?
e.v.
PS: C'est pourtant pas bien compliqué, dzlogic a tout expliqué, tu pourrais quand même faire un effort ev!
Une loi de Poisson ou une loi uniforme est une loi de distribution, la répartition des écarts d'un tirage aléatoire est toujours conforme à la loi normale. C'est très facile à vérifier.
@ akf, le coup de la loi de Cauchy, on me l'a déjà fait. On oublie simplement de dire qu'entre-temps, on prend la tan de la valeur. J'ai pas compris du premier coup, mais quand on m'en parle, j'appelle ça de la tricherie.
Réflexion faite, ça sert à rien de continuer.
Si au moins il y avait une tentative de réponse à mes questions, mais même pas.
Pour info, le point de départ est la raison du choix de la moyenne arithmétique. Personne n'a tilté là dessus.
Sauf question POSIVITIVE ET CONSTRUCTIVE, j'arrête.
Ouf ! Tout le monde s'en portera mieux !
C'est bien ce qui distingue les statistiques et les probabilités.
En statistiques, on fait la supposition qu'une variable aléatoire suit une loi qui est un élément d'une famille de lois qu'on peut connaître par un ou plusieurs paramètres (par exemple, on peut faire la supposition que la loi cherchée appartient à la famille des lois normales de paramètre $\mu$ et $\sigma$ qui varie dans un intervalle par exemple) et on cherche à estimer les "bons" paramètres.
Bien sûr, dans le monde réel on n'aura jamais la certitude qu'un phénomène suit bien une telle loi dont on a estimé les paramètres qui la définissent, mais peu importe si l'approximation faite permet de faire des prévisions on est content.
Pour ce qui est de la soi-disant prépondérance de la moyenne arithmétique.
Tu peux prendre connaissance de la loi du $\chi^2$:
http://fr.wikipedia.org/wiki/Loi_du_χ²
et tu peux aussi jeter un oeil ici:
http://fr.wikipedia.org/wiki/Test_du_χ²
C'est un peu la définition d'une distribution.
Quant à dire que la répartition des écarts d'un tirage aléatoire est toujours conforme à la loi normale, ça n'a aucune signification tant qu'on n'a pas dit aléatoire en quel sens, suivant quelle loi.
Tu as l'air de croire que la loi normale est omniprésente, dans la nature, c'est faux, des tas de choses ne la suivent pas.
Cordialement,
Rescassol
C'est totalement incompréhensible cette phrase.
Tu ouvres un cours de proba' et tu arrêtes de croire que les quelques bases que tu as pu apprendre dans une classe de lycée il y a 20 ou 30 ans te permettent de te faire une bonne idée de ce que sont les probabilités et surtout les statistiques.
Pour revenir à la moyenne arithmétique tu peux regarder ceci:
http://fr.wikipedia.org/wiki/Loi_des_grands_nombres#Loi_forte_des_grands_nombres
Mais ce théorème de probabilité permet-il de décider si une pièce est truquée ou pas, en pratique j'en doute.
Tu peux jeter un oeil ici:
http://fr.wikipedia.org/wiki/Intervalle_de_confiance
> On oublie simplement de dire qu'entre-temps, on prend la tan de la valeur.
> J'ai pas compris du premier coup, mais quand on m'en parle, j'appelle ça de la tricherie.
Je ne sais pas si prendre la tangente est une tricherie (c'est quoi la définition mathématique d'une tricherie ? C'est une notion scientifique ??)
mais remarquons que tu sais toi aussi prendre la tangente quand il faut... Mais là c'est vraiment de la triche ! :-D
> Réflexion faite, ça sert à rien de continuer. Si au moins il y avait une tentative de réponse à mes questions, mais même pas.
Le problème est que tes questions n'ont souvent aucun sens, comme la plupart de tes affirmations.
Sauf question POSITIVE ET CONSTRUCTIVE, j'arrête.
MDR ! Quand on te pose des questions, tu y réponds en protestant qu'on ne répond aux tiennes ; quand on répond à tes questions, tu te fais fort d'en ignorer le contenu mathématique... C'est ta démarche qui n'est pas positive et constructive !
> Pour info, le point de départ est la raison du choix de la moyenne arithmétique.
Tu sais qu'il existe d'autres moyennes qui sont aussi utilisées dans le cadre des mesures ? (moyennes harmoniques, moyennes géométriques...)
En stats, on utilise souvent la moyenne arithmétique car (en autres propriétés) c'est un estimateur sans biais de l'espérance d'une loi. Mais bon, je ne pense pas que tu comprennes cette phrase. C'est le même argument que pour les deux estimateurs de variance $\sum_i(x_i-\mu)^2/n$ et $\sum_i(x_i-\bar{x})^2/(n-1)$ que tu as évoqués ci-dessus (lorsque tu crois donner la définition de l'écart-type en prenant les racines carrés 8-) )
Soit $X$ une variable aléatoire qui suit une loi normale.
1) Montrer que $X^3$ ne suit pas une loi normale.
2) En déduire que la machine à boules de pétanque de dlzlogic est étrange.
http://www.maths-forum.com/variable-aleatoire-123031.php
http://www.les-mathematiques.net/phorum/read.php?13,894266,894866#msg-894866
etc.
Tu peux dire plus simplement qu'il ne sait rien.
C'est du lourd ! Mais depuis 2012 il a peut-être ouvert un cours de probabilités où il est question d'autre chose que de boules qu'on tire dans une urne en se mettant un bandeau sur les yeux. B-)-
PS:
L'introduction de variable aléatoire dans le secondaire s'est surement faite à une époque très récente j'imagine.
Tu imagines bien ! C'était fait en terminale dans les années 701. Tu as un alibi ?
Tu peux regarder les sujets de bac à cette époque.
e.v.
1 Je ne dirai pas quel siècle; Vous n'avez droit qu'à une seule réponse [Groucho]
Mais avec dlzlogic y'a rien à faire.
Encore une fois, il faut voir un échange scientifique non pas comme infaillible mais comme la qualité des règles formelles qui sont offertes aux objecteurs potentiels des textes. C'est en ce sens que j'ai plutôt classifié (cette classification n'est pas très profonde, je te répondais juste) l'économie en dehors des sciences et le droit dans les sciences. Un texte de droit est facilement objectable (je parle exclusivement de forme, car "l sens" hein, c'est quoi), un texte d'économie ne l'est pas pour plusieurs raisons:
les hypothèses faites sont clairement fausses et se rangent derrière l'alibi de l'approximation. Je ne prétends pas qu'ils sont forcément de mauvaise foi mais qu'ils paralysent toute objection en rendant leurs "A=>B" vrais trop facilement comme corollaires de "A=>tout" qui sont vrais. Un texte d'économie dira "B" (mais le lecteur avisé ira chercher qu'il dit A=>B, parfois d'ailleurs très difficilement vue leur structure). L'objecteur répondra au texte: "mais, msieurs-dames, vous voyez bien qu'on a "non(A)". Et finalement ... ils seront d'accord. Du coup, on va pas très loin avec ça. Attention, j'insiste: d'une part contrairement à la physique, le "A" peut être très long à trouver et d'autre part, la soit disante approximation n'a à priori aucune légitimité, même "communautairement acceptable".
Après évidemment,je n'ai pas forcément parcouru les "bons livres", etc. Idem pour le droit. Et pis, je n'ai aucunement l'intention de me lancer dans une défense des textes de droit.
Soit ton message précédent n'est pas dans la bonne discussion, soit je n'ai rien compris.
@ ev,
J'ai eu mon bac en 63 (du siècle précédent naturellement). Mais ça n'a rien à voir.
Tu as soulevé un point très important : un tirage aléatoire, de loi uniforme par exemple, produit une répartition conforme à la loi normale. C'est ce que je dis.
C'est très facile de dire "non, c'est pas vrai", et d'ajouter "tu dis n'importe quoi comme d'habitude" c'est mieux d'essayer et de regarder ce que ça donne. (de préférence pas avec Scilab, mais avec un logiciel "ordinaire", type C, Excel, PHP)
Et on attend encore les démonstrations par simulation de ce que tu avances. Saurais-tu simuler la machine à boules de pétanques qui génére à la fois des diamètres et des volumes suivant une loi normale ? Ou les écarts à la moyenne, etc, comme tu veux, mais vas-y montre nous tes simulations (car si nous on te fait une simulation tu vas encore dire que c'est pas ça que tu dis).
> Tu as soulevé un point très important : un tirage aléatoire, de loi uniforme par exemple,
> produit une répartition conforme à la loi normale. C'est ce que je dis.
Comme je te l'ai déjà dit 1000 fois, tu t'exprimes tellement mal que ce que tu écris est un contre-sens complet ! Tu es en train d'écrire que la loi uniforme est une loi normale !!
La répartition de quoi ? Sois précis si tu veux que l'on arrête de te prendre pour un charlot.
La loi normale avec quelle moyenne et quel écart-type (par rapport à ceux de la loi uniforme) ? Là, je pense que tu n'as pas les moyens.
Je sais bien (et je ne suis pas le seul) ce que tu veux évoquer, c'est simplement que des variables aléatoires iid X1, ..., Xn suivant une loi uniforme vérifient l'hypothèse du TCL, ce qui valide la conclusion du TCL, à savoir que la variable moyenne (X1+ ... Xn) / n suit une loi "proche" d'une loi normale (dont la moyenne et l'écart-type sont donnés à l'aide de ceux la loi uniforme et n). C'est simple, tout le monde le sait depuis des siècles !
Le problème est que tu ne sais pas mettre deux mots mathématiques l'un après l'autre sans écrire une énormité... C'est stupide de ta part de ne pas faire le moindre effort dans ce sens !
Sera-t-on un jour pourquoi Scilab n'a pas un tirage aléatoire correct d'après Dlzlogic ? Il le proclame depuis des années sur divers forum, mais n'a jamais donné (à ma connaissance) la moindre explication à ce sujet...
Cela n'a aucun sens.
Soit une variable aléatoire suit une loi normale soit elle suit une loi uniforme, l'un excluant l'autre (Mais une variable aléatoire peut suivre une toute autre loi qui n'est ni une loi normale, ni une loi uniforme).
J'aimerai bien que tu nous définisses ce qu'est une loi uniforme, histoire d'essayer de t'obliger à sortir de tes croyances fausses semble-t-il.
EV:
OUI, Je n'enseignais pas dans les années 70 X:-(
J'étais lycéen en terminale C en 1982 et 1983 (J'ai raté le bac en 1982, note minable en mathématiques, et l'année 1983 fût, si je me souviens bien, une année de changement de programme ce qui m'a sans doute aidé).
J'ai le souvenir de mes années de lycée, que les probabilités ne se limitaient qu'à des probabilités sur des ensembles finis et que c'était un prétexte à faire du dénombrement et que je trouvais cela plutôt distrayant.
Puisqu'il s'agit de discussion ayant un rapport avec l'activité professionnelle, essentiellement dans le monde du réel, j'ai fait une simulation de fabrication de boules.
J'ai donc fabriqué 1000 boules de diamètre 70 mm (mais j'ai calculé avec le rayon) et une tolérance sur la valeur du rayon de 1 mm.
Une simulation donne le résultat suivant :
Fabrication de boules.
Répartition suivant les écarts des rayons
Nombre = 1000 Moyenne = 34.99 emq=0.57 ep=0.38
Classe 1 nb= 0 0.00% théorique 0.35% |
Classe 2 nb= 0 0.00% théorique 2% |
Classe 3 nb= 100 10.00% théorique 7% |HHHHHHHHHH
Classe 4 nb= 216 21.60% théorique 16% |HHHHHHHHHHHHHHHHHHHHHH
Classe 5 nb= 196 19.60% théorique 25% |HHHHHHHHHHHHHHHHHHHH
Classe 6 nb= 181 18.10% théorique 25% |HHHHHHHHHHHHHHHHHHH
Classe 7 nb= 188 18.80% théorique 16% |HHHHHHHHHHHHHHHHHHH
Classe 8 nb= 119 11.90% théorique 7% |HHHHHHHHHHHH
Classe 9 nb= 0 0.00% théorique 2% |
Classe 10 nb= 0 0.00% théorique 0.35% |
Répartition suivant les volumes
Nombre = 1000 Moyenne = 179596.48 emq=8819.57 ep=5879.71
Classe 1 nb= 0 0.00% théorique 0.35% |
Classe 2 nb= 0 0.00% théorique 2% |
Classe 3 nb= 98 9.80% théorique 7% |HHHHHHHHHH
Classe 4 nb= 218 21.80% théorique 16% |HHHHHHHHHHHHHHHHHHHHHH
Classe 5 nb= 201 20.10% théorique 25% |HHHHHHHHHHHHHHHHHHHHH
Classe 6 nb= 178 17.80% théorique 25% |HHHHHHHHHHHHHHHHHH
Classe 7 nb= 183 18.30% théorique 16% |HHHHHHHHHHHHHHHHHHH
Classe 8 nb= 122 12.20% théorique 7% |HHHHHHHHHHHHH
Classe 9 nb= 0 0.00% théorique 2% |
Classe 10 nb= 0 0.00% théorique 0.35% |
L'unité est le mm ou le mm3.
On constate naturellement que le répartition des rayons est la même que celle des volumes, à part quelques franchissements de limite classe.
Je ne sais toujours pas comment vous distinguez une liste satisfaisant ou pas la répartition normale.
Tu peux faire un histogramme pour voir d'abord si ça ressemble à une loi normale.
Qui parle de liste ?? En mathématique, on parle de variable aléatoire qui suit ou pas une loi normale.
Tes petits histogrammes de dix classes (obtenues par comptage STATISTIQUE...) ne sont qu'une approche très naïve d'une loi normale.
Qu'est-ce que cela prouve en fait ? Connais-tu, comprends-tu, la précision de ton histogramme ?
Cela me rappelle un challenge où tu te proclamais capable de deviner si un tirage aléatoire supposé suivre une loi uniforme était truqué ou pas. Le truc magique quoi. Je t'ai présenté des listes de nombres et tu nous as fait ces petits histogrammes... qui t'ont permis d'avoir que rarement la bonne réponse...
> On veut voir le code, c'est la seule façon de savoir parfaitement ce que tu as simulé.
Oui, on en arrive là car c'est grâce à un langage informatique sue Dlzlogic s'exprime encore le mieux :-D
Le résultat est bien sûr on ne peut plus uniforme, pas la moindre queue de loi normale, pas de surprise.
Fais la même simulation avec un logiciel ordinaire (Excel, LibreOffice, C, PHP etc.) et tu verra la différence.
Je n'ai jamais dit que le résultat de Scilab était faux : si on lui demande une sortie uniforme, il donne une sortie uniforme, si on lui demande une sortie exponentielle il produit une sortie exponentielle.
Le seul reproche que je lui ai fait, est que cette option (sortie uniforme) est l'option par défaut. Autrement dit, on fait la même simulation avec scilab (sans préciser d'option) et un logiciel ordinaire et on n'obtient pas le même résultat.
Faudrait savoir.
On fait à la main un tirage d'une trentaine de jets d'un dé à 6 faces.
On note le nombre de sorties de chaque face (même si au lieu d'un nombre de points blancs il y a des petits dessins).
La répartition de ces nombres de sorties par rapport à la moyenne (disons 30/6 = 5) est toujours la même.
Scilab, n'est alors plus mis en cause (sauf si on refait cette expérience avec l'option par défaut du logiciel).
Ces notions sont à la base de la topométrie et des calculs d'erreur en général.
Qu'on me dise, "j'y crois pas", "ça m'est égal", "j'ai rien compris", pas de souci.
Par contre, quand on me dit "c'est pas vrai" et qu'on raconte n'importe quoi, là c'est différent. Si les auditeurs sont des étudiants, il auront bien l'occasion de se faire expliquer cela, si le besoin s'en fait sentir, donc c'est pas mon problème et tu remarqueras que je ne réagis plus lorsqu'il s'agit d'exercice.
Par contre dans un domaine plus professionnel, là ça devient plus gênant.
Pour mémoire, je te rappelle l'origine de base de ce topic. Un membre se plaignait sur le chapitre "Vie du forum" que la discussion qu'il avait engagée en alliant "mécanique quantique" et "probabilités" avait été supprimée. En fait, pour le rassurer, je lui ai dit que ces deux notions ne faisaient pas bon ménage, ce qui est parfaitement vrai.
Dès que le terme "probabilités" apparait, tout le monde monte au créneau. Tu connais la suite de la discussion.
PM L'expression "Théorème de la limite centrale" est une erreur de traduction. En fait il s'agit du "Théorème central [small]limite[/small]". L'adjectif "central" se rapporte au théorème.
> Je n'ai jamais dit que le résultat de Scilab était faux : si on lui demande une sortie
> uniforme, il donne une sortie uniforme, si on lui demande une sortie exponentielle il produit une sortie exponentielle.
Là, nous sommes d'accord.
> Le seul reproche que je lui ai fait, est que cette option (sortie uniforme) est l'option par défaut.
Oui, par défaut pour Scilab (et dans tous les langages et logiciels que je connais), la fonction random d'un logiciel suit une loi uniforme. Tu trouves que c'est un problème pour scilab, alors que les autres logiciels font exactement pareil ! Alea() pour Excel, rand() pour C, suivent une loi uniforme évidemment.
> Je crois que j'ai compris le problème de @dlzlogic : il a mal compris le théorème de la limite centrale.
C'est absolument cela. Il ne le comprend pas (les hypothèses contiennent des mots qu'il ne connait pas) et le répète très mal, depuis des années. Cf ce que je disais au-dessus : TCL, etc.