Bruit en 1/f

Bonjour,

J'ai un grand nombre (10 000) de séries temporelles, échantillonnées régulièrement obtenues avec des observations d'une durée de 1 jour. Ces séries sont de moyenne nulle.
Quand je trace le périodogramme moyenné de ces séries temporelles en double échelle logarithmique, j'ai une magnifique pente en 1/f sur une certaine bande de fréquences que je cherche à caractériser.
J'aimerais pouvoir vérifier (car c'est une hypothèse en générale admise) que le bruit dans ces données est :
- i) stationnaire
-ii) gaussien
Pour i), j'ai vérifié sur l'ensemble de mes données que les propriétés statistiques (distribution empirique, variance, rms) ne varient pas d'un série temporelle à l'autre.
Pour ii) je ne sais pas quelle méthode je pourrais utiliser. Par exemple, existe-t-il des tests statistiques pour mesurer la différence entre la distribution des amplitudes de mes données et une distribution gaussienne ?
Merci.

PS. Pardon ce poste est en double, je l'avais initialement mis en Physique/Maths car mes données sont des mesures physiques mais en fait le poste est beaucoup mieux dans la partie statistique.

Réponses

  • Bonjour.

    Il existe des tests de Normalité des distributions (en fait, on ne teste que des échantillons), adaptés à des échantillons de taille moyenne (quelques dizaines à quelques centaines d'individus). Les plus utilisés actuellement sont ceux de Shapiro-Wilks et de Jarque-Bera.

    Cordialement.
  • Bonjour,

    Merci pour votre réponse.

    Je viens juste de réaliser le test de Shapiro-Wilks (sur chacune de mes 10 000 séries temporelles) et j'obtiens effectivement que je ne peux pas invalider l’hypothèse nulle (H0 = distribution normale). Mais les résultats de ce test ne me disent pas si mon bruit (coloré) est bien Gaussien. Le fait que je ne peux invalider l’hypothèse d'une distribution normale n'implique pas que ma distribution est réellement normale.

    Peut-être que si je reformule mon problème de la sorte, ma question sera mieux formulée :
    - disons que l'on dispose de Nseries=10 000 générations d'un bruit avec N = 1000 data points
    - je peux déterminer pour chaque série la distribution empirique (pdf). Cette distribution est globalement identique mais peut varier d'une série à une autre (notamment dans la queue de distribution). Je montre ça dans les figures ci-jointes. Je montre la superposition des distributions empiriques (histogrammes) pour plusieurs séries avec une distribution normale aujustée sur chacun de ces histogrammes. La seconde figure est un zoom dans la queue des distributions.
    - Comment faire avec ces données pour montrer que mon bruit est stationnaire (ça c'est ok) et gaussien (mais attention ce n'est pas un bruit blanc gaussien car la densité spectrale est en 1/f) ?

    Merci.
    Cordialement,80048
    80050
  • Il n'y a pas de moyen de prouver qu'une distribution vient d'une variable gaussienne. Les tests statistiques ne prouvent jamais, ils mettent en doute ou pas une hypothèse.
    Donc si tu veux être sûr que ta variable sous-jacente (à supposer que ce soient des réalisations d'une variable continue) est gaussienne, il faut des argument non statistiques, liés à la physique de ton phénomène.

    Pas de miracle mathématique : Si on ne sait pas, on ne peut pas prouver.
  • Ok merci encore pour votre réponse.

    Physiquement, il y a un sens a faire l’hypothèse que les observations sont Gaussiennes car elles sont le résidus de pleins de mouvements stochastiques simultanées qui sont corrélés localement (d’où mon bruit en 1/f sur une certaine plage de fréquence).

    Si il n'y a pas de preuves expérimentales possibles, même avec le grand nombre de données dont je dispose, alors il faut que je reformule mon problème pour dire que "jusqu’à preuve du contraire" la validité d'une variable Gaussienne pour ce processus physique n'a pas été infirmée (test de normalité comme le test de Shapiro-Wilks ne permettent pas d'invalider H0 sur l'ensemble des observation).

    Est-ce-que cette reformulation aurait plus de sens ?
  • Il est bien plus efficace d'utiliser ta remarque physique, qui est une justification classique de Normalité (somme de nombreux effets de même ordre de grandeur - il y a même un théorème mathématique là dessus).
  • Bonsoir,

    @sos : si je comprends bien, tu cherches une preuve expérimentale de la forme gaussienne de ton bruit coloré (que j'entends être un bruit contenant plus certaines fréquences que d'autres, contrairement au bruit blanc qui les contient toutes de façon uniforme). En fait, tout dépend de la rubrique dans laquelle tu souhaites poster. Si tu postes en statistiques, alors cette preuve n'existe pas : on ne démontre pas un théorème par ses "effets" (les diverses applications numériques d'une conjecture) en maths.

    Si tu postes en physique, par contre cette preuve peut exister, au sens de la physique : il est toujours possible de "prouver" une théorie par ses "effets" empiriques. Plus une théorie jugée réaliste est vérifiée dans ses conséquences, plus les scientifiques (en dehors des maths) considèrent qu'elle a de bonnes chances d'être vraie. Cela peut paraître logiquement absurde, mais c'est comme ça - et ça marche très bien même.

    Par ailleurs, cette vision est justifiée de manière très sérieuse par les probabilités. Je simplifie à l'extrême, sans exagérer. Soit les événements :

    A = "Ma variable est mathématiquement gaussienne"

    et

    B = "Ma variable est empiriquement gaussienne".

    On se donne une mesure de probabilité $P$. En gros, tu sais qu'en général $A \Rightarrow B$ est vérifiée (loi des grands nombres, etc.), i.e. que la probabilité conditionnelle $P_A(B)$ (supposée équivalente à la dernière implication) est proche de un. Par contre, toi tu voudrais "prouver" l'implication inverse : $B \Rightarrow A$. "A la physicienne", cela revient justement à maximiser la probabilité conditionnelle équivalente $P_B(A)$.

    Or, tu connais sûrement la relation de Bayes reliant toutes ces probabilités :

    $$P_B(A) = P_A(B)\frac{P(A)}{P(B)}$$

    Ta preuve expérimentale équivaut donc à rendre $P_B(A)$ la plus grande possible. Or, tu sais aussi que $P(A)$ est assez élevée : elle est justifiée par ta théorie physique et les mathématiques. C'est ton paramètre théorique. Ton hypothèse est en bonne voie d'être démontrée. Oublie déjà à ce niveau les tests de Shapiro et alt.

    Maintenant, il te reste un paramètre empirique à ajuster vers les plus faibles valeurs : $P(B)$. L'événement $B$ doit être rendu (quitte à l'adapter légèrement) le plus rare possible afin de pouvoir compléter ta preuve. Et on peut supposer très improbable en effet de calculer qu'une variable purement empirique donnée ait exactement toutes les propriétés d'une variable gaussienne.

    Or, lorsque je vois tes schémas de superposition, j'ai l'impression que tu peux encore améliorer les choses, mieux dégager plus de propriétés d'une vraie gaussienne. Le résultat est trop "visuel à l’œil nu" et assez flouté. Il faudrait mettre tout ça en chiffres. Tu peux prendre beaucoup plus de données. Mais surtout calculer des courbes beaucoup plus précises, comparer les moments statistiques (moyenne, variance, skweness, kurtosis, etc.) de tes gaussiennes empirique et mathématique, etc. Je ne sais pas si tu l'as déjà fait.

    En tout cas, si tu es chez des scientifiques non mathématiciens, pas d'inquiétude donc. Tu as déjà prouvé (dans leur sens) bien plus que tu ne le crois...

    Bon courage et bonne nuit.
  • Bonjour

    @LTav
    << Ton hypothèse est en bonne voie d'être démontrée. Oublie déjà à ce niveau les tests de Shapiro et alt. >>

    sachant que tu emploies ici le mot "démontrer" à la physicienne (comme tu le précises), pourquoi un simple test d'adéquation comme celui de Shapiro ne serait pas suffisant si la p-value est proche de 1 ? Au moins, cela ferait une "preuve numérique" autre qu'un test visuel.
  • Bonjour,

    Merci encore pour vos réponses.

    Oui je suis physicien-observateur, et c'est difficile de faire le pont avec la rigueur mathématicienne parfois ! Le bruit stochastique auquel je m’intéresse est toujours décrit comme stationnaire, Gaussien et coloré dans la littérature. Et je cherche donc a vérifier si ces affirmations sont vraies (ou au moins, réalistes) à l'aide d'observations. L'argument physique en faveur de l’hypothèse d'un bruit Gaussien est que ce que j'observe est le fruit de plein de processus similaires simultanés qui contribuent tous a la valeur finalement observée.

    Si j'applique le test de Shapiro sur chacune de mes séries temporelles, je n'obtiens pas de réponse claire (voir histogramme joint) : 58% de mes séries me donnent une P-valeurs > 5% et 42% une valeur inférieure.

    Par contre, si je représente les pdf empiriques de ces séries je mesure, comme pour une Gaussienne, une probabilité autour de 1% que mes valeurs soient > moyenne +/- 3 sigma. Est-ce-que cette observation a-t-elle "plus de valeurs" par rapport au test de Shapiro en faveur de l'argument "Gaussien" ? Ou est-ce-que finalement je ne peux rien en conclure ?80094
  • sos écrivait:
    L'argument physique en faveur de l’hypothèse d'un bruit Gaussien est que ce que j'observe est le fruit de plein de processus similaires simultanés qui contribuent tous a la valeur finalement observée.
    ok pour l'argument théorique, si les contributions sont additives, ie. si elles s'ajoutent les unes aux autres
    (dans un contexte où les contributions se multiplieraient, par exemple, on obtiendrait une autre loi)


    Si j'applique le test de Shapiro sur chacune de mes séries temporelles, je n'obtiens pas de
    réponse claire (voir histogramme joint) : 58% de mes séries me donnent une P-valeurs 5% et 42% une valeur inférieure.
    En effet, le test permettrait de rejeter la normalité de beaucoup de ces séries temporelles... 42% des p-value < 0.05 , c'est très marquant, c'est quasiment 10 fois plus que dans une situation "normale" (si j'ose dire).



    une probabilité autour de 1% que mes valeurs soient moyenne +/- 3 sigma. Est-ce-que cette observation a-t-elle "plus de valeurs" par rapport au test de Shapiro en faveur de l'argument "Gaussien" ? Ou est-ce-que finalement je ne peux rien en conclure ?
    Pour une loi uniforme (histoire de parler d'une autre loi très différente), la probabilité d'être au-delà des +/- 3 sigma est 0% ... c'est presque 1% de la loi normale...
    Avoir uniquement un seul pourcentage n'est pas suffisant pour ne pas rejeter l'hypothèse de normalité.
    Par rapport à cela, le test de Shapiro est largement plus précis.


    Mais peut-être que les idées de Ltav sont intéressantes , meilleures encore que le test de Shapiro, je ne sais pas. C'est pour cela que je lui posais la petite question.
  • Bonjour,

    Léon : merci de ta remarque, tu as tout à fait raison, le test de normalité Shapiro-Wilk peut être utilisé parmi d'autres en faveur de la preuve que B => A s'il diminue $P(B)$. J'ai surtout voulu remettre en cause à un certain niveau de réflexion la nécessité absolue de Shapiro et autres tests pour prouver à la physicienne B => A. La démonstration de notre théorie est en fait déjà bien entamée grâce à d'autres probabilités implicites (Bayes). On voit d'ailleurs le souci de Sos lorsqu'il réduit son test à une preuve négative ("non-rejet" de l'hypothèse) alors que sa contribution est bel et bien positive.
  • @Sos : attention, le test de Shapiro est optimal en deçà d'un certain nombre de données, de l'ordre de 2000 je crois. Tu as peut-être "trop" de données (10000 ?) pour ce test, donc pas d'inquiétude. Tu peux l'utiliser comme argument mais à mon sens tes calculs sur la PDF empirique sont encore plus précis et contribueront mieux à augmenter $P_B(A)$. Fais le maximum de comparaisons de ce type avec la gaussienne mathématique.

    Édit : correction "augmenter $P_B(A)$" et non "augmenter $P(B)$". Ou alors de manière équivalente : "diminuer $P(B)$".
  • Je crois que les séries de Sos sont de 1000 individus.

    << disons que l'on dispose de Nseries=10 000 générations d'un bruit avec N = 1000 data points >> (dans son second message)

    Mais j'ai peut-être mal compris.
  • Personnellement, je me dis :
    - des deux premiers graphes postés par Sos sont visuellement favorables au caractère gaussien des séries ;
    - le troisième graphe portant sur les résultats des tests de Shapiro sont mathématiquement défavorables au caractère parfaitement gaussien des séries.
    - conclusion possible à mes yeux (mais je n'ai pas tous les éléments) : le bruit est approximativement gaussien mais pas totalement. ( c'est d'ailleurs un peu la conclusion que l'on pourrait avoir avec l'argument physique qui dit que le bruit est le fruit de plein de processus similaires simultanés, qui s'additionnent globalement, mais pas seulement. )

    Il serait intéressant, comme l'a proposé Ltav, de calculer les premiers moments empiriques et les comparer avec ceux la loi normale obtenue à partir d'espérance nulle (cf premier message de Sos) et d'écart-type empirique. Je suis prêt à parier que ces moments empiriques et théoriques seront assez différents mathématiquement parlant, mais assez proches physiquement parlant... 8-)
  • Léon : tu as sûrement raison, Sos parlait de 10000 séries de 1000 données. Après, Shapiro préfère en général les petites populations. Je ne vois pas de raisons sinon pour qu'il contredise d'aussi bonnes corrélations avec la distribution empirique...

    N.B. Sos pourrait par exemple diminuer drastiquement la taille de ses échantillons pour Shapiro mais les augmenter pour les moments empiriques.
  • Leon1789 a écrit:

    Personnellement, je me dis :
    - des deux premiers graphes postés par Sos sont visuellement favorables au caractère gaussien des séries ;
    - le troisième graphe portant sur les résultats des tests de Shapiro sont mathématiquement défavorables au caractère parfaitement gaussien des séries.
    - conclusion possible à mes yeux (mais je n'ai pas tous les éléments) : le bruit est approximativement gaussien mais pas totalement.

    [...] Je suis prêt à parier que ces moments empiriques et théoriques seront assez différents mathématiquement parlant, mais assez proches physiquement parlant... eye rolling smiley

    Afin de lever une ambiguïté possible, il serait intéressant de développer comment chacun conçoit le rôle joué par le test de Shapiro dans la dualité mathématique/physique. Penses-tu que ce test démontre $A$ ? En tout cas, pas moi.

    Je reprends mes événements (en précisant que la variable supposée aléatoire $X$ est physique).

    A = "Ma variable physique $X$ est mathématiquement gaussienne"

    B = "Ma variable physique $X$ est empiriquement gaussienne".

    Selon mon opinion, le test de Shapiro-Wilk ne peut prouver ou réfuter, à un taux de risque près, que $B$, c'est-à-dire la compatibilité entre une série de données expérimentales et la loi de distribution normale :

    - S'il est négatif, alors il contredit $B$ (avec une certaine erreur) et donc indirectement $A$ à cause de l'implication (très probable) $A \Rightarrow B$.
    - S'il est positif, il prouve seulement $B$ (avec une certaine erreur), mais en aucun cas $A$.

    C'est pourquoi je disais que le test de Shapiro n'intervient que dans $P(B)$ : il ne renseigne pas directement sur la pertinence de $B \Rightarrow A$, i.e. $P_B(A)$ - d'où l'importance de la formule de Bayes :

    $$P_B(A) = P_A(B)\frac{P(A)}{P(B)}$$

    Si $T > 0$ est l'événement : "le test $T$ est positif pour la variable $X$", alors on a :

    $$P(B) = P(T>0).P_{T>0}(B) + [1 - P(T>0)].P_{T<0}(B)$$

    Les probabilités $P_{T > 0}(B)$ et $P_{T < 0}(B)$ sont bien connues (pourcentages de fiabilité du test). Si on les suppose respectivement égales à $1$ et à $0$ (test parfait), alors $P(B) = P(T>0)$. C'est donc $P(T>0)$ qu'il faut rendre la plus faible possible pour prouver à la physicienne $B \Rightarrow A$ (avoir $P_B(A)$ élevée), en trouvant par exemple un test difficile à vérifier en général.

    Shapiro-Wilk peut faire l'affaire dans une certaine mesure et donc contribuer positivement à la preuve de $B \Rightarrow A$. Toutefois, sa formule n'est pas super "sélective" : il donne un peu trop de résultats positifs pour les petits échantillons, et négatifs pour les grands (bien que très proches de la distribution normale). Voir par exemple p. 13 (surtout le dernier §) et suivante (je mets en gras) :

    http://eric.univ-lyon2.fr/~ricco/cours/cours/Test_Normalite.pdf
    Les résultats, rejet ou acceptation de la normalité, peuvent masquer des situations très disparates. De plus, ces tests sont très influencés par la taille de l'échantillon. La compatibilité avec la loi normale est bien (trop) souvent la règle sur des petits effectifs ; en revanche, l'incompatibilité avec la loi normale est quasi-systématiquement décidée sur de gros effectifs, même si les écarts de distributions sont faibles. De fait, les approches empiriques, notamment graphiques, gardent toute leur importance.

    Aussi, un test plus drastique à vérifier et donc meilleur consisterait à mesurer le maximum de moments empiriques et les comparer à ceux d'une vraie gaussienne, comme on l'avait indiqué. Voilà, je voulais simplement relativiser l'importance du test de Shapiro-Wilk (et autres) dans la recherche de notre preuve expérimentale.

    Bonne nuit.
  • Bonjour
    Ltav, ton message est très clair, car détaillé, un peu contrairement aux miens.
    La citation que tu fais du cours de Ricco Rakotomalala concerne tous les tests (au moins ceux du chapitre), donc en particulier celui de Shapiro, pas uniquement celui de Shapiro. Il me semble qu'un effectif de 1000 est en dessous de la limite acceptable pour le test de S-W.

    A mon avis, mais je n'ai cherché à vérifier puisque je n'ai pas de donnés expérimentales, avec des "grands" effectifs de 1000, notre perception humaine (ou physique) n'est plus en phase avec celle des tests. Pour les petits effectifs (50), les deux perceptions collent, mais peut-être plus pour les grandes. Je m'explique...

    Dans les graphes de Sos, on voit bien que c'est très gaussien. Sos parle cependant de certaines queues pas terribles... Le test de S-W va faire un calcul très précis (vu le nombre important d'individus : 1000) et va opérer une comparaison très précise par rapport à une loi normale, tellement précise que le moindre défaut (dans une queue, ou ailleurs) va tout de suite faire tomber le résultat dans la zone de rejet du test.

    Bref, ce que je voulais dire par des résultats "assez proches physiquement" et "assez loin mathématiquement", c'est que, peut-être, les différences entre les séries et la loi normale seront exacerbées par un test comme S-W, à cause des grands effectifs des séries, car le test "vise" (et signale avec un résultat "explosif") une différence tellement petite qu'elle n'aurait pas vraiment de sens physiquement... Avec un peu de chance, c'est peut-être l'explication des 42% de p-value inférieure à 0.05.
  • Bonjour

    Encore merci pour vos reponses.

    Alors, j'ai testé vos idées et j'ai obtenu des resultats tres interessants.

    Premièrement, si j'applique le test de Shapiro sur des series plus petites (je prends 1 points sur 15 sur mes series qui sont initialement de 1440 points, donc j'applique le test sur une serie de 96 points au total), j'obtiens 93% de mes P-values (sur 10 000 echantillons) qui sont > 0.05. Bon la distribution est plutot uniforme par contre (cf figures) mais je pense que le resultat est plutot clair, non ?

    Ensuite, si je mesure les moments de chacune de mes series (moyenne, ecart-type, skewness et kurtosis) j'obtiens des valeurs qui sont dispersees autour des valeurs attendues pour une gaussienne centree en zeros (cf figures). Je montre aussi une de mes series temporelles avec le contour de son histogramme et une distribution Gaussienne centree en 0 et de variance egale a celle de ma serie (orange). C'est vrai que ca colle tres bien visuellement.80102
    80104
    80106
  • << j'obtiens 93% de mes P-values (sur 10 000 echantillons) qui sont > 0.05 >>

    Je trouve que c'est un résultat cohérent.

    << si je mesure les moments de chacune de mes series (moyenne, ecart-type, skewness et kurtosis) j'obtiens des valeurs qui sont dispersees autour des valeurs attendues pour une gaussienne centree en zeros (cf figures) >>

    en effet, c'est nettement plus probant que je l'avais imaginé ! Mais en toute rigueur scientifique, il faudrait voir quelles sont les intervalles de fluctuation de chaque moment pour voir si tes résultats se trouvent dedans de manière cohérente. (on peut imaginer que tes résultats, bien qu'ils tournent autour de la valeur théorique, s'en éloignent trop ... je n'en sais rien, c'est pour cela qu'il faudrait étudier les intervalle de fluctuation des moments.)

    << Je montre aussi une de mes series temporelles avec le contour de son histogramme et une distribution Gaussienne centree en 0 et de variance egale a celle de ma serie (orange). C'est vrai que ca colle tres bien visuellement. >>

    Ca collerait encore mieux (car bruit moins gênant) si tu comparais la fonction de répartition d'une loi normale avec celle de ta série. Quand on veut étudier la répartition d'une série, personnellement, ça me parait bien plus logique d'utiliser les fonctions de répartition.
  • Effectivement, les cdfs collent beaucoup mieux. Merci.80108
    cdf.png 17.5K
  • Question : quel est l'écart-type de ta loi normale ? 75 ? plus précisément ?
  • Bonjour,

    Léon : merci de tes précisions, OK. Si le test de Shapiro-Wilk est vraiment trop sensible à la normalité de certaines populations alors il devient d'un autre côté moins fiable, mais pas "plus exigeant" : formellement, dans l'équation bayésienne ci-dessus ce n'est plus $P(T>0)$ qui deviendrait plus faible (comme on voudrait) mais seulement $P_{T>0}(B)$. Diminuer la taille des échantillons l'a semble t-il rendu plus fiable.

    Sos : en effet, merci et félicitations pour tes résultats, très encourageants.
  • J'ai posté rapidement une petite étude ici : http://www.les-mathematiques.net/phorum/read.php?13,1709914,1709914#msg-1709914

    Comme j'essaie de l'expliquer dans ce petit sujet, le simple calcul des moments d'ordre 3 et 4 ne suffit pas pour conclure de manière claire. Il faut par exemple accompagner cela d'un intervalle de fluctuation où l'on constate si les moments empiriques sont cohérents (ou pas) avec la loi de probabilité.
  • Bonjour,

    Je me suis amusé à faire un petit calcul pour déterminer $P(B)$ (où $B$ = "Ma variable physique $X$ est empiriquement gaussienne") à partir d'un test $T$ de Shapiro-Wilk de risque $\alpha =P_{T < 0}(B) = 0.05$ pour un échantillon de $n=29$ données. J'ai repris les paramètres du petit exemple de http://eric.univ-lyon2.fr/~ricco/cours/cours/Test_Normalite.pdf, p. 14.

    En supposant (à justifier) la variable aléatoire $W \in [0,1]$ uniforme sur l'espace de tous les échantillons aléatoires possibles de taille $n$, et en utilisant la condition de positivité du test :

    $$W > W_{crit}$$

    (avec $W_{crit} = 0.926$), alors d'après la formule :

    http://www.les-mathematiques.net/phorum/read.php?13,1708776,1709712#msg-1709712

    $$P(B) = P(T>0).P_{T>0}(B) + [1 - P(T>0)].P_{T<0}(B)$$

    on trouve sauf erreur une probabilité : $P(B) = 0,117$, soit environ 11.7% des échantillons (d'après $T$) - calcul généralisable pour tout $n$.

    Afin de justifier l'uniformité de $W$ ou son autre loi de probabilité, il faudrait travailler un peu sur sa formule (fonction de $n$ variables réelles).
  • Bonjour,

    Vous trouverez toutes vos réponses dans la littérature foisonnante de l'analyse des séries temporelles extrêmement bien codifiée sans faire d'hypothèses et des raisonnements qui sont parfois peu adaptés à ce grand pan des statistiques.

    Bonne continuation.
  • Bonjour
    J'ai fait quelques simulations sur la loi normale pour voir comment on pourrait interprèter les quatre graphes Mean, Std, Skewness, Kurtosis postés par Sos.

    Sachant que ses séries ont 1440 éléments, voici les intervalles de fluctuation à 90% (*) que je trouve :

    pour Mean ---> [-3.5 ; 3.5] : ok, le graphe est dedans.

    pour Std ---> [72.7 ; 77.1] : j'ai l'impression que la fluctuation des séries de Sos est plus grande, donc l'hypothèse de normalité en prend un coup.

    pour Skewness ---> [-0.1 ; 0.1] : la fluctuation des séries de Sos est plus grande, donc l'hypothèse de normalité en prend encore un coup.

    pour Kurtosis normalisé ----> [-0.2 ; 0.2] : la fluctuation des séries de Sos est plus grande, donc l'hypothèse de normalité en prend encore un coup.



    (*) ce qui signifie que 90% des séries devraient se trouver dans les intervalles.
  • Bonjour,

    Merci Jma - si tu as des références précises, n'hésite pas.

    Léon : merci de ces résultats. Je n'ai plus tous mes théorèmes de probabilités en tête, mais il me semble sauf erreur que la convergence des moments empiriques vers les moments théoriques se fait plus lente à mesure que l'ordre des moments augmente et donc requiert de plus en plus de données aléatoires...Tu vois à quoi je pense ? C'est peut-être ce qu'illustrent les résultats de Sos.
  • Bonsoir,
    En terme de bibliographie, les livres de Monfort et Gourieroux sont des références. Notamment, le livre 'Series temporelles et modèles dynamiques' aux éditions Economica. Ce sont des livres plutôt orientés Économétrie.
    Plus pratique, il y a :
    - R. Bourbonnais, M. Terraza (2008), 'Analyse des séries temporelles : Applications à l'économie et à la gestion, Dunod.
    - G. Mélard (1990),Méthodes de prévision à court terme', Ellipses.
    Pour avoir une vision d'ensemble, vous pouvez lire le Que sais-je ? concernant ce domaine.
    Pour ce qui est des simulations et de leurs traitements, ce n'était pas encore trop dans l'air du temps mais j'espère ue vous trouverez une bonne référence
    Bien cordialement.
  • Merci pour ces références, Jma.

    Bien cordialement.
  • Bonjour,

    Merci encore pour tous vos commentaires (désolé de la réponse tardive, j'ai du m'absenter un moment).

    A Léon: effectivement, 90% des moments estimés ne tombent pas dans les intervalles que vous donnez (j'ai respectivement 100% des cas dans l'intervalle pour la moyenne - mais c'est normalisé donc ca n'a pas de valeur, 49% pour l’écart type, 63.5% pour la "skewness" et 73% pour la "kurtosis"). Donc le test de Shapiro sur plus petit echantillon est prometteur mais quand on regarde les intervalles de fluctuations des moments, ils ne tombent pas dans les bons intervalles. On ne peut donc rien en conclure. Ce qui me fait retomber a la case départ.

    A Jma: Merci pour les références, mais ça ne parle pas du tout de la validité de l’hypothèse Gaussien à partir de variables empiriques.... J'ai déjà regarder dans pleins d'ouvrages, et je ne trouves pas de réponse à mon problème. Dans les ouvrages "théorique" on pose des hypothèses (par ex. ma variable est Gaussienne) et on en déroule des conséquences. Et dans les ouvrages "expérimental" on fait cette hypothèse quand on a des processus stochastiques sans jamais vraiment la remontrer (mon cas est pour des mesures physique d'un bruit résultant de la contribution de pleins de sources localement corrélées en 1/f par exemple).
Connectez-vous ou Inscrivez-vous pour répondre.