Définition d'un processus stochastique

Bonjour à tous. J'ai du mal à saisir la définition d'un processus stochastique, et parfois même de variable aléatoire ! Par moment je pense comprendre le concept, et parfois j'ai ce sentiment très désagréable que les choses sont obscures. D'un point de vue intuitif, je pense avoir une idée de ce qu'est un processus stochastique : à chaque instant, la variable $X$ prend des valeurs aléatoires, mais la formulation mathématique me pose plus de défis. Permettez-moi d'illustrer mes lacunes à travers quelques questions.

1- Lorsque l'on parle d'une suite de variables aléatoire $(X_n)$ définies sur sur un espace probabilisé $\Omega$, que représentent les termes $X_1, X_2,\ldots$ ? Sont-ils plusieurs valeurs prises par la même variable aléatoire $X$ sur $\Omega$, c'est-à-dire $X(\omega_1), X(\omega_2),\ldots$ ? Où parle-t-on plutôt de différentes variables aléatoires, et donc d'une suite de fonctions $X_1(\omega), X_2(\omega),\ldots$, auquel cas les fonctions $X_i$, $i=1, 2,\ldots$ ont en général des densités de probabilité différentes (si elles existent). Une réponse formelle et une réponse avec un exemple où $\Omega$ est constitué des éventualités PILE et FACE du tirage d'une pièce seraient bienvenues.
Dans le cadre de la loi des grands nombres, les variables sont identiquement distribuées, et donc j'ose imaginer que la signification de $(X_n)$ est $X(\omega_1), X(\omega_2),\ldots$. Mais là encore, je réalise en écrivant qu'il y a quelque chose que je rate : dans l'exemple de la pièce, si $\omega_1$ est PILE et $\omega_2$ est FACE, $X(\omega_i)$ est déterminé. Je pense que j'ai fondamentalement un problème de compréhension : à quel niveau de la description le hasard intervient-il puisque $X$ est une fonction bien déterminée.

2- Un processus stochastique est une fonction $X : [0, \infty[\,\times \Omega \to \mathbb{R}$, et peut être vu sous deux angles : en fixant le temps on obtient la variable aléatoire $X^t(\omega)$ (la variable aléatoire "classique" telle qu'introduite dans un cours de probabilité avant de parler de processus stochastiques), ou en fixant $\omega$, on obtient une fonction du temps $X^{\omega}(t)$ qui, lorsque $t$ parcours $[0, \infty[$, représente une trajectoire. Donc $X^{\omega_1}(t)$ et $X^{\omega_2}(t)$ représentent deux trajectoires possibles et en général distinctes du processus stochastique. Là encore mon problème est de même nature : si l'on fixe $\omega$, $X(\omega)$ est connu, et donc qu'est-ce qui, lorsque le temps s'écoule, fait varier la valeur de $X$ ? La réponse évidente est "le temps !", mais $\omega$ est fixé...bref !

Merci par avance pour votre contribution.

Réponses

  • Non, c'est bien ça.

    Si tu as un processus à temps continu $X : [0, \infty[\,\times \Omega \to \mathbb{R}$, pour chaque $\omega\in\Omega$, ça te donne une trajectoire $\gamma_\omega : [0, \infty)\to \mathbb{R}$ définie pour $t\ge 0$, par $\gamma_\omega(t) = X(t,\omega)$.

    De même pour un processus discret $X : \N \times \Omega \to \mathbb{R}$, tu as $X_n(\omega) = X(n,\omega)$.

    Le plus clair, c'est de choisir directement $\Omega = \{0,1\}^\N = \{\omega_0,\dots,\omega_n,\dots\}$, avec pour $(\omega_0,\dots,\omega_n)\in \{0,1\}^{\{0,\dots,n\}}$, $\mathbb{P}(\omega_0,\dots,\omega_n) = \frac{1}{2^{n+1}}$. (tribu cylindrique)
    Dans ce cas, les variables aléatoires $\epsilon_k : \Omega \to \{0,1\}$ définies par $\epsilon_k\big((\omega_n)\big) = \omega_k$ sont bien iid $\mathcal{B}(1/2)$.
    Un exemple de processus associé est le schéma de Bernoulli $X_n = \sum_{k=0}^n \epsilon_k$.
  • Je reviens explicitement sur ta question 1 :
    $X_1,X_2,\ldots$ sont bien des variables aléatoires distinctes (dépendantes ou non) définies sur le même espace probabilisé.
  • Bonjour,

    Pour expliciter un peu la réponse de Sylviel, je reprends l'exemple d'une suite de tirages à pile ou face.

    Dans ce cas, l'espace probabilisé $\Omega$ est l'ensemble de toutes les suites $\omega : \mathbb N \to \{P,F\}$ (toutes les suites de tirages possibles). La tribu est engendrée par les événements $\{\omega\in \Omega\mid \omega(n)=P\}$ pour $n\in \mathbb N$ ("le tirage d'indice $n$ est pile"), et la mesure de probabilité est l'unique mesure sur cette tribu telle que, pour tout $\alpha\in \Omega$ et tout $n\in \mathbb \N$, la mesure de $\{\omega \in \Omega\mid \forall k \in \mathbb N\ (k<n\Rightarrow \omega(k)=\alpha(k)\}$ ("les $n$ premiers tirages sont $\alpha(0),\ldots,\alpha(n-1)$") est $2^{-n}$.

    Sur cet espace $\Omega$, vit une suite de variables aléatoires de Bernoulli $(X_n)_{n\in \mathbb N}$. La variable aléatoire $X_n$ est la fonction $X_n:\Omega\to \{0,1\}$ définie par $X_n(\omega)=1$ si $\omega(n)=P$ et $X_n(\omega)=0$ si $\omega(n)=F$ (l'épreuve de Bernoulli correspondant à $X_n$ est : succès si le tirage d'indice $n$ est $P$, échec si c'est $F$).
    Les $X_n$ sont toutes des variables de Bernoulli de paramètre $1/2$ (de même loi, donc) et la suite $(X_n)$ est une suite de variables aléatoires indépendantes.
  • Merci à tous les trois. Vos différentes formulations d'une même réponse clarifient les choses. Est-ce que du coup, cela répond aussi à ma deuxième question en ce sens: un processus stochastique vu comme une fonction $X^{\omega}(t)$ du temps, $\omega$ étant fixé, peut être vu comme une "suite" indexée par un intervalle $I$ de $\mathbb{R}$. Et donc pour chaque instant $t$ les $X^{\omega}(t)$ sont des variables aléatoires différentes (de la même façon que dans le processus de Bernoulli pour chaque $n$), ce qui expliquerait pourquoi, pour une même éventualité $\omega$, $X^{\omega}(t_1)$ et $X^{\omega}(t_2)$ sont différents.

    edit: une chose qui me gêne malgré tout: quand je fixe $\omega$, ne suis-je pas en train de figer le hasard? La fonction $X$ n'a rien d'aléatoire en ce sens qu'en principe, il serait possible d'écrire la formule $X(\omega)$, le hasard se trouve dans le choix de $\omega\in\Omega$, donc lorsque $\omega$ est fixé, même si ce que j'ai dit au dessus est correct, et que pour chaque $t$, $X^{\omega}(t)$ varie de telle sorte à donner une trajectoire $\gamma(t)$, qu'est-ce que $\gamma$ a d'aléatoire?
  • Oublie un instant le côté "probabilité". Comme te l'as dis marsup : $X: R^+ \times \Omega \to R$ est une fonction de deux variables.
    Pour tout $t \in R^+$, $\omega \mapsto X_t^\omega$ est une variable aléatoire.

    Si je te parle d'une fonction $(x,y) \mapsto f(x,y)$, tu comprends aisément que, à $y$ fixé, $x \mapsto f(x,y)$ est une fonction, et que, pour un même $y$, $f(x_1,y)$ et $f(x_2,y)$ peuvent être différents, non ?
    D'ailleurs je peux revenir sur ton premier message où tu écris qu'il y a "deux manières" de regarder le processus stochastique. Cela correspond à regarder $x \mapsto f(x,y)$ ou $y \mapsto f(x,y)$...
  • Effectivement, vu comme ça c'est simple. Je crois que je vois la porte de sortie, merci de me dire si c'est correct Sylviel.
    J'ai une fonction $X : \mathbb{R}^+\times\Omega\to\mathbb{R}$, si je fixe $t$, j'ai une variable aléatoire par définition, mais si je fixe $\omega$ sans ne rien dire de plus, alors la fonction $t\mapsto X(t, \omega)$ peut être tout à fait déterminée (non probabiliste, régulière etc). Pour avoir des choses de type mouvement brownien (ce à quoi je restreignais à tort les trajectoires de type $t\mapsto X(t, \omega)$), il faut rajouter des caractéristiques, du genre "pour chaque $t$, $X$ est une variable aléatoire caractérisée par telles propriétés dépendant de $t$"...
  • Si tu fixes $t$, la variable aléatoire $\omega\mapsto X(t,\omega)$ est tout à fait déterminée. L'aléatoire est dans $\omega$, pas dans la fonction $\omega\mapsto X(t,\omega)$.
  • Après avoir, non sans mal, bossé vos exemples, je pense avoir mieux compris. Merci par avance pour toute correction:

    Le choix de construction de ton $\epsilon_k$ marsup, qui correspond au $X_k$ de GaBuZoMeu, est fait de telle sorte à ce que leur somme ($\sum_{k=0}^n \epsilon_k$ et $\sum_{k=0}^nX_k$, respectivement) donne le nombre de succès après $n$ expériences, n'est-ce pas? Mais tout autre choix de construction aurait été possible. Par ailleurs, je vois bien que pour un $\omega$ donné, les fonctions $X_n(\omega)$ donne des valeurs différentes, ce qui illustre le fait que les v.a. sont bien des fonctions distinctes. Aussi, j'ai saisi que le hasard se situe dans le choix de $\omega$. À partir de là, dès lors que la fonction $X(n, \omega)$ (ou $X(t, \omega)$) est définie...the rest is history.
  • Une petite remarque : si tu sommes de 0 à n, tu as n+1 termes dans ta somme. ;-)
Connectez-vous ou Inscrivez-vous pour répondre.