Définition d'un processus stochastique
Bonjour à tous. J'ai du mal à saisir la définition d'un processus stochastique, et parfois même de variable aléatoire ! Par moment je pense comprendre le concept, et parfois j'ai ce sentiment très désagréable que les choses sont obscures. D'un point de vue intuitif, je pense avoir une idée de ce qu'est un processus stochastique : à chaque instant, la variable $X$ prend des valeurs aléatoires, mais la formulation mathématique me pose plus de défis. Permettez-moi d'illustrer mes lacunes à travers quelques questions.
1- Lorsque l'on parle d'une suite de variables aléatoire $(X_n)$ définies sur sur un espace probabilisé $\Omega$, que représentent les termes $X_1, X_2,\ldots$ ? Sont-ils plusieurs valeurs prises par la même variable aléatoire $X$ sur $\Omega$, c'est-à-dire $X(\omega_1), X(\omega_2),\ldots$ ? Où parle-t-on plutôt de différentes variables aléatoires, et donc d'une suite de fonctions $X_1(\omega), X_2(\omega),\ldots$, auquel cas les fonctions $X_i$, $i=1, 2,\ldots$ ont en général des densités de probabilité différentes (si elles existent). Une réponse formelle et une réponse avec un exemple où $\Omega$ est constitué des éventualités PILE et FACE du tirage d'une pièce seraient bienvenues.
Dans le cadre de la loi des grands nombres, les variables sont identiquement distribuées, et donc j'ose imaginer que la signification de $(X_n)$ est $X(\omega_1), X(\omega_2),\ldots$. Mais là encore, je réalise en écrivant qu'il y a quelque chose que je rate : dans l'exemple de la pièce, si $\omega_1$ est PILE et $\omega_2$ est FACE, $X(\omega_i)$ est déterminé. Je pense que j'ai fondamentalement un problème de compréhension : à quel niveau de la description le hasard intervient-il puisque $X$ est une fonction bien déterminée.
2- Un processus stochastique est une fonction $X : [0, \infty[\,\times \Omega \to \mathbb{R}$, et peut être vu sous deux angles : en fixant le temps on obtient la variable aléatoire $X^t(\omega)$ (la variable aléatoire "classique" telle qu'introduite dans un cours de probabilité avant de parler de processus stochastiques), ou en fixant $\omega$, on obtient une fonction du temps $X^{\omega}(t)$ qui, lorsque $t$ parcours $[0, \infty[$, représente une trajectoire. Donc $X^{\omega_1}(t)$ et $X^{\omega_2}(t)$ représentent deux trajectoires possibles et en général distinctes du processus stochastique. Là encore mon problème est de même nature : si l'on fixe $\omega$, $X(\omega)$ est connu, et donc qu'est-ce qui, lorsque le temps s'écoule, fait varier la valeur de $X$ ? La réponse évidente est "le temps !", mais $\omega$ est fixé...bref !
Merci par avance pour votre contribution.
1- Lorsque l'on parle d'une suite de variables aléatoire $(X_n)$ définies sur sur un espace probabilisé $\Omega$, que représentent les termes $X_1, X_2,\ldots$ ? Sont-ils plusieurs valeurs prises par la même variable aléatoire $X$ sur $\Omega$, c'est-à-dire $X(\omega_1), X(\omega_2),\ldots$ ? Où parle-t-on plutôt de différentes variables aléatoires, et donc d'une suite de fonctions $X_1(\omega), X_2(\omega),\ldots$, auquel cas les fonctions $X_i$, $i=1, 2,\ldots$ ont en général des densités de probabilité différentes (si elles existent). Une réponse formelle et une réponse avec un exemple où $\Omega$ est constitué des éventualités PILE et FACE du tirage d'une pièce seraient bienvenues.
Dans le cadre de la loi des grands nombres, les variables sont identiquement distribuées, et donc j'ose imaginer que la signification de $(X_n)$ est $X(\omega_1), X(\omega_2),\ldots$. Mais là encore, je réalise en écrivant qu'il y a quelque chose que je rate : dans l'exemple de la pièce, si $\omega_1$ est PILE et $\omega_2$ est FACE, $X(\omega_i)$ est déterminé. Je pense que j'ai fondamentalement un problème de compréhension : à quel niveau de la description le hasard intervient-il puisque $X$ est une fonction bien déterminée.
2- Un processus stochastique est une fonction $X : [0, \infty[\,\times \Omega \to \mathbb{R}$, et peut être vu sous deux angles : en fixant le temps on obtient la variable aléatoire $X^t(\omega)$ (la variable aléatoire "classique" telle qu'introduite dans un cours de probabilité avant de parler de processus stochastiques), ou en fixant $\omega$, on obtient une fonction du temps $X^{\omega}(t)$ qui, lorsque $t$ parcours $[0, \infty[$, représente une trajectoire. Donc $X^{\omega_1}(t)$ et $X^{\omega_2}(t)$ représentent deux trajectoires possibles et en général distinctes du processus stochastique. Là encore mon problème est de même nature : si l'on fixe $\omega$, $X(\omega)$ est connu, et donc qu'est-ce qui, lorsque le temps s'écoule, fait varier la valeur de $X$ ? La réponse évidente est "le temps !", mais $\omega$ est fixé...bref !
Merci par avance pour votre contribution.
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses
Si tu as un processus à temps continu $X : [0, \infty[\,\times \Omega \to \mathbb{R}$, pour chaque $\omega\in\Omega$, ça te donne une trajectoire $\gamma_\omega : [0, \infty)\to \mathbb{R}$ définie pour $t\ge 0$, par $\gamma_\omega(t) = X(t,\omega)$.
De même pour un processus discret $X : \N \times \Omega \to \mathbb{R}$, tu as $X_n(\omega) = X(n,\omega)$.
Le plus clair, c'est de choisir directement $\Omega = \{0,1\}^\N = \{\omega_0,\dots,\omega_n,\dots\}$, avec pour $(\omega_0,\dots,\omega_n)\in \{0,1\}^{\{0,\dots,n\}}$, $\mathbb{P}(\omega_0,\dots,\omega_n) = \frac{1}{2^{n+1}}$. (tribu cylindrique)
Dans ce cas, les variables aléatoires $\epsilon_k : \Omega \to \{0,1\}$ définies par $\epsilon_k\big((\omega_n)\big) = \omega_k$ sont bien iid $\mathcal{B}(1/2)$.
Un exemple de processus associé est le schéma de Bernoulli $X_n = \sum_{k=0}^n \epsilon_k$.
$X_1,X_2,\ldots$ sont bien des variables aléatoires distinctes (dépendantes ou non) définies sur le même espace probabilisé.
Pour expliciter un peu la réponse de Sylviel, je reprends l'exemple d'une suite de tirages à pile ou face.
Dans ce cas, l'espace probabilisé $\Omega$ est l'ensemble de toutes les suites $\omega : \mathbb N \to \{P,F\}$ (toutes les suites de tirages possibles). La tribu est engendrée par les événements $\{\omega\in \Omega\mid \omega(n)=P\}$ pour $n\in \mathbb N$ ("le tirage d'indice $n$ est pile"), et la mesure de probabilité est l'unique mesure sur cette tribu telle que, pour tout $\alpha\in \Omega$ et tout $n\in \mathbb \N$, la mesure de $\{\omega \in \Omega\mid \forall k \in \mathbb N\ (k<n\Rightarrow \omega(k)=\alpha(k)\}$ ("les $n$ premiers tirages sont $\alpha(0),\ldots,\alpha(n-1)$") est $2^{-n}$.
Sur cet espace $\Omega$, vit une suite de variables aléatoires de Bernoulli $(X_n)_{n\in \mathbb N}$. La variable aléatoire $X_n$ est la fonction $X_n:\Omega\to \{0,1\}$ définie par $X_n(\omega)=1$ si $\omega(n)=P$ et $X_n(\omega)=0$ si $\omega(n)=F$ (l'épreuve de Bernoulli correspondant à $X_n$ est : succès si le tirage d'indice $n$ est $P$, échec si c'est $F$).
Les $X_n$ sont toutes des variables de Bernoulli de paramètre $1/2$ (de même loi, donc) et la suite $(X_n)$ est une suite de variables aléatoires indépendantes.
edit: une chose qui me gêne malgré tout: quand je fixe $\omega$, ne suis-je pas en train de figer le hasard? La fonction $X$ n'a rien d'aléatoire en ce sens qu'en principe, il serait possible d'écrire la formule $X(\omega)$, le hasard se trouve dans le choix de $\omega\in\Omega$, donc lorsque $\omega$ est fixé, même si ce que j'ai dit au dessus est correct, et que pour chaque $t$, $X^{\omega}(t)$ varie de telle sorte à donner une trajectoire $\gamma(t)$, qu'est-ce que $\gamma$ a d'aléatoire?
Pour tout $t \in R^+$, $\omega \mapsto X_t^\omega$ est une variable aléatoire.
Si je te parle d'une fonction $(x,y) \mapsto f(x,y)$, tu comprends aisément que, à $y$ fixé, $x \mapsto f(x,y)$ est une fonction, et que, pour un même $y$, $f(x_1,y)$ et $f(x_2,y)$ peuvent être différents, non ?
D'ailleurs je peux revenir sur ton premier message où tu écris qu'il y a "deux manières" de regarder le processus stochastique. Cela correspond à regarder $x \mapsto f(x,y)$ ou $y \mapsto f(x,y)$...
J'ai une fonction $X : \mathbb{R}^+\times\Omega\to\mathbb{R}$, si je fixe $t$, j'ai une variable aléatoire par définition, mais si je fixe $\omega$ sans ne rien dire de plus, alors la fonction $t\mapsto X(t, \omega)$ peut être tout à fait déterminée (non probabiliste, régulière etc). Pour avoir des choses de type mouvement brownien (ce à quoi je restreignais à tort les trajectoires de type $t\mapsto X(t, \omega)$), il faut rajouter des caractéristiques, du genre "pour chaque $t$, $X$ est une variable aléatoire caractérisée par telles propriétés dépendant de $t$"...
Le choix de construction de ton $\epsilon_k$ marsup, qui correspond au $X_k$ de GaBuZoMeu, est fait de telle sorte à ce que leur somme ($\sum_{k=0}^n \epsilon_k$ et $\sum_{k=0}^nX_k$, respectivement) donne le nombre de succès après $n$ expériences, n'est-ce pas? Mais tout autre choix de construction aurait été possible. Par ailleurs, je vois bien que pour un $\omega$ donné, les fonctions $X_n(\omega)$ donne des valeurs différentes, ce qui illustre le fait que les v.a. sont bien des fonctions distinctes. Aussi, j'ai saisi que le hasard se situe dans le choix de $\omega$. À partir de là, dès lors que la fonction $X(n, \omega)$ (ou $X(t, \omega)$) est définie...the rest is history.