Définition [Espérance d'une variable aléatoire dans ]
Etant donnée une variable aléatoire de
, on définit son espérance par
Cette définition peut éventuellement être étendue aux variables aléatoires intégrables positives.
On définit en outre , avec une variable aléatoire
ou bien une variable aléatoire intégrable positive,
et une partie mesurable, par
Théorème [Théorèmes de passage à la limite en probabilités]
Soit une suite de variables aléatoires et une variable aléatoire telles que
c'est à dire
Alors les résultats de convergence monotone, de Fatou, de convergence dominée et de Scheffé, que l'on peut trouver dans la partie, se reformulent comme suit:
Convergence monotone:
Si les sont et
croit vers
pour
, alors
.
Lemme de Fatou:
Si
alors
Théorème de convergence dominée de Lebesgue:
Si pour tout et tout on a
,
avec
, alors
,
et en particulier
.
Lemme de Scheffé:
Si
, alors
.
Démonstration:Voir le chapître pour les preuves correspondantes, qui s'appliquent
directement.
Théorème [Inégalité de Markov]
Supposons variable aléatoire , et mesurable de
dans
, avec croissante. Alors
que l'on peut aussi noter
Démonstration:Il n'y a rien à prouver, il suffit de bien voir que est positive.
Corollaire
Avec une variable aléatoire positive,
Démonstration:C'est l'inégalité de Markov avec la fonction identité.
Corollaire
Pour variable aléatoire positive,
.
Démonstration:Il s'agit simplement de l'inégalité ci-dessus, reformulée.
Théorème [Inégalité de Jensen]
On se donne une application de dans
, avec intervalle ouvert de
, et
une variable aléatoire, avec les hypothèses suivantes:
convexe
(c'est à dire que est intégrable)
(c'est à dire que est intégrable)
Alors :
Voir par exemple les propriétés des fonctions caractéristiques en probabilités, .
Démonstration:Les dérivées à gauche et à droite de ,
notée et , existent et sont croissantes;
on a en outre
.
Considérons maintenant , et .
Soit , alors la pente entre et
est inférieure à la pente entre et ;
en faisant tendre vers on constate alors
que la pente entre et est inférieure
à . Donc:
De même pour on montrerait
Comme
,
on peut résumer ces assertions en
valable pour tout .
Il est facile de voir que
On peut donc spécialiser l'affirmation de l'avant-dernier point
en
En intégrant l'inégalité ci-dessus il vient
Dans le contexte des probabilités, désignera, étant donné un univers ,
, étant muni d'une mesure de probabilité ( est en fait dépendant de l'univers , de la tribu définie sur , et de la mesure définie sur cette tribu). Ne pas généraliser les résultats qui suivent au cas général de pour espace mesuré quelconque !
Proposition
Pour
, alors
pour tout (éventuellement infini).
En outre pour tout dans , on a
.
Démonstration:
Pour l'inclusion, il suffit de voir la proposition .
Pour l'inégalité, on peut clairement se ramener au problème des variables aléatoires positives.
Etant donné à valeurs positives dans , on définit
.
Alors est bornée, et donc et aussi, donc et sont dans (on utilise le fait que la mesure est finie). On peut donc appliquer l'inégalité de Jensen (voir théorème ) avec la variable aléatoire et la fonction convexe
, et écrire
On applique alors le théorème de convergence monotone à et
En élevant à la puissance on a alors
La preuve est ainsi complète.
Les résultats usuels dans sont valables, notamment l'inégalité de Schwartz, de Hölder, de Minkowski, pour lesquels on consultera la partie .
Pour rappeler l'essentiel:
Si et sont des variables aléatoires de , alors le produit appartient à ,
et
Si et sont des variables aléatoires de , alors la somme appartient à ,
et
Une proposition est nécéssaire pour bien comprendre ce qu'il se passe:
Proposition
Soit une variable aléatoire , et soit une fonction mesurable de
dans
, alors est une variable aléatoire de (au sens donné ici, c'est à dire
, avec muni d'une mesure de probabilité) si et seulement si est dans
avec la loi de .
On a alors
Voir la proposition et la définition qui la précède pour bien cerner ce qu'est une loi de probabilité.
Démonstration:Si vous n'arrivez pas à le faire vous-mêmes, mieux vaut relire tout le chapître. La méthode est la suivante:
Si est une fonction caractéristique d'un borélien, il s'agit simplement de la définition de la loi de probabilité.
Si est simple, alors par linéarité la propriété est aussi vraie.
Si est positive, alors est limite croissante de fonctions simples, donc on peut appliquer le théorème de convergence monotone.
Enfin dans le cas général, s'écrit comme différence de deux fonctions mesurables positives.
Définition [Mesure image]
Etant donnée une application mesurable d'un espace mesuré par une mesure dans
muni des boréliens, on note la mesure appelée mesure image de par définie sur l'ensemble des boréliens de
par
Il s'agit bien d'une mesure.
Théorème [Théorème de transport]
Pour toute fonction mesurable de
dans
,
On ramène ainsi les intégrales du type
à des intégrales sur
pour la mesure de Lebesgue; on n'a pas besoin de connaître la structure de , mais seulement les lois.
Démonstration:Le chapître sur l'intégration permet de comprendre clairement les notions en jeu. Il s'agit en fait simplement de vérifier la formule dans le cas d'une fonction caractéristique d'un borélien, puis d'un le cas d'une fonction simple (i.e. étagée1.2 et mesurable) grâce à la linéarité de l'intégrale, puis pour une fonction positive par passage au , puis dans le cas général en exprimant une fonction comme différence de deux fonctions l'une positive et l'autre négative (utilisation du théorème de convergence monotone à la fois pour les fonctions simples tendant vers et pour les fonctions simples tendant vers
).
Corollaire
On peut écrire le même théorème avec une fonction de
dans
et de dans
.
Définition
Etant donné une variable aléatoire , une application mesurable est appelée une densité de probabilité de si et seulement si pour tout borélien de
.
Définition [Covariance et variance]
Etant donnée une variable aléatoire , on définit la déviation de par
.
Etant données et des variables aléatoires dans , on définit la covariance de et par
Etant donnée une variable aléatoire dans , on définit la variance de par
Le produit scalaire de deux variables aléatoires et de est l'espérance de (comme dans le cadre d'un espace quelconque), noté .
On appelle corrélation entre deux variables aléatoires et de norme non nulles le réel de .
On appelle angle entre deux variables aléatoires et de norme non nulles le réel appartenant à tel que
.
Deux variables aléatoires sont dites non corrélées si leur covariance est nulle.
On appelle matrice de covariance d'un suite fini de variables aléatoires
la matrice définie par
.
Corollaire [Inégalité de Tchébitchev]
Pour variable aléatoire,
.
Voir le théorème sur les polynomes de Bernstein.
Démonstration:Il suffit d'appliquer le corollaire de l'inégalité de Markov à
.
La définition de la covariance et de la variance se justifie par le fait que si est dans , alors aussi, et donc
est dans par l'inégalité de Schwartz.
La définition de la corrélation se justifie par l'inégalité de Schwartz.
La corrélation entre deux variables aléatoires est le cosinus de l'angle entre les déviations de ces variables aléatoires.
On a
et
.
Si
sont des variables aléatoires , alors
Théorème [Une propriété fondamentale des variables aléatoires indépendantes]
Soient et des variables aléatoires indépendantes appartenant à . Alors est et
Soient et des variables aléatoires indépendantes appartenant à . Alors :
Démonstration:
On se préoccupe tout d'abord du premier résultat:
Si et sont des fonctions caractéristiques, alors et ,
et
par indépendance.
Si et sont des fonctions simples alors ce sont des combinaisons linéaires de fonctions caractéristiques, donc le résultat est aussi valable.
Si et sont positives, alors ce sont des limites de fonctions simples, donc le résultat est aussi valable par le théorème de convergence monotone.
Dans le cas général, et s'écrivent comme différences de deux fonctions positives.
La suite se déduit facilement, au vu des définitions de la covariance et de la variance.
Notez bien qu'il n'y a PAS d'erreur dans l'énoncé, et sont supposées dans le
premier cas appartenant à , et pas nécéssairement à .
Pour cerner plus précisément l'intérêt de l'indépendance des variables aléatoires , on a besoin de définitions supplémentaires utilisant les mesures produits (voir la partie pour connaître les bases requises).
Définition
Etant données
des variables aléatoires , on appelle
loi jointe de
ou simplement loi de
l'application
qui à un borélien de
associe avec
.
fonction de répartition de
l'application qui à
dans
associe
.
densité de probabilité ou simplement densité de probabilité de
une application de
dans
telle que pour tout borélien de
on ait
.
On note que le théorème de Fubini permet d'affirmer qu'étant donnée densité de probabilité jointe de
l'application
est une densité de probabilité de .
Théorème
Soient
des variables aléatoires .
On note la loi de probabilité de , la fonction de répartition de ,
la loi de probabilité jointe de
,
la fonction de répartition de
, une densité de probabilité de ,
une densité de probabilité de
.
Alors
sont indépendantes
sont indépendantes
sont indépendantes
presque partout
Démonstration:Admise.
Proposition [Egalité de Bienaymé]
Si les sont deux à deux non corrélées (par
exemples indépendantes), alors
Démonstration:
La preuve est complète...
Corollaire [Inégalité de Bienaymé-Tchébitchev]
Si les
sont deux à deux indépendantes, pour ,