Minimum de variables sous-gaussiennes
Bonjour
Rappelons qu'une variable aléatoire réelle $X$ (centrée) est sous-gaussienne si $$
\exists b \in \mathbb R,\ \forall t \in \mathbb R, \qquad \mathbb{E} [e^{tX} ] \leq e^{b^2t^2/2}
$$ ou de manière équivalente si $$
\exists c>0,\ \forall \lambda>0, \qquad \mathbb{P} [|X| \geq \lambda] \leq 2 e^{-c\lambda^2}
$$ ou encore $$
\exists a>0, \qquad \mathbb{E} [e^{aX^2}] \leq 2.
$$ Une variable centrée bornée ou Gaussienne est sous-gaussienne. La somme de va sous-gaussienne l'est (il faut sommer les $b$ de la première caractérisation) et le produit par une constante l'est aussi.
Ma question est la suivante : est-ce que le minimum/maximum de deux va sous-gaussienne l'est toujours ? Ca me semble vrai mais je ne trouve pas de démonstration simple.
Plus généralement je suis intéressé par une variable aléatoire qui est la valeur d'un problème d'optimisation paramétré par une autre va, il s'agit donc du minimum d'un ensemble indénombrable de va sous-gaussienne.
Rappelons qu'une variable aléatoire réelle $X$ (centrée) est sous-gaussienne si $$
\exists b \in \mathbb R,\ \forall t \in \mathbb R, \qquad \mathbb{E} [e^{tX} ] \leq e^{b^2t^2/2}
$$ ou de manière équivalente si $$
\exists c>0,\ \forall \lambda>0, \qquad \mathbb{P} [|X| \geq \lambda] \leq 2 e^{-c\lambda^2}
$$ ou encore $$
\exists a>0, \qquad \mathbb{E} [e^{aX^2}] \leq 2.
$$ Une variable centrée bornée ou Gaussienne est sous-gaussienne. La somme de va sous-gaussienne l'est (il faut sommer les $b$ de la première caractérisation) et le produit par une constante l'est aussi.
Ma question est la suivante : est-ce que le minimum/maximum de deux va sous-gaussienne l'est toujours ? Ca me semble vrai mais je ne trouve pas de démonstration simple.
Plus généralement je suis intéressé par une variable aléatoire qui est la valeur d'un problème d'optimisation paramétré par une autre va, il s'agit donc du minimum d'un ensemble indénombrable de va sous-gaussienne.
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses
$$\min(a,b)=\frac{a+b-|a-b|}{2},\qquad \max(a,b)=\frac{a+b+|a-b|}{2}$$ pour pouvoir conclure pour le min et le max.
Il ne me reste plus qu'à généraliser (X solution d'un PLNE paramétré par Y, variable sous-gaussienne), les deux approches ici ne passant pas tel quel.
(i) $\exists b \in \mathbb R,\ \forall t \in \mathbb R, \qquad \mathbb{E} [e^{tX} ] \leq e^{b^2t^2/2}$
(ii) $\exists c>0,\ \forall \lambda>0, \qquad \mathbb{P} [|X| \geq \lambda] \leq 2 e^{-c\lambda^2}$
(iii) $\exists a>0, \qquad \mathbb{E} [e^{aX^2}] \leq 2.$
(i)$\Rightarrow$(ii)
D'après ce bienaimé Tchebyshev, pour tout $t>0,$
$$P(|X|\geq \lambda)=P\left(e^{t|X|}\geq e^{t\lambda}\right)\leq \mathbb{E} [e^{t|X|} ]e^{-t\lambda}\leq \left(\mathbb{E} [e^{tX} ]+\mathbb{E} [e^{-tX} ]\right)\text{e}^{-t\lambda}\leq 2e^{b^2t^2/2-t\lambda}.$$
On minimise en fonction de $t$ l'exposant dans la dernière expression : le minimum est atteint pour $t=\frac{\lambda}{b^2},$ et il vaut $-\frac{\lambda^2}{2b^2}.$ On a donc $$P(|X|\geq \lambda)\leq 2 e^{-\frac{\lambda^2}{2b^2}}.$$
(ii)$\Rightarrow$(iii)
On utilise l'argument classique : si $Z$ est une v.a. positive, $E(Z)=\int_0^{+\infty}P(Z>t)dt.$
Pour tout $a>0$ (les intégrales sont éventuellement non convergentes) :
$$\mathbb{E} \left[e^{aX^2}\right]=\int_0^{+\infty}P\left(X^2\geq \frac{\ln t}{a}\right)dt\leq 1+\int_1^{+\infty}P\left(X^2\geq \frac{\ln t}{a}\right)dt\leq 1+\int_1^{+\infty}2 e^{-c\frac{\ln t}{a}}dt=1+\int_1^{+\infty}2 t^{-c/a}dt.$$
On choisit $a$ suffisamment petit pour que $c/a>3.$ On a donc
$$\mathbb{E} \left[e^{aX^2}\right]\leq 1+\int_1^{+\infty}2 t^{-3}dt=2.$$
(iii)$\Rightarrow$(i)
Fatigué.
matrices". On peut aussi les trouver dans "Subgaussian random variables: An expository note" de O. Rivasplata (qui qualifie les équivalences de "Common Knowledge").