Inégalité sur des espaces vectoriels normés

Bonjour
Je bloque sur la question suivante.

Étant donné un espace vectoriel normé $(E,||\cdot||)$ de dimension finie $d$, montrer que pour tout $(x_1,\ldots,x_n) \in E^n$, il existe $(\delta_1,\ldots,\delta_n) \in \left\{-1,1\right\}^n$ tel que $\displaystyle \Big\|\sum _{i=1} ^n \delta_ix_i\Big\| \ge \tfrac{1}{d} \sum_{i=1} ^n ||x_i||$.
(La norme n'est pas préhilbertienne mais bien quelconque).

Merci d'avance à tous les contributeurs pour leur éventuelle aide.

Réponses

  • J'ai une réponse complète (mais pas la constante $1$) cependant ce n'est pas vraiment élementaire car basé sur des considérations de dualité, des inégalités probabilistes (inégalité de Khintchine) et la connaissance d'une estimation de la distance de Banach-Mazur d'un evn de dimension $d$ à $\ell_{d}^{2}$ (théorème de John).

    ***Traitons d'abord le cas de l'evn sous-jacent $E=\ell_{d}^{2}$ muni de sa norme euclidienne naturelle $\|.\|_{2}.$

    Considérons $(x_{i})_{i=1,\ldots,n}$ une famille de vecteurs de $E$ où on écrira pour $i\in \{1,\ldots,n\},$ $x_{i}=(x_{i,1},\ldots,x_{i,d}).$
    Alors, on a en appliquant l'inégalité de Cauchy-Schwarz pour une quantité vérifiant : $\displaystyle \sum_{k=1}^{d}a_{k}^{2}\leq 1,$
    \begin{align*}
    \|\sum_{i=1}^{n}\varepsilon_{i}x_{i}\|_{2} & =\sqrt{\sum_{k=1}^{d}(\sum_{i=1}^{n}\varepsilon_{i}x_{i,k})^{2}}\\
    & \geq \sum_{k=1}^{d}a_{k}\sum_{i=1}^{n}\varepsilon_{i}x_{i,k}\\
    & = \sum_{i=1}^{n}\varepsilon_{i}\sum_{k=1}^{d}a_{k}x_{i,k}.
    \end{align*}

    On choisit alors $a_{k}=\frac{X_{k}}{\sqrt{d}}$ où la famille $(X_{k})_{k=1,\ldots,n}$ désigne une famille i.i.d de Rademacher.
    Ainsi, par les inégalités de Khintchine, on a
    \begin{align*}
    \mathbb{E}[\sum_{i=1}^{n}\vert \sum_{k=1}^{d}a_{k}x_{i,k}\vert] & = \frac{1}{\sqrt{d}}\sum_{i=1}^{n}\mathbb{E}[\vert \sum_{k=1}^{d}X_{k}x_{i,k}\vert]\\
    & \geq \frac{1}{\sqrt{2d}}\sum_{i=1}^{n}\sqrt{\mathbb{E}[(\sum_{k=1}^{d}X_{k}x_{i,k})^{2}]}\\
    & =\frac{1}{\sqrt{2d}}\sum_{i=1}^{n}\sqrt{\sum_{k=1}^{d}x_{i,k}^{2}}\\
    & = \frac{1}{\sqrt{2d}}\sum_{k=1}^{n}\|x_{i}\|_{2}.
    \end{align*}

    Ainsi, il existe $\omega$ une réalisation des VAs $(X_{k})_{k=1,\ldots,n}$ telle que $$\sum_{i=1}^{n}\vert \sum_{k=1}^{d}a_{k}(\omega)x_{i,k}\vert \geq \frac{1}{\sqrt{2d}}\sum_{k=1}^{n}\|x_{i}\|_{2}.$$
    En choisissant pour $i\in \{1,\ldots,n\},$ $\varepsilon_{i}$ comme étant le signe de $\sum_{k=1}^{d}a_{k}(\omega)x_{i,k},$ on obtient finalement :
    \begin{align*}
    \|\sum_{i=1}^{n}\varepsilon_{i}x_{i}\|_{2} & \geq \sum_{i=1}^{n}\vert \sum_{k=1}^{d}a_{k}(\omega)x_{i,k}\vert.\\
    & \geq \frac{1}{\sqrt{2d}}\sum_{k=1}^{n}\|x_{i}\|_{2}.
    \end{align*}

    ***Pour le cas général, on utilise le théorème de John à savoir que la distance de Banach-Mazur de n'importe quel evn de dimension $d$ à $\ell_{d}^{2}$ est majorée par $\frac{1}{2}\ln(d).$
    Ce théorème stipule la chose suivante : il existe un isomorphisme $T$ de $\ell_{d}^{2}$ sur $E$ vérifiant $$\forall x\in E,\mbox{ } a\|T(x)\|_{2}\leq \|x\|\leq b\|T(x)\|_{2} \mbox{ où } \frac{b}{a}\leq \sqrt{d}.$$

    Ainsi, par le point précédent, il existe un choix de signes $(\varepsilon_{i})_{i=1,\ldots,n}$ pour lequel :
    \begin{align*}
    \|\sum_{i=1}^{n}\varepsilon_{i}x_{i}\|& \geq a\|\sum_{i=1}^{n}\varepsilon_{i} T(x_{i})\|_{2}\\
    & \geq \frac{a}{\sqrt{2d}}\sum_{i=1}^{n}\|T(x_{i})\|_{2}\\
    & \geq \frac{a}{b}\times \frac{1}{\sqrt{2d}}\sum_{i=1}^{n}\|x_{i}\|\\
    & \geq \frac{1}{d\sqrt{2}}\sum_{i=1}^{n}\|x_{i}\| \mbox{ car } \frac{a}{b}\geq \frac{1}{\sqrt{d}}.
    \end{align*}
  • Bonjour, la seul façon que je vois est de raisonner par contradiction, je fais le cas $d=2$, supposons le contraire donc $\|x+y\|+\|x-y\|<\|x\|+\|y\|$, si $X=x+y$ et $Y=x-y$ on aurait $$2\|X\|+2\|Y\|<\|X+Y\|+\|X-Y\|$$ contradiction avec l'inégalité triangulaire.
    À généraliser (peut-être) etc
    Cordialement.
  • Bonjour, voilà une réponse si $n=d$, qui implique le cas $d\ge n$. Si $n>d$ à voir.
    Le problème est jolie et tu feras bien de nommer la source.
    Soit $x_1,\ldots,x_n$, $n\ge 3$ dans un espace vectoriel normé $(E,\|.\|).$ Soit $s_i=x_1+x_2+\cdots+x_{i-1}-x_i+x_{i+1}+\cdots +x_n$ i.e. la somme des $\sum_{j\neq i}x_j-x_i$. Alors $$\sum_{i=1}^n\|s_i\|\ge \sum_{i=1}^n\|x_i\|$$ en particulier tu as l'énoncé donné en premier.
    Pour $n=2$ voir le message précédent,
    l' idée ici est de considérer la matrice $A=\begin{pmatrix} -1 & 1 & \cdots & 1 \\ 1 & -1 & \cdots & 1 \\ \vdots & \vdots & \ddots & \vdots \\ 1 & 1 & \cdots & -1 \end{pmatrix}$ où les entrées diagonales sont $ -1$ et le reste $1$, remarquer que $AX=S$ avec $X=(x_1,\ldots,x_n)^t$ et $S=(s_1,\ldots,s_n)^t$. L'inverse de cette matrice est la matrice $B=
    \begin{pmatrix} \dfrac{-(n-3)}{2n-4} & \dfrac{1}{2n-4}& \cdots &\dfrac{ 1}{2n-4} \\ \dfrac{1}{2n-4} &\dfrac{-(n-3)}{2n-4} & \cdots &\dfrac{1}{2n-4} \\ \vdots & \vdots & \ddots & \vdots \\ \dfrac{1}{2n-4}& \dfrac{1}{2n-4} & \cdots & \dfrac{-(n-3)}{2n-4} \end{pmatrix}.$
    Il suffit d'exprimer les $x_i$ en fonction des $s_i$ et appliquer l'inégalité triangulaire. Si $a=\dfrac{-(n-3)}{2n-4}$ et $b=\dfrac{1}{2n-4}$ alors $ |a|+(n-1)|b|=1$.

    Edit
  • Juste un dernier lien pour voir mieux
    http://www.les-mathematiques.net/phorum/read.php?4,1402852,1685818.
    Cordialement.
  • Le cas $d=1$ et $n\geq 1$ est direct.
    Pour $d\geq 2,$ si $n\leq d,$ je ne l'avais pas écrit mais la preuve probabiliste indiquée plus haut peut être modifiée de la manière suivante.
    On considère ici que les $(\varepsilon_{i})$ sont des VAs indépendantes de Rademacher.
    Comme toujours, on traite le cas d'une norme euclidienne pour commencer.
    En appliquant l'inégalité de Cauchy-Schwarz, il vient :
    \begin{align*}
    \mathbb{E}\Big[\|\sum_{k=1}^{n}\varepsilon_{k}u_{k}\|_{2}^{2}\Big] & =\sum_{k=1}^{n}\|x_{k}\|_{2}^{2}\\
    & \geq \frac{1}{n}\Big(\sum_{k=1}^{n}\|x_{k}\|_{2} \Big)^{2}.
    \end{align*}
    Ainsi, il existe un choix de signes $\varepsilon_{i}(\omega)$ pour lequel :
    $$\|\sum_{k=1}^{n}\varepsilon_{k}(\omega)u_{k}\|_{2}\geq \frac{1}{\sqrt{n}}\sum_{k=1}^{n}\|x_{k}\|_{2} \geq \frac{1}{\sqrt{d}}\sum_{k=1}^{n}\|x_{k}\|_{2}.$$
    Le lemme de John permet de conclure dans le cas d'une norme quelconque.
  • @Tonm bien vu j’avais posté une version réelle
  • Bonjour, @etanche oui si tu ouvre le dernier article que j'ai pointé à la fin la constante (l'inégalité) de ton fil est connu, mais tout dépend du nombre $n$ ( vecteurs ) alors que là il y a $d$ la dimension etc.
  • Merci beaucoup pour toutes ces réponses !
    Je les ai lues en diagonale, je les lirai plus attentivement demain lorsque j'aurai davantage de temps.

    Merci encore !
  • Bonjour
    Par contradiction on a:
    $||x_1-\sum_{j\neq 1} x_j ||< 1/ d \sum_i ||x_i|| $

    et aussi
    $||x_1+\sum_{j\neq 1} x_j ||< 1/ d \sum_i ||x_i||$

    D'où $||2x_1|| =||(x_1-\sum_{j\neq 1} x_j)+(x_1+\sum_{j\neq 1} x_j)||< 2/d \sum_i ||x_i|| $

    ou encore $||x_1|| <1/d \sum_i ||x_i|| $

    et de même on montre que $||x_j|| <1/d \sum_i ||x_i|| ,j=1,...d $

    En sommant on obtient $\sum_j ||x_j|| <\sum_i ||x_i|| . $ contradiction.
     
  • Je cherchais à la base une preuve qui visait à majorer le plus finement possible la constante de $1$-sommabilité de l'identité d'un espace euclidien.... mais ce n'est pas facile !
    Pour voir d'où émergent ces idées, je te joins les articles suivants (tous ne sont pas corrélés au problème initial mais investiguent la passionnante théorie locale des espaces de Banach).

    Pour traiter le cas du problème du fil, il suffit :
    -de remarquer que le cas $d=1$ est immédiat ! (la seule norme sur un espace normé de dimension $1$ est la valeur absolue classique à une constante positive multiplicative près).
    -de s'y ramener par le biais de formes linéaires bien choisies (et ainsi renormer l'espace initial) : ce passage constitue le lemme d'Auerbach.


    Considérons $n$ vecteurs $x_{1},\ldots,x_{n}\in E$ (où $E$ désigne un espace vectoriel normé de dimension $d$ muni de sa norme $\|.\|$).
    Notons également pour un choix de signes $\varepsilon=(\varepsilon_{1},\ldots,\varepsilon_{n}),$ $\displaystyle x_{\varepsilon}:=\sum_{i=1}^{n}\varepsilon_{i}x_{i}.$

    Par le lemme d'Auerbach, il existe une base de $E$ : $(e_{1},\ldots,e_{d})$ et une base de $E^{*}$ : $(\phi_{1},\ldots,\phi_{d})$ vérifiant :
    $$\forall i,j\in \{1,\ldots,d\},\mbox{ } \|e_{i}\|=1,\mbox{ } \||\phi_{j}\||=1 \mbox{ et } \phi_{j}(e_{i})=\delta_{i,j}.$$

    Ainsi, chaque $x\in E$ s'écrit de la manière suivante : $\displaystyle x=\sum_{j=1}^{d}\phi_{j}(x)e_{j}.$
    On considère alors la norme $N$ définie pour $x\in E,$ par : $\displaystyle N(x)=\sum_{j=1}^{d}\vert \phi_{j}(x) \vert.$
    On remarque $$\forall x\in E,\mbox{ } \|x\| \leq N(x)\leq d\|x\|.$$

    Grâce au cas de la dimension $1,$ pour tout $j\in \{1,\ldots,d\},$ il existe un choix de $n$ signes : $\varepsilon(j)$ tel que $$\vert \phi_{j}(x_{\varepsilon(j)})\vert = \sum_{i=1}^{n}\vert \phi_{j}(x_{i}) \vert.$$

    Il vient alors comme chacune des formes linéaires $\phi_{j}$ est de norme (induite) $1$,
    \begin{align*}
    \sum_{j=1}^{d}\|x_{\varepsilon(j)}\| & \geq \sum_{j=1}^{d}\vert \phi_{j}(x_{\varepsilon(j)})\vert\\
    & = \sum_{j=1}^{d}\sum_{i=1}^{n}\vert \phi_{j}(x_{i}) \vert\\
    & = \sum_{i=1}^{n}\sum_{j=1}^{d}\vert \phi_{j}(x_{i}) \vert\\
    & = \sum_{i=1}^{n}N(x_{i})\\
    & \geq \sum_{i=1}^{n}\|x_{i}\|.
    \end{align*}

    On obtient donc $\displaystyle \max_{j=1,\ldots,d} \|x_{\varepsilon(j)}\|\geq \frac{1}{d}\sum_{i=1}^{n}\|x_{i}\|.$
    Ce qui est exactement la conclusion désirée.
  • Bonjour

    Un immense merci à tous pour vos réponses et le temps consacré et en particulier à BobbyJoe pour avoir fourni une démonstration complète, détaillée et très enrichissante !
    C'était pour moi très instructif.

    Respectueusement.
Connectez-vous ou Inscrivez-vous pour répondre.