popriété du déterminant

Bonjour, je n'arrive pas à démontrer cette propriétés :
Soit M une matrice carrée d'ordre n V1, V2, ..., Vn les vecteurs colonnes.
Alors la valeur absolue du déterminant de M est inférieure ou égale au produits des normes des vecteurs V1, ..., Vn
Merci d'avance


[J'ai ramené le niveau de M2/++ à L1/L2. AD]

Réponses

  • bonjour
    on sait que l'application $$\varphi:M_n(\R)->R M->det(M)$$ est continue car multilinière , alors :
    $\\exists C>0 \forall M\in M_n(\R) |det(M)|\leqC*\prod_{i=1}^n ||V_i||$
    et C dépend de la norme de $\M_n(\R)$,et il existe une norme tq c=1 par exemple $\C^(1/n)*||.||$.
  • bonjour j'ai fait des erreurs dans le latex de mon message précedent voici ,ce que je veut dire
    on sait que l'application :
    $$\varphi:M_n(\R)->\R M->det(M)$$ est continue car multilinière , alors :
    $\ \exists C>0 \forall M\in M_n(\R) |det(M)|
  • Je suis désolé j'ai fait un raisonnent faux (l'application n'est pas linéaire)
  • Je suis désolé mon raisonnement est juste l'application étant multilinéaire, je ne sais pas quoi dire.
  • Bonjour.

    Voici une méthode simple. Au lieu de m'intéresser aux matrices, je me suis à l'époque intéressé aux vecteurs d'un espace vectoriel euclidien de dimension $n$ afin de d'étudier la norme du $n - 1$-vecteur. Bref, c'est la même chose si ce n'est qu'il va falloir transposer. Tous les déterminants sont pris relativement à une base orthonormée orientée $\mathcal B$.
    \begin{itemize}
    \item si $(e_1,...,e_n)$ est une base orthonormée de l'espace, alors $|\det(e_1,...,e_n)| = 1$, c'est une trivialité.
    \item si $(a_1,...,a_n)$ est une base {\bf normée} alors il existe $(\theta _1,...,\theta_n)$ tels que $|\det(a_1,...,a_n)| = \prod_{j=1}^n\sin\theta_j$ En effet, en appliquant le procédé d'orthogonalisation de Schmidt, et en appelant $(e_1,...,e_n)$ la base obtenue, on a :$$\forall\,j \in \{1,..,n\}\ \exists\,\theta_j \quad a_j = \sin\theta_j\,e_j + \cos\theta_j\left(\sum_{k=1}{j-1}\lambda_{j,k}\,e_k\right).$$Cela se déduit immédiatement de $\|a_j\| = 1$ et $(e_1,...,e_n)$ orthonormée, on peut même choisir la base $(e_j)_{1\leq j\leq n}$ de façon que les sinus soient positifs. Par conséquent après cette dernière remarque :$$|\det(a_1,...,a_n)| = \prod_{j=1}^n\sin\theta_j.$$
    \item Soit $(V_j)_{1 \leq j \leq n}$ une base quelconque, on pose $\|V_j\|\,a_j = V_j$ et on applique ce qui précède :$$|\det(V_1,...,V_n)| = \prod_{j=1}^n\|V_j\|\prod_{k=1}^n\sin\theta_k \leq \prod_{j=1}^n\|V_j\|.$$
    \end{itemize}

    Bruno
  • Pour compléter ce qu'a fait Bruno, j'ajouterais que le determinant en question représente le volume que l'on sait, et donc d'un point de vue géométrique l'inégalité paraît naturelle.
  • P.Fradin a tout à fait raison de rappeler cette interprétation géométrique.

    Une erreur de frappe a rendu une sommation incompréhensible. Il faut lire :$$\forall\,j \in \{1,..,n\}\ \exists\,\theta_j \quad a_j = \sin\theta_j\,e_j + \cos\theta_j\left(\sum_{k=1}^{j-1}\lambda_{j,k}\,e_k\right).$$
    au lieu de :$$\forall\,j \in \{1,..,n\}\ \exists\,\theta_j \quad a_j = \sin\theta_j\,e_j + \cos\theta_j\left(\sum_{k=1}{j-1}\lambda_{j,k}\,e_k\right).$$

    Bruno
  • Bonjour
    Merci de votre réponse mais je n'arrive pas à conprendre ce résultat :
    Si (e1, ..., en) est une base normée alors il existe (a1, ..., an) tel que
    | det (e1, ..., en) | = sin a1 * sin a2 * ... * sin an
    Merci d'avance

    [Corrigé selon ton indication. AD]
  • je m'excuse c'est la valeure absolue du déterminant
  • Bonjour yoo.

    Tout d'abord, P.Fradin a rappelé la réalité géométrique qu'exprime ce résultat : parmi tous les (hyper)volumes ayant des arêtes toutes de même longueur, le (l 'hyper)cube est celui de volume maximum.

    Ensuite, j'aurais sans doute du fignoler un peu plus ma justification.

    La démonstration du résultat qui te pose problème repose, comme je l'ai écrit, sur le procédé d'orthogonalisation de (Gramm-)Schmidt. Le connais-tu ? Dans le cas contraire, en voici l'énoncé :
    \begin{quote}
    {\it Étant donnée une base orientée $\mathcal B = (a_1,...,a_n)$ d'un espace vectoriel euclidien de dimension $n\ E$, il existe une base orthonormée orientée $\mathcal B' = (e_1,...,e_n)$ telle que, pour tout entier $i \in \{1,...,n\}$ les vecteurs $(a_1,...a_i)$ et les vecteurs $(e_1,...,e_i)$ engendrent le même sous-espace de $E$ et vérifiant de plus, pour tout~$i,\ (a_i|e_i) > 0$.}
    \end{quote}
    Partons donc d'une base orthonormée orientée $\mathcal B = (a_1,...,a_n)$ et soit $\mathcal B' = (e_1,...,e_n)$ la base orthonormée orientée obtenue par la méthode de Gramm-Schmidt.

    Pour tout entier $i \in \{1,...,n\}$, puisque ma base $\mathcal B'$ est orthonormée, on a :
    $$a_i = \sum_{j=1}^n(a_i|e_j)\,e_j$$
    d'après le propriété de Schmidt, $a_i$ appartient au sous-espace engendré par les vecteurs $(e_1,...,e_i)$ donc :$$a_i = \sum_{j=1}^{j=i}(a_i|e_j)\,e_j$$ pour tout $j \in\{1,...,i\}$ l'inégalité de Schwartz nous donne $|(a_i|e_j)| \leq \|a_i\|\ldotp \|e_j\| = 1$. Ce produit scalaire est un cosinus puisque c'est le produit scalaire de deux vecteurs unitaires et il existe un unique réel $\theta_i \in\left[0,\dfrac \pi 2\right[$ tel que $(a_i|e_i) = \cos\theta_i$ ; notons que $(a_1|e_1) = 1$ et que $\theta_1 = 0$.
    En appliquant le caractère multilinéaire alterné du déterminant, je te laisse te convaincre que l'on a:$$\begin{array}{rcl}\det(a_1,...,a_n) &= &\det\left(e_1,\cos\theta_2\,e_2 + (a_2|e_1)\,e_1,...,\cos\theta_i\,e_i + \sum_{j=1}^{i-1}(a_i|e_j)\,e_j,...,\cos\theta_n\,e_n + \sum_{j=1}^{n-1}(a_n|e_j)\,e_j\right) \\ &= &\left(\prod_{i=2}^n\cos\theta_i\right)\det(e_1,...e_n).\end{array}$$
    D'où la formule, avec des cosinus tous positifs au lieu de sinus tous positifs ; mais un cosinus n'est jamais qu'un sinus qui s'ignore.

    Bruno
  • Merci pour cette réponse trés claire j'aimerais bien savoir s'il n'y a pas d'autres moyens pour démontrer ce résultat.
  • Merci Bruno pour tes explications si claires et détailles, difficile de rajouter quoi que ce soit après celà, mais j'ose toute fois proposer modestement une autre approche, moins logique peut-être.\\\\On définit pour un système $(x_1, .., x_n)$ son determinant de Gram comme le déterminant de la matrice $G$ de terme général $$. Si on note A la matrice des coordonées des vecteurs du système dans une base orthogonale alors G s'écrit $G=transposée(A)A$. \\On peut montrer par recurrence (en utilisant le fait que le determinant de Gram est inchangé si on ajoute à un vecteur une combinaison linéaire des autres) que le determiant (notons le g) vérifie:
    \[g(x_1, x_2, .., x_n) \leq g(x_1)g(x_2)..g(x_n) \]
    le cas d'égalité ayant lieu lorsque la famille est orthogonale. Ainsi comme $det\,G=(det\,A)^2$ et que $g(x_i)=$, on obtient bien l'inégalité attendue.\\\\Je dois pouvoir détailler l'obtention de l'inégalitée en faisant marcher ma mémoire mais je ne suis pas si sur qu'elle ne revienne pas à une sorte de Gram-Schmdit masqué à vrai dire.
  • Ne soit pas faussement modeste, randi.

    Le déterminant de Gram est un objet avec lequel je n'ai aucune familiarité. Pire, pour moi il reste très abstrait (c'est sans doute une autre façon de dire la même chose) ; aussi ne vais-je certainement pas penser à chercher dans cette direction une solution au problème posé. C'est une lacune :-(

    Le problème n'est même pas de savoir si les calculs sont plus rapides ou pas. Par contre et pour ma formation sur le déterminant de Gram (en espérant en faire un objet moins abstrait) je vais regarder la méthode que tu proposes. Même si c'est une forme masquée de Gram-Schmidt ainsi que tu l'écris (pour être franc, j'y ai pensé) j'ai besoin d'être plus au fait sur ce truc.

    Peut-être te recontacterai-je. En tout cas, merci pour cette idée qui répond à la question de yoo.

    Bruno
  • Hum... L'orthogonalisation de Gram-Schimdt est trop attractive. Il est clair que la relation est valable pour un système de vecteurs deux à deux orthogonaux ; donc j'orthogonalise.

    Bruno
  • Coucou,
    Voilà donc ma justification. En notant $E_2 = vect(x_2, .., x_n)$ et $p_2$ la projection orthogonale sur cet espace, on à $p_2(x_1) \in E_2$, et donc on à:
    \[g(x_1, x_2, .., x_n) = g(x_1- p_2(x_1), x_2, ... x_n)\]
    (une combinaison linéaire ne changeant pas le déterminant de Gram)
    Comme notre vecteur $x_1 - p_2(x_1)$ est orthogonaux aux autres vecteurs, on aura des 0 sur la premiere ligne et premiere colonne de la matrice de Gram sauf en (1, 1), ce qui permet de developper le déterminant et d'obtenir:
    \[g(x_1, x_2, .., x_n) = ||x_1 - p_2(x_1)||². g(x_2, ... x_n)\]
    On conclut par le théorème de Pythagore comme $||x_1||² = ||p_2(x_1)||² + ||x_1 - p_2(x_1)||²$, avec égalitée ssi la projection de $x_1$ sur les autres est nulle soit $x_1$ orthogonal aux autres:
    \[g(x_1, x_2, .., x_n) = ||x_1||². g(x_2, ... x_n)\]
  • Vouais... :-)

    Merci,

    Bruno
  • Merci pour toutes vos réponses trés precises j'aimerais bien savoir si vous connaissez d'autres encadrements du déterminant
    Merci d'avance
  • Je propose un raisonnement par récurrence, pour $n=1$ il n'y a rien à démontrer, supposons l'inégalité vraie au rang $n-1$:
    $$[v_1,\ldots,v_{n-1}]\leq \|v_1\|\times\cdots\times\|v_{n-1}\|$$

    Au rang $n$: il est possible de trouver une base orthonormée directe dans la laquelle la matrice de la famille $(v_1,\ldots,v_n)$ soit de la forme:
    $$A=\begin{pmatrix}
    *&\cdots&*&*\\
    \vdots&&\vdots&\vdots\\
    *&\cdots&*&*\\
    0&\cdots&0&\alpha\end{pmatrix}$$

    d'où $[v_1,\ldots,v_n]=\det(A)=[v_1,\ldots,v_{n-1}]\times\alpha$, or $|\alpha|\leq \|v_n\|$. Le résultat en découle d'après l'hypothèse de récurrence.
  • Rectificatif, il fallait lire: au rang $n-1$:

    $$\bigl|[v_1,\ldots,v_{n-1}]\bigr|\leq \|v_1\|\times\cdots\times\|v_{n-1}\|$$

    (valeur absolue du produit mixte)
  • qu'elle resultat prouve l'existance d'une base orthonormée ou la matrice aura cette forme
  • J'ai connu ça sous le nom d'inégalité de Hadamard, et ça passe bien avec une décomposition QR. Par exemple, voir ici <http://www.bibmath.net/dico/index.php3?action=affiche&quoi=./i/ineghadamard.html&gt;
    (flemme de réécrire :))
  • {\bf qu'elle resultat prouve l'existance d'une base orthonormée ou la matrice aura cette forme?}

    Il suffit de prendre une base othonormale d'un hyperplan contenant $v_1,\ldots,v_{n-1}$ et d'ajouter un vecteur unitaire normal à cet hyperplan de telle sorte que l'on ait une base directe.
  • Je rebondis sur mon propre message, le raisonnement par récurrence que j'ai donné donne également la formule déjà établie par Bruno lorsque les vecteurs $v_i$ sont unitaires, car au rang $n$ on a:

    $$[v_1,\ldots,v_n]=\det(A)=[v_1,\ldots,v_{n-1}]\times\alpha$$
    et $\alpha$ est un produit scalaire entre deux vecteurs unitaires, c'est donc un cosinus, on conclut avec l'hypothèse de récurrence: le produit mixte entre des vecteurs unitaires est donc un produit de cosinus (ou de sinus).
  • Bruno

    dans le procédé orthonormalisation de Gram Schmidt la base que l'on veut orthonormer n'est pas forcément orientée !!!?
  • Faux géo !

    Il faut bien énumérer les vecteurs de base puisque tu veux énumérer une suite croissante d'espaces vectoriels ; celui engendré par $a_1$, puis celui engendré par $\{a_1,a_2\}$ puis ... Sinon, rien ne fonctionne : ayant orthogonalisé $(a_1,a_2)$ avec $(e_1,e_2)$ il est clair que $e_2$ n'engendre le même sous-espace que $a_2$ que {\it si et seulement si} la base $(a_1,a_2)$ est {\it orthogonale} ce qui enlève tout son charme au procédé.

    Énumérer les vecteurs d'une base c'est choisir une base orientée. Ce qu'il ne faut pas confondre avec orienter l'espace. On peur orienter une base d'un $\C$-espace vectoriel mais on ne peut orienter celui-ci en l'absence de structure de corps ordonné.

    Bruno
  • Je m'y perds un peu là :

    Orienter l'espace c'est choisir une orientation c'est à dire choisir une des deux classes de l'ensemble des bases
    où la relation d'équivalenve est : deux bases sont dans la même classe ssi leur déterminant est de même signe

    Alors qu'est-ce que orienter une base (ou une base orientée) ??

    Merci
  • Je vois bien que tu t'y perds un peu mais tu n'es pas le seul ;-) Revenons aux sources.

    Soit $E$ un espace vectoriel sur un corps $\mathbb K$. Une base de $E$ c'est un système générateur libre. Si une base de $E$ possède $n$ éléments, toute autre base de $E$ possède exactement $n$ éléments.

    Dans ce dernier cas, ce n'est pas parce qu'on a l'habitude de noter $\mathcal B = (e_1,...,e_n)$ une base de $E$ que l'on doit nécessairement procéder ainsi et on devrait écrire $\mathcal B = \{e_1,...,e_n\}$ l'énumération est ici purement technique. C'est comme lorsque je dis "Les enfants de Jean se nomment Claudine, Charles et Pierre", tu ne peux déduire de cela qui est l'aîné.

    Quand $\mathcal B$ est une base de $E$, le choix d'un $n$-uplet $(e_1,...,e_n)$ des éléments de cette base {\bf est une base orientée} de l'espace, sous-entendu : déduite de $\mathcal B$, autrement dit, une base de $E$ permet de définir $n!$ bases orientées distinctes. Tu constates que tu peux orienter les bases de n'importe quel espace vectoriel sur n'importe quel corps.

    C'est d'un objet de ce type dont on a besoin dans le théorème d'orthogonalisation de Gram-Schmidt comme je te l'ai fait remarquer dans mon message précédent. Dans ce sens, on peut orthogonaliser une base d'un $\C$-espace vectoriel de dimension finie relativement à une forme hermitienne définie positive (sans toutefois se livrer à des subtilités sur des vecteurs de même sens).

    {\bf Orienter l'espace} signifie choisir parmi toutes une classe de bases orientées que l'on définit comme bases orientées de sens direct. Pour cela, il faut pouvoir définir ces classes et pour ce faire, cela n'a de sens, dans les utilisations courantes, que si le corps de base est un {\bf corps totalement ordonné}.

    Conclusion : tu peux orienter des bases de n'importe quel espace vectoriel, mais tu ne peux orienter n'importe quel espace vectoriel et il convient, si nécessaire, d'insister là dessus.

    Bruno
  • c'est limpide Bruno merci


    ps:sacré pedagogue quand même;)
  • Merci geo, j'apprécie le compliment à sa juste valeur ;-)

    Bruno
Connectez-vous ou Inscrivez-vous pour répondre.