popriété du déterminant
Bonjour, je n'arrive pas à démontrer cette propriétés :
Soit M une matrice carrée d'ordre n V1, V2, ..., Vn les vecteurs colonnes.
Alors la valeur absolue du déterminant de M est inférieure ou égale au produits des normes des vecteurs V1, ..., Vn
Merci d'avance
[J'ai ramené le niveau de M2/++ à L1/L2. AD]
Soit M une matrice carrée d'ordre n V1, V2, ..., Vn les vecteurs colonnes.
Alors la valeur absolue du déterminant de M est inférieure ou égale au produits des normes des vecteurs V1, ..., Vn
Merci d'avance
[J'ai ramené le niveau de M2/++ à L1/L2. AD]
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses
on sait que l'application $$\varphi:M_n(\R)->R M->det(M)$$ est continue car multilinière , alors :
$\\exists C>0 \forall M\in M_n(\R) |det(M)|\leqC*\prod_{i=1}^n ||V_i||$
et C dépend de la norme de $\M_n(\R)$,et il existe une norme tq c=1 par exemple $\C^(1/n)*||.||$.
on sait que l'application :
$$\varphi:M_n(\R)->\R M->det(M)$$ est continue car multilinière , alors :
$\ \exists C>0 \forall M\in M_n(\R) |det(M)|
Voici une méthode simple. Au lieu de m'intéresser aux matrices, je me suis à l'époque intéressé aux vecteurs d'un espace vectoriel euclidien de dimension $n$ afin de d'étudier la norme du $n - 1$-vecteur. Bref, c'est la même chose si ce n'est qu'il va falloir transposer. Tous les déterminants sont pris relativement à une base orthonormée orientée $\mathcal B$.
\begin{itemize}
\item si $(e_1,...,e_n)$ est une base orthonormée de l'espace, alors $|\det(e_1,...,e_n)| = 1$, c'est une trivialité.
\item si $(a_1,...,a_n)$ est une base {\bf normée} alors il existe $(\theta _1,...,\theta_n)$ tels que $|\det(a_1,...,a_n)| = \prod_{j=1}^n\sin\theta_j$ En effet, en appliquant le procédé d'orthogonalisation de Schmidt, et en appelant $(e_1,...,e_n)$ la base obtenue, on a :$$\forall\,j \in \{1,..,n\}\ \exists\,\theta_j \quad a_j = \sin\theta_j\,e_j + \cos\theta_j\left(\sum_{k=1}{j-1}\lambda_{j,k}\,e_k\right).$$Cela se déduit immédiatement de $\|a_j\| = 1$ et $(e_1,...,e_n)$ orthonormée, on peut même choisir la base $(e_j)_{1\leq j\leq n}$ de façon que les sinus soient positifs. Par conséquent après cette dernière remarque :$$|\det(a_1,...,a_n)| = \prod_{j=1}^n\sin\theta_j.$$
\item Soit $(V_j)_{1 \leq j \leq n}$ une base quelconque, on pose $\|V_j\|\,a_j = V_j$ et on applique ce qui précède :$$|\det(V_1,...,V_n)| = \prod_{j=1}^n\|V_j\|\prod_{k=1}^n\sin\theta_k \leq \prod_{j=1}^n\|V_j\|.$$
\end{itemize}
Bruno
Une erreur de frappe a rendu une sommation incompréhensible. Il faut lire :$$\forall\,j \in \{1,..,n\}\ \exists\,\theta_j \quad a_j = \sin\theta_j\,e_j + \cos\theta_j\left(\sum_{k=1}^{j-1}\lambda_{j,k}\,e_k\right).$$
au lieu de :$$\forall\,j \in \{1,..,n\}\ \exists\,\theta_j \quad a_j = \sin\theta_j\,e_j + \cos\theta_j\left(\sum_{k=1}{j-1}\lambda_{j,k}\,e_k\right).$$
Bruno
Merci de votre réponse mais je n'arrive pas à conprendre ce résultat :
Si (e1, ..., en) est une base normée alors il existe (a1, ..., an) tel que
[Corrigé selon ton indication. AD]
Tout d'abord, P.Fradin a rappelé la réalité géométrique qu'exprime ce résultat : parmi tous les (hyper)volumes ayant des arêtes toutes de même longueur, le (l 'hyper)cube est celui de volume maximum.
Ensuite, j'aurais sans doute du fignoler un peu plus ma justification.
La démonstration du résultat qui te pose problème repose, comme je l'ai écrit, sur le procédé d'orthogonalisation de (Gramm-)Schmidt. Le connais-tu ? Dans le cas contraire, en voici l'énoncé :
\begin{quote}
{\it Étant donnée une base orientée $\mathcal B = (a_1,...,a_n)$ d'un espace vectoriel euclidien de dimension $n\ E$, il existe une base orthonormée orientée $\mathcal B' = (e_1,...,e_n)$ telle que, pour tout entier $i \in \{1,...,n\}$ les vecteurs $(a_1,...a_i)$ et les vecteurs $(e_1,...,e_i)$ engendrent le même sous-espace de $E$ et vérifiant de plus, pour tout~$i,\ (a_i|e_i) > 0$.}
\end{quote}
Partons donc d'une base orthonormée orientée $\mathcal B = (a_1,...,a_n)$ et soit $\mathcal B' = (e_1,...,e_n)$ la base orthonormée orientée obtenue par la méthode de Gramm-Schmidt.
Pour tout entier $i \in \{1,...,n\}$, puisque ma base $\mathcal B'$ est orthonormée, on a :
$$a_i = \sum_{j=1}^n(a_i|e_j)\,e_j$$
d'après le propriété de Schmidt, $a_i$ appartient au sous-espace engendré par les vecteurs $(e_1,...,e_i)$ donc :$$a_i = \sum_{j=1}^{j=i}(a_i|e_j)\,e_j$$ pour tout $j \in\{1,...,i\}$ l'inégalité de Schwartz nous donne $|(a_i|e_j)| \leq \|a_i\|\ldotp \|e_j\| = 1$. Ce produit scalaire est un cosinus puisque c'est le produit scalaire de deux vecteurs unitaires et il existe un unique réel $\theta_i \in\left[0,\dfrac \pi 2\right[$ tel que $(a_i|e_i) = \cos\theta_i$ ; notons que $(a_1|e_1) = 1$ et que $\theta_1 = 0$.
En appliquant le caractère multilinéaire alterné du déterminant, je te laisse te convaincre que l'on a:$$\begin{array}{rcl}\det(a_1,...,a_n) &= &\det\left(e_1,\cos\theta_2\,e_2 + (a_2|e_1)\,e_1,...,\cos\theta_i\,e_i + \sum_{j=1}^{i-1}(a_i|e_j)\,e_j,...,\cos\theta_n\,e_n + \sum_{j=1}^{n-1}(a_n|e_j)\,e_j\right) \\ &= &\left(\prod_{i=2}^n\cos\theta_i\right)\det(e_1,...e_n).\end{array}$$
D'où la formule, avec des cosinus tous positifs au lieu de sinus tous positifs ; mais un cosinus n'est jamais qu'un sinus qui s'ignore.
Bruno
\[g(x_1, x_2, .., x_n) \leq g(x_1)g(x_2)..g(x_n) \]
le cas d'égalité ayant lieu lorsque la famille est orthogonale. Ainsi comme $det\,G=(det\,A)^2$ et que $g(x_i)=$, on obtient bien l'inégalité attendue.\\\\Je dois pouvoir détailler l'obtention de l'inégalitée en faisant marcher ma mémoire mais je ne suis pas si sur qu'elle ne revienne pas à une sorte de Gram-Schmdit masqué à vrai dire.
Le déterminant de Gram est un objet avec lequel je n'ai aucune familiarité. Pire, pour moi il reste très abstrait (c'est sans doute une autre façon de dire la même chose) ; aussi ne vais-je certainement pas penser à chercher dans cette direction une solution au problème posé. C'est une lacune :-(
Le problème n'est même pas de savoir si les calculs sont plus rapides ou pas. Par contre et pour ma formation sur le déterminant de Gram (en espérant en faire un objet moins abstrait) je vais regarder la méthode que tu proposes. Même si c'est une forme masquée de Gram-Schmidt ainsi que tu l'écris (pour être franc, j'y ai pensé) j'ai besoin d'être plus au fait sur ce truc.
Peut-être te recontacterai-je. En tout cas, merci pour cette idée qui répond à la question de yoo.
Bruno
Bruno
Voilà donc ma justification. En notant $E_2 = vect(x_2, .., x_n)$ et $p_2$ la projection orthogonale sur cet espace, on à $p_2(x_1) \in E_2$, et donc on à:
\[g(x_1, x_2, .., x_n) = g(x_1- p_2(x_1), x_2, ... x_n)\]
(une combinaison linéaire ne changeant pas le déterminant de Gram)
Comme notre vecteur $x_1 - p_2(x_1)$ est orthogonaux aux autres vecteurs, on aura des 0 sur la premiere ligne et premiere colonne de la matrice de Gram sauf en (1, 1), ce qui permet de developper le déterminant et d'obtenir:
\[g(x_1, x_2, .., x_n) = ||x_1 - p_2(x_1)||². g(x_2, ... x_n)\]
On conclut par le théorème de Pythagore comme $||x_1||² = ||p_2(x_1)||² + ||x_1 - p_2(x_1)||²$, avec égalitée ssi la projection de $x_1$ sur les autres est nulle soit $x_1$ orthogonal aux autres:
\[g(x_1, x_2, .., x_n) = ||x_1||². g(x_2, ... x_n)\]
Merci,
Bruno
Merci d'avance
$$[v_1,\ldots,v_{n-1}]\leq \|v_1\|\times\cdots\times\|v_{n-1}\|$$
Au rang $n$: il est possible de trouver une base orthonormée directe dans la laquelle la matrice de la famille $(v_1,\ldots,v_n)$ soit de la forme:
$$A=\begin{pmatrix}
*&\cdots&*&*\\
\vdots&&\vdots&\vdots\\
*&\cdots&*&*\\
0&\cdots&0&\alpha\end{pmatrix}$$
d'où $[v_1,\ldots,v_n]=\det(A)=[v_1,\ldots,v_{n-1}]\times\alpha$, or $|\alpha|\leq \|v_n\|$. Le résultat en découle d'après l'hypothèse de récurrence.
$$\bigl|[v_1,\ldots,v_{n-1}]\bigr|\leq \|v_1\|\times\cdots\times\|v_{n-1}\|$$
(valeur absolue du produit mixte)
(flemme de réécrire )
Il suffit de prendre une base othonormale d'un hyperplan contenant $v_1,\ldots,v_{n-1}$ et d'ajouter un vecteur unitaire normal à cet hyperplan de telle sorte que l'on ait une base directe.
$$[v_1,\ldots,v_n]=\det(A)=[v_1,\ldots,v_{n-1}]\times\alpha$$
et $\alpha$ est un produit scalaire entre deux vecteurs unitaires, c'est donc un cosinus, on conclut avec l'hypothèse de récurrence: le produit mixte entre des vecteurs unitaires est donc un produit de cosinus (ou de sinus).
dans le procédé orthonormalisation de Gram Schmidt la base que l'on veut orthonormer n'est pas forcément orientée !!!?
Il faut bien énumérer les vecteurs de base puisque tu veux énumérer une suite croissante d'espaces vectoriels ; celui engendré par $a_1$, puis celui engendré par $\{a_1,a_2\}$ puis ... Sinon, rien ne fonctionne : ayant orthogonalisé $(a_1,a_2)$ avec $(e_1,e_2)$ il est clair que $e_2$ n'engendre le même sous-espace que $a_2$ que {\it si et seulement si} la base $(a_1,a_2)$ est {\it orthogonale} ce qui enlève tout son charme au procédé.
Énumérer les vecteurs d'une base c'est choisir une base orientée. Ce qu'il ne faut pas confondre avec orienter l'espace. On peur orienter une base d'un $\C$-espace vectoriel mais on ne peut orienter celui-ci en l'absence de structure de corps ordonné.
Bruno
Orienter l'espace c'est choisir une orientation c'est à dire choisir une des deux classes de l'ensemble des bases
où la relation d'équivalenve est : deux bases sont dans la même classe ssi leur déterminant est de même signe
Alors qu'est-ce que orienter une base (ou une base orientée) ??
Merci
Soit $E$ un espace vectoriel sur un corps $\mathbb K$. Une base de $E$ c'est un système générateur libre. Si une base de $E$ possède $n$ éléments, toute autre base de $E$ possède exactement $n$ éléments.
Dans ce dernier cas, ce n'est pas parce qu'on a l'habitude de noter $\mathcal B = (e_1,...,e_n)$ une base de $E$ que l'on doit nécessairement procéder ainsi et on devrait écrire $\mathcal B = \{e_1,...,e_n\}$ l'énumération est ici purement technique. C'est comme lorsque je dis "Les enfants de Jean se nomment Claudine, Charles et Pierre", tu ne peux déduire de cela qui est l'aîné.
Quand $\mathcal B$ est une base de $E$, le choix d'un $n$-uplet $(e_1,...,e_n)$ des éléments de cette base {\bf est une base orientée} de l'espace, sous-entendu : déduite de $\mathcal B$, autrement dit, une base de $E$ permet de définir $n!$ bases orientées distinctes. Tu constates que tu peux orienter les bases de n'importe quel espace vectoriel sur n'importe quel corps.
C'est d'un objet de ce type dont on a besoin dans le théorème d'orthogonalisation de Gram-Schmidt comme je te l'ai fait remarquer dans mon message précédent. Dans ce sens, on peut orthogonaliser une base d'un $\C$-espace vectoriel de dimension finie relativement à une forme hermitienne définie positive (sans toutefois se livrer à des subtilités sur des vecteurs de même sens).
{\bf Orienter l'espace} signifie choisir parmi toutes une classe de bases orientées que l'on définit comme bases orientées de sens direct. Pour cela, il faut pouvoir définir ces classes et pour ce faire, cela n'a de sens, dans les utilisations courantes, que si le corps de base est un {\bf corps totalement ordonné}.
Conclusion : tu peux orienter des bases de n'importe quel espace vectoriel, mais tu ne peux orienter n'importe quel espace vectoriel et il convient, si nécessaire, d'insister là dessus.
Bruno
ps:sacré pedagogue quand même;)
Bruno