Système linéaire

Bonsoir,

Soit $A \in M_{n,p} (\K)$ et le système linéaire $AX=B$.
On note $(C_1, \cdots C_p)$ les colonnes de $A$. Soit $B=(b_1, \cdots b_n) \in \K^n$.

Je ne comprends pas les remarques suivantes.

1/ Si $(C_1, \cdots C_p)$ est libre alors le système admet au plus une solution.

2/ Soit $\varphi_1 , \cdots \varphi_n$ les formes linéaires sur $\K^p$ canoniquement associées au lignes de $A$.
Si $x=(x_1, \cdots x_p)$ et $b=(b_1, \cdots b_n)$ le système peut s'écrire $\varphi_1(x)=b_1$ ... $\varphi_n(x)=b_n$. La recherche des $x \in E$ vérifiant ce système peut se traduire par un système linéaire de $n$ équations à $p$ inconnues.

Je n'ai pas compris comment on passe de la forme linéaire au système d'équation. Ça veut dire quoi canoniquement associé aux lignes de $A$ ?

3/ L'ensemble des solutions de $(S)$ est l'intersection de $n$ hyperplans affines.

Je n'ai pas compris car dans mon cours l'équation d'un hyperplan est de la forme $\sum_{k=1}^n a_i x_i=0$

4/ L'intersection de $n$ hyperplans, noyaux de formes linéaires sur un espace vectoriel de dimension $p$ est un sous-espace vectoriel, d'après le théorème du rang, il est de dimension $p-r$ où $r$ est le rang de la famille des formes linéaires, ou encore le rang des vecteurs lignes de la matrice $A$, si les formes linéaires sont indépendantes, il est de dimension $p-n$.

Je n'arrive pas à comprendre ce passage. On applique le théorème du rang à quelle application ?

Réponses

  • @Oshine selon toi un vecteur $b$ peut s'exprimer de deux façon différentes comme combinaison linéaire d'une famille libre de vecteurs ?

    Si oui pourquoi ?

    Si non pourquoi ?

    C'est le genre de choses qu'il faut connaître sur le bout des doigts, sans même avoir besoin de réfléchir.
  • Pour la question 2), une matrice ligne est la matrice d'une forme linéaire (dans deux bases fixées).
    La forme linéaire canoniquement associée est celle dont la matrice est cette ligne dans la base canonique de K^p au départ et de K à l'arrivée.

    Pour la question 3), il faut faire le lien entre l'équation d'un hyperplan comme tu l'as écrite, l'expression matricielle de la même chose et le noyau d'une forme linéaire non nulle.

    Pour la question 4), là, tu as raison ce n'est pas du tout évident a priori.
    Il faut faire le lien entre l'intersection des noyaux des formes linéaires $(\phi_1,\dots,\phi_n)$ et celui de l'application $\psi:x\mapsto (\phi_1(x),\dots,\phi_n(x))$, de $\K^p$ dans $\K^n$, puis celui de la matrice. Ensuite, applique le théorème du rang à $\psi$. Il reste alors à voir que le rang de l'application $\psi$ est égal au rang de la famille $(\phi_1,\dots,\phi_n)$... et là, ce n'est pas si simple.
  • @Raoul
    Non, la façon de s'écrire est unique car la liberté de la famille donne l'égalité des coefficients.
    Exemple : soit $(
    $x= a e_1 + b e_2$ et $x=a' e_1 + b' e_2$ alors $x-x=0 = (a'-a) e_1 + (b'-b) e_2$ donc par
    Mais je ne vois pas en quoi cela répond à la question 1 :-S

    @Bisam
    Merci mais pour le 2 je ne vois pas comment on déduit de $\varphi_1(x)=b_1$ etc les $n$ équations à $p$ inconnues.
    La 3 je ne vois toujours pas.
    Pour la 4 je n'ai pas compris le lien entre l'intersection des $n$ hyperplans et l'application linéaire
  • OShine a écrit:
    Mais je ne vois pas en quoi cela répond à la question 1

    Si tu ne vois pas c'est parce que tu n'as pas réellement compris ce qui se passe lorsque tu multiplies une matrice par un vecteur. Je reprends tes notations :

    $A$ est la matrice dont les colonnes sont $(C_1, \cdots C_p)$. Les $C_i$ sont donc des vecteurs colonne. Si $X$ est le vecteur colonne que je note $\begin{pmatrix}
    x_1\\
    .\\
    .\\
    .\\
    x_p \\
    \end{pmatrix}
    $
    alors le produit de $A$ par $X$ vaut (à calculer une fois et à mémoriser !!) $\displaystyle AX=\sum\limits_{i=1}^p x_iC_i$.

    Donc comme tu peux le remarquer $AX$ est une combinaison linéaire des colonnes de $A$.

    Tu vois maintenant pourquoi la question 1) est évidente ?
  • C'est toujours obscur.
    C'est quoi le rapport entre $AX$ combinaison linéaire des vecteurs colonnes de $A$ et "si $(C_1, \cdots C_p)$ est libre alors le système admet au plus une solution" ?
  • raoul.S t'a répondu ici et de façon on ne peut plus claire, il me semble.
    Récapitulons les éléments :
    • $AX$ est une combinaison linéaire des vecteurs colonnes de $A$ (voir explication ici).
    • Tu as vu (ici) qu'un vecteur (appelons-le $b$) peut s'exprimer d'au plus une manière comme combinaison linéaire d'une famille libre de vecteurs.
    • Tu veux en conclure que le système $AX=B$ admet au plus une solution.

    De combien de façon peut-on exprimer le vecteur $B$ comme combinaison linéaire de la famille libre des vecteurs $(C_1 \, , \, \dots \, , \, C_p)$ ?
  • Merci j'ai enfin compris, c'est subtil comme raisonnement.

    Pour la suite.
    Si $\varphi_1, \cdots \varphi_n$ les formes linéaires sur $\K^p$ canoniquement associées aux lignes.
    Si $x=(x_1, \cdots x_p)$ et $b=(b_1, \cdots b_n)$ alors le système $(S)$ peut s'écrire :
    $\varphi_1(x)=b_1$ etc $\varphi_n(x)=b_n$

    Je n'ai pas trop compris la notion de "canoniquement associées aux lignes".
    Bisam m'a expliqué mais je n'arrive pas à voir.
    $\varphi_1$ est l'application qui va de $\K^p$ dans $\K$ et tel que $\varphi_1(x)=b_1$ mais je ne comprends pas où apparaît la matrice $A$ et ses lignes dans cette expression :-S
    Que vaut $\varphi_1(e_1)$ par exemple ?

    Avec cette interprétation, il est évident que
    l'ensemble des solutions de $(S)$ est l'intersection de $n$ hyperplans affines.
    Je ne vois pas pourquoi.

    L'ensemble des solutions du système $(S_0)$ est l'intersection des noyaux des formes linéaires $\varphi_1, \cdots \varphi_n$ c'est-à-dire $n$ hyperplans vectoriels.
    Il faut montrer que les formes linéaires sont non nulles non ?
  • [Je reformule un peu le propos de Bisam]

    Une façon (que je trouve) naturelle de comprendre ce dont on parle est de passer par la notion de dualité, et de voir qu'en dimension finie on peut représenter une forme linéaire (continue) $\phi$ de $(\mathbb{R}^{n}, \left \langle | \right \rangle)$ (vu comme un espace de Hilbert, c'est à dire avec un produit scalaire) par exactement un élément $e_{\phi} \in \mathbb{R}^{n}$ tel que $\phi(e)=\left \langle e_{\phi}| e \right \rangle=e_{\phi}^{T}e$ (c'est le théorème de représentation de Riesz).
    Le point b) propose donc simplement de considérer $\varphi_{i}=\left \langle L_{i} | \cdot \right \rangle$ pour chaque ligne.


    PS: Au passage, regarde wikipédia pour les formes linéaires, surtout la section Représentations matricielles.
  • Oshine, je pense que tu ne laisses pas assez de liberté à ton esprit... et ça te bloque.
    Ici, il faut voir les lignes la matrice comme... des matrices elles-mêmes, à une ligne et $p$ colonnes.
    Tu avais déjà eu ce blocage dans un autre fil où on faisait l'opération inverse en mettant dans une matrice les coefficients de $n$ lignes.

    Une fois compris cela, la fonction $\varphi_i$ "canoniquement associée à la $i$-ème ligne" est simplement la fonction dont la matrice dans la base canonique de $\K^p$ au départ et celle de $\K$ à l'arrivée est la $i$-ème ligne de la matrice $A$, vue elle-même comme une matrice.
  • Polka je préfère éviter la dualité, j'ai du mal avec cette notion. J'ai étudié cela dans le chapitre dimension finie. J'arrive à comprendre les démonstrations mais elles sont techniques et les exercices j'ai du mal.

    J'ai réussi à comprendre l'endomorphisme canoniquement associé à une matrice mais j'ai mis du temps déjà. Mon livre ne donnant pas d'exemples concrets et restant très théorique.

    @Bisam
    La 4 j'ai réussi à comprendre grâce à votre explication.

    Il me reste juste la 3 je ne vois pas pourquoi l'ensemble des solutions $(S)$ est l'intersection de $n$ hyperplans affines.
  • O Shine,

    Les intervenants ne veulent pas voir écrit "j'ai réussi à comprendre (...)", car notre expérience montre que tel n'est généralement pas le cas. Écris donc une réponse adaptée à ce que l'on te demande, et les intervenants jugeront eux-mêmes si tu as compris ou pas. C'est comme çà sur ce forum ; il faut prouver ses dire.

    Cordialement,

    T. Poma
    Le chat ouvrit les yeux, le soleil y entra. Le chat ferma les yeux, le soleil y resta. Voilà pourquoi le soir, quand le chat se réveille, j'aperçois dans le noir deux morceaux de soleil. (Maurice Carême).
  • Par exemple si $M=I_3$
    L'endomorphisme canoniquement associé à la première ligne de $M$ qu'on peut noté $\varphi_1 : \K^3 \longrightarrow \K$ vérifie $\varphi_1(e_1)=1$, $\varphi_1(e_2)=0$ et $\varphi_1(e_3)=0$
  • Du début, parcequ'il y a trop de post:
    Soit $A \in M_{n,p} (\K)$ et le système linéaire
    $Ax=b$; $p\le n$.
    On note $(C_1, \cdots C_p)$ les colonnes de $A$ et $A=[a_{i,j}]$.
    Soit $b^T=(b_1, \cdots b_n) \in \K^n$, $x\in M_{p,1}$

    s'il y a deux solutions $x_0$ et $x$ distinctes alors on a $A(x-x_0)=0$, ici $x-x_0=\begin{pmatrix}x_1\\\vdots\\x_p\end{pmatrix}$ donc on aura le système à $n$ équations pour chaque $i$: $$ \sum_{j=1}^p a_{i,j}x_j=0$$ en d'autre termes $C_1x_1+\cdots+C_px_p=0$ contradiction.

    Il reste le $ 4/$ peut être.
    Cordialement.
  • Le 4 j'ai compris en relisant en détails l'explication de Bisam (:P)

    Je n'ai pas vraiment compris, mais j'ai l'impression que vous montrez l'unicité alors le point 3 est que l'ensemble des solutions est l'intersection de $n$ hyperplans affines...
  • Dans le points pas ce que je ne comprends pas c'est que dans l'équation d'un hyperplan il n'y a pas de constante alors qu'ici :

    $\varphi_1(x)=b_1$ donne $a_{11} x_1 + \cdots a_{nn} x_n = b_1$

    Donc $\varphi_1(x)=b_1$ donne $a_{11} x_1 + \cdots a_{nn} x_n - b_1=0$

    L'équation d'un hyperplan est $\displaystyle\sum_{k=1}^n a_k x_k =0$ avec les $a_i$ non tous nuls.
  • C'est que tu as loupé le mot affine dans "hyperplans affines".
  • Ah bien vu merci !
    Je n'ai pas encore vu cette notion mais je vois que c'est dans le chapitre qui suit "géométrie affine"
Connectez-vous ou Inscrivez-vous pour répondre.