Noyau d'une matrice non canonique

Bonjour, je lis toujours en ligne que le Ker d'une matrice est l'ensemble des X verifiant AX=0. Je comprends ceci dans les bases canoniques, mais si A n'est pas donné dans les bases canoniques, et supposons qu'on trouve W tel que AW=0, ne faut il pas alors multiplier les composantes de W avec les composantes de la base de départ pour trouver alors un vecteur Y qui vérifie f(Y)=0, avec f l'application linéaire associée à la matrice?

Réponses

  • Une matrice en soi ne fait référence à aucune "base canonique". Il n'y a pas d’ambiguïté dans la définition du noyau d'une matrice. Ce qui est vrai en revanche, c'est que le noyau d'une application linéaire est le noyau de n'importe laquelle de ses matrices dans une base, mais dans ce cas, l'identification vecteur du noyau de $f \, \leftrightarrow$ vecteur colonne du noyau de $A$ se fait relativement à cette base.
  • Merci pour ta réponse mais je n'ai pas très bien compris où tu voulais en venir avec l'identification. Si le noyau d'une application linéaire est le noyau de n'importe laquelle de ses matrices dans une base alors toutes ces matrices ont le même noyau.
  • Il ne faut pas confondre vecteur d'un espace vectoriel, et vecteur colonne (dans $\mathbb R^n$ par exemple). Le passage de l'un à l'autre se fait toujours une fois qu'on a fixé une base. Si on change de base, la représentation des vecteurs de ton espace vectoriel en vecteurs colonnes change.

    Quand je dis que le noyau d'une application linéaire "est" le noyau de n'importe laquelle de ses matrices, il y a un abus. Ce qui est vrai est que si je dispose de mon application linéaire $f : E \to F$, que je fixe une base $\mathcal B = (e_1, \dots, e_n)$ de $E$ et une base $\mathcal B' = (f_1, \dots, f_r)$ de $F$, alors le noyau de $f$ (en tant que sous-espace vectoriel de $E$), est l'image réciproque du noyau de la matrice de $f$ dans les bases $\mathcal B$ et $\mathcal B'$ par l'application qui à un vecteur $x \in E$ associe son vecteur-colonne de coordonnées dans $\mathcal B$. C'est une identification car l'application dont je parle est bien évidemment bijective.

    Tu devrais prendre des exemples très simples pour y voir plus clair, tu prends par exemple l'application $e_1 \mapsto e_1+e_2$ et $e_2 \mapsto e_1 + e_2$ dans un espace vectoriel de dimension $2$ où $(e_1, e_2)$ est une base. Donne le noyau de cet endomorphisme, puis le noyau de sa matrice dans la base $(e_1, e_2)$ puis le noyau de sa matrice dans la base $(e_1, e_1+e_2)$.
  • Le noyau d'une application linéaire $f:E\to F$ ($E$ de dimension $p$, $F$ de dimension $n$) est un sous-espace de $E$.
    Le noyau d'une matrice $M\in \mathcal{M}_{n,p}(K)$ est un sous-espace vectoriel de $K^p$.
    Ça n'a un sens d'identifier les deux que si l'on dispose d'un isomorphisme $K^p\simeq E$, ce qui revient exactement à se donner une base $\mathcal E$ de $E$ (image par l'isomorphisme de la base canonique).
    Une fois ce choix de $\mathcal E$ fait, pour toute base $\mathcal F$ de $F$, si $M$ est la matrice de $f$ dans les bases $\mathcal E$ au départ et $\mathcal F$ à l'arrivée, le noyau de $f$ est l'image du noyau de $A$ par l'isomorphisme $K^n\to E$ associé à $\mathcal E$.
  • Poirot: Donc c'est bien ce que je pensais lorsque tu dis:
    "l'image réciproque du noyau de la matrice de $f$ dans les bases $\mathcal B$ et $\mathcal B'$ par l'application qui à un vecteur $x \in E$ associe son vecteur-colonne de coordonnées dans $\mathcal B$. "

    C'est à ça (et cette application) que je faisais allusion lorsque je parlais de "supposons qu'on trouve W tel que AW=0, ne faut il pas alors multiplier les composantes de W avec les composantes de la base de départ pour trouver alors un vecteur Y qui vérifie f(Y)=0"

    Je me rends compte que ma confusion venait de mélanger noyau de l'application linéaire et noyau de la matrice (ici seulement AX=0, peu importe la base). Mais j'ai maintenant compris que ce sont deux choses différentes (si on pose la question), merci.
  • Pas si différentes que ça. Une matrice $M\in \mathcal{M}_{n,p}(K)$ est canoniquement associée à une application linéaire $K^p\to K^n$, et le noyau de cette application linéaire est bien sûr le noyau de cette matrice.
  • C'est vrai GaBuZoMeu mais je voulais juste vérifier si les deux étaient similaires pour des bases quelconques.

    J'ai une autre question en rapport, si X est une valeur propre de l'endomorphisme f, alors c'est une valeur propre de sa matrice A seulement si A est exprimé canoniquement n'est-ce pas? Car là encore sur le net (ou mon cours) on ne distingue pas la différence.
  • Bonsoir.

    Soit $ f E\mapsto E$, un endomorphisme. S'il existe un X et un u tels que f(u)=Xu, qu'est-ce que ça donne, traduit à l'aide d'une base $\mathcal B$ de E ?

    Cordialement.
  • Bonsoir,

    Si $u=\lambda _1 b_1 +...+\lambda_n b_n$ alors $Xu=X\lambda _1 b_1 +...+X\lambda_n b_n$. Je ne vois pas en quoi ça nous avance, la représentation en matrice dépend de la base, donc je vois seulement que, avec $A_1$ la matrice dans une base, et $A_2$ la matrice dans une autre base; $A_1 u \neq A_2 u $ Au mieux on peut identifier les applications canoniquement associées à ces deux matrices pour se rendre compte de la non-égalité. Donc je ne comprends pas pourquoi on ne fait pas la différence.
  • Non, même si A n'est pas exprimée dans la base canonique, si tu appelle P, la matrice de passage d'une base à une autre, tu auras $P A P^{-1} -X Id=P(A-X Id)P^{-1}$.
    Donc $P A P^{-1} -X Id$
    et $A-X Id$
    ont même déterminant. Tu vois donc que A a les mêmes valeurs propres peut importe la base
  • Code_name,

    dans une base donnée, u est de vecteur composante U et f a pour matrice A. Par définition de la matrice, f(u)=Xu donne AU=XU et X est une valeur propre de A.
    Revoir un cours d'algèbre linéaire pour avoir le lien matrice/endomorphisme.

    Cordialement.
  • Noutch il y a des choses qui m'echappent. Comment est-ce que $XId=PXIdP^{-1}$ (la multiplication matricielle n'est pas commutative) mais aussi comment cela implique qu'ils aient la même valeur propre. J'ai lu en ligne une preuve sur l'égalité de déterminants de deux matrices d'endomorphismes dans des bases quelconques. Mais concernant les valeurs propres je reste dubitatif.

    Encore une fois, si $A_1$ et$A_2$ sont deux matrices d'un endomorphisme dans des bases quelconques, on peut voir qu'elles n'ont pas même valeur propre en cherchant chacune de leur application linéaire associée dans la base canonique que l'on appelera $f_1$ et $f_2$. L'image des valeurs propres de ces deux matrices, $u_1$ et $u_2$, supposons non égales, cela suffit donc pour l'argument.


    Edit: Je n'ai pas vu ton message gerard, j'ai confondu valeur propre et vecteur propre dans mon message ci dessus. Je vois alors facilement le résultat si on a les mêmes bases de départ et d'arrivée, est-ce que c'est une condition?
  • J'ai lu en ligne ...
    Plutôt que de farfouiller sur internet et de n'en retirer que de la bouillie, tu ferais beaucoup mieux de t'équiper d'un manuel honnête d'Algèbre Linéaire (le Grifone, par exemple) et de l'étudier sérieusement.

    On a bien sûr $X\,I_n= P^{-1}\, X\,I_n\,P$ ; la matrice $X\,I_n$ ($X$ est un scalaire) commute avec toutes les matrices.
  • Merci GaBuZoMeu. J'aurais dû regarder cette commutativité. En fait ce détail apparait dans mon cours en l'ayant cherché mais apparait dans une preuve donc je l'ai un peu "zappé". En fait je regarde en ligne lorsqu'il y a un détail qui n'apparait pas dans mon cours ou que je ne comprends pas. C'est ce qui se fait de plus rapide et c'est plus pratique que de se rendre à la bibliotheque jute pour un détail lorsqu'on n'est même pas sûr de trouver, mais en règle général mon cours me suffit.
  • Oui oui, et l'égalité des déterminants prouve l'égalité des polynômes caractéristiques, et donc des valeurs propres
  • Merci Noutch je vois.
Connectez-vous ou Inscrivez-vous pour répondre.