Algèbre linéaire pour réfléchir ? — Les-mathematiques.net The most powerful custom community solution in the world

Algèbre linéaire pour réfléchir ?

$\def \R{\mathbb R}\def\scp#1#2{\langle#1|#2\rangle}\def\Im{\text{Im}}$Hello,
Le titre est peut-être prétentieux mais pas facile d'en trouver un (en peu de mots).
Ce fil est en particulier dédié à gai-requin, suite à une histoire de négation (je ne retrouve plus le fil en question). A ce propos, j'avais demandé à celui-ci de me fournir un énoncé (ou une preuve) général d'algèbre commutative dans lequel figurerait une négation générale. J'attends toujours.

Ici, ce n'est ni un exercice ni une colle.

On démarre petit avec deux vecteurs $a, b \in \R^n$ à qui on associe l'endomorphisme de $\R^n$ :
$$
u : \R^n \to \R^n, \qquad \qquad x \longmapsto \scp{b}{x} a + \scp{a}{x} b
$$
Il est clair que l'image de $u$ est contenue dans $\R.a + \R.b$.

1) On suppose $a,b$ linéairement indépendants et on veut montrer que $\Im u = \R.a + \R.b$. On peut par exemple y parvenir en montrant que $u$ est de rang $2$. A cet effet, on montre que $\ker u$ est de rang $n-2$, en disant:
$$
u(x) = 0 \iff \scp{b}{x} a + \scp{a}{x} b = 0 \iff \ \scp{b}{x} = \scp{a}{x} = 0
$$
On a donc $\ker u = \ker \scp{b}{\bullet} \cap \ker\scp{a}{\bullet}$. Et puisque les deux formes linéaires sont indépendantes ... etc ...
Ou tout autre moyen à votre convenance.

2) On s'interroge maintenant sur le fait d'exhiber un antécédent de $a$ par $u$. Idem pour $b$. Mais on veut le faire de manière générale en fonction des composantes $a_i, b_j$ de $a, b$.
Il convient donc de remplacer $\R$ par un anneau commutatif quelconque. On peut penser par exemple au fait que les $a_i, b_j$ sont des indéterminées sur $\Z$. On verra plus tard où il faut se placer.

Pour y parvenir (obtention d'un antécédent de $a$ par $u$), on va devoir enrichir les hypothèses sur $a$ et $b$. L'hypothèse initiale consistait en le fait que les vecteurs $a, b$ étaient linéairement indépendants et donc une certaine propriété des mineurs :
$$
a_ib_j - a_jb_i = \left| \matrix {a_i & b_i \cr a_j & b_j} \right |
$$
Quelle propriété ? Et ensuite ?

Réponses

  • Pas de négation mais des déterminants plein la tête jusqu'à la fin de mes jours !

    Je conseille à ceux qui n'ont fait de l'algèbre linéaire que sur un corps de tenter de caractériser l'indépendance linéaire de deux vecteurs sur un anneau commutatif quelconque en termes de mineurs.
    Excellent exercice pour se mettre dans l'ambiance !
    Et comme dit Claude, ça rend modeste !
  • Pourquoi s'embeter : les espaces propres de $u$ sont engendres par les deux vecteurs $\frac{a}{\|a\|}\pm \frac{b}{\|b\|}.?$
  • P.
    Bien sûr, pourquoi s'embêter ? Et sur un anneau commutatif ? Tu connais la condition sur les mineurs pour l'indépendance linéaire (sur un ANNEAU) ? Et la surjectivité sur $Aa + Ab$ ? Tu as vraiment compris ce que je voulais signifier, où je voulais en venir ? En un mot : réfléchir.
  • Non, pas vraiment....
  • @P.
    Ah, je comprends : tu as cru que c'était un exercice sur $\R^n$ que j'avais à faire pour demain et tu as voulu m'aider ? Mais c'est bizarre, car ni dans le post, ni dans le titre, je ne vois mention de cela (exercice pour demain). On a même l'impression dans le point 2. de voir le mot ``anneau commutatif''.
  • A propos de http://www.les-mathematiques.net/phorum/read.php?3,1599560,1599560#msg-1599560

    1) Une précision concernant la première étape. Puisque $\text{Im}(u) = \R.a + \R.b$, il y a donc des $x \in \R^n$ tels que $u(x) = a$. Il est juste demandé d'expliciter un tel $x$ à l'aide d'une expression (formule) algébrique.

    2) Volet anneau commutatif. Un exemple vachement complexe :
    $$
    A = \Z, \qquad n = 2, \qquad a = \pmatrix {1\cr 0}, \qquad b = \pmatrix {0\cr 2}
    $$
    Les vecteurs $a, b$ sont sans aucun doute linéairement indépendants. Quelle est l'application linéaire $u : \Z^2 \to \Z^2$ ? Est ce que $a$ est dans l'image de $u$ ? Est ce que $b$ est dans l'image de $u$ ?
  • Pour le 2), $u:\begin{pmatrix}x\\y\end{pmatrix}\mapsto 2ya+xb$ donc $u(a)=b$ et $a\notin \rm{Im} (u)$.
  • @gai-requin
    Ok. Et on peut voir $u$ sous la forme $\pmatrix {0 & 2\cr 2 & 0\cr}$.

    Et pour le 1) une expression algébrique d'un $x$ vérifiant $u(x) = a$ ?
  • Pour le 1), soit $i$ et $j$ tels que $\Delta_{i,j}=b_ia_j-b_ja_i$ soit inversible. ;-)

    Alors le vecteur $x$ tel que $x_i=\Delta_{i,j}^{-1}a_j$, $x_j=-\Delta_{i,j}^{-1}a_i$ et les autres coordonnées sont nulles vérifie $u(x)=a$.
  • @gai requin
    Tiens, on y vient : non nul est remplacé par inversible.

    Cadre anneau commutatif. On peut obtenir un antécédent $x$ de $a$ par $u$ avec une hypothèse plus générale concernant la FAMILLE des $a_ib_j - a_jb_i$. Je veux dire pas besoin de disposer d'un $(i,j)$ tel que $a_ib_j - a_jb_i$ soit inversible. Avec une formule explicite pour $x$. De quoi, je parle ?
  • Salut Claude
    Supposons qu'il existe une relation $$\sum_{ij} u_{ij} \delta_{ij} = 1
    $$ Soit $x_{ij} = a_j e_i - a_i e_j$ et notons $x = \sum_{ij} u_{ij} x_{ij}$.
    D'après les calculs de Gai requin, on a $u(x_{ij}) = \delta_{ij}a$, on en déduit que : $$u(x) = \sum_{ij} u_{ij} u(x_{ij}) = \sum_{ij} u_{ij} \delta_{ij} a = a
    $$ Mon idée, c'est de recoller les solutions comme dans l'histoire des anneaux arithmétiques. Sans garantie :-D
  • Pas trop le temps aujourd'hui mais [cet exemple] m'interpelle.

    Un seul mineur qui vaut $2$, $b$ a un antécédent mais pas $a$. :-S

    Donc est-ce qu'on cherche une condition sur les mineurs d'ordre $2$ de $a$ et $b$ pour que $a$ et $b$ soient tous les deux dans $\rm{Im}(u)$ ?
    Si c'est le cas, moduloP a donné la réponse...
  • En fait Gai requin, je n'ai pas trop bien compris la question, non plus :-D
  • moduloP a donné une réponse (partielle, disons). Bilan (mais peut-être encore des preuves à faire) : si je note $I$ l'idéal engendré par tous les mineurs $a_ib_j - a_jb_i$, il ne faut pas confondre :
    $$
    1 \in I \qquad\qquad \hbox {et} \qquad\qquad \hbox {$I$ est fidèle ie. $\alpha I = 0 \Rightarrow \alpha = 0$}
    $$
    Bien sûr que personne ne confond ces deux assertions concernant $I$ (même au dessus de $\Z$). A droite, cela traduit l'indépendance linéaire de $a,b$ et à gauche, le $1 \in I$ traduit la surjectivité de $u$ (sur $Aa \oplus Ab$).

    Et sur un corps, on ne voit plus la différence car tout devient $I \ne 0$.
    Et voilà pourquoi en Algèbre Commutative, j'utilise rarement (voire jamais) $\text{truc} \ne 0$ car ce regard sur truc est bien trop grossier : on a besoin d'un oeil plus fin pour distinguer régulier et inversible par exemple (sur $\Z$, ce n'est pas tout-à-fait la même chose).
  • Petit bilan :
    Soit $M$ une matrice à deux lignes dont les coefficients sont dans un anneau commutatif $R$ non nul.
    Alors $M$ est surjective $\Leftrightarrow$ $1$ est dans l'idéal engendré par les mineurs de $M$ d'ordre $2$. A PROUVER.

    Dans le cas étudié ici, $a$ et $b$ étant indépendants, on peut voir $u$ comme un endomorphisme $R^n\rightarrow Ra\oplus Rb$ et on aimerait bien savoir à quelle condition $u$ est surjectif.
    Pour cela, soit $M$ la matrice de $u$ obtenue en choisissant la base canonique de $R^n$ et la base $(a,b)$ de $Ra\oplus Rb$. On a $$M=\begin{pmatrix} b_1&b_2&\ldots&b_n\\a_1&a_2&\ldots&a_n\end{pmatrix}.$$
    Ainsi, $u$ est surjectif $\Leftrightarrow$ $1$ est dans l'idéal $I$ engendré par les mineurs de $a$ et $b$ d'ordre $2$.
  • @gai-requin
    Merci pour le bilan. Deux mini-remarques.

    1) Si 1 est dans l'idéal $I$ des mineurs $2 \times 2$ de ta matrice $M$, cela force $a, b$ à être linéairement indépendants. La preuve est facile ; pas besoin d'utiliser le résultat : $a,b$ sont indépendants si et seulement si $I$ est fidèle.

    2) Nous ne sommes pas encore sortis de l'hiver et il est préférable de garder une petite laine à portée de main. Je dis cela parce que je sens un petit côté frileux dans le ``non nul'' qui figure dans ``$R$ anneau non nul''. Bien entendu, pour beaucoup, anneau nul, cela n'a aucun intérêt. Enfin, c'est ce que l'on pense au premier abord. Peut-être alors consulter l'article NONTRIVIAL USES OF TRIVIAL RINGS de F. Richman in http://www.ams.org/journals/proc/1988-103-04/S0002-9939-1988-0954974-5/S0002-9939-1988-0954974-5.pdf puis réfléchir.

    En clair, tu pourrais supprimer la clause '' non nul", et le résultat subsisterait. Mais c'est encore l'hiver.
  • @Claude :

    1) Soit $\alpha,\beta\in R$ tels que $\alpha a+\beta b=0=\begin{pmatrix}a&b \end{pmatrix}\begin{pmatrix}\alpha\\\beta\end{pmatrix}$.
    Pour toute matrice carrée $N$ de taille $2$ extraite de $\begin{pmatrix}a&b \end{pmatrix}$, on a $N\begin{pmatrix}\alpha\\\beta\end{pmatrix}=0$.
    Ainsi, pour tout mineur $d$ d'ordre $2$ de $a$ et $b$, on a $d\begin{pmatrix}\alpha\\\beta\end{pmatrix}=0$ d'après la formule de Cramer.
    Donc, si $1\in I$, on a $1\begin{pmatrix}\alpha\\\beta\end{pmatrix}=0$.

    2) Tu as raison.
    C'est le $1$ qui m'a fait rajouter cette hypothèse.
    Mais pour l'anneau nul, $1=0$ !!!
  • Pour cette histoire de surjectivité (une implication seulement). Ce soir, $R$ est le nom de l'anneau commutatif.

    1) Soient $M : R^n \to R^2$ et $N : R^2 \to R^n$ deux matrices. Trouver dans les bons livres ou sur le net ... etc.. une preuve simple de Binet-Cauchy pour le déterminant ($2 \times 2$) de $M \circ N : R^2 \to R^2$ :
    $$
    \det(M N) = \sum_I \det\nolimits_{\{1,2\} \times I}(M) \det\nolimits_{I \times \{1,2\}}(N)
    $$
    où $I$ décrit l'ensemble des parties de cardinal 2 de $\{1..n\}$. En principe, on doit deviner les notations.

    Quid si $n = 1$ ? Et même $n = 0$ ?

    2) On suppose $M : R^n \to R^2$ surjective. Alors il existe $N : R^2 \to R^n$ vérifiant $MN = \text{I}_2$. Pourquoi ? En déduire que $1$ est dans l'idéal des mineurs d'ordre 2 de $M$. Quid si $n = 1$ ?

    Note : ici $2$ peut être vu comme un entier quelconque.
  • @ Claude :

    1) Cette formule dit que $\det(MN)=0$ quand $n\leq 1$.

    2) Si $n\leq1$, $M$ n'est pas surjective donc $n\geq 2$.
    On peut trouver $C_1,C_2$ des vecteurs-colonnes à $n$ lignes tels que $MC_1=\begin{pmatrix}1\\0\end{pmatrix}$ et $MC_2=\begin{pmatrix}0\\1\end{pmatrix}$ donc $N=\begin{pmatrix}C_1&C_2\end{pmatrix}$ vérifie $MN=I_2$.
    D'après Binet-Cauchy, $\det(MN)=1$ est dans l'idéal des mineurs d'ordre $2$ de $M$.
  • Pour la réciproque, je pense qu'à partir d'une relation de Bézout pour les mineurs d'ordre $2$ de $M$, on peut construire $N$ telle que $MN=I_2$ ce qui implique que $M$ est surjective.
    Mais je n'ai pas trouvé $N$. :-S
  • @gai-requin
    Vu. Je vois aussi que chez toi, c'est toujours l'hiver : si $n \le 1$, alors $M$ $\fbox{n'est pas}$ surjective, donc $n \ge 2$. Ici, normal, je suis plus au sud que toi (mais pas complètement au sud quand même), on dit : si $n \le 1$ alors $1=0$ i.e. l'anneau de base $R$ est nul.

    Assez bavardé. Si on s'occupait de la réciproque ? Pas besoin de Binet-Cauchy et en un certain sens, c'est plus facile.
    Réciproque : si les mineurs d'ordre 2 de $M : R^n \to R^2$ forment une famille comaximale i.e. engendrent (au sens idéal) l'anneau, alors $M$ est surjective. On va même expliciter $N : R^2 \to R^n$ telle que $MN = \text{I}_2$. On va procéder par recollement comme dans le post de moduloP i.e. en exhibant $N^{(ij)} : R^2 \to R^n$ vérifiant (avec des notations que l'on devine) :
    $$
    MN^{(ij)} = \left| \matrix {a_i & a_j \cr b_i & b_j}\right| \ \text{I}_2
    $$
    Comme toi, tu n'es pas à la retraite, je te fais un petit truc en images pour te faire gagner du temps (enfin j'espère) :

    > M ;
    [a1 a2 a3 a4 a5]
    [b1 b2 b3 b4 b5]
    

    Je te prépare $N^{(12)}$

    > M12 := Submatrix(M, [1..2], [1..2]) ;
    > M12 ;
    [a1 a2]
    [b1 b2]
    > N12 := Adjoint(M12) ;
    > N12 ;
    [ b2 -a2]
    [-b1  a1]
    > R := BaseRing(M) ;
    > N12 := VerticalJoin(N12, Zero(RMatrixSpace(R,n-2,2))) ;
    > N12 ;
    [ b2 -a2]
    [-b1  a1]
    [  0   0]
    [  0   0]
    [  0   0]
    

    Une petite vérification :

    > M * N12 ;
    [a1*b2 - a2*b1             0]
    [            0 a1*b2 - a2*b1]
    > M*N12 eq Determinant(M12)*I2 where I2 is One(MatrixRing(R,2)) ;
    true
    

    Do you see what I mean ?
  • Je suis nul en anneau nul !

    Encore du Cramer !
    Voilà ce que j'ai compris.
    Soit $1\leq i<j\leq n$ et $M^{(ij)}$ la matrice $2\times 2$ extraite de $M$ en ne gardant que les colonnes $i$ et $j$.
    Soit alors $N^{(ij)}$ la matrice $n\times 2$ dont les lignes $i$ et $j$ sont respectivement les lignes $1$ et $2$ de $\widetilde{M^{(ij)}}$ et les autres lignes sont nulles. Alors, d'après Cramer, $$MN^{(ij)}=\det M^{(ij)}I_2.$$
    Or, il existe des $\alpha_{ij}\in R$ tels que $\sum {\alpha_{ij}\det M^{(ij)}}=1$.
    Alors $N=\sum{\alpha_{ij}N^{(ij)}}$ vérifie $MN=I_2$.
  • $\def\fp{\mathfrak p}\def\Ann{\text{Ann}}$Il faut maintenant que je corrige le mensonge concernant cette histoire de négation générale. Bien sûr que l'on en trouve dans la littérature de l'Algèbre Commutative, mais jusqu'à maintenant, j'ai toujours vu que c'était annonciateur de procédés non constructifs.

    Mais même lorsque l'on s'intéresse aux traitements effectifs en Algèbre Commutative, on se doit de lire un peu près tout, par exemple l'Algèbre Commutative de Bourbaki (si on y arrive). Je donne juste un exemple : celui d'idéal premier associé à un module $M$. C'est une notion importante, due à Serre je pense ; en tout cas, Bourbaki en a assuré la promotion dans son chapitre IV d'Algèbre Commutative dont le titre est ``Idéaux premiers associés et décompositions primaires'' (voir un extrait de l'introduction plus bas).

    On dit qu'un idéal premier $\fp$ est associé à un module $M$ s'il existe $x \in M$ tel que $\Ann(x) = \fp$. Pour l'instant, c'est juste la définition. Et 3 lignes plus loin, comment va-t-on assurer l'existence d'idéaux premiers associés ? En considérant tous les $\Ann(x)$ avec $x \in M$ et $x \ne 0$ ; tout élément maximal de cet ensemble est un idéal premier associé à $M$ (exercice, cela vaut son pesant de cacahuètes). Si bien qu'en terrain noethérien ...etc...


    Je cite Bourbaki, Introduction au premier tome d'Algèbre Commutative.

    On peut en outre (si l'on se borne aux anneaux nœthériens) donner pour tout idéal une «décomposition » moins précise qu'une décomposition en produit d'idéaux premiers : le produit y est en effet remplacé par l'intersection, et les puissances d'idéaux premiers par des idéaux « primaires » liés aux idéaux premiers associés à l'idéal envisagé (mais qui ne sont pas des généralisations directes des puissances d'idéaux premiers). L'introduction des idéaux premiers associés à un idéal et l'étude de leurs propriétés font l'objet du chapitre IV ; on y démontre aussi l'existence et certaines propriétés d'unicité des décompositions primaires » auxquelles nous venons de faire allusion ; mais il apparaît à présent que ces décompositions ne jouent le plus souvent qu'un rôle accessoire dans les applications, la notion essentielle étant celle d'idéal premier associé à un idéal.
  • C'est bien vrai que le lemme de Zorn n'est pas très constructif.
  • Pour nos lecteurs, j'attache un petit pdf sur la caractérisation en termes de mineurs d'ordre $2$ de l'indépendance de deux vecteurs à coefficients dans un anneau commutatif quelconque, même NUL.
  • @gai requin
    Ton avant dernier post : oui, il paraît que Cramer c'est important en algèbre linéaire. I.e. le coup de $M\widetilde M = \widetilde M M = \det(M) \text{I}_n$. Souvent perçu comme assez sordide avec ces histoires de signes $(-1)^{i+j}$ ...etc..

    Il y a des manières de se débarrasser des signes (éviter de supprimer pour remettre, je me comprends). Par exemple, pour 3 vecteurs $v_1, v_2, v_3 \in A^3$ (tiens le nom de l'anneau commutatif de base a changé), on a, en notant $[\ ,\ ,\ ]$ le déterminant dans la base canonique, l'égalité suivante (Cramer sans signe) :
    $$
    [v_1,v_2,v_3]\, x = [x,v_2,v_3]\, v_1 + [v_1,x,v_3]\, v_2 + [v_1,v_2,x]\, v_3 \qquad \forall\ x \in A^3
    $$
    Note : supprimer est une allusion au fait que lorsque l'on supprime quelque part une composante à l'indice $i$, il faut mémoriser cette suppression via un $(-1)^{i}$ ou $(-1)^{i-1}$.


    Rien à voir. Bon je change encore le nom de l'anneau commutatif, ci-dessous, c'est $R$. Je veux parler du trick $ABA = A$. Je m'explique : soit $A : R^m \to R^n$. Alors, si on dispose de $B : R^n \to R^m$ vérifiant $ABA = A$, on peut affronter la résolution du système linéaire $Ax = y$, $y$ étant donné, $x$ étant l'inconnue.

    En effet : SI $y$ est vraiment dans l'image de $A$, alors $x := By$ est un antécédent de $y$ par $A$. Pourquoi ? Mais comment vérifier que $y$ est vraiment dans l'image de $A$ ?

    Et devine, sur un corps, $A$ étant donnée, qui nous amène $B$ sur un plateau ? Cela commence par un G.

    Note : pour se souvenir du sens dans $ABA = A$ (ne pas mélanger $A$, $B$). C'est $A$ qui est donné. Et $ABA$ c'est linéaire en $B$. Et donc $ABA = A$ est un système linéaire en $B$, qui va pouvoir subir un traitement local-global.
  • @ Claude :

    Si $y$ est dans l'image de $A$, il existe $z$ tel que $Az=y$.
    D'où $Ax=ABy=ABAz=Az=y$.

    Pour le reste, je ne sais pas trop mais je résoudrais déjà $^tAAx={}^tAy$ qui implique une matrice carrée.

    Si j'ai de la chance, $^tAA$ est inversible et on peut prendre $B=(^tAA)^{-1}{}^tA$.
    Et si elle n'est pas inversible ?
  • $\def\Im{\text{Im}}$@gai-requin
    Conséquence de tes deux premières lignes : si $y$ est dans l'image de $A$, alors $y = A(By)$. Bilan : $y$ est dans l'image de $A$ si et seulement si $y = A(By)$.

    C'est en fait le coup de l'idempotent $e$ dans un anneau non nécessairement commutatif $R$. A quelle condition $y \in R$ est-il multiple à gauche de $e$ i.e. $y \in R.e$ ? Réponse : si et seulement si $y = ye$. Justification ; si $y = ye$ c'est clair que $y \in Re$ ; dans l'autre sens, si $y = qe$ alors $ye = qe^2 = qe = y$.
    Bilan : pour montrer qu'un élément $y$ est multiple à gauche d'un idempotent, inutile de chercher le multiplicateur, cela ne peut être que l'élément lui-même.

    Mais où est ce qu'il y a des idempotents dans l'histoire $ABA = A$ avec $A : R^m \to R^n$ et $B : R^n \to R^m$ ? Eh bien, $AB \in M_n(R)$ et $BA \in M_m(R)$ sont des matrices idempotentes. Avec en prime (facile à montrer) :
    $$
    \Im(AB) = \Im(A), \qquad \ker(BA) = \ker(A)
    $$
    Regardons par exemple ce que cela donne à l'arrivée de $A$ i.e. dans $R^n$. Puisque $AB$ est un projecteur de $R^n$, on a la décomposition ci-dessous à gauche, qui donne celle de droite :
    $$
    R^n = \Im(AB) \oplus \Im(\text{I}_n - AB) \qquad \hbox {i.e.} \qquad R^n = \Im(A) \oplus \Im(\text{I}_n - AB)
    $$
    Et l'écriture d'un $y \in R^n$ dans cette décomposition est :
    $$
    y = y_1 + y_2 \quad \hbox {avec}\quad y_1 = ABy, \quad y_2 = y - ABy
    $$
    Qui confirme que $y$ est dans l'image de $A$ si et seulement si $y_2 = 0$ i.e. $y = ABy$.

    Et sur un corps $K$, qui fournit l'existence de $B$ vérifiant $ABA = A$ ? La méthode du pivot de Gaus. A condition de le vouloir.

    Autre chose : j'ai retrouvé mon histoire d'utilisation de l'anneau nul. Il s'agit, dans un contexte que je pourrais préciser, de montrer que la norme d'un polynôme primitif est un polynôme primitif. Cela pourrait nous embarquer dans des histoires : qu'est ce que la norme (algébrique) dans un contexte général ? un polynôme primitif ? ...etc... Cela touche d'ailleurs à une histoire que tu connais maintenant : une matrice carrée est injective si et seulement si son déterminant est un élément régulier. Je peux en dire plus.
    Note : il est resté chez moi (dans le résultat la norme d'un polynôme primitif ...etc..) une certaine insatisfaction.
  • Merci pour ces précisions idempotentesques.

    Je suis intéressé par cette histoire anneau nul-polynôme primitif-norme-matrice carrée, même si je suis nul en anneau nul ! :-)
  • @gai-requin
    OK. Il va s'agir de ne pas surtout brûler d'étapes. Et le plus important, si on ne va pas au bout, c'est de faire en sorte qu'il reste quelque chose des étapes intermédiaires. Je commence par 2 points qui sont indispensables.

    1) Si $M$ est une matrice carrée, on a tous entendu parler de $\widetilde M$. Mais il y a une définition intrinsèque de $\widetilde u$ pour un endomorphisme $u : L \to L$ où $L$ est un module libre de rang fini sur un anneau commutatif $A$. Définition qui fera que si $M$ est la matrice de $u$ dans une base quelconque, alors $\widetilde M$ est la matrice de $\widetilde u$ dans cette base. Et $\widetilde u$ est un polynôme en $u$ à coefficients dans $A$. Et on a bien sûr, $u \circ \widetilde u = \widetilde u \circ u = \det(u) \text{Id}_L$.

    Note : à côté de l'identité bien connue $M \widetilde M = \widetilde M M = \det(M)\ \text{I}_n$ en dimension $n$ (qui ne caractérise pas $\widetilde M$), il y a une autre identité moins connue qui caractérise $\widetilde M$ :
    $$
    \det(\widetilde M.x, y_2, \cdots, y_n) = \det(x, M.y_2, \cdots, M.y_n), \qquad x, y_2, \cdots, y_n \in A^n
    $$
    Bref, beaucoup de choses à dire sur $\widetilde M$ i.e. sur Cramer ! Lesquelles devraient être détaillées ?

    2) La norme. Contexte $B$ une $A$-algèbre commutative libre de rang fini ($A$ est un anneau commutatif). Par définition :
    $$
    N_{B/A} : B \to A, \qquad
    N_{B/A}(b) = \det(m_b) \qquad b \in B, \qquad \hbox {$m_b$ est la multiplication par $b$}
    $$
    C'est une application multiplicative. Un élément de $B$ est régulier de $B$ si et seulement si sa norme est un élément régulier de $A$. Idem en remplaçant régulier par inversible.
    Et il y a une notion de cotransposé $\widetilde b$ qui est un élément de $B$. Et qui vérifie $N_{B/A}(b) = b\widetilde b$.

    Hum : cela risque de nous emmener trop loin ? Prendre des exemples ?
  • $\def\uX{\underline X}$@gai-requin
    En deux mots (?) Ci-dessous, $\uX$ est un paquet (fini) d'indéterminées sur un anneau (commutatif) de base.

    (A) Un polynôme $P \in A[\uX]$ est dit primitif si 1 est dans l'idéal de ses coefficients. Quand on est primitif, c'est pour la vie. I.e. quand on dispose d'un morphisme $A \to A'$ quelconque (pas nécessairement injectif, cela peut-être un quotient $A \to A/I$), alors $P$ reste primitif sans $A'[X]$.

    Premier résultat (que l'on peut admettre, pourquoi pas) : si $P$ est primitif, alors $P$ est régulier i.e. $PQ = 0 \Rightarrow Q = 0$. En commençant par une variable. Et pourquoi pas possédant un coefficient inversible. Il y a des pointeurs solides quelque part.
    Et donc $P$ est régulier à vie. Pas comme $2X$ qui est régulier dans $\Z[X]$ et qui va s'effondrer dans $\mathbb F_2[X]$. Do you see what I mean ?

    (B) Si $B$ est une $A$-algèbre libre de rang fini, alors il en est de même de $B[\uX]$ sur $A[\uX]$. Car toute $A$-base de $B$ est une $A[\uX]$-base de $B[\uX]$.

    (C) Si $E$ est un $A$-module libre de rang fini, alors pour tout idéal $I$ de $A$, $E/IE$ est un $A/I$-module libre. Car toute $A$-base de $E$ est une $A/I$-base de $E/IE$.


    (D) Soit $Q \in B[\uX]$ primitif. On veut montrer que $P := N(Q)$, qui est un polynôme de $A[\uX]$, est un polynôme primitif. Ici $N$ est la norme de $B[\uX]$ sur $A[\uX]$. Il faut montrer que $1$ est dans l'idéal $I$ des coefficients de $P$.

    Et pour ce faire, on va bosser au dessus de $A' := A/I$. Emmagasiner des choses ... pour obtenir que $A'$ est l'anneau nul. Et donc que $I = A$.

    Cela fait beaucoup de choses, n'est ce pas ? Et le coup de emmagasiner, c'est que l'on va trouver un élément qui est à la fois régulier et nul (dans $A'[\uX]$) La seule possibilité, c'est d'être dans l'anneau nul.
    Evidemment, je suis tout ce qu'il y a de plus sérieux (et de plus, je n'ai pas bu).
  • @Claude : Effectivement beaucoup de choses !

    Néanmoins, comme on veut montrer qu'on peut utiliser l'anneau nul pour montrer un résultat somme toute spectaculaire, pourquoi ne pas commencer par (D) ?

    J'ai bien compris le coup du $2X$ dans (A) qui n'est pas primitif.
    Autre exemple : tout polynôme unitaire est primitif donc régulier à vie.

    Pour (D), on veut $I=A$ donc, pas le choix, $A/I$ doit être ce satané anneau nul, que tu aies bu ou pas. ;-)
  • $\def\uX{\underline X}$
    @gai-requin
    J'ai oublié une détail. Mais je ne suis pas sûr que cela soit un détail : une histoire, cela doit être amusant. Et je ne suis pas du tout persuadé que celle-ci (la norme d'un polynôme primitif est un polynôme primitif) le soit.

    Procéder à l'envers en partant de (D) ? Ma foi, je n'y avais pas pensé. Allons-y. Imagine deux anneaux commutatifs $A' \subset B'$ avec $B'$ libre de rang fini sur $A'$. La clause ``libre de rang fini'' c'est pour permettre de définir la norme. Imagine aussi un polynôme $Q' \in B'[\uX)$ vérifiant les 2 propriétés :

    I) $Q'$ est primitif ; donc $Q'$ est régulier i.e. la multiplication par $Q'$, $m_{Q'} : B'[\uX] \to B'[\uX]$ est injective. Donc le déterminant de $m_{Q'}$ est un élément régulier de $A'[\uX]$. I.e. la norme $N(Q')$ de $Q'$ est un élément régulier de $A'[\uX]$.

    2) Cette norme $N(Q')$ est nulle.

    Comment concilier les deux points 1) et 2) ?
  • Dans ce cas-là, $A'$ est l'anneau nul.

    Mais ce que je voulais dire dans mon message précédent, c'est qu'on peut déjà essayer de montrer (D) en supposant si besoin (A),(B) et (C).
Connectez-vous ou Inscrivez-vous pour répondre.
Success message!