Le caractère étale en algèbre commutative

123578

Réponses

  • Hello Claude,

    Oui j'ai plus ou moins fini par remarquer que c'était la définition de $(a,b)$ est une suite de profondeur supérieur à $2$ :-D
  • Bonjour,

    Voilà.

    Cordialement,

    Rescassol
  • $\bullet$ Rescassol
    Bon là, cela mérite une grosse récompense, mais je ne sais pas sous quelle forme. Bien sûr, d'abord je te dis un grand merci mais ce n'est pas suffisant à mon humble avis. Des fleurs ? des chocolats ?

    $\bullet$ Chat-Maths & FlipFlop.
    Appendice de Mazur & Roberts : à peine 5 pages. On n'a pas peur, n'est ce pas ? On risque d'apprendre des choses sur le discriminant, la différente, la profondeur, le complexe de Koszul ...etc.. C'est une aubaine, non ? Justement, toi Chat-Maths qui voulait faire des exercices sur ce thème (si j'ai bien compris).

    Et l'anneau de base $R$ est quelconque. Premier problème pour mézigue : décrypter ce que dit le théorème de Tate. J'attache. Je ne vois pas ce qu'est VRAIMENT $A \otimes_R C$. Bien entendu, je m'empresse de faire $A= R[X_1, \cdots, X_N]$ pour y comprendre quelque chose. J'espère que je n'ai pas tort.

    Est ce que vous voyez (vraiment) ce qu'est le machin $A \otimes_R C$ ? Parce que Tate suppose que le noyau de ... est engendré par une suite régulière de longueur $N$ de ce machin. A suivre.110706
    Tate.png 206.2K
  • Salut Claude,

    J'ai vu ces 5 petites pages et effectivement, ça pourrait être un bon challenge, vu qu'après tout c'est "élémentary, self-contained and swift enough". Je vais me pencher là dessus un peu plus tard.

    Cette application $\beta : A \otimes_R C \to C$ ressemblerait presque à l'application de multiplication $C \otimes_R C \to C$, mais dont on aurait "lifté" seulement un seul des deux facteurs non? Quand à savoir exactement ce que représente son noyau et ce que ça signifie exactement qu'il est engendré par une suite régulière... (Je ne suis toujours pas au point sur les suites régulières, faute d'avoir pu y consacrer suffisamment de temps, donc je ne vais pas me risquer à une quelconque interprétation).

    Edit: j'ose quand même un truc très naïf: $\beta$, c'est juste le $C$-linéarisé de $\alpha$ non? On a $\alpha : A \to C$ un morphisme $R$-linéaire de $A$ dans un truc qui est un $C$-module, $C$ étant une $R$-algèbre, il lui correspond un unique morphisme $C$-linéaire $\beta : A \otimes_R C \to C$. Bref, on $C$-linéarise tout et on regarde ce qu'il arrive au noyau de $\alpha$ dans le monde $C$-linéaire?

    Avec un petit exemple de bébé $R = \mathbb{Z}$, $A = \mathbb{Z}[X]$ et $C = \mathbb{Z}[\mathrm{i}]$, on regarde du coup l'application $\mathbb{Z}[\mathrm{i}][X] \to \mathbb{Z}[\mathrm{i}]$ d'évaluation en $\mathrm{i}$...
  • Chat-Maths,

    Pour l'instant, je n'ai pas regardé mais je compte le faire en prenant mon temps.

    De mon côté si je n'ai pas d'exemples d'objets qui vérifient les hypothèses d'un résultat, je refuse de jouer. Je vais regarder ton exemple de bébé.

    Le résultat de Tate est repris dans le théorème 2.2 de de Smit & Lenstra in http://pub.math.leidenuniv.nl/~smitbde//papers/1997-j-algebra-desmit-lenstra.pdf
    Donc cela signifie que dans leur contexte, ils peuvent produire des objets vérifiant le contexte de Mazur & Roberts.

    $\bullet$ Et cela va être l'occasion pour toi de mieux comprendre cette histoire de sauvagerie (peut-être tu penses que j'exagère ?). Chez de Smit & Lenstra, la suite est complètement sécante, moins fort que régulière. Et ils appliquent cependant le résultat de Tate cité par Mazur & Roberts où les suites sont supposées régulières. Et d'une. Tu vas dire que je chipote, mais c'est de la faute à personne si dans un anneau de polynômes à 3 variables $X,Y,Z$, on a
    $$
    \langle X, Y, Z \rangle \quad=\quad \langle X(Y-1), Y, Z(Y-1)\rangle \quad=\quad \langle X(Y-1), Z(Y-1), Y\rangle
    $$Ci-dessus, on voit trois suites de longueur 3. Laquelle est régulière ? Laquelle est complètement sécante ?

    Deuxième truc : chez Mazur & Roberts, ils utilisent des résultats de Local Algebra. Oups, j'ai rien dit. Il s'agit de l'ancienne version française Algèbre Locale : les numéros de proposition ne correspondent pas (j'ai les deux versions). Bref, ici du travail pour s'y retrouver dans les contextes.
  • Un petit truc avant que tu regardes trop en détail ce que j'ai dit: mon "petit exemple", je n'ai pas du tout vérifié que l'hypothèse sur les suites régulières etc était satisfaite: je parlais juste un $A \otimes_R C \to C$, et eventuellement de la tête que pourrait avoir son noyau. Donc si tu trouves que mon truc ne vérifie pas les hypothèses, merci de ne point me crucifier.

    Le reste, je regarde ça (et tes trois suites, ne donne pas tout de suite la réponse! je dois d'abord m'y retrouver dans les définitions, ce n'est pas évident, je ne les ai visiblement pas assez bien mémorisées).

    Edit/Remarque: Smit et Lenstra remarquent qu'ils ont escamotés l'hypothèse de régularité, mais prétendent qu'elle est plus forte que ce dont ils ont besoins: ça va faire des preuves à décortiquer... J'ai parcouru en diagonale la preuve de Mazur-Roberts (sans grande compréhension donc), mais j'ai l'impression que ce dont ils ont besoin, c'est l'acyclicité du complexe de Koszul, acyclicité qui, si j'ai suivi, est vérifiée pour une suite "complétement sécante" (Smit et Lenstra, lemme 2.1) (je me suis complétement perdu dans les différentes définitions, et maintenant, je ne sais même plus exactement ce que complétement sécant signifie...). La référence à Serre dans Mazur & Roberts n'est, j'ai l'impression, là que pour donner un pointeur vers la définition du complexe de Koszul.
    Mais tout ça, c'est ce que je pense avoir vu par une lecture en diagonale et donc certainement trop peu attentive. C'est en allant creuser les détails qu'on verra si ça se confirme (:P)
  • Salut,

    On doit pouvoir adapter une preuve déjà vu. Un truc du genre (c'est dans le petit livre de Claude page 351 :-D).
  • Bonjour,

    Un chabichou ? :-D

    Cordialement,

    Rescassol
  • Rescassol
    En plein dans le mille (du point de vue de la région), mais c'était peut-être facile. Le choix n'est cependant pas si facile.

    FlipFlop, ChatMaths : ici, c'est juste une petite digression. Je répondrais plus tard.110738
  • Bonjour,

    Je savais que le Chabichou était une spécialité de la région de Poitiers et que tu étais de par là.
    Je me souviens que quand j'étais gamin, une tante de ma mère lui avait envoyé, depuis la Thiérache, un Maroilles.
    Le facteur tenait le colis à bout de bras, après quelques jours de voyage.

    Cordialement,

    Rescassol
  • $\def\Gr{\text{Gr}}$Hello Chat-Maths et Flip-Flop

    $\bullet$ Je viens de me fendre d'une page manuscrite concernant le B-A-BA sur suite complètement sécante et $\Gr \ge k$. C'est vraiment un petit aperçu. Je tenais à ce que cela tienne en une page et je voulais que cela ait un côté ``pratique'' (??). Si on veut en savoir plus, j'ai donné des pointeurs sur des auteurs qui tiennent la route.

    Chat-Maths : pas trop étonnant que tu sois perdu dans les définitions car, comme je l'ai déjà dit, Local Algebra n'aide en rien à distinguer ces notions (suite régulière versus complètement sécante) car il est dans un contexte très particulier (les suites sont dans le maximal d'un anneau local noethérien). J'ai déjà signalé que Matsumura avait fini par se mélanger les pinceaux (j'ai pointé un lemme très précis ..etc...)

    $\bullet$ Pas eu le temps d'avancer du tout sur l'appendice de Mazur & Roberts. J'ai vu le post de FlipFlot concernant $A\otimes_R C$ et je suis OK.

    J'en rajoute une couche en répétant presque les deux dernières lignes du post de FlipFlop. Je fais $A = R[X_1, \cdots, X_r]$ un anneau de polynômes à $r$ indéterminées sur $R$. Et j'écris $C$ qui est un quotient de $A$ sous la forme :
    $$
    C = R[X_1, \cdots, X_r] /I = R[x_1, \cdots, x_r]
    $$Alors, en gardant les mêmes noms d'indéterminées ce qui n'est peut-être pas intelligent :
    $$
    A \otimes_R C = C[X_1, \cdots, X_r] \qquad \beta :C[X_1, \cdots, X_r] \to C, \quad X_i \mapsto x_i
    \qquad \ker \beta = \langle X_1 - x_1, \dots, X_r - x_r\rangle
    $$Et donc $\Gr(\ker\beta) = r$.

    Et du coup, quand on fera $r = N$, il n'y aura plus rien à supposer sur $\ker\beta$, cf la page Gr-B-A-BA.pdf. A CONDITION de modifier l'énoncé de Mazur & Robets : remplacer suite régulière par suite complètement sécante. En veillant au grain dans les démos : c'est l'acyclicité du complexe de Koszul montant (ou descendant, cf la page) qui est importante.

    J'ai déjà essayé d'expliquer pourquoi les suites régulières, cela peut avoir, DANS CERTAINES CIRCONSTANCES, un caractère pourri, cf le post où je parle de Dieudonné en 1965.
  • $\def\Ann{\text{Ann}}\def\c{\text{c}}$Salut FlipFlop,
    Tiens un petit truc. J'aime bien les petits trucs et toi je sais que maintenant tu es au courant de ce que signifie qu'une suite de longueur 2 est de profondeur $\ge 2$. Ton post avec $(a,b)$ ....

    Une petite question (pour une fois, j'ai la réponse). Juste pour pouvoir te raconter la suite. Soient $F, G \in A[X,Y]$ deux polynômes, $J \in A[X,Y]$ leur jacobien i.e. le déterminant de la matrice jacobienne de $F, G$, qui est $2 \times 2$.. On suppose que $J$ est inversible modulo $\langle F, G\rangle$.

    Il s'agit de démontrer que $\Ann(F,G) = 0$. I.e. que pour $H \in A[X,Y]$, si on a $HF = HG = 0$, alors $H = 0$.

    Est ce que tu vois comment faire en utilisant les résultats sur le produit de deux polynômes, Dedekind-Mertens ..etc... On a un exposant $e$ tel que $\c(F)^ e .H = \c(G)^e.H = 0$. Faire intervenir les coefficients de la Jacobienne ...etc...
  • Hello Claude,

    Ah je ne connais pas Dedekind-Martens (je vais aller voir).
  • FlipFlop
    Il y a quelque chose de bizarre : tu écris $J \in c(F) + c(G)$ mais $J$ est un polynôme de $A[X,Y]$ tandis que $c(F) + c(G)$ est un idéal de $A$.
  • Ah oui ! Je me suis mélangé !

    On peut dire que si $J \in A[X,Y]$ est inversible, alors son contenu également contient $1$ dans $A$, oui puisque le coefficient constant est inversible.

    Ensuite, $c(J) \subset c(F) + c(G)$, là je pense que c'est ok (en calculant les dérivées des petites classes). (c'est valable pour un nombre quelconque de variables !).
  • $\def\Gr{\text{Gr}}\def\Ann{\text{Ann}}$Salut FlipFlop

    $\bullet$ Oui, oui, $c(J) \subset c(F) + c(G)$, c'est ok. Mais bizarrement, je n'ose pas inverser les polynômes $F$, $G$, $J$ et je fais un truc plus laborieux. Tu ne me roules pas dans la farine ?

    Pourquoi je n'ose pas inverser ? Parce que cela détruit ``la structure polynomiale''. Do you see what I mean ? (moi, à peine).

    $\bullet$ Mais le plus important : où est ce que je veux en venir ? Cela risque de faire flop. Formulation élémentaire d'un résultat. Lequel ? Même contexte $F,G \in A[X,Y]$ de jacobien $J$ inversible modulo $\langle F, G\rangle$ si bien que par définition, $B := A[X,Y] /\langle F, G\rangle$ est étale sur $A$.

    Ca y est le grand mot ``étale'' est lâché : ce qui évoque des choses savantes, EG IV et compagnie, et des propriétés difficiles à montrer. Platitude, je n'en sors pas et ci-dessous, je vais me répéter.

    Mais en fait, dans ce contexte, IL FAUT DEMONTRER que $\Gr(F,G) \ge 2$ (ce que je ne sais pas faire). Tu sais ce que cela signifie. Cela se passe dans le brave anneau de polynômes $A[X,Y]$ :
    $$
    \Ann(F,G) = 0, \qquad UF = VG \quad\Rightarrow\quad \exists\ Q \in A[X,Y] \mid (U,V) = Q \ \times\ (G,F)
    $$C'est cela une formulation élémentaire sans faire peur aux enfants. Tu as démontré (si tu ne m'as pas roulé dans la farine), le truc de gauche.

    Et pourquoi faut-il démontrer que $\Gr(F,G) \ge 2$ ? Parce que c'est vrai et que cela FAIT DU BIEN au reste, en particulier platitude. Ne pas oublier que le contexte initial est stable par extension des scalaires $A \to A'$ : si jacobien $J$ inversible modulo $F, G$ dans $A[X,Y]$, alors c'est encore vrai dans $A’[X,Y]$.

    Je pense que cela va faire flop, et cela a peut-être fait déjà flop.
  • Ah oui, je vois ce que tu veux dire par " casser la structure polynomiale " ... je regarde de nouveau sans confiture ! On va prouver que $1\in c(F) + c(G)$ directement ! Je regarde !
  • Claude,

    Je tente un petit lemme :-D laisse tombé c'est n'importe quoi !
  • FlipFlop
    La première partie, c'est ok malgré ton ``j'ai tout confondu''. Mais j'en recause ci-dessous en intégrant les ingrédients de ton lemme directement dans la démo. Quant à la deuxième partie, le coup du $H_2$, cela pose son homme mais manque de pot, il n'est pas a priori de type fini. Et surtout, on peut faire plus simple en prenant directement un élément du $H_2$ sans le dire.

    1. En fait, le truc principal, pour deux idéaux $I_1, I_2$ et des exposants $n_1, n_2$, c'est de trouver un exposant qui fait rentrer $I_1 + I_2$ dans $I_1^{n_1} + I_2^{n_2}$
    $$
    (I_1 + I_2)^? \subset I_1^{n_1} + I_2^{n_2}
    $$Par exemple, $? = n_1 + n_2$ convient. Et même $? = n_1 + n_2 - 1$. Idem pour 3 idéaux et pour un nombre quelconque d'idéaux.

    2. On est parti avec $H.F = H.G = 0$. On a donc $c(F)^e . H = c(G)^e. H$ pour un certain $e$ (Dedekind-Mertens). Mais d'après le point 1, il y a $N$ tel que
    $$
    (c(F) + c(G))^N \subset c(F)^e + c(G)^e \qquad \text{donc} \quad c(J)^N \subset c(F)^e + c(G)^e \quad \text{d'où}\quad c(J)^N . H = 0
    $$Mais $c(J^N) \subset c(J)^N$ parce que $c(PQ) \subset c(P)c(Q)$.

    Bilan : $c(J^N).H = 0$. A FORTIORI $J^N.H = 0$. Et comme $1 \in \langle F, G, J^N\rangle$, on a $H = 0$.

    OK ? C'est cela que je trouvais un peu laborieux.

    Pourquoi cela me fiche la trouille de localiser en $F, G, J$ ? Pourquoi as tu abandonné ton idée ? Peut-être que c'est moi qui suis frileux. Au lieu d'abandonner ton idée, tu aurais pu me dire de prendre une petite laine et de regarder ?
  • Claude,

    Est-ce que tu peux me dire la version de Dedekind Martens que tu utilises ? J'ai juste trouvé un truc avec $1$ variable !

    Le truc de la petite laine, c'est juste que quand on localise on n'est plus dans un anneau de polynôme.
  • Flip Flop
    La petite laine. Ca y est j'ai compris : quand tu rends $J$ inversible, donc en localisant, tu fais comme si $J$ continuait à être dans $A[X,Y]$ et ensuite tu dis que $1 \in c(J)$ ...etc.. Bon, faut pas exagérer $A[X,Y]_J$ : ce n'est pas de la forme $(S^{-1}A)[X,Y]$.

    Dedekind-Mertens. Effectivement, on a fourni un énoncé en plusieurs variables (en III.2) mais la preuve est avec une variable. Pris en flagrant délit de .. Mais la littérature est vaste sur le sujet.

    Un mini-topo. Soient $f,g$ à plusieurs variables. Of course $c(fg) \subset c(f)c(g)$ sans avoir l'égalité. Exemple de non égalité ? A fortiori $c(f)^k c(fg) \subset c(f)^{k+1}c(g)$. Ce que ditDedekind-Mertens, c'est que pour $k$ assez grand (que l'on peut préciser), il y a égalité :
    $$
    \fbox {$c(f)^k c(fg) = c(f)^{k+1}c(g)$}
    $$Le truc vachement important, c'est d'avoir réussi à faire rentrer $fg$ ``en contenu''.

    Exemple : $fg = 0$. Pareil que $c(fg) = 0$. Donc $c(f)^{k+1}c(g) = 0$ pour un certain $k$. Mais ça, c'est pareil que $c(f)^{k+1}. g = 0$. Parce que, pour un SCALAIRE $a$, $ac(g) = 0$, c'est pareil que $ag=0.$.
  • FlipFlop
    J'ai oublié un truc SUPER-important. Soient $F, G \in A[X,Y]$ de jacobien $J \in A[X,Y]$. RIEN DE PLUS. On a démontré un résultat sans clause concernant l'annulateur de $(F,G)$. Lequel ?

    Note : où je veux en venir ? Il y a, concernant les algèbres étales, un énoncé SANS algèbres étales, sans clause. J'ai bu (22 heures) ? Non.
  • Hello Claude,

    Sans clause, on a prouvé que pour tout $H \in \text{Ann}(F,G)$ il existe un entier $N$ tel que $J^N H = 0$.
  • $\def\Ann{\text{Ann}}$FlipFlop (et Chat-Maths)

    $\bullet$ Bonne idée de faire un petit résumé en quelques lignes. J'en ajoute au panier : l'annulation de $F,G$, cela conduit, avec tes notations, au $B$-module $\Ann(F,G)$. Tu es d'accord que $F.\Ann(F,G) = 0$ et $G.\Ann(F,G) = 0$, n'est ce pas ? Grosse trivialité.

    Mais je t'informe que $\Ann(F,G) = H_2(F,G)$ (reprends ton post sur $(a,b)$ et le mien qui suit). Et à un moment donné, tout fier, tu as dit : j'ai lu quelque part que $F, G$ tuaient $H_2(F,G)$. La belle découverte une fois que l'on a déjoué les notations : $\Ann(F,G) = H_2(F,G)$.

    Et ce que tu as écrit (dernière ligne de ton dernier post), le fait que l'exposant $N$ dépend de $H$ qui tue $F,G$, cela peut s'écrire de manière cryptique, en LOCALISANT le $B$-module $\Ann(F,G)$ en $J$
    $$
    \fbox {$\Ann(F,G)_J = 0$}
    $$OK ?

    Et le gros résultat ADMIS $H_1(F,G) = 0$ sous la clause $J$ inversible modulo $\langle F,G\rangle$, comment le traduire SANS clause, d'une part de manière élémentaire, au sens si $UF = VG$, alors ... Et en termes plus savants sur $H_1(F,G)$ ?

    Faire de nouveau un petit résumé en 2 variables.

    Et à quoi cela peut bien servir de disposer d'énoncés sans clause ?

    $\bullet$ Déjouer les notations. Et qu'en est-il de Tate, de l'appendice de Mazur & Roberts, et du début de de Smit & Lenstra ? Ne faites pas semblant de ne pas voir de quoi je cause. Ok, cela fait peur. MAIS, c'est dingue, en ce qui concerne le fait de déjouer les notations, lorsque l'on remplace les objets complexes avec produits tensoriels ... etc.. par les objets du CADRE de de Smit & Lenstra. On rigole bien.
  • $\def\cJ{\mathcal J}\def\cB{\mathcal B}\def\bX{\mathbf X}\def\bY{\mathbf Y}\def\bZ{\mathbf Z}\def\bF{\mathbf F}$Salut FlipFlop et Chat-Maths
    FlipFlop : Ok mais je pense que je n'ai pas réussi à faire passer quelque chose. C'est vachement dur de faire passer des idées informelles.

    Ici, autre chose. J'ai parcouru, je dis bien parcouru, SANS lire vraiment, l'appendice de Mazur & Roberts (Tate) ainsi que de Smit & Lenstra. J'ai CRU voir entre les lignes un ``truc'' et j'ai voulu en avoir le coeur net. Cela concerne le bezoutien d'un système carré (intersection complète) SANS clause.

    Le contexte est le suivant. Attention, cela va cloner pour les produits tensoriels
    $$
    A[\bX] = A[X_1, \cdots, X_n], \qquad \bF = \bF(\bX) = (F_1, \cdots, F_n), \qquad A[\bX] \otimes_A A[\bX] = A[\bY, \bZ]
    $$et les quotients
    $$
    B = A[\bX]/\langle \bF\rangle, \qquad B\otimes_A B = A[\bY,\bZ] /\langle \bF(\bY), \bF(\bZ)\rangle
    $$Je vais noter $\cB_{\bY,\bZ}$ le bezoutien dans $A[\bY,\bZ]$ et $\cB$ son image dans $B \otimes_A B$.

    Je prépare mes petites affaires en $n=2$ variables. Et je vais cloner l'anneau $A[X_1,X_2]$ avec tout ce qu'il faut pour passer entre les jeux $\bX, \bY, \bZ$
    [color=#000000]> A := IntegerRing() ;
    > AX<X1,X2> := PolynomialRing(A,2) ;
    > 
    > // toY : A[X] -> A[Y]   toZ : A[X] -> A[Z]    toX : A[Y,Z] -> A[X]
    > toY, toZ, toX := Clone(AX) ;
    > AYZ := Domain(toX) ;
    > Y := [AYZ.1, AYZ.2] ;  Z := [AYZ.3, AYZ.4] ;
    > Swap := hom < AYZ -> AYZ | Z cat Y > ;
    [/color]
    
    J'espère que c'est clair. Par exemple, toX, c'est $A[\bY,\bZ] \to A[\bX]$ qui réalise $\bY \to \bX$ et $\bZ \to \bX$.

    Je vais prendre un système $\bF$ au pif et vérifier une première propriété : le bezoutien $\cB \in B \otimes_A B$ est invariant par le swap des deux facteurs. Donc quelque chose du genre
    $$
    \cB = \sum_i b_i \otimes c_i = \sum_i c_i \otimes b_i
    $$
    [color=#000000]> F1 := X1^2*X2  + 3*X1 + 7*X2 + 4*X2^2*X1 + 1 ;
    > F2 := -5*X2  + 3*X1 + X2^3 + X1^2 ;
    > F := [F1,F2] ;
    > IYZ := Ideal(toY(F) cat toZ(F)) ;
    [/color]
    
    Je montre la matrice bezoutienne en $\bY, \bZ$. Elle n'est PAS symétrique en $\bY, \bZ$. Quand on y fait $\bY = \bZ = \bX$, on tombe sur la matrice jacobienne
    [color=#000000]> BezoutianMatrix(F, AYZ) ;
    [  Y1*Y2 + 4*Y2^2 + Y2*Z1 + 3 4*Y2*Z1 + Z1^2 + 4*Z1*Z2 + 7]
    [                 Y1 + Z1 + 3      Y2^2 + Y2*Z2 + Z2^2 - 5]
    > JacobianMatrix(F) ;
    [2*X1*X2 + 4*X2^2 + 3   X1^2 + 8*X1*X2 + 7]
    [            2*X1 + 3           3*X2^2 - 5]
    > ChangeRing(BezoutianMatrix(F, AYZ), toX) ;
    [2*X1*X2 + 4*X2^2 + 3   X1^2 + 8*X1*X2 + 7]
    [            2*X1 + 3           3*X2^2 - 5]
    [/color]
    
    Allons y pour l'invariance par le swap. Bien entendu, on n'a pas $\cB_{\bY,\bZ} = \cB_{\bZ,\bY}$. Seulement dans le quotient
    [color=#000000]> bYZ := Bezoutian(F, AYZ) ;
    > bZY := Swap(bYZ) ;
    > 
    > bYZ ;
    Y1*Y2^3 + 4*Y2^4 + Y2^3*Z1 + Y1*Y2^2*Z2 + 4*Y2^3*Z2 + Y2^2*Z1*Z2 + Y1*Y2*Z2^2 + 4*Y2^2*Z2^2 + Y2*Z1*Z2^2 - 
        4*Y1*Y2*Z1 - Y1*Z1^2 - 4*Y2*Z1^2 - Z1^3 - 4*Y1*Z1*Z2 - 4*Z1^2*Z2 - 5*Y1*Y2 - 17*Y2^2 - 17*Y2*Z1 - 3*Z1^2 +
        3*Y2*Z2 - 12*Z1*Z2 + 3*Z2^2 - 7*Y1 - 7*Z1 - 36
    > bZY ;
    Y1*Y2^2*Z2 + Y2^2*Z1*Z2 + Y1*Y2*Z2^2 + 4*Y2^2*Z2^2 + Y2*Z1*Z2^2 + Y1*Z2^3 + 4*Y2*Z2^3 + Z1*Z2^3 + 4*Z2^4 - 
        Y1^3 - 4*Y1^2*Y2 - Y1^2*Z1 - 4*Y1*Y2*Z1 - 4*Y1^2*Z2 - 4*Y1*Z1*Z2 - 3*Y1^2 - 12*Y1*Y2 + 3*Y2^2 - 17*Y1*Z2 +
        3*Y2*Z2 - 5*Z1*Z2 - 17*Z2^2 - 7*Y1 - 7*Z1 - 36
    > time bYZ - bZY in IYZ ;
    true
    Time: 0.000
    [/color]
    
    Une seconde propriété. C'est que le bezoutien $\cB$ tue le noyau de la multiplication $B \otimes_A B \to B$ i.e. tue les $b \otimes 1 - 1 \otimes b$
    $$
    (b \otimes 1) \cB = (1 \otimes b) \cB \qquad b \in B
    $$Pour vérifier cela, il faut prendre $G(\bX) \in A[\bX]$ et le cloner ...etc...
    [color=#000000]> // beta = bezoutien que l'on verra dans le produit tensoriel B o_A B = A[Y,Z] / <F(Y), F(Z)>
    > beta := bYZ ;
    > 
    > // (b o 1).beta = beta.(1 o b)
    > G := 7*X1 + 13*X2^2 - 1 ;
    > toY(G)*beta - toZ(G)*beta in IYZ ;
    true
    [/color]
    
    J'en remets une couche avec lquelques monômes $Y_1^i Y_2^i \cB = \cB Z_1^i Z_2^j$ modulo $\langle \bF\rangle$
    [color=#000000]> &and [toY(G)*beta - toZ(G)*beta in IYZ where G is X1^i*X2^j : i,j in [0..5]] ;
    true
    [/color]
    
    Je me suis dit : c'est peut être que le jacobien $\cJ$ est inversible modulo $\langle \bF\rangle$ ? Non
    [color=#000000]> // J inversible modulo <F> ?
    > J := Determinant(JacobianMatrix(F)) ;
    > time 1 in Ideal(F cat [J]) ;
    false
    Time: 0.010
    [/color]
    
    Ce fourbi me permet de mettre en place une application que je vais noter comme les auteurs cités $t : B^\dagger \to B$ où $B^\dagger = L_A(B,A)$ est l'ensemble des applications $A$-linéaires de $B$ dans $A$.

    Mais attention $B^\dagger$ est muni d'une structure de $B$-module par l'INTERIEUR i.e. $b • \alpha$, pour $b \in B$ et $\alpha : B \to A$ une forme $A$-linéaire, c'est $x \mapsto \alpha(bx)$.

    Et cela serait bien que $t$ soit un morphisme de $B$-modules et pas seulement de $A$-modules. Il me manque une troisième propriété mais je n'en crois pas mes yeux pour l'instant et il faut que je réfléchisse comment la tester.

    Vous en pensez quoi ? Que j'ai eu un coup de pot avec le choix de $F_1, F_2$ ? Je suis sur le point de mettre cela dans une moulinette infernale (du genre $10^2$, $10^3$ tirages aléatoires ...etc.. , je ne me rends pas bien compte) mais je tenais d'abord à faire ce post.110952
  • Hello Claude,

    Merci pour le message sur le Bezoutien. En fait, je viens de comprendre un petit truc concernant la construction de l'idempotent de séparabilité (j'avais déjà utilisé la formule mais sans comprendre).

    Comme l'idempotent de séparabilité est caractérisé (avec tes notations) par $e (1 \otimes b)= e (b \otimes 1)$ et $\mu (e) = 1$ ( avec $\mu : B \otimes B \to B$ la multiplication.

    Et bien vu que le $\mu(\mathcal{B})= J \pmod{\mathbf{F}}$. Si l'on suppose $J$ inversible modulo $\mathbf{F}$ disons $U$son inverse, c'est que $\mu(U \times \mathcal{B}) = 1$ et par suite $e = U \mathcal{B}$.
  • $\def\cJ{\mathcal J}\def\cB{\mathcal B}\def\bX{\mathbf X}\def\bY{\mathbf Y}\def\bZ{\mathbf Z}\def\bF{\mathbf F}\def\IdB{\text{Id}_B}\def\Tr{\text{Tr}}$FlipFlop
    Les choses s'arrangent bien, cf ci-dessous. Si on y ne comprend rien, c'est de la faute des auteurs. Comment peut-on écrire des maths comme cela (j'attache, tu verras d'où cela vient) ? Au lieu de répéter l'énoncé du théorème de Tate dans le contexte général donné par Mazur & Roberts, cela aurait été une bonne chose de le PARTICULARISER à leur contexte. C'est dingue : le bezoutien, je l'encadre en rouge. Et si on déjoue les notations, en particulier l'encadré en bleu dans LE CONTEXTE de de Smit & Lenstra, le commentaire qui vient après l'énoncé du Th 2.2 est une banalité, je t'assure.

    $\bullet$ 1. Mais c'est pire que cela. Soit $B/A$ intersection complète PAUVRE i.e. présentation finie carrée, sans plus. Je note $\cB \in B \otimes_A B$ le bezoutien (cf le point 2. pour ses propriétés). Alors $t : B^\dagger \to B$ est toujours défini la manière suivante :
    $$
    t(\lambda) = (\lambda \otimes \IdB)(\cB) = (\IdB \otimes \lambda)(\cB), \qquad \qquad
    \lambda \in B^\dagger \text{ i.e. } \lambda : B \to A \text{ forme } A \text{-linéaire}
    $$Explication : je note $\lambda \otimes \IdB$ l'application $B \otimes B \to B$ qui réalise $b_1 \otimes b_2 \mapsto \lambda(b_1)b_2$. Le fait qu'il y ait la double définition provient du fait que $\cB$ est invariant par le swap.

    $\bullet$ 2. Deux propriétés du bezoutien $\cB$. (I) Invariant par le swap : pour l'instant, je ne sais pas le prouver. (II) $\cB$ tue le noyau de la multiplication i.e. les $b \otimes 1 - 1 \otimes b$. Il faut remonter à $A[\bX, \bY]$ et cela découle, dans l'attachement de mon post précédent, de l'égalité $(\star)$, à multiplier par la comatrice de la matrice bezoutienne.
    I.e. c'est du genre, pour une matrice carrée $M$ et deux vecteurs $u,v$ sur un anneau $R$ : si $v = M.u$ alors $\det(M) u = \widetilde M. v$ donc $\det(M) u_i \in Rv_1 + Rv_2 + \cdots$.

    $\bullet$ 3. Lemme général. $B/A$ quelconque et $\cB \in B \otimes_A B$ vérifiant les propriétés (I), (II) du point précédent. Alors pour toute forme $A$-linéaire $\lambda : B \to A$ et tout $b \in B$, on a :
    $$
    \fbox {$(b \bullet \lambda \otimes \IdB)(\cB) = b (\lambda \otimes \IdB)(\cB)$} \qquad \qquad
    \text{rappel :} \quad b \bullet \lambda : b' \to \lambda(bb')
    $$Justification : on écrit $\cB = \sum_i b_i \otimes c_i = \sum_i c_i \otimes b_i$ (propriété I, le swap) et on applique II : $(b \otimes 1)\cB = (1 \otimes b)\cB$ i.e.
    $$
    (b \otimes 1) \sum_i b_i \otimes c_i = (1 \otimes b)\sum_i c_i \otimes b_i \qquad \text{i.e.} \qquad
    \sum_i bb_i \otimes c_i = \sum_i c_i \otimes bb_i
    $$Et maintenant, à droite, on applique $\lambda \otimes \IdB$ à chacun des deux membres de l'égalité et on obtient l'encadré.

    $\bullet$ 4. Retour à intersection complète pauvre. On déduit du point 3 que $t : B^\dagger \to B$ est un morphisme de $B$-modules.

    Bilan : $t$ est tout ce qu'il y a de plus explicite une fois qu'une présentation carrée (pauvre) est donnée de $B/A$.

    $\bullet$ 5. Supposons de plus que $B/A$ soit libre ou seulement projectif, ce qui donne naissance à $\Tr_{B/A} \in B^\dagger$. Et on nous informe que $t$ transforme $\Tr_{B/A}$ en le jacobien $\cJ \in B$. A travailler.

    On sait comment produire un tel contexte pour $B/A$ : le cadre de de Smit & Lenstra en admettant que l'on ait compris le fait que $B/A$ est projectif. Rien ne nous empêche de LOUCHER sur ce qui vient après 2.2. En commençant par déjouer les notations des produits tensoriels lorsque ceux-ci compliquent la compréhension : le $g_i$ encadré en bleu c'est quelque chose de SIMPLE : c'est $X_i - x_i$ où $B = A[x_1, \cdots, x_n]$. Idem pour les $b_{ij}$.

    $\bullet$ 6. Plaçons nous enfin dans le cadre de de Smit & Lenstra. Alors $t$ est un isomorphisme. Je ne m'en suis pas occupé. Il faut prendre l'appendice de Mazur & Roberts et se mettre dans le cadre de de Smit & Lenstra. Plein de choses vont se simplifier.

    Enfin, mais c'est mineur : le fait que $t$ soit un isomorphisme prouve que $B^\dagger$ est libre sur $B$ de base $\lambda := t^{-1}(1_B)\in B^\dagger$. On peut donc énoncer des choses à l'aide de ce $\lambda$ mais on s'en fiche : c'est $t : B^\dagger \to B$ qui fait tout le job.110980
  • $\def\cJ{\mathcal J}\def\cB{\mathcal B}\def\bX{\mathbf X}\def\bY{\mathbf Y}\def\bZ{\mathbf Z}\def\bF{\mathbf F}\def\IdB{\text{Id}_B}\def\Tr{\text{Tr}}$Hello FlipFlop et Chat-Maths

    Je ne vous ai pas oublié. Mais peut-être que vous, si.

    $\bullet$ News : j'ai fait quelques progrès : par exemple, le fait que si $B/A$ est intersection complète pauvre, alors le bezoutien $\cB \in B \otimes_A B$ est invariant par le swap, c'est dans la poche. I.e. j'ai la preuve.

    En fait, dans toutes ces histoires, si on remonte $B \otimes_A B$ dans le brave anneau de polynômes $A[\bY, \bZ]$, on obtient des résultats vachement plus précis. Par exemple, au lieu de l'idéal $\langle \bF(\bY), \bF(\bZ)\rangle$ qui intervient pour le passage au quotient pour produire $B \otimes A B$, c'est l'idéal $\langle \bF(\bY) - \bF(\bZ)\rangle$ qui intervient.

    Est ce pertinent de remonter là-haut dans le contexte d'une présentation ? Je l'ai toujours pensé.

    $\bullet$ Ensuite, je me suis dit que peut-être quand $B/A$ est libre, la norme du jacobien $\cJ$ (vu dans $B$) c'était relié au discriminant de $B/A$. Que la honte soit sur moi : le discriminant de $B/A$ c'est intrinsèque au carré d'un inversible près. Tandis que le jacobien dépend de la présentation ! et c'est un scalaire bien précis.

    Bref, j'ai senti à ce moment là, à quel point je n'étais pas clair.

    $\bullet$ Je me suis dit qu'au lieu de faire des programmes magma à la c.n, je n'avais qu'à essayer de lire ceux qui savent. J'ai commencé petit. J'attache l'extrait d'un certain appendice que vous avez probablement oublié.

    J'ai vite déchanté. Ok vous n'êtes pas dedans. Mais on y voit que $(a_1, \cdots, a_n)$ est une base de $A/R$. Et on veut écrire $a_i$ sur cette base : la réponse est $a_i = 1 \times a_i$, n'est ce pas ? J'ai compris qu'il manquait $\delta$ devant, ici et ailleurs.

    Bref, j'ai pris mon cahier et j'ai fait le truc tout seul. En essayant de faire aussi bien (ce n'est pas pour dire, mais l'énoncé et la preuve de A.2 manquent un peu de recul). Bref, la proposition (A.2), c'est quelque chose de SIMPLE si on fait ce qu'il faut.

    J'ai vu aussi que le contexte en bleu, c'était juste pour la définition qui vient, SURTOUT PAS dans le reste du papier où $A/R$ possède un rôle différent (plus loin c'est $C$ qui joue le rôle de $A$).

    Vous allez penser que je suis dur et que les coquilles qui figurent dans la proposition (A.2) n'importe qui les corrige tout seul. Et que c'est dans la suite que tout va être limpide. I.e. je parle du théorème de Tate en (A.3). Oui, bien sûr comme le calcul au début du lemme (A.10).

    En tout cas, cela fait remonter le fil.111112
  • Hello Claude,

    Je m'amuse juste à essayer de comprendre comment fabriquer une présentation carré de l'anneau des familles d'idempotents orthogonaux. J'ai fini par trouver (:-D) $$ \frac{\Z[U,E_1,\dots,E_n]} { \langle E_i^2-E_i, U \left( \sum E_i \prod _{j \ne i }(1-E_j) \right) - 1 \rangle}$$
    Mais je m'amuse a essayé de faire tous les liens ! Je suis bien loin de comprendre quoi que ce soit !
  • FlipFlop

    $\bullet$ Pas mal. Après avoir fait $n= 2$ pour y voir quelque chose :
    $$
    e_1^2 = e_1, \qquad e_2^2 = e_2, \qquad u \times (e_1(1-e_2) + e_2(1-e_1)) = 1 \qquad \qquad (\heartsuit)
    $$Je me suis dit : mais qu'est ce qu'il fabrique ? Parce que le truc en facteur de $u$, c'est un idempotent, donc le rendre inversible, c'est pareil que de le rendre égal à 1. Et $e_1(1-e_2) + e_2(1-e_1) = 1$, en multipliant par $e_2$, on finit par obtenir une présentation équivalente à $(\heartsuit)$
    $$
    e_1^2 = e_1, \qquad e_2^2 = e_2, \qquad e_1 e_2 = 0
    $$Sauf que celle-ci n'est pas carrée alors que $(\heartsuit)$ est $3 \times 3$. Et c'est de $(\heartsuit)$ dont tu es fier. OK, OK.

    $\bullet$ Et ton anneau, il est comment du point de vue $\Z$-algèbre ? Le bezoutien, le jacobien, les choses de la vie ?

    $\bullet$ Je vois que tu t'amuses bien. Et tu vas pas me croire, mais des présentations carrées, c'est très tendance en ce moment. J'ai pensé au truc délirant suivant : $K \subset L$ deux corps de nombres avec leurs anneaux d'entiers $A \subset B$. On sait que $B$ est un $A$-module projectif de rang constant $[L : K]$. Et comme il y a de une notion de différente, je me suis demandé s'il y avait une présentation carrée, en tout cas sur des exemples.

    Petit joueur, j'ai fait $K = \Q$ donc $A = \Z$. Le truc peinard c'est quand $B$ est monogène : $B = \Z[x]$, un générateur, une relation. Bon pas très intéressant. Alors j'ai pris le polynôme de Dedekind dont l'anneau des entiers n'est pas monogène :
    $$
    F(X) = X^3 + X^2 - 2X + 8 \qquad F(x) = 0, \qquad L = \Q(x), \qquad B = \Z[x,y] \qquad y = 4/x
    $$J'ai (enfin magma) trouvé comme présentation : 3 relations en les deux générateurs $x,y$
    $$
    xy = 4, \qquad 2x + y^2 - y + 2 = 0, \qquad x^2 + x + 2y - 2 = 0
    $$Présentation corrigée (merci FlipFlop) Peut-on trouver une présentation carrée ? Ou montrer que niet ?

    Présenter comme $\Z$-algèbre l'anneau des entiers d'un corps de nombres, cela date de l'époque du schéma sur $\Z$ associé à un corps de nombres et du comptage modulo $p$ ...etc.. Tu te souviens ?
  • Hello Claude,

    Il faut également voir que $e_1+e_2 = 1$, c'est les familles " complètes ", mais une fois que tu as $e_1 e_2 = 0$ c'est vite fait. Mais avec $n = 2$ c'est un peu petit ! (C'est amusant tu ne m'as pas dit que j'étais un cachotier :-D)

    Oui je regarde le Jacobien et Bézoutien. Pour l'algèbre, et bien c'est étale (mais on le sais en avance), c'est aussi un $\Z$-module libre !

    Pour les corps de nombres, oui oui je me souviens présentation fini, comptage et tout ! Bien sûr je ne sais pas du tout !

    Je pensais également à un truc mais je n'ai pas encore regardé de manière précise. Dans la construction des idempotents de Grothendieck, y'a une hypothèse $B / A$ libre de rang $n$. Le truc que je regarde c'est qu'est ce qu'il se passe lorsque $B / A$ est projectif de rang constant, ah vu de nez ça dois donner un schéma et pas forcément un anneau ! Faut que je fasse un exemple ! HUM, ca ne marche pas dans le bon sens !

    Oui oui je m'amuse bien, enfin je bidouille comme d'habitude :-D

    Sinon oui je me souviens des la présentation fini et de l'exemple de Dedekind, par contre je ne sais pas du tout si on peut obtenir une présentation carré ou pas. D'ailleurs, je pense que c'est pas immédiat d'obtenir la présentation que tu donnes !
  • $\def\cJ{\mathcal J}\def\cB{\mathcal B}\def\bX{\mathbf X}\def\bY{\mathbf Y}\def\bZ{\mathbf Z}\def\bF{\mathbf F}\def\IdB{\text{Id}_B}\def\Tr{\text{Tr}}$FlipFlop (suite).
    Oups, je n'avais pas vu $e_1 + e_2 = 1$. Un zéro pointé pour mézigue. Bon par ailleurs, tu avais dit ``idempotents orthogonaux'' et pas s.f.i.o (je glisse ma vanne à 4 balles : mais non ce n'est pas Section Française de l'Internationale Ouvrière mais système fondamental d'idempotents orthogonaux).

    Et du coup, l'algèbre c'est l'algèbre super-étale $\Z^n/\Z$. Puisque $u$ vaut 1 dans le quotient, faut y croire.

    Bon, je te passe ton truc qui n'est pas piqué des vers dans ma moulinette. Je l'ai fait pour $n$ quelconque mais je te montre $n=2$. Je n'ai pas pris les noms $e_1, e_2$ mais $X_1, X_2$. Car il faut que je clone $\bX \to \bY, \bZ$ et que je ne suis pas inspiré par les noms.

    Regarde surtout les différentes relations dont les tiennes :
    [color=#000000]> AX ;
    Polynomial ring of rank 3 over Integer Ring
    Order: Lexicographical   Variables: X1, X2, U
    
    > MagicProduct := func < i | E(i) * &*[1-E(j) : j in Remove([1..n],i)] > ;                                       
    > MagicRelation := U * &+[MagicProduct(i) : i in [1..n]] - 1 ;                                                   
    > 
    > RelationsI := [E(i)^2 - E(i) : i in [1..n]] ;
    > RelationsII := [E(i)*E(j) : i in [1..j-1], j in [1..n]] ;
    > Relation3 := 1 - &+E([1..n]) ;
    [/color]
    
    Tu piges ?

    Of course
    [color=#000000]> // Presentation carree from FlipFlop
    > F := RelationsI cat [MagicRelation] ;
    > I := Ideal(F) ;
    > assert I eq Ideal(RelationsII cat [Relation3] cat [1-U]) ;
    [/color]
    
    Tu veux voir la Jacobienne et le jacobien.
    [color=#000000]> JacF := JacobianMatrix(F) ;
    > JacF ;
    [          2*X1 - 1                  0                     0]
    [                 0           2*X2 - 1                     0]
    [       -2*X2*U + U        -2*X1*U + U    -2*X1*X2 + X1 + X2]
    > J := Determinant(JacF) ;
    > J ;
    -8*X1^2*X2^2 + 8*X1^2*X2 - 2*X1^2 + 8*X1*X2^2 - 6*X1*X2 + X1 - 2*X2^2 + X2
    > NormalForm(J, I) ;
    -1
    [/color]
    
    Pour $n=3$, le jacobien est $1$ pas $-1$.

    J'ai cloné auparavant. Un truc super important (je travaille en lignes mais on s'en fout)
    $$
    \bF(\bY) - \bF(\bZ) = (\bY - \bZ) \times \text{matrice} \qquad\qquad \text {c'est pareil que } \qquad\qquad
    \bF(\bZ) - \bF(\bY) = (\bZ - \bY) \times \text{matrice}
    $$La même matrice. Tu as vu mon niveau ?

    Et donc les matrices bezoutiennes $\text{BZ}_{\bY,\bZ}$ et $\text{BZ}_{\bZ,\bY}$, qui ne sont pas égales, conduisent quand même le même vecteur $\bY - \bZ$ sur $\bF(\bZ) - \bF(\bY)$. J'insiste : les deux matrices (distinctes) font le même job !

    Un argument classique mais astucieux, utilisant le caractère 1-sécant de $\bY - \bZ$, prouve que la différence de leurs déterminants est dans l'idéal $\langle \bF(\bZ) - \bF(\bY)\rangle$, largement contenu dans l'idéal $\langle \bF(\bZ), \bF(\bY)\rangle$. Et donc les deux déterminants sont égaux dans $B \otimes_A B$. I.e. le bezoutien vu dans $B \otimes_A B$ est invariant par le swap.

    C'est général en carré. Pas lié à tes affaires de s.f.i.o. L'argument classique et astucieux, si je te montre, tu comprendras.
    [color=#000000]> BezYZ := BezoutianMatrix(F, AYZ) ;
    > assert JacF eq ChangeRing(BezYZ, toX) ;
    > 
    > // F(Z) - F(Y) = (Z - Y) * tBezYZ.    Pareil pour BezZY !!
    > Z_Y := Vector(Z) - Vector(Y) ;
    > FZ_FY := Vector(toZ(F)) - Vector(toY(F)) ;
    > assert FZ_FY eq Z_Y * Transpose(BezYZ) ;
    > BezZY := ChangeRing(BezYZ, Swap) ;
    > assert FZ_FY eq Z_Y * Transpose(BezZY) ;
    > 
    > BezYZ ;
    [       Y1 + Z1 - 1                  0                  0]
    [                 0        Y2 + Z2 - 1                  0]
    [       -2*Y2*V + V        -2*V*Z1 + V -2*Z1*Z2 + Z1 + Z2]
    > BezZY ;
    [       Y1 + Z1 - 1                  0                  0]
    [                 0        Y2 + Z2 - 1                  0]
    [       -2*Z2*W + W        -2*Y1*W + W -2*Y1*Y2 + Y1 + Y2]
    [/color]
    
    Comme prévu
    [color=#000000]> bYZ := Determinant(BezYZ) ;
    > bZY := Determinant(BezZY) ;
    >  
    > // <F(Y) - F(Z)> plus mieux que <F(Y), F(Z)> 
    > IYZ := Ideal([toY(Fi) - toZ(Fi) : Fi in F]) ;
    > time assert bYZ - bZY in IYZ ;
    Time: 0.000
    [/color]
    
  • C'est marrant j'avais fait pareil que toi pour le swap, c'est deux matrices qui font le job et après je me suis dit qu'il y avait peut être une propriété de la suite $\mathbf{X}-\mathbf{Y}$ pour finir et bien sûr j'ai rien fait de plus :-D
  • $\def\ux{\underline x}\def\cJ{\mathcal J}\def\cB{\mathcal B}\def\bX{\mathbf X}\def\bY{\mathbf Y}\def\bZ{\mathbf Z}\def\bF{\mathbf F}\def\IdB{\text{Id}_B}\def\Tr{\text{Tr}}$Hello Grand-Maître-Des-Présentations-Carrées alias FlipFlop

    $\bullet$ 1. Je t'attache la démo. Attention, c'est de très haut niveau : il faut que tu connaisses Cramer d'une part (ce n'est pas donné à tout le monde) et ce que signifie qu'une suite de scalaires $\ux = (x_1, x_2, \cdots)$ est 1-sécante. Rappel : cela signifie que les relateurs linéaires entre les $x_i$ sont triviaux et se traduit à l'aide d'une matrice anti-symétrique (alternée a précisé Chat-Maths et il a raison). Dans le grand monde, on dit $H_1(\ux) = 0$ (homologie du complexe de Koszul descendant de $\ux$)

    Les extraits viennent de mes notes perso.

    $\bullet$ 2. C'est pas le tout de présenter $\Z^n/\Z$ de manière carrée. Je reviens à la charge en théorie des nombres avec moins de délire. Du boulot pour toi. On commence petit avec $K = \Q$ d'anneau des entiers $A = \Z$. Et on considère un corps de nombres $L$ d'anneau des entiers $B$.

    On sait bien que $B$ est un $\Z$-module libre de rang $[L : \Q]$, c'est toujours cela de pris. J'ignore si $B/\Z$ est de présentation carrée en tant qu'algèbre. J'ai un peu des doutes.

    MAIS, il y a le discriminant $\Delta$ de $B$. C'est un entier bien défini car le carré d'un inversible de $\Z$, c'est 1. On va inverser le discriminant en bas (et en haut du coup) :
    $$
    A' := \Z[1/\Delta] \quad \subset \quad B' := B[1/\Delta]
    $$Alors $B'$ est encore libre sur $A'$ (une base de $B/A$ reste une base de $B'/A'$) et maintenant $B'/A'$ est étale. Pourquoi ? Parce que, dans ce cadre, traciquement étale = étale, que je dis : retour à la case départ, c'est cela que depuis le début, je voudrais éclaircir (lien entre tracique et différentiel) afin de le raconter aux enfants.

    Et alors ? Eh bien, $B'/A'$ admet donc une présentation carrée en tant qu'algèbre. A toi de jouer avec le polynôme de Dedekind en inversant son discriminant.111138
    111142
  • Salut Claude,

    Il doit y avoir une coquille dans ta présentation :
    $$xy = 4, \qquad 2x + y^2 - 7 + 2 = 0, \qquad x^2 + x + 2y - 2 = 0
    $$
  • FlipFlop
    Oui, j'ai corrigé : la deuxième relation est $2x + y^2 - y + 2 = 0$ au lieu du douteux $2x + y^2 - 7 + 2 = 0$.

    J'ai récupéré cette présentation à la page 4 d'une vieille note intitulée ``Et les Shadocks comptaient, comptaient ...'' (nom de fichier CountingWithFlipFlopAndGaiRequin.pdf).
  • D'accord :-D ca va me prendre un peu de temps je dois faire à la main (je ne sais pas travailler avec les modules avec sage).
  • Bon j'ai trouvé :
    $$
    \frac{\Z[a,b,c,u]}{Dénom},
    $$ $\begin{align*}
    \text{avec}\
    Dénom = \Big\langle &2ab - b^2 - 2c^2 - b,\ -2b^2 + 2ac + c^2 - c,\ a^2 + 2b^2 + 8bc - 2c^2 - a, \\
    &u \big( 3a^3 - 3a^2b - 6ab^2 - 24b^3 + 3a^2c - 39abc + 18b^2c + 6ac^2 - 30bc^2\\
    &\qquad - 24c^3 - 6a^2 + 4ab + 4b^2 - 4ac + 26bc - 4c^2 + 3a - b + c
    \big) -1 \Big\rangle
    \end{align*}$
    Bon ça ne rentre pas à l'écran et faut inverser le discriminant mais je ne sais pas calculer un discriminant :-D
  • $\def\bX{\mathbf X}$Salut FlipFlop Je ne sais pas ce que tu as trouvé. De quel discriminant tu parles ? De celui de l'anneau $B$ des entiers de $\Q(x)$ où $x$ est une racine du polynôme de Dedekind $F(X) = X^3 + X^2 - 2X + 8$ ? Une $\Z$-base de $B$ est $(1, x, y)$ avec $y = 4/x = (-x^2-x+2)/2$. Tu calcules la matrice tracique de cette base et son déterminant, c'est le discriminant de $B$, ici $-503$. Alors que le discriminant de $F$ est $2^2 \times (-503)$. Un extrait seulement :
    [color=#000000]> base := [1,x,y] ;                                          
    > T := Matrix(3,3, [Trace(bi*bj) : bj in base, bi in base]) ;
    > T ;
    [ 3 -1  1]
    [-1  5 12]
    [ 1 12 -3]
    > Determinant(T) ;
    -503
    > Discriminant(F) ;
    -2012
    [/color]
    
    De toutes manières, ce qui compte, c'est plus la méthode que le résultat. Je reviens sur ta présentation carrée du s.f.i.o. Comment as tu trouvé ? La théorie dit la chose suivante. Je change tes notations en notant $A[\bX] = A[X_1, \cdots, X_n]$ et
    $$
    I = \langle 1 - \sum_i X_i,\ X_iX_j \ 1 \le i < j \le n \rangle, \qquad B = A[x_1, \cdots, x_n] = A[\bX]/I \qquad B \simeq A^n
    $$L'isomorphisme à droite, c'est l'isomorphisme de $A$-algèbres qui réalise $x_i \leftrightarrow e_i$ où $(e_1, \cdots, e_n)$ la base canonique de $A^n$.

    En principe, puisque l'on y croit à une présentation carrée, on met en place la differential map $d$
    $$
    d : I/I^2 \to B^n = \bigoplus_{i=1}^n B dX_i \qquad F \bmod I^2 \mapsto dF \bmod I \quad \text{avec} \quad dF = \sum_{i=1}^n (\partial F/\partial X_i) dX_i
    \qquad \qquad (\star)
    $$Comme d'habitude, mon domaine d'arrivée de $d$ est un peu détypé. Il provient en fait de
    $$
    \bigoplus_{i=1}^n B dX_i = \Omega_{A[\bX]/A} \otimes_{A[\bX]} B = {\Omega_{A[\bX]/A} \over I\Omega_{A[\bX]/A}}, \qquad\qquad
    \Omega_{A[\bX]/A} = \bigoplus_{i=1}^n A[\bX] dX_i
    $$Puisque tu crois au binz, c'est que $d$ est une injection rétractée. Mieux : $d$ est surjectif puisqu'au bout (à droite) cela se prolonge en une suite exacte avec $\Omega_{B/A}$ qui est nul ici.

    Bref, tu crois dur comme fer que $d$ est un isomorphisme. Il s'agit d'expliciter l'inverse de $d$ ou au moins une rétraction $r : B^n \to I/I^2$. Tu obtiens alors $n$ polynômes $F_1, \cdots, F_n \in I \subset A[\bX]$ tels que
    $$
    I/I^2 = \langle \overline {F_1}, \cdots, \overline {F_n} \rangle
    $$Et là, il y a un trick bien connu général. Ce trick te sort un nouvel élément $E \in I$ tel que, d'une part, $I = \langle F_1, \cdots, F_n, E\rangle$ (tu as donc bouché le système de générateurs modulo $I^2$ en un système de générateurs de $I$). Et d'autre part, $E$ est un idempotent modulo $\langle F_1, \cdots, F_n\rangle$. Ce qui va te permettre d'obtenir une présentation carrée de $B$ en les $n+1$ générateurs de $I$ de la manière suivante : on ajoute une indéterminée $X_0$ et la relation $(1-E)X_0 - 1$. Explication :
    $$
    B = A[\bX]/I = {A[\bX] \over \langle F_1, \cdots, F_n, E\rangle} = {A[\bX] / \langle F_1, \cdots, F_n\rangle \over \langle E\rangle}
    \quad \buildrel (\heartsuit) \over \simeq\quad
    (A[\bX] / \langle F_1, \cdots, F_n)\ [1/(1-E)]
    $$L'isomorphisme $(\heartsuit)$ provient du fait qu'à gauche de $(\heartsuit)$, $E$ est un idempotent du numérateur et que quotienter par un idempotent, c'est pareil que de localiser en son complémentaire. Et localiser en un élément $\text{truc}$, c'est ajouter une indéterminée $X_0$ et la relation $X_0 \times \text{truc} = 1$. D'où une présentation carrée en $n+1$ indéterminées et $n+1$ relations.

    Mais j'ai l'impression que toi, tu préfères sortir le truc d'un chapeau de magicien sans dévoiler ton tour de magie. Je me trompe ?
  • Claude,

    Je pars en montagne mais j'ai juste fait le truc avec la variété des idempotents de Grothendieck, en fait ! Je vais regarder ton autre méthode !
  • $\def\bX{\mathbf X}\def\bF{\mathbf F}$FlipFlop
    Tu devrais arrêter de dire que tu bidouilles (cf il y a quelques posts). Et dans le dernier post, tu dis ''j'ai juste fait le truc avec la variété des idempotents de Grothendieck'' comme si c'était une banalité. D'ailleurs, je n'ai absolument pas cru que tu bidouillais car pour tomber sur ta présentation carrée que j'attache, faut quand même faire un petit effort.

    Ici je suis la méthode que j'ai préconisée dans mon dernier fil http://www.les-mathematiques.net/phorum/read.php?3,2068882,2111514#msg-2111514. J'ai ajouté 5 lignes détaillant l'obtention d'une présentation carrée. Je vais avoir besoin d'un coup de main. Je reprends les notations de mon post.

    $\bullet$ 1. Avec $B = A^n$, on est de nouveau confronté au truc de bébé : $B/A$ libre, traciquement étale. Donc étale. Pourquoi : parce que traciquement étale, cela implique nette, et d'une. Et la liberté de $B/A$ fait la platitude, et de deux. Et nette + plat = étale, circulez, il n'y a rien à voir. Mais pas pour moi. J'ai envie d'en savoir plus (pourquoi le discriminant de $B/A$ tue $\Omega_{B/A}$ ...etc..). Et de toutes manières, pour obtenir une présentation carrée, si tu ne connais que le titre de la chanson sans avoir bien compris les paroles, tu l'as dans le c.l.

    Ici la présentation de $A^n / A$ via la base canonique $(e_1, \cdots, e_n)$ est vachement simple :
    $$
    1 = \sum_i e_i, \qquad e_i e_j = 0 \quad i \ne j
    $$A noter que $e_i^2 = e_i$ s'en déduit. C'est un cas particulier de la présentation via les constantes de structure. J'ai ressorti mes affaires là-dessus mais certains calculs étaient trop complexes. J'ai suspendu mes affaires et j'ai louché sur ton résultat de présentation carrée de s.f.i.o.

    $\bullet$ 2. On écrit $B = A[x_1, \cdots, x_n] = A[\bX]/I$ où $I \subset A[\bX] = A[X_1, \cdots, X_n]$ est l'idéal de s.f.i.o et je pose (louchant sur toi) :
    $$
    F_i = X_i^2 - X_i \in I, \qquad \bF = \langle F_1, \cdots, F_n\rangle
    $$Calcul différentiel (au sens de la differential map). Attention au départ, le modulus est $I^2$ et à l'arrivée le modulus est $I$
    $$
    d(F_i) = (2x_i - 1) dX_i
    $$Impeccable car $2x_i-1$ est de carré 1 vu que $x_i$ est idempotent. Donc $d : I/I^2 \to B^n = \bigoplus_i B dX_i$ est surjectif. Naturel de proposer comme rétraction $r$ de $d$
    $$
    r : B^n \to I/I^2, \quad dX_i \mapsto H_i := (2X_i -1)F_i
    $$Mais pour vérifier que $r \circ d = \text{Id}_{I/I^2}$, cela arrangerait que
    $$
    I/I^2 = \overline {\bF} := \langle \overline {F_1}, \cdots, \overline {F_n} \rangle \qquad \text{i.e.} \qquad
    I/I^2 = (\bF + I^2)/I^2 \qquad \text{i.e.} \qquad \fbox {$I = \bF + I^2$} \qquad \text{A MONTRER}
    $$Expérimentalement : c'est oK.

    $\bullet$ 3. En passant, késaco $H_i$ qui est dans $I$ ? Si je pose $\widetilde {X_i} = X_i - H_i$, le fait que $r$ soit une rétraction de $d$ équivaut au fait que $X_i \mapsto \widetilde {X_i}$ soit un relévement modulo $I^2$ de l'identité de $B$. Et après calcul
    $$
    \widetilde {X_i} = 3X_i^2 - 2X_i^3 \qquad \qquad
    \text{tu reconnais l'éternel itérateur de Newton } e \mapsto 3e^2 - 2e^3
    $$$\bullet$ 4. Il faut maintenant remonter de $I/I^2$ à $I$. Regarde les 5 dernières lignes de mon post précédent. Un calcul que j'ai fait des dizaines de fois et qui m'épate toujours à cause du changement de moduli :
    $$
    I/I^2 = \overline {\bF} \quad \Longleftrightarrow\quad I = \bF + I^2 \quad \Longleftrightarrow\quad I/\bF = (\bF + I^2/\bF
    \quad \Longleftrightarrow\quad I/\bF = (I/\bF)^2
    $$A droite, un idéal idempotent $I/\bF$ de $A[\bX]/\bF$. Attention au nouveau modulus. Donc $I/\bF$ est engendré par un idempotent MODULO $\bF$, disons $\overline E$ avec $E \in I$. Pour le calculer, c'est un déterminant trick. Et j'ai besoin d'un petit système de générateur de $I/\bF$ (qui finira par être monogène).

    Pour l'instant, je n'ai pas fait i.e. pas mis en oeuvre le determinant's trick. MAIS en faisant intervenir un polynôme qui te dit quelque chose (attention au $1 - \Sigma$ mais plus tard c'est $1 - E$, donc $\Sigma$ qui interviendra) :
    $$
    E = 1 - \sum_i X_i \prod_{j \ne i} (1 - X_j)
    $$on a facilement $E \in I$. Et j'ai vérifié que $E$ est idempotent modulo $\bF$, ce qui est un bon début.111198
  • Hello Claude,

    Pour la présentation des s.f.i.o, je note $B := \Z[e_1,\dots,e_n] := \Z[E_1,\dots,E_n] / \langle \text{Rel} \rangle$. On a une $\Z$-base de $B$ qui est $(e_1,\dots,e_n)$ et les relations de s.f.i.o

    J'ai écris les relations pour la variété des idempotents de Grothendieck que je note $\text{Idem}_B$. Soit $R$ un anneau, un point de $\text{Idem}_B$ est un idempotent de $R \otimes B$, on écrit un élément $\zeta \in R \otimes B$ comme $\sum r_i e_i$ (avec un petit abus d'écriture $e_i = 1 \otimes e_i$). Il est idempotent si et seulement si $(\sum r_i e_i)^2 = \sum r_i e_i$ ce qui conduit à : $r_i^2 - r_i = 0$
    Bref, on a une présentation carré de $\text{Idem}_B$ via $$\Z[X_1,\dots,X_n] / \langle X_i^2 -X_i, i \in \{1,\dots,n\} \rangle$$
    (Là pour moi c'est beaucoup trop rapide ce que je raconte, je ne comprends pas complétement)

    Soit $R$ un anneau, soit $\zeta \in R \otimes B$, on note $m_\zeta : R \otimes B \to R \otimes B$ la multiplication par $\zeta$, c'est un morphisme $R$-linéaire, et sa matrice dans la base $(e_i)$ (toujours un abus) est simplement $\text{Diag}(r_1,\dots,r_n)$ où $(r_1,\dots,r_n)$ est le vecteur coordonnée de $\zeta $ dans la base $(e_i)$. Si on suppose que $\zeta$ est idempotent, alors cette dernière matrice est un projecteur qui a pour polynôme rang :
    $$
    \text{Rang} (m_\zeta) := \text{Det}(1 + (Y-1) m_\zeta) := \prod ((1-r_i) + Y r_i)
    $$
    Le coefficient en $Y$ est donc $\sum r_i \prod _{j \ne i} (1-r_i)$, par théorème (:-D) c'est bien un idempotent mais on le voit en remarquant que c'est un somme d'idempotent orthogonaux (car $r_1 (1-r_1) = 0$.

    Bon là, y'a plus qu'a calculer le discriminant de $B / \Z$ (c'est $1$) et a utiliser ton théorème ! Pour obtenir la présentation que j'ai donné, sinon on montre directement que la présentation convient (j'ai un petit peu honte en disant ça) !

    C'est très marrant, y'a trois étages d'idempotents :-D
  • Pour ton histoire de $I /I^2$, je n'ai pas encore compris cette histoire de différentielle map et tout !
  • $\def\bX{\mathbf X}\def\bF{\mathbf F}\def\bH{\mathbf H}$FlipFlop
    Suite de mon post. Cela s'arrange bien. Je me suis rendu compte que j'utilisais la differential map $d : I/I^2 \to B^n = \bigoplus_{i=1}^n BdX_i$ comme un pied. Elle est censée linéariser les calculs et il faut s'en servir ! Dit autrement, elle est $B$-linéaire et à l'arrivée, le modulus est $I$ (il est simple) tandis qu'au départ, le modulus est $I^2$ (plus complexe).

    Rappel rapide du contexte : $I$ = idéal du $n$-s.f.i.o générique. J'ai été amené (cf le post précédent) à poser $H_i = (2X_i-1)(X_i^2 - X_i) \in I$ de sorte
    $$
    d(H_i) = dX_i
    $$Il va falloir en profiter. Je pose $\bH = \langle H_1, \cdots, H_n\rangle$

    $\bullet$ En utilisant $d$, je vais montrer que $\fbox{$I = \bH + I^2$}$, plus mieux que ce que je convoitais $I = \bF + I^2$ où $\bF = \langle F_1, \cdots, F_n\rangle$ avec $F_i = X_i^2 - X_i$. Je dois montrer par exemple que $X_1X_2 \in \bH + I^2$. Coup de $d$ et croire dur comme fer que $d$ est un isomorphisme puisque c'est cela qui est visé :
    $$
    d(X_1X_2) = x_1dX_2 + x_2dX_1 = d(X_1 H_2 + X_2 H_1) \quad
    \begin {array} {c}
    \text{donc on est} \\
    \text{conduit} \\
    \text{ à penser que} \\
    \end {array}
    \quad
    X_1X_2 \equiv X_1 H_2 + X_2 H_1 \bmod I^2 \text{ prouvant } X_1X_2 \in \bH + I^2
    $$Il n'y a plus qu'à montrer la congruence modulo $I^2$. Besoin d'éléments SIMPLES de $I^2$, par exemple (flemme de justifier)
    $$
    X_iX_jX_k \in I^2 \qquad S_{ij} = X_i X_j (X_i + X_j - 1) \in I^2 \qquad\qquad i,j,k \text { distincts}
    $$Et on tombe sur
    $$
    X_1X_2 - (X_1H_2 + X_2H_1) = \big( 1 - 2(X_1+ X_2) \big) S_{12}+ 4 (X_1X_2)^2 \in I^2
    $$$\bullet$ Une fois que l'on a l'encadré, cela prouve
    $$
    I/I^2 = \langle \overline {H_1}, \cdots, \overline {H_n}\rangle \qquad \qquad d(H_i \bmod I^2) = dX_i
    $$C'est plié : cela montre à la fois que $d$ est un $B$-isomorphisme et que $(\overline {H_1}, \cdots, \overline {H_n})$ est une $B$-base de $I/I^2$.

    $\bullet$ J'ai osé dire que mes affaires générales de $B/A$ libre, de discriminant $\Delta$ et présentation via les constantes de structure étaient trop complexes dans le contexte s.f.i.o. La honte : j'utilise $d$ comme un pied. Rappel : on a une présentation avec des relateurs $R_0$ et $(R_{ij})_{1 \le i,j \le n}$ qui sont ici :
    $$
    R_0 : 1 = \sum_i e_i, \qquad R_{ij}, \ i \ne j : e_ie_j = 0, \qquad R_{ii} : e_i^2 = e_i
    $$Je note $T$ la matrice tracique dans le base, c'est $\text{Id}_n$, $\widetilde {T}$ la cotransposée, pareil c'est l'identité et je dis qu'il faut poser
    $$
    [X'_1, \cdots, X'_n] = [X_1, \cdots, X_n] \ \widetilde T\qquad H_i = \sum_j X'_j R_{ij} \qquad
    \begin {array} {c}
    \text{Et je fais} \\
    \text{le pari sur} \\
    \end {array}
    \qquad
    d(H_i) \buildrel {?} \over = \ \Delta\, dX_i
    $$ICI, cela donne $X'_i= X_i$, $\Delta = 1$ et
    $$
    H_1 = X_1.(X_1^2 - X_1) + X_2. X_1X_2 + \cdots + X_n.X_1X_n
    $$Calcul différentiel en utilisant que $d$ est $B$-linéaire
    $$
    d(H_1) = x_1(2x_1 - 1) dX_1 + x_2 (x_1 dX_2 + x_2dX_1) + \cdots + x_n (x_1 dX_n + x_ndX_1)
    $$Dans $B$, j'utilise que chaque $x_i$ est idempotent et que $x_i x_j = 0$ pour $i \ne j$. Il reste :
    $$
    d(H_1) = x_1 dX_1 + x_2 dX_1 + \cdots + x_n dX_1 = (x_1 + x_2 + \cdots + x_n) dX_1 = dX_1
    $$
  • $\def\cB{\mathcal B}\def\Id{\text{Id}}$FlipFlop

    0. Je vais lire attentivement ton post.

    1. Je te donne une journée, pas plus (avec tout ce que je t'ai raconté) pour comprendre la differential map $d : I/I^2 \to \bigoplus_{i = 1}^n B dX_i$ et ses BIENFAITS.

    2. On s'est fait b.iser la gu.ule par les auteurs avec $t : B^\dagger \to B$ lorsque $B/A$ est en intersection complète faible (je disais pauvre mais je n'aime plus). Cela signifie présentation carrée. D'où naissance d'un bezoutien $\cB \in B \otimes_A B$.

    J'étais très fier (si, si) de vous dire (sans faire tout le patacaisse des auteurs que je ne cite pas), de définir
    $$
    t : B^\dagger \to B \qquad t(\lambda) = (\lambda \otimes \Id_B)(\cB) = (\Id_B \otimes \lambda)(\cB)
    $$Et de montrer que $t$ est $B$-linéaire via les deux propriétés du bezoutien : tuer le noyau de la multiplication $B \otimes_A B \to B$ et être invariant par le swap.

    On ne peut pas dire que mon post ait eu un grand succès. C'est la $B$-linéarité qui est difficile.

    MAIS il y avait d'autres choses : montrer que $t$ est un ISOMORPHISME quand $B/A$ est libre par exemple.

    Mais DAMNED, $t$ est aussi $A$-linéaire donc on peut prendre son déterminant dans des bases : $e = (e_1, \cdots, e_n)$ à l'arrivée et la base duale $e^* = (e^*_1, \cdots, e^*_n)$ au départ. D'où un SCALAIRE de $A$
    $$
    \fbox {$\det_{e^*, e}(t) \in A$}
    $$OK, tu n'es pas dedans mais à ton avis, d'où peut sortir ce scalaire de l'anneau de base ?? Qui va se trouver être inversible si on veut que $t$ soit un isomorphisme.

    CHAMPAGNE si tu devines au pif.

    Et est ce que c'est compliqué d'en dire plus, de manière concrète, sur $t$ ? Bien sûr que NON !
  • $\def\cB{\mathcal B}$FlipFlop Pas encore eu le temps de lire ton post. Je voudrais juste te dire que je ne suis pas un bourreur : si je dis que $t : B^\dagger \to B$, c'est concret, c'est que j'en sais quelque chose (que j'ai pigé hier). Grâce aux auteurs de ... ?.? Mon c.l oui. En faisant comme d'habitude des PETITES choses SIMPLES, des petits exemples.

    Cela serait une bonne chose de REVENIR en ARRIERE, de revisiter nos échecs ...etc... Tout cela ne peut pas se faire en un jour, ni en une semaine. Parfois il faut des mois.

    $\bullet$ Bébé. En une variable, intersection complète faible, c'est $B = A[X] /\langle F(X)\rangle$. Vont débarquer : le discriminant de $F$ i.e. au signe près le résultant de $F, F'$ ...etc.. Il va falloir apprendre à faire une petite place au bezoutien
    $$
    {F(Y) - F(Z) \over Y-Z} \qquad \text{ et à son image } \cB \in B \otimes_A B
    $$Et voilà ce qui peut-être débusqué via $t : B^\dagger \to B$. Je tire 2 polynômes au hasard $P, Q$ de degré $\le d$. Il faudra penser plus tard à $P \leftrightarrow F$, $P \leftrightarrow F'$
    [color=#000000]> d := 6 ;
    > P := RandPol(d) ;
    > P ;
    2*X^6 + 3*X^5 + 5*X^4 - 4*X^3 - 2*X^2 + 4
    > Q := RandPol(d) ;
    > Q ;
    -5*X^6 - X^5 + 2*X^3 + 2*X + 1
    [/color]
    
    La matrice de Sylvester de taille $d + d$. Rien de nouveau.
    [color=#000000]
    > SPQ := SylvesterMatrice(P,d, Q,d) ;
    > SPQ ;
    [ 2  0  0  0  0  0 -5  0  0  0  0  0]
    [ 3  2  0  0  0  0 -1 -5  0  0  0  0]
    [ 5  3  2  0  0  0  0 -1 -5  0  0  0]
    [-4  5  3  2  0  0  2  0 -1 -5  0  0]
    [-2 -4  5  3  2  0  0  2  0 -1 -5  0]
    [ 0 -2 -4  5  3  2  2  0  2  0 -1 -5]
    [ 4  0 -2 -4  5  3  1  2  0  2  0 -1]
    [ 0  4  0 -2 -4  5  0  1  2  0  2  0]
    [ 0  0  4  0 -2 -4  0  0  1  2  0  2]
    [ 0  0  0  4  0 -2  0  0  0  1  2  0]
    [ 0  0  0  0  4  0  0  0  0  0  1  2]
    [ 0  0  0  0  0  4  0  0  0  0  0  1]
    > NumberOfRows(SPQ) ;
    12
    [/color]
    
    Et une petite nouvelle dite matrice de Bezout de $P,Q$ de taille $d$ :
    [color=#000000]> BPQ := BezoutMatrix(P,Q,d) ;
    > 
    > BPQ ;
    [ 22   7   5 -12  -2  -8]
    [  4  28  17  -3 -16  -2]
    [-10   2  28  21  -3 -12]
    [-16  -8  12  28  17   5]
    [ 25 -11  -8   2  28   7]
    [ 13  25 -16 -10   4  22]
    > NumberOfRows(BPQ) ;
    6
    [/color]
    
    Je t'assure qu'en un certain sens $\cB$ n'est pas loin ainsi que $t : B^\dagger \to B$.
    Et alors ? La chute :
    [color=#000000]> Det(SPQ) ;
    4205303
    > Det(BPQ) ;
    4205303
    [/color]
    
    C'est peut-être une coïncidence ?
  • $\def\bF{\mathbf F}\def\bH{\mathbf H}\def\bX{\mathbf X}$FlipFlop
    J'ai lu une première fois ton post http://www.les-mathematiques.net/phorum/read.php?3,2068882,2112042#msg-2112042. P.tain, c'est dingue, t'as pas peur !

    Je le dis en des termes plus algébriques : avec $A = \Z$, tu as donc monté l'algèbre $E/A$ des idempotents de Grothendieck de $B/A$, qui elle-même est déjà pleine d'idempotents dans sa tronche vu que c'est l'algèbre du $n$-s.f.i.o. générique.

    je ne vois pas pourquoi tu dis en plein milieu que c'est trop rapide : c'est bien la présentation de $E/A$ par définition.

    Et ensuite, tu as considéré ``le polynôme rang $R(Y)$ associé à $E/A$'', à qui tu as donné dans le passé une coloration géométrique via la multiplication par $\zeta$. Je le note $R(Y) = R_0 + R_1Y + R_2 Y^2 + \cdots$ parce que les minuscules $r_i$ sont déjà prises. Je m'y perds un peu : $R(Y)$ est à coefficients dans $E$, n'est ce pas ?

    Et enfin, tu as utilisé $B \simeq E[1/R_1]$ parce que le discriminant de $B/A$ est inversible (c'est 1). Et $B \simeq E[1/R_1]$, c'est ta présentation carrée en $(n+1)$ variables et $(n+1)$ relations.

    Tu veux que je te dise : d'abord, t'es fou, mais ça, c'est pas un scoop, tu le savais. Mais surtout, ton exemple, je le trouve excellent.

    De mon côté, je n'ai pas terminé car il faut que je fasse un déterminant 's trick avec $I/\bH \subset A[\bX]/\bH$ ou bien avec $I/\bF \subset A[\bX]/\bF$ pour obtenir l'unique idempotent générateur de cet idéal et retrouver $R_1$.

    Une deuxième bouteille de champagne si tu fournis une présentation carrée de $B[1/\Delta]$ sur $\Z[1/\Delta]$ où $B/\Z$ est l'anneau des entiers du polynôme cubique de Dedekind et $\Delta = -503$ son discriminant.
  • FlipFlop

    Grâce à ce que tu as fait dans le cas particulier s.f.i.o., le résultat général de présentation carrée est devenu banal.

    Soit $B/A$ libre de base $(e_1, \cdots, e_n)$, $\Delta$ le discriminant de cette base, $E = A[x_1, \cdots, x_n]$ l'algèbre des idempotents de Grothendieck de $B/A$ relativement à cette base $e$. Par construction, $E/A$ admet une présentation carrée $n \times n$.

    Je dis, en notant $r_1 \in E$ l'idempotent coefficient en degré 1 ``du polynôme rang attaché à $E/A$'', que l'on dispose d'un isomorphisme canonique (explicite) de $A$-algèbres :
    $$
    B[1/\Delta] \simeq E[1/r_1]
    $$A droite, présentation carrée naturelle $(n+1) \times (n+1)$. Bilan : $B[1/\Delta]$ admet, en tant que $A$-algèbre, une présentation carrée $(n+1) \times (n+1)$ explicite.

    Je viens de le faire pour $A = \Z$ et l'anneau $B$ des entiers du polynôme de Dedekind sans aucune difficulté.

    Merci !
  • Mais je n'ai rien fait Claude :-D

    Le problème c'est de faire les calculs ... enfin informatiquement pour moi, sage n'est pas ultra balèze avec les algèbres qui sont des modules libres, je pense qu'il fait le job mais je ne sais pas encore.

    Mais vraiment ton résultat est vraiment vraiment très joli je trouve, c'est dommage que la démonstration ne soit pas vraiment clean / plus conceptuel.

    Je regarde les $I/ I^2$ quand j'ai le temps !
Connectez-vous ou Inscrivez-vous pour répondre.