Le caractère étale en algèbre commutative

123468

Réponses

  • D'ailleurs histoire d'être complet pour les s.f.i.o, l'idempotent de séparabilité est $e := \sum e_i \otimes e_i$. Vérification direct, on a : $\mu(e) = \sum e_i^2 = \sum e_i =1$ et pour tout $j$, on a (en utilisant $e_i e_j = \delta_{ij}e_i$ :
    $$ e (e_j \otimes 1 - 1 \otimes e_j) = \sum (e_j e_i) \otimes e_i - e_i \otimes (e_j e_i) = e_j \otimes e_j - e_j \otimes e_j = 0 $$
  • $\def\bX{\mathbf X}\def\bF{\mathbf F}\def\bH{\mathbf H}\def\Id{\text{Id}}$Salut FlipFlop
    Si tu as fait quelque chose : tu as utilisé l'algèbre $E/A$ des idempotents de Grothendieck de $B/A$. Je crois que je n'avais pas pris conscience de la puissance de $E/A$ : elle est étale, carrée, certifiée, et en un certain sens, elle couvre $B[1/\Delta]$.

    Lorsque $\Delta$ est inversible, cela serait une bonne chose de revenir sur $E[1/r_1] \simeq B$ : la preuve actuelle est à l'arraché, pas belle, pas conceptuelle comme tu dis. De plus, comme déjà dit, les calculs réalisés pour montrer cette isomorphie servent de guide pour étudier le lien entre le tracique et le différentiel. Par exemple pourquoi $\Delta . \Omega_{B/A} = 0$ : la preuve n'a jamais été terminée pour au moins deux raisons : j'y arrive lorsque $\Delta$ est régulier via des calculs insipides qui à mon avis ne sont pas dans le bon cadre (trop détypés, faire gaffe à l'utilisation intempestive de $B \otimes_A B \simeq B^n$ en tant que $B$-module du côté droit par exemple). Et lorsque $\Delta$ n'est pas régulier, besoin d'identités que je ne sais pas prouver. Bref, à revoir.

    Pour moi, c'est indispensable de revenir en arrière et de prendre son temps. Je me répète.

    En particulier, il faut que je revienne (encore !) sur un certain nombre de posts car j'ai été beaucoup trop vite. Je te raconterais ce que j'ai fait pour le polynôme de Dedekind. Egalement revenir sur $t : B^\dagger \to B$ en prenant son temps ...etc... Sur de Smit & Lenstra, sur l'appendice de Mazur & Roberts (théorème de Tate) ...etc...

    J'ai utilisé au moins 4 fois l'expression ``revenir sur''
    Là, je reviens (!) sur la differential map $d : I/I^2 \to B^n = \bigoplus_{i=1}^n B dX_i$ qui a du sens lorsque $B/A$ est présentée en $n$ variables $B = A[\bX]/I$. Et en particulier sur mon post s.f.i.o. http://www.les-mathematiques.net/phorum/read.php?3,2068882,2112068#msg-2112068 car les calculs ne sont pas terminés (j'ai des doutes sur le fait de retrouver ton $r_1$).

    $\bullet$ I. Cadre GENERAL $B/A$ de présentation finie (j'omets donc le qualificatif ``formellement'')

    $\blacktriangleright$ $B/A$ lisse équivaut à $d$ injection rétractée (grosso modo, rétractions de $d$, c'est pareil que les relèvements de $\Id_B$ à $A[\bX]/I^2$). Auquel cas, $\Omega_{B/A}$ est un $B$-module projectif qui reflète la ``dimension relative de $B/A$'' tandis que $I/I^2$, qui est aussi un $B$-module projectif reflète la codimension. Et ces deux $B$-modules projectifs se bouchent l'un et l'autre en un libre : $B^n \simeq I/I^2 \oplus \Omega_{B/A}$ (de manière non canonique, dépend de la rétraction choisie), ce qui est d'ailleurs un certificat du fait qu'ils sont projectifs. Note : $\Omega_{B/A}$ est intrinsèque mais $I/I^2$ dépend de la présentation.

    $\blacktriangleright$ $B/A$ nette i.e. $\Omega_{B/A} = 0$ équivaut à $d$ surjective ; de manière plus générale on a une suite exacte $I/I^2 \to \bigoplus_i BdX_i \to \Omega_{B/A} \to 0$.

    $\blacktriangleright$ $B/A$ étale équivaut à $d$ isomorphisme (de $B$-modules)

    $\bullet$ II. S.F.I.O. Attention au maniement de la differential map $d : I/I^2 \to ...$. Ici $I$ est l'idéal du s.f.i.o. Exemple de calcul qui n'a AUCUN sens :
    $$
    d(X_1^2 - X_1) = d(X_1^2) - d(X_1)
    $$Pourquoi aucun sens ? Car $d$ mouline sur $I/I^2$ et mange donc les polynômes qui sont dans $I$ : $X_1^2 - X_1$ est dans $I$ mais pas $X_1^2$. Et quand on dit que $d$ est $B$-linéaire c'est bien entendu parce que $I/I^2$ est un $B$-module. Le calcul qui a du sens est :
    $$
    d(X_1^2 - X_1) = 2X_1 dX_1 - dX_1 = (2x_1 - 1) dX_1 \qquad\qquad \text{ne pas confondre } dX_1 \in \bigoplus_i BdX_i \text{ et } d(X_1) \text{ qui n'a aucun sens}
    $$A propos de $X_1X_2X_3 \in I^2$. Comment le DEVINER ? Attention avec $d$ à ne pas sortir de $I$ au départ (bis)
    $$
    d(X_1X_2X_3) = x_1d(X_2X_3) + x_2d(X_1X_3) + x_3d(X_1X_2) = x_1(x_2dX_3 + x_3dX_2) + x_2d(x_1dX_3 + x_3dX_1) + x_3d(x_1dX_2 + x_2dX_1) = 0
    $$Cela fait 0 car $x_ix_j = 0$ dans $B$ pour $i \ne j$. Comme on croit dur comme fer que $d$ est un iso, c'est que $X_1X_2X_3 \in I^2$.
    Comment le PROUVER ? En écrivant (il y a peut-être plus simple)
    $$
    \left\{
    \begin {array} {l}
    X_1X_2X_3 = X_1X_2X_3 (X_1+X_2+X_3 + \sum_{i \ge 4} X_i) \qquad + \qquad \overbrace{X_1X_2X_3}^{\in I} \times \overbrace{(1 - \sum_i X_i)}^{\in I}
    \\
    X_1X_2X_3 . X_1 \in I^2, \qquad X_1X_2X_3 . X_2 \in I^2, \qquad X_1X_2X_3 . X_3 \in I^2, \qquad X_1X_2X_3 . \sum_{i \ge 4} X_i \in I^2
    \\
    \end {array}\right.
    $$
    $\bullet$ II. HELP. Je n'arrive pas à montrer, avec $H_i = (2X_i - 1)(X_i^2 - X_i) \in I$, qui satisfait $d(H_i) = dX_i$, que
    $$
    \sum_{i=1}^n X_i - 1 \equiv \sum_{i=1}^n H_i \bmod I^2 \qquad\qquad \qquad
    \text{comment je l'ai deviné ? En donnant un coup de } d
    $$J'en ai besoin pour TERMINER le fait que $d$ est un isomorphisme.
  • Hello Claude,

    $\bullet$ Pour la différential map, est-ce que c'est la même définition qu'ici définition 2.14 p 66. Oui bon c'est encore une prise de tête avec les notations !

    $\bullet$ Si j'ai bien compris ton $B^n$. D'une part, on a : $\Omega_{A[\mathbf{X}] / A} \simeq (A[\mathbf{X}])^n$ et on décide d'écrire la base $dX_i$.

    Donc si je comprends un peu, au départ on a $d : A[\mathbf{X}] \to \Omega_{A[\mathbf{X}] / A}$ qui est donnée, formellement, par $a \mapsto da$, ici je prends le modèle des différentielles via les relations (comme dans le pdf).

    On montre que les $d(X_i)$ forme une $A[\mathbf{X}]$-base de $\Omega_{A[\mathbf{X}] / A}$. Et que l'expression de $d$ est donnée par :
    $$
    F \mapsto \sum (\partial_i F) dX_i \qquad \qquad \text{avec $\partial_i$ la dérivation par rapport à $X_i$ }
    $$
    Ce qui justifie qu'on peut penser à l'écriture $d F$ comme la différentielle de $F$ au sens de l'analyse.

    Ensuite, il faut prendre un idéal $I$ de $A[\mathbf{X}]$.
  • $\def\bX{\mathbf X}$Flip Flop, Oui c'est exactement cela. D'ailleurs la terminologie ``differential map'', je la tiens de Maltenfort.

    Note que j'ai fait le rappel sur $d : I/I^2 \to \cdots$ au milieu de mon post http://www.les-mathematiques.net/phorum/read.php?3,2068882,2111514#msg-2111514 avec le produit tensoriel et sans le produit tensoriel.

    Je me demande si parfois j'ai bien raison de défaire le produit tensoriel. Le pire, c'est quand je remplace carrément $\bigoplus_{i=1}^n B dX_i$ par $B^n$. C'est cela que j'appelle détypé.

    Et ce matin, j'ai fait tout un patacaisse pour éviter de se faire piéger quand on évalue $d$ en un polynôme $F$ qui n'est pas dans $I$. Faut pas non plus en faire une montagne car on peut définir $d$ sur $A[\bX]$ tout entier par :
    $$
    F \mapsto \sum_{i=1}^n (\partial F/\partial X_i)\, dX_i \quad \in\quad \bigoplus_{i=1}^n B dX_i
    $$MAIS à ce moment là, faut quand même faire gaffe à ne pas réaliser des calculs foireux.
  • Flip-Flop. Mon s.laud, tu avais déjà tout pigé dans ton post http://www.les-mathematiques.net/phorum/read.php?3,2068882,2111452#msg-2111452. Et moi qui te dis 2 jours après, je vais te montrer ...etc... Je le fais quand même. C'est peut-être pas bien dans l'ordre mais tu vas comprendre de quoi je parle.

    Le polynôme de Dedekind $F$, son corps de nombres $K$ et la base $(1,x,y)$ de l'anneau $B$ des entiers de $K$
    [color=#000000]> F := X^3 + X^2 - 2*X + 8 ;   assert Discriminant(F) eq 2^2 * (-503) ;
    > K<x> := NumberField(F) ;
    > y := 4/x ;
    > B := Order([1,x,y]) ; assert B eq MaximalOrder(B) ;
    > 
    > e1 := B!1 ; e2 := B!x ; e3 := B!y ;
    [/color]
    
    Je monte (à la française) les matrices de multiplications de la base de $B$
    [color=#000000]> M1 := IdentityMatrix(Z,3) ;
    > // Matrice de mult. par x
    > M2 := Matrix(3,3, [[0,2,4], [1,-1,0], [0,-2,0]]) ;
    > M2 ;
    [ 0  2  4]
    [ 1 -1  0]
    [ 0 -2  0]
    > // Matrice de mult. par y
    > M3 := Matrix(3,3, [[0,4,-2], [0,0,-2], [1,0,1]]) ;
    > M3 ;
    [ 0  4 -2]
    [ 0  0 -2]
    [ 1  0  1]
    [/color]
    
    Là, je zappe un peu. Je louche sur la note Groth..IdempotencyAlgebra. La matrice $L$ pour élaborer $(P_1, P_2, P_3)$ les relateurs de l'algèbre $E/\Z$ des idempotents de Grothendieck de $B/\Z$. Of course, tu reconnais $P_1, P_2, P_3$ que tu as trouvés.
    [color=#000000]> L := a*tM1 + b*tM2 + c*tM3 ;
    > Q := Eltseq(Vector([a,b,c]) * L) ;
    > Q1, Q2, Q3 := Explode(Q) ;
    > P := Eltseq(Vector([a,b,c]) * (1-L)) ;
    > P1, P2, P3 := Explode(P) ;
    > P1 ;
    -a^2 - 2*b^2 - 8*b*c + 2*c^2 + a
    > P2 ;
    -2*a*b + b^2 + 2*c^2 + b
    > P3 ;
    2*b^2 - 2*a*c - c^2 + c
    > 
    > IdealP := Ideal(P) ;
    > assert Eltseq(L - L^2) subset IdealP ;
    [/color]
    
    Le polynôme rang $R$ et son coefficient $R_1^{\rm brut}$ de degré 1 que j'ai dégrossi en $R_1$. Rien de nouveau pour toi.
    [color=#000000]> R := Determinant(1 + (Y-1)*L) ;
    > R1brut := Coefficient(R,1) ;
    > R1brut ;
    3*a^3 - 3*a^2*b - 6*a*b^2 - 24*b^3 + 3*a^2*c - 39*a*b*c + 18*b^2*c + 6*a*c^2 - 30*b*c^2 - 24*c^3 - 6*a^2 + 
        4*a*b + 4*b^2 - 4*a*c + 26*b*c - 4*c^2 + 3*a - b + c
    > R1 := NormalForm(R1brut, IdealP) ;
    > R1 ;
    a*b*c + 326*b*c^2 - 181*c^3 + a*b + 3*a*c + 18*b*c - 2*c^2 + b - 12*c
    [/color]
    
    Là, où peut-être j'ai été plus loin que toi avec la matrice tracique $T$ et sa cotransposée $\widetilde T$ toujours en suivant la note Groth..IdempotencyAlgebra.
    [color=#000000]> e1 := B!1 ; e2 := B!x ; e3 := B!y ;
    > e := [e1, e2, e3] ;  Ve := Vector(e) ;
    > T := Matrix(3,3, [Trace(ei*ej) : ej in e, ei in e]) ;
    > T ;
    [ 3 -1  1]
    [-1  5 12]
    [ 1 12 -3]
    > Ttilde := Adjoint(T) ;
    > Ttilde ;
    [-159    9  -17]
    [   9  -10  -37]
    [ -17  -37   14]
    > 
    > // [f1, f2, f3] = [e1, e2, e3] * Ttilde
    > f := Eltseq(Ve * ChangeRing(Ttilde, B)) ;
    [/color]
    
    Je vais réaliser vraiment l'isomorphisme
    [color=#000000]> // E[1/R1] ~ B[1/Delta] via  x_i -->  f_i/Delta 
    > f := ChangeUniverse(f, K) ;
    > f ;
    [
        1/2*(17*x^2 + 35*x - 352),
        1/2*(37*x^2 + 17*x - 56),
        -7*x^2 - 44*x - 3
    ]
    > Delta := Discriminant(B) ;
    > g := [fi/Delta : fi in f] ;
    > g ;
    [
        1/1006*(-17*x^2 - 35*x + 352),
        1/1006*(-37*x^2 - 17*x + 56),
        1/503*(7*x^2 + 44*x + 3)
    ]
    [/color]
    
    Je saute des étapes cryptiques dues au langage. Et je change les noms $(a,b,c)$ en $(x_1, x_2, x_3)$ et j'ajoute $x_0$ pour tenir compte de l'inversion du discriminant $\Delta$ de $B/\Z$ : 4 variables $x_i$ et 4 relateurs $p_i$.
    [color=#000000]> // D'ou  Z[X1,X2,X3,X0] --> K,    X0 -> 1, Xi -> gi 
    > Psi := hom < Zx -> K | g cat [1]  > ;
    .....
    > p0 := r1*x0 - 1 ;
    > 
    > Domain(Psi) ;
    Polynomial ring of rank 4 over Integer Ring
    Order: Graded Reverse Lexicographical       Variables: x1, x2, x3, x0
    > Codomain(Psi) ;
    Number Field with defining polynomial X^3 + X^2 - 2*X + 8 over the Rational Field
    > 
    > Psi(x1) ;
    1/1006*(-17*x^2 - 35*x + 352)
    > Psi(x2) ;
    1/1006*(-37*x^2 - 17*x + 56)
    > Psi(x3) ;
    1/503*(7*x^2 + 44*x + 3)
    > Psi(x0) ;
    1
    > p1 ;
    -x1^2 - 2*x2^2 - 8*x2*x3 + 2*x3^2 + x1
    > p2 ;
    -2*x1*x2 + x2^2 + 2*x3^2 + x2
    > p3 ;
    2*x2^2 - 2*x1*x3 - x3^2 + x3
    > p0 ;
    x1*x2*x3*x0 + 326*x2*x3^2*x0 - 181*x3^3*x0 + x1*x2*x0 + 3*x1*x3*x0 + 18*x2*x3*x0 - 2*x3^2*x0 + x2*x0 -  12*x3*x0 - 1
    > [Psi(r) eq 0 : r in [p1, p2, p3, p0]] ;
    [ true, true, true, true ]
    [/color]
    

    Bon : faut absolument arranger ce $E[1/r_1] \simeq B[1/\Delta]$ et donner un interprétation pertinente des autres coefficients $r_i$ du polynôme rang.

    Je t'ai déjà posé la question $E/A$ semble porter un module projectif, celui défini par l'image de $L \in M_n(E)$. Interprétation ? Tu m'as peut-être répondu mais faut pas hésiter à me répéter. Et avec un petit coup de Spec, tu n'y vois pas un fibré ``vectoriel'' au dessus de la variété des idempotents que tu aimes bien ?
  • Claude
    Je vais prendre du temps pour différentielle map (tu me surestimes avec "une journée"), surtout que je suis fatigué, montagne boulot + maths !

    Pour le fibré, ici sur la variété des idempotents c'est pareil que $E$-module projectif. Si on veut dire quelque chose de non générique, c'est de dire que pour tout $E$-algèbre i.e pour toute $A$-algèbre $R$ muni d'un idempotent $e \in R \otimes_A B$, on considère l'image de la multiplication : $m_e : R \otimes_A B \to R \otimes_A B$, c'est bien un $R$-module projectif et donc un fibré vectoriel.

    Mais c'est kif-kif fibré et module projectif. Ca dépend comment on aime bien les choses génériques, toi tu prends comme $(R,e)$ et bien $(E,e)$ où $e \in E \otimes_A B$ est l'idempotent générique.

    Bon j'aime bien dire que je considère le fibré au dessus du point $e \in B \otimes_A B$ (l'idempotent de séparabilité sous les hypothèses) et de dire que son rang est $1$ (on l'a vu) et donc que $e$ est un point de la sous-variété de $\text{idem}_B$ dont le rang est $1$ et donc que le $B$ point de $E$ correspondant $ E \to B$ se factorise par $E / (\text{Rang}- 1) \simeq E[1/r_1]$. (c'est juste du langage).

    Sinon oui, je suis d'accord pour avoir une interprétation des $r_i$, j'ai essayé de bidouiller avec les s.f.i.o vu que les calculs sont simples mais je ne vois pas trop ce que l'on peut dire !
  • Claude,

    Concernant $E = \Z[X_1,\dots,X_n] / \langle X_i^2-X_i \rangle$, est-ce que tu es ok que c'est un $\Z$-module libre de rang $2^n$ ? Avec une base indexé par les parties de $\{1,\dots,n\}$, pour $J \subset \{1,\dots,n\}$, $e_J := \prod_{j \in J} x_j$.

    Ce qui serait amusant c'est que $E = \bigoplus E[1/r_i]$ avec $E[1/r_i]\simeq A^{{n\choose k}}$, la symétrie des coefficients binomiaux serait liées à la symétrie $e \mapsto 1-e$ et la décomposition est serai compatible avec la graduation par le degré par exemple
    $$
    E[1/r_1] = \bigoplus x_i A \qquad \qquad E[1/r_2] = \bigoplus_{i< j} x_ix_j A \qquad \dots
    $$
    Hum je suis fatigué, faudrait que je fasse un petit exemple !
  • $\def\F{\mathbb F}$FlipFlop

    D'abord, il faut que tu te reposes ; faut pas que cela devienne le bagne. Et surtout pas trop de programmation, c'est cela qui fatigue le plus. Oui, c'est ok pour ta base. On en parle dans l'exercice 11 du chap XI mais je le refais ici car dans l'exercice, c'est monté sur $\F_2$. Du coup, ICI, il faut tenir compte d'un signe que je viens de régler à l'instant, cf à la fin.

    Ta base, c'est que l'on appelle la base monomiale et, désolé, je la note $(m_I)$ (pour être en accord avec l'exo)
    $$
    m_I = \prod_{i \in I} x_i
    $$
    [color=#000000]> n := 5 ;
    > kX<x1,x2,x3,x4,x5> := PolynomialRing(k,n) ;
    > X := [kX.i : i in [1..n]] ;
    > 
    > IdempotencyIdeal := [Xi^2 - Xi : Xi in X] ;
    > Q := kX/Ideal(IdempotencyIdeal);
    > Dimension(Q) eq 2^n ;
    true
    [/color]
    
    Tu vois ci-dessous, que la terminologie base monomiale n'est pas que de mézigue.
    [color=#000000]> Pn := Subsets({1..n}) ;
    > m := map < Pn -> Q | J :-> &*[Q| X[j] : j in J] > ;
    > m({1,3}) ;
    x1*x3
    > 
    > {m(I) : I in Pn} eq MonomialBasis(Q) ;
    true
    [/color]
    
    Je te dis cela car il y a une seconde base dont je ne me souviens plus le nom. Il s'agit de la base $(e_I)$ également indexée par les parties de $\{1..n\}$. Une double définition si tu veux
    $$
    e_I = m_I \prod_{j \notin I} (1 + x_j) = \sum_{J \supset I} m_J \qquad \qquad (\star)
    $$
    [color=#000000]> e := map < Pn -> Q | I :-> m(I) * &*[Q| 1+X[j] : j in {1..n} diff I] > ;
    > I := {1,2} ;
    > e(I) ;
    x1*x2*x3*x4*x5 + x1*x2*x3*x4 + x1*x2*x3*x5 + x1*x2*x3 + x1*x2*x4*x5 + x1*x2*x4 + x1*x2*x5 + x1*x2
    > &+[m(J) : J in Pn | I subset J];
    x1*x2*x3*x4*x5 + x1*x2*x3*x4 + x1*x2*x3*x5 + x1*x2*x3 + x1*x2*x4*x5 + x1*x2*x4 + x1*x2*x5 + x1*x2
    [/color]
    
    L'égalité à droite dans $(\star)$, elle s'inverse (c'est là que j'ai un peu pataugé pour le signe) en
    $$
    m_I = (-1)^{\#I} \ \sum_{J \supset I} (-1)^{\#J} e_J
    $$
    [color=#000000]> I := Random(Pn) ;
    > I ;
    { 1, 3, 5 }
    > e(I) eq &+[m(J) : J in Pn | I subset J] ;
    true
    > m(I) eq &+[(-1)^(#I + #J) * e(J) : J in Pn | I subset J] ;
    true
    [/color]
    
    Je ne sais plus à quoi elle sert, cette seconde base.
  • $\def\F{\mathbb F}\def\bF{\mathbf F}\def\bH{\mathbf H}$Hello FlipFlop
    Hier soir, je t'ai proposé une seconde base $(e_I)$ de $E := A[X_1, \cdots, X_n]/\langle X_1^2 - X_1, \cdots, X_n^2 - X_n\rangle$ en singeant un exercice monté sur $\F_2$. Je reviens dessus en te proposant une troisième base qui me paraît plus judicieuse en glissant un signe $-$ dans la définition là où il ``faut'' (??). Je reprends. Of course, on ne touche pas à la base monomiale (enfin je crois). Cette nouvelle base je la note encore $(e_I)$, regarde le signe $-$ dans le produit
    $$
    m_I = \prod_{i \in I} x_i\qquad\qquad e_I = m_I\ \prod_{j \notin I} (1 - x_j) \qquad\quad \text{en particulier} \quad e_{\{1..n\}} = x_1 \cdots x_n
    $$Cette fois on a, en notant $\overline I$ le complémentaire de $I$ dans $\{1..n\}$
    $$
    m_I e_{\overline I} = 0 \qquad \text{sauf pour } I = \{1..n\}
    $$Avant, ça pouvait pas le faire ce produit nul car il y avait des $+$ partout et ce n'est pas en réécrivant $x_i^2$ en $x_i$ que tu vas faire apparaître un $-$. L'exo était vraiment monté sur $\F_2$ !
    [color=#000000]> // Ici je mets un -
    > e := map < Pn -> Q | I :-> m(I) * &*[Q| 1[color=#FF0000]-[/color]X[j] : j in {1..n} diff I] > ;
    > 
    > // e(I)*m(I) = 0 sauf pour I = {1..n} 
    > assert &and [e(I)*m({1..n} diff I) eq 0 : I in Pn diff {{1..n}}] ;
    > 
    > // pour I = {1..n}
    > I := {1..n} ;
    > e(I) ;
    x1*x2*x3*x4*x5
    > m({1..n} diff I) ;
    1
    [/color]
    
    Voici maintenant l'expression de la base $(e_I)$ dans la base monomiale
    $$
    e_I = (-1)^{\#I}\ \sum_{J \supset I} (-1)^{\#J} m_J
    $$
    [color=#000000]> I := {1,2} ;
    > e(I) ;
    -x1*x2*x3*x4*x5 + x1*x2*x3*x4 + x1*x2*x3*x5 - x1*x2*x3 + x1*x2*x4*x5 - x1*x2*x4 - x1*x2*x5 + x1*x2
    > (-1)^#I * &+[(-1)^#J * m(J) : J in Pn | I subset J];
    -x1*x2*x3*x4*x5 + x1*x2*x3*x4 + x1*x2*x3*x5 - x1*x2*x3 + x1*x2*x4*x5 - x1*x2*x4 - x1*x2*x5 + x1*x2
    [/color]
    
    Et l'expression inverse :
    $$
    m_I = \sum_{J \supset I} e_J
    $$
    [color=#000000]> I := Random(Pn) ;
    > I ;
    { 2, 3, 4 }
    > e(I) eq (-1)^#I * &+[(-1)^#J * m(J) : J in Pn | I subset J] ;
    true
    > m(I) eq &+[e(J) : J in Pn | I subset J] ;
    true
    [/color]
    
    Et comme un c.n, je disais dans mon post d'hier soir : à quoi peut servir cette seconde base ? A rien, à mon avis. Et cette base revisitée ? A faire des calculs dans $E$ pardi. Lesquels ? J'en sais rien, c'est toi le spécialiste de l'algèbre $E/A$ des idempotents de Grothendieck $B := A^n$.

    Bon, je dis cela mais peut-être que cela va m'être utile dans mon histoire de $I/I^2$ où $I$ est l'idéal du $n$-s.f.i.o : il fallait que je trouve l'idempotent qui génère $I/\bF \subset E$ avec $\bF = \langle F_1, \cdots, F_n\rangle$ et $F_i = X_i^2 - X_i$.

    Note : dans l'histoire $I/I^2$, j'hésite entre $\bF$ et $\bH$ où $H_i = (2X_i - 1) F_i$.
  • $\def\bF{\mathbf F}\def\bX{\mathbf X}$FlipFlop (suite)
    Faut qu'on se repose. Ma nouvelle base signée (post précédent), j'ai bien fait de la noter $(e_I)$ et de garder le nom $(m_I)$ pour la base monomiale. Car
    $$
    e_I e_J = 0 \quad I \ne J, \qquad \qquad \sum_I e_I = 1, \qquad \qquad \text{a fortiori} \quad e_I^2 = e_I
    $$Certes, la base monomiale $(m_I)$ avec $m_I = \prod_{i \in I} x_i$ était constituée d'idempotents puisque $x_i^2 = x_i$ mais ils n'étaient pas orthogonaux.

    Je t'attache un lemme qu'Henri dénomme ``variante économique du lemme de scindage'' (chap IV). Le lemme de scindage c'est grosso-modo un trick qui te permet, de manière triangulaire, ``d'orthogonaliser'' un système d'idempotents de manière à en faire un autre système d'idempotents orthogonaux (c'est plus précis que cela).

    Bon, tout cela fait mon affaire car je cherchais, dans l'histoire de la differential-map $d : I/I^2 \to \cdots$ (où $I$ est l'idéal du s.f.i.o) un idempotent générateur de $I/\bF \subset A[\bX]/\bF$. Je me comprends. Et maintenant, j'en ai $2^n$ pour le prix d'un.

    Of course, tous ces idempotents vont se retrouver, bien organisés, dans le polynôme rang $R(T) = r_0 + r_1T + r_2T^2 + \cdots$ et cette fois, je n'ai aucun doute sur le fait que je vais retrouver TON $r_1$.111314
  • Hum a vu de nez ta nouvelle base elle est adaptée au polynôme rang que l'on voit ici

    Disons que les $r_i$ s'exprime comme une somme $\sum_{\# I = i} e_I$ si je vois bien !

    D'ailleurs y'a les mêmes calculs dans ton pdf je pense !
  • $\def\Gr{\text{Gr}}\def\bX{\mathbf X}\def\Id{\text{Id}}$FlipFlop Oui, je viens de voir qu'il y a une trace des $(e_I)$ à la page 3 du pdf mais pas de manière aussi précise.

    $\bullet$ RETOUR EN ARRIERE. Je mets des pointeurs.

    Un scan pourri in http://www.les-mathematiques.net/phorum/read.php?3,2068882,2095538#msg-2095538 avec, dans le cas $B/A$ libre de rang $n$ de discriminant $\Delta$, une proposition de $H_i$ vérifiant $d(H_i) = \Delta dX_i$. Histoire de se frotter pour de vrai à la differential map $d : I/I^2 \to \cdots$.

    Objets détypés in http://www.les-mathematiques.net/phorum/read.php?3,2068882,2096166#msg-2096166

    Un calcul tracique dégueulasse in http://www.les-mathematiques.net/phorum/read.php?3,2068882,2097688#msg-2097688 avec un rectificatif en bas de page concernant le scan pourri.

    $\bullet$ Suite de ``objets détypés''. Contexte : $B/A$ libre de rang $n$ de base $(e_1, \cdots, e_n)$. Dans un calcul DEBARQUE $B^n$ . Pas intérêt à noter sa $B$-base canonique du même nom : je la note $(f_1, \cdots, f_n)$. Par ailleurs, je désigne, pour $b \in B$, par $M_b \in M_n(A)$ la matrice de multiplication par $b$ au sens
    $$
    b \cdot [e_1, \cdots, e_n] = [e_1, \cdots, e_n]\ M_b
    $$Of course, $M_b$ appartient aussi à $M_n(B)$. Et dans un calcul MATRICIEL (pourri) débarque aussi la matrice $b\Id_n -M_b \in M_n(B)$.

    Et alors ? La question se pose : est ce que $B^n$, c'était $B^n$ ? Peut-être que c'était $B \otimes_A B$ muni de la structure de $B$-module à gauche ? Auquel cas la matrice $b\Id_n -M_b \in M_n(B)$, qui est un $B$-endomorphisme de $B^n$, peut être vue comme un $B$-endomorphisme de $B \otimes_A B$. Et surprise :
    $$
    b\Id_n -M_b \quad \text{c'est la multiplication par }\quad b \otimes 1 - 1 \otimes b \qquad\qquad (\star)
    $$Explications : $1 \otimes e_i$ est une $B$-base de $B \otimes_A B$ pour la structure de $B$-module côté GAUCHE. Et le $B$-isomorphisme est
    $$
    B^n \quad\buildrel{\simeq}\over \longmapsto\quad B \otimes_A B, \qquad\qquad \sum_i b_i f_i =_{\rm def} (b_1, \cdots, b_n) \longmapsto \sum_i b_i \otimes e_i
    $$Et c'est quoi $M_b$ vu comme $B$-endomorphisme de $B \otimes_A B$ ? Réponse : la multiplication par $1 \otimes b$. De gauche à droite (les $a_{ij}$ sont dans $A$).
    $$
    \begin {array} {c{\qquad\qquad}c{\qquad\qquad}c{\qquad\qquad}cc}
    B \otimes_A B \qquad\qquad & B^n \qquad\qquad & B^n \qquad\qquad & B \otimes_A B \\
    1 \otimes e_j \qquad\qquad & f_j \qquad\qquad & M_b . f_j = \sum_i a_{ij} f_i \qquad\qquad & \sum_i a_{ij} (1 \otimes e_i) = 1 \otimes \sum_i a_{ij} e_i
    = 1 \otimes b e_j = (1 \otimes b) (1 \otimes e_j) \\
    \end {array}
    $$D'où l'obtention de $(\star)$.

    Bilan : dans $(\star)$, à gauche, c'est du matriciel sordide, à droite du structurel. Et si $f_i$ c'était $dX_i$ ?? Certes, j'aime le calcul MAIS PAS LES CALCULS POURRIS.

    Chat-Maths. On a besoin de toi. Soit $B/A$ libre de rang $n$ et $E/A$ son algèbre des idempotents de Grothendieck. Cette dernière est étale avec une présentation en intersection complète avec les polynômes $P_i$ explicites :
    $$
    E = {A[X_1, \cdots, X_n] \over \langle P_1, \cdots, P_n\rangle}
    $$Eh bien, figure toi que l'on ne sait pas montrer, même pour $n= 2$, que la suite $(P_1, \cdots, P_n)$ est complètement sécante dans $A[\bX]$
    $$
    \Gr(P_1, \cdots, P_n) \ge n
    $$I.e. que le complexe (montant ou descendant, peu importe) de Koszul de $(P_1, \cdots, P_n)$ est acyclique. Faire quelque chose dans cette voie là serait un progrès certain pour mézigue.
  • Salut Claude,

    Un petit post où je ne dis rien: je suis ce post un petit peu de loin, sans lire trop les petits détails des messages, du coup, je n'ai pas complétement saisi cette histoire de l'algèbre des idempotents de Grothendieck associée à B/A libre de rang $n$.

    Je veux bien essayer de voir ce que je peux faire pour $n= 2$, mais n'ayant pas très bien suivi, je ne sais pas où est définie cette présentation carrée explicite dont tu parles. Il faudrait surement que je potasse les messages de Flipflop.

    Dans le même genre: le Raynaud est arrivé ! Mais je n'ai pas encore eu le temps de le potasser comme je voudrais...
  • Salut Chat-maths,

    J'essayes d'expliquer !

    Pour les idempotents de Grothendieck, tu prends $B / A$ libre, et maintenant tu introduits le foncteur qui à une algèbre $R$ associe l'ensemble des idempotents de $R \otimes_A B$. Si tu te fixe une base $(e_1,\dots,e_n)$ de $B / A$. Un élément de $z \in R \otimes_A B$ s'écrit de manière unique sous la forme $z = \sum_i r_i (1 \otimes e_i)$ et c'est un idempotent lorsque $z^2 = z$, en mettant la somme au carré et en identifiant on trouve $n$ équations sur les $r_i$. Ca te donne une présentation carré $(n \times n)$ du foncteur !

    Le problème c'est niveau calculatoire, c'est pas si cool d'obtenir les équations (via sage, je ne sais pas si y'a moyen de le faire de manière solide).

    Je te le fais avec $A = \Z$ et $B = \Z[ i]$ et la base $(1,i)$. Soit $R$ un anneau, on pose : $z = x_1 + x_2 i $, on a $z^2 = z$ si et seulement si
    $$
    x_1^2-x_2^2 = x_1 \qquad \qquad 2x_1x_2 = x_2
    $$
    Et on pose $$E = \Z[X_1,X_2] / \langle X_1^2-X_2^2 -X_1, 2X_1X_2-X_2 \rangle$$

    Deux trucs immédiats :
    $\bullet$ D'une part, $E / \Z$ est étale de manière structurelle (c'est pareil que les idempotents) et c'est général.

    $\bullet$ Ensuite, c'est que pour tout anneau $R$, un morphisme $\phi : E \to R$ permet de fabriquer $z = \phi(X_1)(1 \otimes 1) + \phi(X_2) (1 \otimes i)\in R \otimes \Z[ i]$, qui vérifie par construction $z^2=z$ et c'est donc un idempotent de $R \otimes \Z[ i]$. Egalement lorsque tu fais $R = E$, tu as un idempotent générique (par construction) dans $E \otimes B$ i.e $e = \sum x_i (1 \otimes e_i)$.

    Par contre le truc, assez dingue, (je reviens sur le cas général) c'est que lorsque tu te donne un idempotent de $e \in R \otimes_A B$, tu peux considère la multiplication par $e$ :
    $$
    m_e : R \otimes_A B \to R \otimes_A B
    $$
    C'est une projection (puisque $e^2= e$).En notant $M_e$ sa matrice dans la base $(1 \otimes e_i)$, on peut considérer son polynôme rang :
    $$
    \text{Rang}(M_e) := \text{Det}(1 + (Y-1)M_e) = \sum r_i Y^i
    $$
    Ici les $r_i$ forme un système d'idempotent orthogonaux complet de $R$ (c'est général au projecteur) et les $r_i$ sont des polynômes en les coordonnées de $e$. Tu fais ça avec $(R,e) = (E,e)$ où le second $e$ un l'idempotent générique de $E \otimes B$ et tu te retrouve avec des éléments $(r_0,\dots,r_n)$ de $E$.

    Et bien tu as (c'est pas du tout immédiat et pour l'instant y'a que Claude qui sait le faire avec ses calculs traciques) : $B[\Delta^{-1}] \simeq E[ r_1^{-1}]$, et en particulier si le discriminant de $B/A$ est inversible et bien tu as une présentation carré de $B$ (puisque $E$ est carré par construction et donc on ajoute une indéterminée et une équation).

    J'explique un peu plus dans le cas de $\Z[ i]$ mais comme je dois rendre le discriminant inversible je me place sur $A = \Z[1/2]$ et je note $B = A[ i]$.

    C'est un peu con con de faire ça puisque $\Z[ i]$ a déjà une présentation carré mais bon :-D Je vais faire les calculs plusieurs fois, en espérant que ça ne fasse pas trop bordel.

    $\bullet$ le polynôme rang dans le cadre générique. On forme la matrice de multiplication par $x_1 (1 \otimes 1)+ x_2(1 \otimes i)$ dans la base $(1 \otimes 1, 1 \otimes i)$ de $E \otimes B$, on trouve :
    $$
    \begin{bmatrix} x_1 & -x_2 \\ x_2 & x_1 \end{bmatrix}
    $$
    sage: Q.<X1,X2> = QQ[]
    sage: I = Q.ideal([X1^2-X2^2-X1,2*X1*X2-X2])
    sage: R.<x1,x2> = Q.quo(I)
    sage: M = matrix([[x1, -x2],[x2,x1]])
    sage: M^2
    [ x1 -x2]
    [ x2  x1]
    sage: R.<Y> = R[]
    sage: det(1+(Y-1)*M)
    (2*x2^2 + x1)*Y^2 - 4*x2^2*Y + 2*x2^2 - x1 + 1
    
    Et donc $r_1 = -4x_2^2$.

    $\bullet$ L'idempotent de séparabilité. Donc il est dans $B \otimes_A B$.
    $\bullet_{\text{Trace}}$ On écrit la matrice des traces :
    $$
    \begin{bmatrix} \text{Tr}(1) & \text{Tr}(i) \\ \text{Tr}(i) & \text{Tr} (-1) \end{bmatrix} = \begin{bmatrix} 2 & 0 \\ 0 & -2 \end{bmatrix}
    $$
    Son inverse est : $$
    \begin{bmatrix} 1/2 & 0 \\ 0 & -1/2 \end{bmatrix}
    $$
    On calcul :
    $$
    \begin{bmatrix} 1/2 & 0 \\ 0 & -1/2 \end{bmatrix} \begin{bmatrix} 1 \\ i \end{bmatrix} = \begin{bmatrix} 1/2 \\ -i/2 \end{bmatrix}
    $$
    On forme : $e = 1/2 \otimes 1 + (-i/2) \otimes i \in B \otimes B$ et bien c'est l'idempotent de séparabilité.
    sage: Q.<I1,I2> = QQ[]
    sage: I = Q.ideal([I1^2+1,I2^2+1])
    sage: R.<i1,i2> = Q.quo(I)
    sage: e = 1/2*(1-i1*i2)
    sage: e^2-e
    0
    sage: e*i1-e*i2
    0
    
    $\bullet_{calcul différentielle}$ On utilise la présentation carré de $B /A$ qui est simplement $A[ I] / (I^2+1)$. Les matrices Jacobienne et bézoutienne sont :
    $$
    J = 2I \qquad \qquad B = I_1+I_2 \in A[ I] \otimes A[ I]
    $$
    Et là l'idempotent de séparabilité est donnée par $ J^{-1}\times B $ vu dans $ B \otimes B$, l'inverse de $J$ dans $B$ est $-i/2$ et on trouve :
    $$
    e = -i/2 ( i_1+i_2) = 1/2( 1 - i_1 i_2) \qquad \qquad \text{car $i = i_1$ quand on multiplie à gauche ... hum c'est très clair ici !?!}
    $$


    Donc cet idempotent de séparabilité c'est un $B$-point de $\text{Spec}(E)$ i.e un morphisme $E \to B$ qui est donné par $X_1 \to 1/2$ et $X_2 \to -i/2$.

    Là ce qu'il se passe c'est que si tu considères la multiplication par l'idempotent de séparabilité $m_e : B \otimes B \to B \otimes B$, tu trouves que c'est un projecteur de rang $1$ (voir ici)
    J'écrits quand même la matrice $2 \times 2$ pour le fun, donc matrice à coefficient dans $A[i_1]$ :
    sage: e*1
    -1/2*i1*i2 + 1/2
    sage: e*i2
    1/2*i1 + 1/2*i2
    sage: M=  matrix([[1/2, 1/2*i1],[-1/2*i1,1/2]])
    sage: M
    [    1/2  1/2*i1]
    [-1/2*i1     1/2]
    sage: M^2-M
    [0 0]
    [0 0]
    sage: RY.<Y> = R[]
    sage: det(1+(Y-1)*M)
    Y    <- rang 1 
    

    Bref le morphisme $E \to B$ rend le rang égal à $1$ et donc on a un morphisme $E[r_1^{-1}]$ (pour un idempotent être inversible c'est pareil qu'être égal à $1$ i.e $r_1=1$ c'est pareil que $r_1$ inversible).

    Du coup, on a un morphisme $$ A[X_1,X_2,U] / \langle X_1^2-X_2^2 -X_1, 2X_1X_2-X_2, -4X_2U - 1 \rangle \to B $$
    Il est donné par $X_1 \to 1/2$ et $X_2 \to -i/2$ et $U \mapsto 1$.

    Bon là c'est pas complexe de trouver un morphisme dans l'autre sens, $ i \mapsto -2x_2$.
  • Je vais juste faire un petit lifting rapidos :-D

    Soit $\zeta := 2 \in \Z/5\Z$, on a $\zeta^2 = -1$, on spécialise l'idempotent de séparabilité $1/2( 1 - i_1 i_2)$ via $i_1 \mapsto 2$. Ca nous donne un idempotent $1/2 ( 1 - 2i) = 3 - i \in \Z/5\Z \otimes B$. On vérifie $(3-i)^2 = 9 -1 - 6i = 3-i$. On le relève dans $\Z[1/2][ i]$, et on applique $e \mapsto 3e^2-2e^3$, ca donne $34*i - 12$ que l'on réduit modulo $25$ en $13+9 i$ i.e $x_1 = 13$ et $x_2 = 9$ et donc $i = -2x_2 = -18 = 7$.
    Et hop :
    $$7^2+1 = 0 \pmod{25}$$
  • Hello Claude,

    Je n'ai pas encore fini de comprendre les histoires de différential map mais j'ai un peu avancé. La chose que je ne comprend pas, c'est le point suivant. Je change les notations (encore). Soit $k$ un anneau de base (je préfère garder la notation $R$ par rapport au pdf). Soit $A$ une $k$-algèbre $I$ un idéal de $A$ et $B = A/I$. Donc le truc, c'est pourquoi le conoyau de $d_{A / k}^I$ est exactement $\Omega_{B / k}$.
  • FlipFlop
    Je comprends ta question. Tu dois avoir de moi CM-exoX2=XIsSmooth.pdf (je n'en n'ai pas honte, c'est consacré à la lissité de $X^2 = X$ en non-commutatif, ben heureusement que c'est lisse, sinon on serait mal avec les espaces projectifs). Regarde juste la PREMIERE page : c'est un résumé de ce que tu cherches.

    En fait, avec le modèle de $\Omega_{B/?}$ fourni par la transposée de la jacobienne à la cocorico, c'est une EVIDENCE. Mais dans les salons mondains, ou bien pour éloigner les enfants, on dit ``conormal sequence" .. Et parfois un autre nom.

    Résumons : as tu CM-exoX2=XIsSmooth.pdf ? Sinon, j'attache.

    PS : je suis sur quelque chose, post prévu pour toi et Chat-Maths plus tard.
  • $\newcommand \tra[1] {{\,^{\rm t}\!#1}}\def\Zi{\Z[i\rbrack}$Hello Chat-Maths et FlipFlop,

    $\bullet$ Chat-Maths : d'bord, peut-être que ma proposition (regarder l'algèbre des idempotents de Grothendieck) n'est pas très honnête ? Ensuite, il faut que je t'avoue que je n'arrive pas à m'y retrouver dans ce fil concernant mes propres affaires. C'est fatiguant. Donc j'ai décidé de procéder autrement ou disons de doubler l'information via un pdf que je suis en train de mettre au point (cliquable sur des posts de ce fil pour m'y retrouver). J'ai commencé mais cela ne va pas se faire en un jour.

    En ce qui concerne l'algèbre des idempotents de Grothendieck, cela vient de lui évidemment (EGA IV$_4$, section 18). Je n'ai jamais lu car j'en suis incapable. J'en attache un extrait juste pour que l'on voit bien les constantes de structure dont FlipFlop ne veut pas parler.

    L'autre endroit où on en parle, c'est au début de Raynaud. Dans le post http://www.les-mathematiques.net/phorum/read.php?3,2068882,2095578#msg-2095578, j'ai attaché une note GrothendieckldempotencyAlgebra.pdf : tu peux commencer à regarder les 2 premières pages (il y a les références à Raynaud et à Grothendieck). Tu ne vas pas probablement aimer ma note car elle est pleine de calculs insipides. SAUF que : souviens toi de $M_{f'(x)} = Q\,T$ : allier le structurel (forme linéaire dualisante) à la brute force. Et si les calculs insipides attendaient une interprétation structurelle dont je ne disposais pas jusqu'à maintenant ?

    Bref, je trouve que l'étude de l'algèbre $E/A$ des idempotents de Grothendieck est digne d'intérêt, surtout que cela vient de lui. Que voulait-il dire dans EGA IV$_4$, section 18 ? Et de plus, cela fournit d'une part une foultitude d'algèbres étales hautement non triviales et de surcroit touche à toutes les algèbres libres $B/A$ de rang fini.

    $\bullet$ Vous deux. Les calculs traciques matriciels imbitables du genre $M_b \widetilde {T} = \widetilde {T}\, \tra{M_b}$, vous les avez évidemment oubliés. Car sans SENS, sans SIGNIFICATION. Et si toutes ces identités matricielles étaient la manifestation du statut de $\sum_i e_i \otimes e'_i \in B \otimes_A B$, cela changerait tout n'est ce pas ?

    Il y a plusieurs points sur lesquels je ne suis pas d'accord avec le post de FlipFlop essayant de résumer les idempotents de Grothendieck. Au point de vue calculatoire, ce n'est pas cool, dit-il. Faux. Tu me donnes les constantes de structure d'une algèbre $B/A$ libre de dimension $n$ sous formes de $n$ matrices (symétriques) $C_k \in M_n(A)$, en UNE ligne, je te fournis la présentation de $E/A$.

    Pas d'accord non plus avec le fait de ne pas mentionner la FORME des équations de $E/A$ : $x_k = Q_k(x_1, \cdots, x_n)$ où $Q_k$ est homogène de degré 2, donné DIRECTEMENT par $C_k$. Pas d'accord non plus avec le fait ``seul Claude sait le faire avec des calculs traciques''. Tout le monde peut en faire des calculs traciques.

    Pas d'accord non plus avec le fait de dire ``c'est un peu con dans le cas de $\Zi$ puisque $\Zi/\Z$ possède déjà une présentation carrée''. Car ce que l'on veut comprendre c'est la présentation par les constantes de structure. Exemple : $B = A[x] = A[X]/\langle F\rangle$ où $F$ est un polynôme unitaire de degré $n \ge 1$. Rien à faire car déjà présentée par une variable et une équation ? Faux : il y a TOUT à faire, justement car on veut la présentation avec les constantes de structure, ce qui va conduire à la seconde base de Hörner, la forme linéaire dualisante et tout le fourbi.

    Dire $E[1/r_1] \simeq B[1/\Delta]$, c'est insuffisant. Il y a un morphisme $E \to B[1/\Delta]$ qui nous attend dès la définition de $E/A$. A condition d'avoir mis en évidence les propriétés structurelles du prétendant à l'idempotence, j'ai nommé $\sum_i e_i \otimes e'_i$. FlipFlop : prend le temps de regarder la page 3 que j'attache, qui fait partie du pdf que je suis en train de mettre au point. Tu voulais du STRUCTUREL : en voilà. Mais il va falloir mouiller la chemise.111422
    111426
  • Hello Claude,

    Non je n'ai plus rien comme pdf. J'ai perdu mon ordi y'a quelque temps et je n'ai pas grand chose comme pdf.

    Pour la page $3$. Une question, dans le contexte $B /A$ est libre de rang $n$ de discriminant inversible. Est-ce que tu montres que $\sum \frac{e_i'} {\Delta} \otimes e_i$ est l'idempotent de séparabilité ?
  • FlipFlop

    1. Page 1 pour répondre à ta question sur le conoyau de la differential map.

    2. Lorsque $\Delta$ est inversible, oui c'est bien lui l'idempotent de séparabilité. C'est fait dans notre livre mais d'une manière telle que j'ai du mal à m'y retrouver.

    Mais ici, je voudrais faire autrement. Mais pour l'instant, je ne dispose PAS des preuves. Je me suis juste rendu compte que mes égalités matricielles imbitables traduisaient quelque chose de structurel. C'est ce que j'essaie de dire depuis un certain temps avec mes ``trucs détypés''.
  • D'accord,

    Oui oui il doit y avoir quelque chose de structurelle ! Un petit truc histoire d'isoler les choses.

    En gros j'oublie la moitié de la page $3$, à partir de la ligne qui commence par " on tombe par définition sur la matrice ", en gros ton calcul montre que (avec les mêmes notations) que :
    $$
    \left( \sum e_i' \otimes e_i \right)^2 = \Delta \left(\sum e_i' \otimes e_i \right) \in B \otimes_A B
    $$
    car on a : $Q_k(x_1,\dots,x_n)$ c'est la coordonnée en $1 \otimes e_k$ de $ \left( \sum x_i (1\otimes e_i) \right) ^2$ dans la base $(1 \otimes e_i)$. (Hum oui ou non ?)

    Donc, j'admets $\mu ( \sum e_i \otimes e'_i ) = \Delta$ et j'admet que $\sum e_i \otimes e'_i$ tue le noyau de la multiplication $\mu$.

    On a : $\Delta = \mu(1 \otimes \Delta)$. Donc $\sum e_i \otimes e'_i - 1 \otimes \Delta$ appartient au noyau de $\mu$. Ensuite je multiplie par
    $\sum e_i \otimes e'_i$, ça me donne $0$ d'où
    $$
    \left( \sum e_i \otimes e'_i - 1 \otimes \Delta \right) \left( \sum e_i \otimes e'_i \right) = 0
    $$
    Ce qui donne ce que l'on veut via un coup de swap donne i.e
    $$
    \left( \sum e'_i \otimes e_i \right)^2 = \Delta \left( \sum e'_i \otimes e_i \right)
    $$
    Est-ce que c'est ok pour toi ?
  • $\def\Id{\text{Id}}\def\cB{\mathcal B}\def\bY{\mathbf Y}\def\bZ{\mathbf Z}$FlipFlop
    Je ne dispose PAS des preuves de ... Je patauge depuis pas de temps. Pas de preuves mais j'arrive à EXPERIMENTER quelques bricoles (quand on n'a pas de tête, il faut avoir des jambes dit le proverbe, je ne sais plus lequel).

    $\bullet$ En principe, dans le contexte $E/A$ algèbre des idempotents de Grothendieck de $\big(B/A, (e_1, \cdots, e_n)\big)$ on est convaincu qu'il y a un morphisme $E = A[x_1, \cdots, x_n] \to B[1/\Delta]$ qui réalise $x_i \to e'_i/\Delta$. Et on voudrait que cela devienne NET, rapide, structurel ...etc.. .

    Et qu'en est-il sur $E[1/r_1]$ ? On AIMERAIT bien que
    $$
    r_1(e'_1/\Delta, \cdots, e'_n/\Delta) = 1
    $$Et comme je n'ai pas envie d'inverser $\Delta$, je voudrais bien faire un TRUC avec $r_1(e'_1, \cdots, e'_n)$. Mais quel truc ? Je n'en sais rien. Car
    $r_1(e'_1, \cdots, e'_n)$ ce n'est pas $\Delta^\bullet \times r_1(e'_1/\Delta, \cdots, e'_n/\Delta)$ vu que $r_1$ n'est pas homogène.

    Et si on regardait un $r_1$ DANS LES YEUX ?
    [color=#000000]> R1brut := Coefficient(R,1) ;
    > R1brut ;
    3*a^3 - 3*a^2*b - 6*a*b^2 - 24*b^3 + 3*a^2*c - 39*a*b*c + 18*b^2*c + 6*a*c^2 - 30*b*c^2 - 24*c^3 - 6*a^2 + 
        4*a*b + 4*b^2 - 4*a*c + 26*b*c - 4*c^2 + 3*a - b + c
    [/color]
    
    On voit quoi ? Qu'il n'est pas homogène. OK. On voit aussi que son coefficient constant est nul. Ce n'est pas étonnant car, en général, quand on spécialise les $X_i$ à $0$, la matrice $L(X_1, \cdots, X_n)$ devient nulle et le polynôme rang $R = \det(\Id_n + (T-1)L)$ devient $\det(\Id_n) = 1$. Bilan des courses : tous les $r_k$ pour $k \ge 1$ ont leur coefficient constant nul, sauf $r_0$ qui a pour coefficient constant 1.

    Quel $r_1$ je montre ci-dessus ? Contexte : polynôme de Dedekind. Je remontre un peu les objets, en particulier $(e'_1, e'_2, e'_3)$ qui a le nom f en magma
    [color=#000000]> K ;
    Number Field with defining polynomial X^3 + X^2 - 2*X + 8 over the Rational Field
    > Discriminant(B) ;
    -503
    > // f = (e'_1, e'_2, e'_3)  from  [e'_1, e'_2, e'_3] = [e_1, e_2, e_3] \widetilde {T}
    > ChangeUniverse(f, K) ;
    [   1/2*(17*x^2 + 35*x - 352),      1/2*(37*x^2 + 17*x - 56),   -7*x^2 - 44*x - 3  ]
    > // On n'est pas sorti de B !!  et -503 n'est pas inversible dans Z
    > [IsIntegral(fi) : fi in f] ;
    [ true, true, true ]
    [/color]
    
    Comme $-503$ n'est pas inversible dans $\Z$, je ne veux pas diviser par $-503$. Que se passe-t-il si j'évalue chaque composante homogène de $r_1$ en $(e'_1, \cdots, e'_n) =_{\rm icî} (e'_1, e'_2, e'_3) = f$ ? Un MIRACLE (?) : toutes les composantes homogènes s'annulent sauf cette de degré 1 qui vaut $\Delta$.
    [color=#000000]> [K| Evaluate(HomogeneousComponent(R1brut,d), f) : d in [0..Degree(R1brut)]] ;
    [  0,   -503,   0,  0  ]
    [/color]
    
    Pourquoi ? Je n'en sais rien. Mais c'est cela que je veux depuis le début : PAS DE CLAUSE. Et donc je compte bien sur le fait de dégotter quelque part des identités traciques qui viendont, je ne sais pas comment, du structurel. Et certainement de $B\otimes_AB$ et du noyau $J = J_{B/A}$ de la multiplication $B\otimes_AB \to B$.

    Pourquoi ? En lisant (en particulier l'infâme AC X, disons en essayant de le lire), j'ai bien vu que le noyau $J = J_{B/A}$ de la multiplication $B\otimes_AB \to B$ intervenait pas mal.

    $\bullet$ Que faut-il chercher ? Je n'en sais rien. Mais dégotter des éléments de $B \otimes_AB$ qui tuent le noyau $J$, est un bon passe temps. OR, en faisant d'autres choses, dans ce fil, à propos de $t : B^\dagger \to B$, on en a dégotté. Ils sont écrits dans ce fil. Qui ? Les BEZOUTIENS.

    Es tu convaincu que tout bezoutien $\cB \in B\otimes_AB$ de $(F_1, \cdots, F_n)$ en $(X_1, \cdots, X_n)$ tue le noyau de $B\otimes_A B \to B$ où $B = A[X_1, \cdots, X_n] /\langle F_1, \cdots, F_n\rangle$ ? Bien sûr, il faut remonter à $A[\bY, \bZ]$. Je l'ai évoqué une fois dans ce fil sans m'attarder. C'est infiniment plus facile que l'invariance de $\cB$ par le swap
  • FlipFlop A propos de ton dernier post http://www.les-mathematiques.net/phorum/read.php?3,2068882,2114236#msg-2114236

    $\bullet$ Oui, je suis ok : quand tu vois un élément $C$ d'un anneau qui vérifie $C^2 = \Delta\, C$, c'est que $C$, qui n'ose pas se faire diviser par $\Delta$, vérifie $(C/\Delta)^2 = C/\Delta$. Un idempotent qui s'ignore.

    MAIS fais gaffe : tu écris $\sum_i e'_i \otimes e'_i$ alors que mézigue j'écris $\sum_i e_i \otimes e'_i$. On ne sait pas ENCORE qu'il est invariant par le swap.

    $\bullet$ Est ce qu'il n'y pas dans la nature $n$ polynômes en $n$ variables dont $\sum_i e_i \otimes e'_i$ SERAIT le jacobien. J'ai pensé aux $H_i \in I$ que j'avais proposés une fois pour satisfaire
    $$
    d(H_i) = \Delta\ dX_i
    $$L'idéal $I$ c'est l'idéal en $n$ indéterminées qui présente $\big(B/A, (e_1, \cdots, e_n)\big)$ via les constantes de structure. Tu vois de quoi je cause ? Tu saurais retrouver les posts concernés dans ce fil (je n'ai pas le temps cet après-midi) ?

    Et $H_i$ était défini par :
    $$
    H_i = \sum_j X'_j R_{ij} \qquad [X'_1, \cdots, X'_n] = [X_1, \cdots, X_n]\, \widetilde T
    $$où les $(R_{ij})_{1 \le i, j\le n}$ ainsi qu'un $R_0$ engendre $I$.

    Tu vois de quoi je cause ? Tu saurais retrouver les posts concernés dans ce fil (je n'ai pas le temps cet après-midi) Bis ?

    $\bullet$ Cela serait le pied que $\sum_i e_i \otimes e'_i$ soit leur jacobien. Je n'ai pas le temps (ter). De plus, j'aurais besoin disons d'une petite journée pour écrire un programme qui ... Peut-être à la main sur $B = A[X]/\langle F\rangle$ avec $F$ unitaire de petit degré ? Degré 2 ?
  • $\newcommand \tra[1] {{\,^{\rm t}\!#1}}\def\Zi{\Z[i\rbrack}$FlipFlop OUPS, j'ai répondu trop vite.

    Qui, selon toi, serait la manifestation de
    $$
    \sum_i e_i \otimes e'_i, \qquad \quad\text{ou bien} \qquad\quad \sum_i e'_i \otimes e_i,
    $$dans mes infâmes égalités matricielles ci-dessous, à gauche ou à droite ??
    $$
    e'_1 M_{e_1} + \cdots + e'_n M_{e_n} =
    \begin{bmatrix} e'_1 \\\vdots\\ e'_n \end{bmatrix} [e_1, \cdots, e_n]
    \qquad\qquad\qquad
    e'_1 \tra{M_{e_1}} + \cdots + e'_n \tra{M_{e_n}} =
    \begin{bmatrix} e_1 \\\vdots\\ e_n \end{bmatrix} [e'_1, \cdots, e'_n]
    $$
  • Hello Claude,

    Ah j'ai mis a l'envers, ca ne marche pas bien ! Mais vu que le swap est un morphisme de $A$-algèbre, je pense que ça fonctionne quand même (a revoir).

    Pour le Bezoutien, oui c'est bon !
  • $\def\Bez{\text{Bezoutien}}$Ok pour les pointeurs. C'est vraiment ma hantise de retrouver mes billes.

    J'ai eu le temps de programmer. Mais dammned j'obtiens (de manière expérimentale) presque ce qu'il faut. Mais presque à cause d'un facteur :
    $$
    \Bez(H_1, \cdots, H_n) = \Delta^{n-1} \times \sum_i e_i \otimes e'_i = \Delta^{n-1} \times \sum_i e'_i \otimes e_i
    $$Et de nouveau se pointe le souci de $\Delta$ régulier.

    Il y a des lois qui sont limites de lois à discriminant régulier. Je pense par exemple à $B = A[X]/\langle F\rangle$ où $F$ est un polynôme unitaire. Tu peux toujours faire la chose avec $F$ générique et spécialiser ensuite.
  • Salut Claude et flipflop.

    J'ai un petit peu essayé pour $\mathrm{Gr}(P_1, P_2) \geq 2$ où $P_1$ et $P_2$ sont les "polynômes d'idempotence" d'une $A$-algèbre libre de rang $2$ "quelconque". Pour l'instant, la force brute n'a pas bien aidé, mais je ne désespère pas. Je n'y ai pas non plus passé beaucoup de temps, alors je vais encore y réfléchir un peu. Je vais m'y essayer sur quelques exemples voir si quelque chose se dégage. En soit, on a pas tant de choses que ça à faire: on a les identités entre les constantes de structures qui assurent que l'algèbre est commutative, associative et unitaire, et avec ça on devrait pouvoir tout faire, mais entre dire ça et le faire, il y a un monde.


    Je fais juste ce petit post pour parler d'un petit truc à propos de l'exemple donné par flipflop dans ce post, à savoir l'algèbre des idempotents de $\mathbb{Z}[\mathrm{i}]$.

    Selon flipflop, c'est une algèbre étale sur $\mathbb{Z}$. Un des théorèmes "de base" de la théorie du $\pi_1$ étale est que $\mathrm{Spec}(\mathbb{Z})$ est "simplement connexe". En termes plus terre-à-terre: toute $\mathbb{Z}$-algèbre finie étale doit en fait être isomorphe à un produit de $\mathbb{Z}$ ! La preuve que j'avais vu de ce résultat passait par le théorème de Minkowski, qui dit qu'il n'y a pas d'extension non ramifié de $\mathbb{Q}$.

    Je me suis mis en tête de tenter d'illustrer ce résultat avec l'algèbre que flipflop nous a donné, ça pourrait faire un petit exemple rigolo. J’étais parti sur ça, mais en fait comme on va le voir plus bas, on ne va PAS pouvoir écrire cette algèbre comme un produit de copies de $\mathbb{Z}$, pourquoi? Je me suis rendu compte en cours de route que c’est vraiment crucial que l’algèbre soit finie étale. L’algèbre présentée par flipflop n’est pas finie sur $\mathbb{Z}$. On va précisément voir qu’il y a une composante de cette algèbre qui est au dessus de l’ouvert $D(2)$ où $2$ est inversible. Et $2$, c’est précisément le seul nombre premier qui divise le discriminant de $\mathbb{Z}[\mathrm{i}]$. Coïncidence? Je ne pense pas.

    Je rappelle donc que cette algèbre est définie comme \begin{align*}
    \mathbb{Z}[X, Y]/(X^2 - Y^2 - X, 2XY - Y).
    \end{align*}

    Je vais la noter $E = \mathbb{Z}[x, y]$, où $x$ et $y$ sont les classes respectives de $X$ et de $Y$. Après une bonne floppée de calculs dont je vais vous passer le détail, j'arrive à trouver un système fondamental d'idempotents orthogonaux. Si je ne me suis pas bêtement planté, j'ai \begin{align*}
    e_1 &= x^2 + y^2\\
    e_2 &= 1 - x^2 + 3y^2\\
    e_3 &= -4y^2.
    \end{align*}

    Pour montrer que ce sont bien des idempotents et qu'ils sont orthogonaux, j'ai utilisé le truc suivant: puisque $y^2 = x^2 - x$ et $y(2x-1) = 0$, on a $(x^2 -x)(2x - 1) = 0$, c'est-à-dire $2x^3 - 3x^2 + x = 0$. Pour montrer que $e_ie_j = \delta_{i,j}$ et que $e_1 + e_2 + e_3 = 1$, on remplace les $y^2$ par $y^2 = x^2 -x$, et on tombe à chaque fois sur un multiple de $2x^3 - 3x^2 + x$.

    Avec le même genre de calculs, j'obtiens les égalités suivantes entre idéaux de $\mathbb{Z}[X, Y]$: \begin{align*}
    \langle 1 - X^2 - Y^2, X^2 - Y^2 - X, 2XY - Y \rangle &= \langle X - 1, Y\rangle\\
    \langle X^2 - 3Y^2, X^2 - Y^2 - X, 2XY - Y \rangle &= \langle X, Y\rangle\\
    \end{align*}

    Dans les deux cas, le quotient est banalement $\mathbb{Z}$: on a donc deux composantes connexes qui sont des copies de $\mathrm{Spec}(\mathbb{Z})$.
    Pour l'idéal $\langle 1 + 4Y^2, X^2 - Y^2 - X, 2XY - Y \rangle$, c'est un poil différent.

    Il me semble que j'arrive à montrer que $\langle 1 + 4Y^2, X^2 - Y^2 - X, 2XY - Y \rangle = \langle Y^2 + X^2, 2X - 1\rangle$.

    Sauf boulette, le quotient par cet idéal est $\mathbb{Z}[1/2][Y]/(Y^2 + 1/4)$, soit, en remplaçant $Y$ par $2Y$, $\mathbb{Z}[1/2][\mathrm{i}]$. Là dedans, j’arrive facilement à montrer qu’il n’y a pas d’idempotents non triviaux, donc que c’est quelque chose de connexe. Mais là, bien sur, ce truc là n’est pas isomorphe à $\mathbb{Z}$ ! En fait, c’est car la restriction de la projection $\mathrm{Spec}(E) \to \mathrm{Spec}(\mathbb{Z})$ à cette composante là n’est pas finie (argument massue: elle est dominante, mais non surjective sur les spectres puisque $(2)$ n’est pas dans l'image, or un truc fini dominant est surjectif sur les spectres). Et du coup $E$ n’est pas fini sur $\mathbb{Z}$ (bien sûr, j’imagine qu’il y a bien des façons plus élémentaires de montrer que $E$ n’est pas finie sur $\mathbb{Z}$).

    J’imagine qu’il y a pas mal de choses à dires sur le fait que la composante qui « fait planter » l’affaire soit exactement isomorphe à notre algèbre de départ où le discriminant a été rendu inversible, et j’imagine aussi qu’il y a pas mal de choses à dire sur le fait que l’image de cette composante par la projection soit exactement le lieu ou le discriminant est inversible.

    Est-ce que ça fait avancer les choses? Pas tant que ça je pense. Mais au moins, ça m’a un peu amusé d’expliciter cet exemple. Pour être franc j’avais zappé que le théorème disait que toute algèbre FINIE étale sur $\mathbb{Z}$ était un produit de copies de $\mathbb{Z}$, et ça m’a bien fait me gratter la tête, avant de me rendre compte que le point qui pêche était là, j'imagine que j'ai appris un petit truc.

    PS: Je me perds aussi un petit peu dans ce long fil.

    Est-ce qu'il ne faudrait pas un petit peu le recadrer, i.e se donner une liste précise de résultats "à comprendre" ? Pour ma part, ma motivation au départ de ce fil était de voir si je pouvais enfin comprendre comment plat + non ramifié == relèvement unique des idéaux de carré nul. Mais vu ce qu'on en a dit, il y a des choses très compliquées là dessous. Peut-être se focaliser sur un résultat intermédiaire?
  • Hello,

    Je retourne en montagne demain (y'a plein de neige partout :-D). Juste un petit truc, normalement tu dois retrouver tes idempotents dans le calcul du rang de la matrice de projection i.e

    On pose :
    $$
    E = \begin{align*}

    \mathbb{Z}[X, Y]/(X^2 - Y^2 - X, 2XY - Y).

    \end{align*}
    $$
    Tu poses $e = x (1 \otimes 1) + y(1 \otimes i) \in E \otimes \Z[ i]$. C'est un idempotent (par construction !). Tu considères la multiplication par $e$, qui est un endormophisme $E$-linéaire de $E \otimes \Z[ i]$ (un projecteur en fait $e$ est idempotent), sa matrice dans la base $(1 \otimes 1, 1 \otimes i)$ est : $M_e = \left(\begin{array}{rr}
    x & - y \\
    y & x
    \end{array}\right)
    $. Et là tu calculs son polynôme rang $\text{Det}(1 + (T-1) M_e)$ et tu regardes les coefficients (qui sont dans $E$ et forment un système complet d'idempotent orthogonaux) et tu les compares avec tes idempotents (normalement ça doit être la même chose) ! En fait ta décomposition va correspondre (ici) à la décomposition suivant le rang de la matrice de multiplication par l'idempotent $e$ !
  • Salut,

    Je calcule le déterminant de $\begin{pmatrix} (T-1)x + 1 & -(T-1)y\\ (T-1)y & (T-1)x + 1 \end{pmatrix}$. Je trouve $T^2(x^2 + y^2) -4y^2T + 2y^2 - x + 1$. Sachant que $2y^2 - x + 1 = 2y^2 + x^2 - x - x^2 + 1 = 3y^2 - x^2 + 1$, je retrouve bien mes idempotents. C'est assez fantastique qu'on puisse décomposer en composantes connexes toute cette algèbre par un seul calcul !

    Du coup, on retrouve dans mon post précédent le $B[\Delta^{-1}] = E[1/r_1]$ dont vous parliez. J'ai donc un train de retard :-D
  • Salut Chat-Maths
    Je suis en train de lire tranquillement ton avant dernier post http://www.les-mathematiques.net/phorum/read.php?3,2068882,2115938#msg-2115938.

    Juste pour info : j'ai fait aux pages 13-14-15 de ma note GrothendieckIdemp..., une étude PARTIELLE du cas $B/A$ libre de rang 2, de discriminant $\Delta$, dont je note $E/A$ l'algèbre des idempotents de Grothendieck.

    En bas de la page 15, il y a le résultat : supposons que les seuls idempotents de $A$ soient $0,1$. Alors $E/A$ est finie si et seulement si $\Delta$ est inversible ou nilpotent.

    Remarque : ma note est difficile à lire car les résultats ne sont pas énoncés sous forme de propositions, lemmes ...etc.. Pourquoi ? Parce que c'est un brouillon pour mézigue.

    Je continue à te lire.
  • Je viens de faire une micro-lecture en diagonale de tes pages 14-15. Bonne nouvelle, je tombe exactement sur les résultats que tu prédis. Mauvaise nouvelle: je tombe exactement sur ce que tu prédis, du coup ça ne valait peut-être pas la peine d'en faire un si long post (:P)
  • $\def\Zi{\Z[i\rbrack}\def\Gr{\text{Gr}}\def\bX{\mathbf X}\def\bF{\mathbf F}\def\fa{\mathfrak a}$Hello Chat-Maths et Flip Flop. J'ai lu, attentivement il me semble, vos derniers posts.

    $\bullet$ Tu as bien fait d'écrire ce long post. J'ai vérifié tes calculs quand tu disais ``il me semble''. As tu des références pour le fait que toute algèbre FINIE étale sur $\Z$ est un produit (fini) d'exemplaires de $\Z$ ? Je suis ok sur le fait d'utiliser le théorème d'Hermite-Minkoswski : si $K/\Q$ est un corps de nombres sans ramification, c'est que $K = \Q$.

    Remarque : je ne suis pas un truand. Je n'aurais pas osé te ``vendre'' l'algèbre $E/A$ des idempotents de Grothendieck en la qualifiant de non triviale si c'était un produit d'exemplaires de $A$ ! Elle est rarement finie sur $A$. Ne pas oublier que l'on touche à TOUTES les algèbres libres $B/A$.

    Plat + non ramifié = étale : on est ici en plein dedans mais peut-être pas dans le sens que tu voudrais. Ici $E/A$ est étale pour plein de raisons (relèvement des idempotents ou matrice jacobienne de carré 1 à fortiori de jacobien de carré 1 à fortiori inversible ...etc..). A fortiori non ramifiée.

    Quid de plat ?? Justement, une preuve la platitude serait de montrer que $\Gr(P_1, \cdots, P_n) \ge n$ !! Car le coup du jacobien inversible modulo ..., cela se spécialise et on peut donc appliquer mes histoires élémentaires de fortement 1-sécante. Te souviens tu ? Précision concernant spécialisation de l'inversibilité modulo ... du jacobien : de manière générale, si $\bF = F_1, \cdots, F_n \in A[\bX] = A[X_1, \cdots, X_n]$ est tel que leur jacobien est inversible modulo $\bF$, il en est de même en remplaçant $A$ par $A/\fa$ pour n'importe quel idéal $\fa$ de $A$.

    Bref, pour moi, monter que $\Gr(P_1, \cdots, P_n) \ge n$, c'est en plein dans le sujet.

    $\bullet$ Le cas $B = A[T] /\langle T^2 + bT + c\rangle$ avec de temps en temps la spécialisation $A = \Z$, $B = \Zi$ i.e. $(b,c) = (0,1)$. Pour éviter de TeXer et introduire des erreurs, je vais utiliser une calculette UNIQUEMENT polynomiale (pas de calcul d'idéaux). Et uniquement les matrices de multiplication de l'algèbre $B/A$ : on peut TOUT faire uniquement avec les matrices de multiplication et pas les matrices de constantes de structures car ces deux jeux de matrices sont reliés par des identités (cf bas page 8 de la note Groth..Idemp...)

    Important (j'insiste) : je ne fais pas de calcul dans $E$ mais uniquement dans $A[X,Y]$ dont $E$ est le quotient.

    Je pense que depuis tout le temps, j'ai commis une petite faute de goût concernant la matrice que je note $L$. J'aurais probablement dû faire comme vous autres (la transposée i.e. la matrice de multiplication par l'idempotent de $E\otimes_A B$). J'utilise la base $(1,T)$ de $B/A$. Voici leurs deux matrices de multiplication
    [color=#000000]> // B = A[T]/<T^2 + b*T + c>, matrices de multiplication
    > M1 := IdentityMatrix(AXY, 2) ;
    > M1 ;
    [1 0]
    [0 1]
    > M2 := Matrix(AXY, 2,2, [0, -c, 1, -b]) ;
    > M2 ;
    [ 0 -c]
    [ 1 -b]
    [/color]
    
    La matrice $L$ dont je ne suis plus très fier car j'aurais dû (peut-être) considérer sa transposée (?)
    [color=#000000]> L := X*Transpose(M1) + Y*Transpose(M2) ;
    > L ;
    [      X          Y]
    [   -c*Y    X - b*Y]
    > ChangeRing(L, Specialisation(0,1)) ;
    [ X  Y]
    [-Y  X]
    [/color]
    
    Les polynômes $Q_i$ homogènes de degré $2$ obtenus à partir de $L$ (première ligne). L'algèbre $E/A$ est présentée par les $P_i = X_i - Q_i$. Ici $X_1 \leftrightarrow X$, $X_2 \leftrightarrow Y$,
    [color=#000000]> Q1Q2 := Vector([X,Y]) * L ;
    > Q1 := Q1Q2[1] ; Q2 := Q1Q2[2] ;
    > Q1 ;
    X^2 - c*Y^2
    > Q2 ;
    2*X*Y - b*Y^2
    > P1 := X - Q1 ;
    > P1 ;
    -X^2 + X + c*Y^2
    > P2 := Y - Q2 ;
    > P2 ;
    -2*X*Y + b*Y^2 + Y
    [/color]
    
    La matrice $L$ est bien idempotente modulo $\langle P_1, P_2\rangle$
    [color=#000000]> // L idempotente modulo P
    > L - L^2 eq P1*Transpose(M1) + P2*Transpose(M2) ;
    true
    [/color]
    
    Les 3 idempotents $r_i$ du polynôme rang
    [color=#000000]> r2 := Det(L) ;
    > r2 ;
    X^2 - b*X*Y + c*Y^2
    > r1 := Trace(L) - 2*Det(L) ;
    > r1 ;
    -2*X^2 + 2*b*X*Y + 2*X - 2*c*Y^2 - b*Y
    > r0 := Det(1-L) ;
    > r0 ;
    X^2 - b*X*Y - 2*X + c*Y^2 + b*Y + 1
    [/color]
    
    La spécialisation $\Zi$ i.e. $(b,c) = (0,1)$.
    [color=#000000]> // Z[i ] <--> T^2 + 1  b=0, c=1
    > Specialisation(0,1)(P1) ;
    -X^2 + X + Y^2
    > Specialisation(0,1)(P2) ;
    -2*X*Y + Y
    > 
    > Specialisation(0,1)(r2) ;
    X^2 + Y^2
    > Specialisation(0,1)(r1) ;
    -2*X^2 + 2*X - 2*Y^2
    > Specialisation(0,1)(r0) ;
    X^2 - 2*X + Y^2 + 1
    [/color]
    
    Réduction modulo $\langle P_1, P_2\rangle$ pour être en accord avec Chat-Maths
    [color=#000000]> // Modulo <P1,P2> 
    > Specialisation(0,1)(r1) - 2*Specialisation(0,1)(P1) ;
    -4*Y^2
    > Specialisation(0,1)(r0) + Specialisation(0,1)(P1) ;
    -X + 2*Y^2 + 1
    [/color]
    
  • Salut Claude,

    Je réfléchis à une référence pour le fait que fini étale sur $\mathbb{Z}$ implique produit fini de copies de $\mathbb{Z}$.

    Une preuve "hightech" est la suivante (je ne maîtrise pas tous les points techniques évoqués, surtout dans le second paragraphe):
    Déjà, ça revient à prouver que toute $\mathbb{Z}$-algèbre finie étale connexe est isomorphe à $\mathbb{Z}$: il suffit de décomposer en composantes connexes etc...

    On montre ensuite que si $A$ est un anneau intègre intégralement clos dans son corps de fraction et $A \to B$ est fini étale avec $B$ connexe, alors $B$ est aussi intègre et et intégralement clos dans son corps de fraction, de surcroit $B$ est la cloture intégrale de $A$ dans son corps de fraction. C'est exactement ce que dit ce lemme du Stacks : https://stacks.math.columbia.edu/tag/0BQL

    Sinon, pour s'éviter l'usine à gaz Stacks, c'est aussi en substance (sauf la partie qui dit que $B$ est la cloture intégrale de $A$ dans $\mathrm{Frac}(B)$) la proposition 5.2.12 du bouquin de Tamas Szamuely "Galois Groups and Fundamental Groups". Attention cependant: sa preuve de $(a)$ foire sans hypothèses localement noethériennes (mais là vu qu'on bosse sur $\mathbb{Z}$ pas bien grave). Dans les deux preuves, ça passe par le "critère de normalité" de Serre.

    Une fois qu'on a ça: on applique à $A = \mathbb{Z}$, et notre $B$ est donc $\mathcal{O}_K$ pour un certain corps de nombre, et après ça revient à vérifier que non ramifié au sens "net" implique non ramifié au sens "arithmétique", mais si $p$ est un nombre premier, et $pB = \mathfrak{p}_1^{e_1}\cdots\mathfrak{p}_n^{e_n}$, alors $B/pB \cong \prod B/\mathfrak{p}_i^{e_i}B$, mais $B/pB = B \otimes \kappa(p)$ est l'anneau des fonctions de la fibre au dessus de $p$ et est une $\mathbb{F}_p$-algèbre étale (car fini étale implique que toutes les fibres sont finies étales), et une algèbre étale sur un corps est réduite (là on est ramené au "étale" de Bourbaki, A, V), donc $e_i = 1$ pour tout $i$: pas de ramification. Là, on balance Hermite-Minkowski: $K$ doit être égal à $\mathbb{Q}$, et donc $B = \mathbb{Z}$.
  • Merci Chat-Maths. Je vois qu'il y a quand même du boulot ! 5 ème ligne en partant du haut dans ton post : je suppose qu'il faut lire $A \to B$ au lieu de $B \to A$.

    Autre chose : tu vois que l'histoire plat + nette = étale s'accompagne d'intersection complète au sens où je l'ai dit (la famille des $n$ relateurs de la $n$-présentation est complètement sécante). Dans le cas de présentation carrée, il y a donc DEUX égalités : plat + nette = étale d'une part et profondeur-maximum + nette = étale : c'est équivalent. Do you see what I mean ?
  • Oui, il faut lire $A \to B$. Avec un poil moins de boulot tu peux voir ce que je t'ai envoyé ailleurs.


    Je vois effectivement cette histoire d'intersection complète apparaitre un petit peu partout. J'ai furtivement re-regardé en diagonale la présentation du Stacks de la chose et c'est toujours aussi usine-à-gazesque, mais déjà, ça me fait un poil moins peur que la première fois (:P).
    Par contre, il me semble qu'ils ne se gênent clairement pas pour travailler quasi-exclusivement "fibre à fibre", et se ramener à des corps j'ai l'impression, et à travailler localement (au sens qu'il suffit d'être une intersection complète après localisation par des éléments comaximaux), et ça a l'air de leur simplifier un poil la tache. Ils utilisent aussi beaucoup la notion d'anneaux de Macaulay, que j'avais juste furtivement rencontré en première lecture de Local Algebra et que je ne maitrise pas du tout de chez pas du tout.
    Enfin je dis tout ça mais je suis bien loin de comprendre le truc. Il faudrait que je me plonge un bon coup sérieusement là-dedans, que j'arrive à trouver exactement les lemmes du Stacks qui contiennent les infos importantes (j'ai une petite liste qui semble contenir le gros des choses, modulos les trucs sur les anneaux de Macaulay). Mais ça va devoir attendre un peu je pense.

    Il y a aussi pas mal de choses qui ont l'air simplifiable dans le Stacks: celles qui passent par l'utilisation du "complexe cotangent naïf" (même si ça a l'air intéressant en soit, et peut-être une porte d'entrée sur le "vrai" complexe cotangent?)
  • Chat-Maths
    Encore merci. Eh bien, tu pain sur la planche. Te voilà maintenant dans le bain de l'algèbre des idempotents de Grothendieck qui (me) donne du fil à retordre même lorsque $n := [B:A] = 2$. Par ailleurs, je suppose que tu as beaucoup d'autres choses à faire.

    Un détail insignifiant dans mon histoire $B = A[T]/\langle T^2 + bT + c\rangle$. Dans TON calcul de $\det(1 + (T-1)M_e)$ tu as utilisé de la réduction dans $E$ (enfin, je crois). Tandis que mézigue, je reste au dessus dans $A[X,Y]$. J'ai utilisé dans mon post des petites formules simples dans le cas $n=2$ qui donnent $r_2, r_1, r_0$ en fonction de déterminants et de traces mais je pourrais faire le calcul directement :
    [color=#000000]> R := Det(1 + (T-1)*L) ;
    > R ;
    (X^2 - b*X*Y + c*Y^2)*T^2 + (-2*X^2 + 2*b*X*Y + 2*X - 2*c*Y^2 - b*Y)*T + X^2 - b*X*Y - 2*X + c*Y^2 + b*Y + 1
    > R eq r2*T^2 + r1*T + r0 ;
    true
    > r2 + r0 + r1 ;
    1
    [/color]
    
    avec l'avantage que la formule $\det(1 + (T-1)L)$ est valide pour tout $n$.
  • Oui, j'ai utilisé la réduction dans $E$ pour vérifier que $2y^2 - x + 1 = 3y^2 - x^2 + 1$, le deuxième étant mon idempotent trouvé par bricolage à la main. Mais avant cela, j'aurais pu rester dans $A[X, Y]$.

    Je lis dans ta note que pour le cas $n = 2$, tu te plaçes dans le cas où $1$ est élément d'une base. Pas bête, j'étais parti sur une base arbitraire à deux éléments, mais en en prenant un des deux égal à un, ça va déjà faire dégager quelques constantes de structures et simplifier potentiellement les calculs.

    Est-on déjà d'accord sur un truc: $\mathrm{Gr}(P_1, P_2) \geq 2$, c'est montrer que la suite suivante est exacte: \begin{align*}
    0 \to \mathbf{A}[X, Y] \overset{\partial_2}{\longrightarrow} \mathbf{A}[X, Y] \oplus \mathbf{A}[X, Y] \overset{\partial_1}{\longrightarrow} \mathbf{A}[X, Y] \to 0
    \end{align*}
    Où $\partial_1 (U, V) = P_1U + P_2V$ et $\partial_2(Q) = -P_1Qe_1 + P_2Qe_2$. Est-on d'accord là dessus? Avec mes allées et venues erratiques sur ce fil, j'avoue que je ne suis toujours pas super à l'aise avec le complexe de Koszul et compagnie.

    Question: Dans Gr-B-A-BA.pdf (je ne t'ai pas remercié pour ce petit fichier d'ailleurs, il m'a pas mal aidé sur le coup!), je lis que régulier implique complétement sécant. Tu as dit avoir vérifié $\mathrm{Gr}(P_1, P_2) \geq 2$ expérimentalement. La suite $(P_1, P_2)$ des deux "polynômes d'idempotence", tu as des exemples où elle n'est pas régulière? Ou bien expérimentalement, à chaque fois elle était régulière?

    Je demande car on ne sait jamais.
  • $\def\Gr{\text{Gr}}$Chat-Maths (suite)

    $\bullet$ 1. Si $A \subset B$ est une algèbre commutative libre de rang $n$, je n'ai jamais sû si 1 faisait partie d'une base de $B/A$. Ce que l'on peut montrer, en travaillant, c'est que $A$ est facteur direct dans $B$ en tant que $A$-module : $B = A \oplus S$ où $S$ est un $A$-module. Mais, a priori, aucune raison pour que $S$ soit libre sur $A$.

    Par contre, pour $n=2$, $S$ est nécessairement libre, donc 1 fait partie d'une base de $B/A$.

    Note : il y a des cas où mettre 1 dans la base n'est pas judicieux. Par exemple, avec $B = A^n$, il est préférable de prendre la base canonique.

    $\bullet$. 2. Attention à ton complexe de Koszul. Vu son indexation c'est le descendant. On peut faire aussi avec le montant (``self-duality of the Koszul complex''). Le descendant : je donne les $\partial_i$, qui doivent être $A[X,Y]$-linéaires, sur les $A[X,Y]$-bases des $\bigwedge^k(A[X,Y]^2)$
    $$
    \partial_2(e_1 \wedge e_2) = P_1 e_2 - P_2 e_1, \qquad\qquad \partial_1(e_i) = P_i
    $$A gauche, j'ai l'impression que cela ne colle pas avec toi.

    Note : je suis un maniaque, ce n'est pas un scoop. Il y a plein de gens légers qui se disent par exemple si je remplace $\partial_2$ par $-\partial_2$, on va pas en faire un fromage. Moi, si, j'en fais un fromage car si un jour on se retrouve avec un bi-complexe dans lequel les verticales sont Koszul et les horizontales du Cech, on va bien rigoler avec les rectangles qui commutent au signe près.

    $\bullet$ 3. Soit $B = A[X_1, \cdots, X_n] /\langle F_1, \cdots, F_n\rangle$ (présentation carrée). Si $B/A$ est étale, alors c'est un THEOREME que $\Gr(F_1, \cdots, F_n) \ge n$. Cela fait partie des ``théorèmes dits difficiles de Grothendieck'' que les gens essaient de revisiter pour pouvoir l'enseigner à l'école primaire. Et réciproquement, si $B/A$ est nette et que $\Gr(F_1, \cdots, F_n) \ge n$, alors $B/A$ est plate ``donc'' étale.

    Exemple de revisiteur : James Parson, j'en ai parlé in http://www.les-mathematiques.net/phorum/read.php?3,2068882,2095578#msg-2095578. Regarde les encadrés en rouge.

    Quant aux suites régulières, je m'en méfie car c'est tout pourri. J'en ai parlé in http://www.les-mathematiques.net/phorum/read.php?3,2068882,2103776#msg-2103776, cela commence avec la remarque de Dieudonné (1965). Est ce que te rends compte que l'on pourrait avoir $(P_1, P_2)$ régulière sans que $(P_2, P_1)$ ne le soit ? Le complexe de Koszul est bien plus réglo !!
  • Vu pour l'erreur de signe dans le complexe de Koszul. Et vu pour le fait qu'on utilise quand même que $n = 2$ pour dire que $1$ est dans une base.

    Je vois que tu ne fais pas confiance à "régulier". Mais regarde ce qui suit pour voir si je sais calculer ou pas: je crois que j'arrive à montrer que $(P_1, P_2)$ est régulière si $2$ est régulier (truc tout pourri avec une clause tu me diras: c'est vrai, mais bon, c'est déjà ça non?).

    On a $P_1(X, Y) = X^2 - cY^2 - X$ et $P_2(X, Y) = 2XY - bY^2 - Y$. C'est toi qui le dit, page 14.

    Déjà, $P_1$ est régulier (il a $1$ comme un de ses coefficients et donc il est primitif donc régulier à vie, c'est les bonnes paroles?).

    Bon, maintenant vu comme un polynôme de $\mathbf{A}[Y][X]$, $P_1$ est unitaire en $X$, et donc je sais que le quotient $\mathbf{A}[X, Y]/P_1$, comme $\mathbf{A}[Y]$-module, est de la forme $\mathbf{A}[Y] \oplus \overline{X} \mathbf{A}[Y]$.

    Bon maintenant je prends $Q = Q_1(Y) + \overline{X}Q_2(Y)$. Je travaille dans le quotient, et j'ai donc $\overline{X}^2 = cY^2 + \overline{X}$. Je regarde maintenant ce que ça signifie que $P_2Q$ soit nul dans le quotient : ça veut dire que $2\overline{X}YQ = Y(1 + bY)Q$.

    Maintenant d'une part \begin{align*}
    2\overline{X}YQ &= 2\overline{X}Y Q_1 + 2\overline{X}^2YQ_2\\
    &= 2\overline{X}Y Q_1 + 2(cY^2 + \overline{X})YQ_2\\
    &= 2cY^3Q_2 + \overline{X}(2YQ_1 + 2YQ_2)
    \end{align*}

    D'autre part: $Y(1 + bY)Q = Y(1 + bY)Q_1 + \overline{X}Y(1+bY)Q_2$.

    Bref, je suis réduit au système suivant dans $\mathbf{A}[Y]$: \begin{align*}
    \left\{\begin{array}{ccc}
    2cY^3Q_2 &=& Y(1+bY)Q_1\\
    2YQ_1 + 2YQ_2 &=& Y(1 + bY)Q_2
    \end{array}\right.
    \end{align*}
    Je peux simplifier par $Y$ car c'est un élément régulier de $\mathbf{A}[Y]$. Et par une petite manipulation algébrique j'obtiens le système équivalent
    \begin{align*}
    \left\{\begin{array}{ccc}
    2cY^2Q_2 &=& (1+bY)Q_1\\
    2Q_1 &=& (-1 + bY)Q_2
    \end{array}\right.
    \end{align*}

    Maintenant j'ajoute la première ligne à elle-même! J'obtiens \begin{align*}
    4cY^2Q_2 = 2Q_1(1 + bY)
    \end{align*}
    Et je substitue $(-1+ bY)Q_2$ à $2Q_1$, j'obtiens alors $4cY^2Q_2 = (bY + 1)(bY - 1)Q_2$, c'est-à-dire $((b^2 - 4c)Y^2 - 1)Q_2 = 0$. Sauf que $(b^2 - 4c)Y^2 - 1$ est primitif car il a $-1$ dans ses coefficients, et est donc régulier. Et donc $Q_2 = 0$.

    Maintenant, de $Q_2 = 0$, on a $2Q_1 = 0$, et là... Ben il me faut $2$ régulier je crois, pour montrer que $Q_1 = 0$.
    Donc sous cette hypothèse de $2$ régulier, il me semble que je montre que $P_2Q = 0$ dans le quotient implique $Q = 0$, c'est-à-dire que la multiplication par $P_2$ induit un morphisme injectif de $\mathbf{A}[X, Y]/(P_1)$, et ça, si je ne m'abuse, c'est dire que $(P_1, P_2)$ est réguliere.

    Ais-je fait une erreur stupide?

    PS: Et si 2 est pas régulier? j'y réfléchis plus tard.
  • Chat-Maths. J'ai fait une PREMIERE passe sur ton post et cela a l'air tout bon. On peut se passer de 2 régulier d'au moins deux manières. Au fait, ce n'est pas que je ne fais pas confiance aux suites régulières, c'est que j'ai l'habitude de les utiliser en terrain ad-hoc (ou bien en homogène en gradué ou bien dans le maximal d'un anneau noethérien).

    Mais là, tu as bien raison de vouloir montrer que $(P_1, P_2)$ est régulière. Autant pour moi. Surveille moi, ci-dessous.

    1. Une fois obtenu $Q_2 = 0$, tu pourrais reporter cela dans la première équation $2cY^2 Q_2 = (1 + bY)Q_1$ obtenu ``par une petite manipulation algébrique''. Ce qui donne $(1 + bY) Q_1 = 0$. Et comme $1 + bY$ est primitif (ou plus simplement son coefficient constant est 1), il est primitif, donc régulier à vie, et donc $Q_1 = 0$.

    2. Au lieu de faire quelques combinaisons ad-hoc comme toi, pourquoi ne pas faire plus franc du collier. Ton système s'écrit :
    $$
    \left[ \matrix {1 + bY & -2cY^2 \cr 2 & 1-bY \cr} \right] \left [\matrix {Q_1\cr Q_2\cr} \right] = 0 \qquad\qquad
    \det \left[ \matrix {1 + bY & -2cY^2 \cr 2 & 1-bY \cr} \right] = 1 - (b^2 - 4c)Y^2
    $$A gauche, tu multiplies par la co-matrice et tu obtiens que le déterminant tue $Q_1$ et $Q_2$. Mais ce déterminant, que l'on voit à droite, est un polynôme primitif donc $Q_1 = Q_2 = 0$.

    Note : je trouve que ce déterminant a une bonne tête car on y voit dedans, la quantité $b^2 - 4c$ qui est le discriminant de $T^2 + bT + c$. Cela serait une bonne chose de faire débarquer tout ce petit monde d'un calcul de type normique.

    Surveille moi (bis).

    BRAVO.

    Je ferais au moins un autre post (mais plus tard) pour préciser de nouveau quelle définition étale je prends (ce n'est pas nette + plat, tu t'en doutes). Cela fera répétition mais pour moi ce n'est pas grave de se répéter.
  • D'accord avec tes deux points.

    Effectivement, cécité aigüe de ma part que de ne pas avoir vu ce que tu proposes en 1. C'est assez fou comme avoir la tête dans le guidon peut faire manquer des choses.

    En deuxième approche: le 2. est sans doute la meilleure méthode: je n'ai pas fait les choses comme ça vu que je suis parti à la base d'un petit bricolage pour voir ce que j'arrivais à faire avec ce système, mais c'est sans doute ce qu'il y a de plus propre. D'accord avec toi que ce $b^2 - 4c$ qui apparait, ça augure quelque chose de bon.

    Et du coup, maintenant que $n = 2$ c'est bon, on fait quoi? $n = 3$? (:P).


    Là ce qui a quand même un peu sauvé la mise c'est la présence d'un polynôme unitaire en une des variables, probablement là parce que $1$ était un des éléments de la base non? J'ai peur que les choses ne soient pas aussi gentilles en général.
  • Attends, je te fais d'abord le petit calcul normique. Donc on voit $P_1$ dans $R[X]$ avec $R = A[Y]$ et je note $x$ la classe de $X$ modulo $P_1$. On a donc une extension $R \subset R[x]$, libre de degré 2, avec un $R$-automorphisme d'ordre 2 que je note $F \mapsto \widetilde F$
    $$
    P_1 = X^2 -X - cY^2, \qquad x + \widetilde x = 1
    $$Tout cela pour raconter le truc des petites classes : la somme des racines d'un trinôme ..etc..

    Je vais calculer la norme de $P_2$ i.e.
    $$
    N(P_2) = P_2 \widetilde {P_2}
    $$D'abord, je m'aligne sur toi via $P_i \mapsto -P_i$ (c'est du rien)
    [color=#000000]> P1 := -P1 ;  P2 := -P2 ;
    > P1 ;
    X^2 - X - c*Y^2
    > P2 ;
    2*X*Y - b*Y^2 - Y
    [/color]
    
    Calcul de $\widetilde {P_2}$ : dans $P_2$, on remplace $X$ par $1-X$ sans toucher à $Y$ :
    [color=#000000]> P2tilde := Evaluate(P2, [1-X,Y]) ;
    > NormP2 := P2*P2tilde ;
    > NormP2 ;
    -4*X^2*Y^2 + 4*X*Y^2 + b^2*Y^4 - Y^2
    [/color]
    
    Là il faut que j'opère une réduction modulo le modulus $P_1$ qui est nul dans le quotient :
    [color=#000000]> NormP2 + 4*Y^2*P1 ;
    (b^2 - 4*c)*Y^4 - Y^2
    [/color]
    
    Bingo : le polynôme PRIMITIF de tout à l'heure sauf que, comme c'est du calcul, il n'y a pas eu la simplification par $Y$ ...etc...
    $$
    N(P_2) = -Y^2 \times \big(1 - (b^2-4c)Y^2 \big)
    $$La chute est la chanson bien connue : puisque la norme de $P_2$ est un élément régulier de $R = A[Y]$, c'est que $P_2$ est un élément régulier de $R[x]$.
  • Re. Je fais ce petit post juste pour coucher quelque part sur le fil exactement les relations entre constantes de structures d'une algèbre associative, commutative et unitaire. Ça pourra toujours être utile à un moment ou à un autre.

    Contexte: $\mathbf{B}$ une $\mathbf{A}$-algèbre libre de rang $n$. J'en note $b_1,\ldots,b_n$ une base.
    Je définis les $c_{i, j}^{(k)} \in \mathbf{A}$ par \begin{align*}

    b_ib_j = \sum\limits_{k=1}^n c_{i,j}^{(k)} b_k.

    \end{align*}

    La commutativité s'exprime par l'identité $c_{i,j}^{(k)} = c_{j, i}^{(k)}$.
    L'élément neutre $1_{\mathbf{B}}$ s'écrit $\sum\limits_{i=1}^n u_i b_i$. $u$ comme unité. J'ai alors la relation
    \begin{align*}
    b_j &= 1_{\mathbf{B}}b_j\\
    &= \sum\limits_{i=1}^n u_ib_ib_j\\
    &= \sum\limits_{i=1}^n u_i \sum\limits_{k=1}^n c_{i,j}^{(k)} b_k\\
    &= \sum\limits_{k=1}^n \left(\sum\limits_{i=1}^n u_i c_{i, j}^{(k)}\right)b_k
    \end{align*}

    D'où la relation $\sum\limits_{i=1}^n u_i c_{i, j}^{(k)} = \delta_{k, j}$. En particulier, $\sum\limits_{i=1}^n u_i c_{i, j}^{(j)} = 1$: les $\left(c_{i, j}^{(j)}\right)_{i}$ sont comaximaux pour tout $j$ et les $u_i$ en témoignent.

    Reste l'associativité: d'une part: \begin{align*}
    (b_{i}b_{j})b_k &= \left(\sum\limits_{\ell = 1}^n c_{i, j}^{(\ell)} b_\ell \right) b_k\\
    &= \sum\limits_{\ell = 1}^n \sum\limits_{m = 1}^n c_{i, j}^{(\ell)}c_{\ell, k}^{(m)}b_m
    \end{align*}
    D'autre part, \begin{align*}
    b_{i}(b_{j}b_k) &= b_{i}\left(\sum\limits_{\ell = 1}^n c_{j, k}^{(\ell)}b_{\ell}\right)\\
    &= \sum\limits_{\ell = 1}^n \sum\limits_{m = 1}^n c_{i, \ell}^{(m)}c_{j, k}^{(\ell)} b_m
    \end{align*}

    Ce qui fournit l'identité suivante pour tout $i, j, k$ et $m$:
    \begin{align*}
    \sum\limits_{\ell = 1}^n c_{i, j}^{(\ell)} c_{\ell, k}^{(m)} = \sum\limits_{\ell = 1}^n c_{i, \ell}^{(m)}c_{j, k}^{(\ell)}
    \end{align*}

    On peut exprimer ces identités matriciellement: pour tout $k$, je note $C_k$ la matrice dont le coefficient d'indice $i, j$ est $c_{i, j}^{(k)}$. Je note $U$ le vecteur (écrit en colonne) $\begin{bmatrix}u_1\\ \vdots \\ u_n\end{bmatrix}$.

    La commutativité dit que $C_k$ est symétrique. L'unitalité (plus la commutativité) exprime que $C_k U$ est la colonne qui représente l'élément $b_k$ de la base: que des $0$, sauf un $1$ à la ligne $k$.

    Si $C'_k$ est la matrice dont le coefficient d'indice $i, j$ est $c_{i, k}^{(j)}$, alors, pour ces matrices, la commutativité s'exprime par $(C'_{k})_{i, j} = (C'_{i})_{k, j}$. La relation d'associativité s'exprime par \begin{align*}
    (C'_jC'_k)_{i, m} = (C'_kC'_i)_{j, m}
    \end{align*}


    La relation de comaximalité des $c_{i, j}^{(j)}$ me semble la plus intéressante: sauf erreur de ma part, la formation du complexe de Koszul commute aux localisations, et s'il est exact après chaque localisation par une famille comaximale, il est exact. Sachant que $Q_k = \underline{X} C_k {}^{t} \underline{X}$, où $(C_k)_{i, j} = c_{i , j}^{(k)}$, est-ce qu'il n'y a pas un moyen de faire apparaitre des polynômes unitaires (ou au moins à coefficients dominants inversibles) pour simplifier les calculs comme dans le cas $n = 2$ comme cela?

    EDIT: je viens de voir ton post avec le calcul normique: je lis ça.
  • $\def\bX{\mathbf X}\def\bF{\mathbf F}\def\Gr{\text{Gr}}\def\fa{\mathfrak a}$Hello Chat-Maths et FlipFlop

    ChatMaths : si tu as pu localiser l'énoncé 1 (ci-dessous) quelque part, écrit noir sur blanc, merci de m'en informer. Dans Stacks ? EGA ? Je n'ai rien vu chez Raynaud (d'ailleurs, chez lui, il n'y a pas d'histoire d'intersection complète, enfin pas vu).

    Je reviens sur l'énoncé suivant à cause de propos de ma part susceptibles de présenter des ambiguïtés (bigre).

    1. Soit $\bF = (F_1, \cdots, F_n)$ avec $F_i \in A[\bX] = A[X_1, \cdots, X_n]$ tel que leur jacobien $J$ soit inversible modulo $\bF$. Alors la suite $(F_1, \cdots, F_n)$ est complètement sécante dans $A[\bX]$ I.e. le complexe de Koszul (montant par exemple) de $\bF$ est acyclique, cf le point 6. Ce que l'on écrit parfois $\Gr(F_1, \cdots, F_n) \ge n$.

    2. Statut de cet énoncé ? J'ai dit d'une part que c'était un théorème et je l'ai même qualifié de ``théorème difficile de Grothendieck''. Est ce que je l'ai localisé dans EGA ? Réponse : non. Pourquoi ? Parce que c'est difficile pour moi de s'y retrouver dans EGA ....etc...

    Localisé où, alors ? Il est énoncé en clair dans les notes de James P. (Th 1.7 page 4). Mais la preuve n'est pas simple.

    Alors, pourquoi ai je dit, dans le cas de l'algèbre de Grothendieck $E/A$ de $B/A$, présentée par $(P_1, \cdots, P_n)$, que ``l'on'' ne sait pas montrer que $\Gr(P_1, \cdots, P_n) \ge n$ ? Je voulais dire ``on ne sait pas montrer de manière simple que ...etc..''. Note : Chat-Maths l'a fait pour $n=2$.

    3. Cas de bébé : 1 variable, disons $F = F(X)$. L'hypothèse est $1 \in \langle F, F'\rangle$ et la conclusion est $F$ est régulier au sens où $GF = 0 \Rightarrow G=0$. Mais l'hypothèse implique que $F$ est primitif, donc c'est OK.

    4. Quel peut être l'intérêt d'un tel énoncé ? Géométriquement peut-être aucun, je ne peux pas juger.

    Par contre, l'intérêt fondamental pour moi, c'est sa formulation élémentaire. L'hypothèse est simple (jacobien inversible) et la conclusion également, conclusion qui affirme qu'un certain complexe est exact. A comparer avec les divers énoncés de Stacks, More On Algebra, sections 15.31 et 15.32 (entre autres) de https://stacks.math.columbia.edu/tag/05E3, qui doivent être accompagnées de Commutative Algebra, sections 10.134, 10.135 (entre autres) in https://stacks.math.columbia.edu/tag/00AO

    On peut se passer de la clause $J$ est inversible modulo $\langle \bF\rangle$ de manière à obtenir un énoncé sans clause, cf le point 7.

    5. Impact de l'énoncé : $B := A[\bX] /\langle \bF\rangle$ est plat. Cf les histoires 1-SecantAntFlatness http://www.les-mathematiques.net/phorum/read.php?3,2068882,2102618#msg-2102618 en ayant remarqué au préalable que, pour tout idéal $\fa$ de $A$, le système $\bF$, vu dans $(A/\fa)[\bX]$, possède la même propriété que $\bF$ (quand on est inversible, c'est pour la vie).

    6. Koszul montant. En notant $(e_1, \cdots, e_n)$ la base canonique de $A[\bX]^n$ et $F$ le vecteur $F := F_1e_1 + \cdots + F_ne_n$, le complexe en question est celui de degré $+1$ où la différentielle est le produit extérieur par $F$ (qui est dans la composante homogène de degré 1 de l'algèbre extérieure) :
    $$
    \bullet \wedge F : \quad \bigwedge^{\bullet} (A[\bX]^n) \to\bigwedge^{\bullet + 1} (A[\bX]^n)
    $$L'exactitude raconte que le noyau d'une certaine matrice et égal à l'image d'une autre.

    7. Enoncé sans clause. On ne suppose pas le jacobien $J$ inversible modulo $\bF$. On ajoute une indéterminée $X_0$ et une ``équation'' $F_0 = X_0J - 1$. On obtient ainsi un nouveau système $\bF' = (F_0, F_1, \cdots, F_n)$ en $n+1$ variables $\bX' = (X_0, X_1, \cdots, X_n)$. Et en ce qui concerne le jacobien $J'$ de ce nouveau système, il vérifie $J' = J^2$ et est donc inversible modulo $\bF'$. Et l'on a, du point de vue des quotients, une localisation :
    $$
    \left( {A[X_1, \cdots, X_n] \over \langle F_1, \cdots, F_n\rangle}\right)_{\kern -3pt J} = {A[X_0, X_1, \cdots, X_n] \over \langle F_0, F_1, \cdots, F_n\rangle}
    $$L'énoncé n'est plus que le complexe de Koszul de $\bF$ est exact mais que son localisé en $J$ l'est. La différence importante, c'est qu'il n'y a plus AUCUNE clause sur $\bF$.
  • Salut Claude,

    Je ne sais pas si ton énoncé est explicitement dans EGA: je ne connais pas assez bien les EGA (tout ça c'est dans le monstrueux EGA IV, même EGA IV 4 et je n'en suis qu'à EGA II, ça n'avance pas d'ailleurs 8-)).

    Dans le Stacks, l'énoncé n'est pas directement sous cette forme, mais je le soupçonne d'être caché dans plusieurs énoncés.

    Déjà: $\mathbf{A}[X_1,\ldots,X_n]/(\mathbf{F})$ avec jacobien inversible, c'est la définition 10.136.6 du Stacks + la condition que le système est carré . Le coup de l'élimination de la clause, c'est l'exemple 10.136.8.

    Le lemme 10.136.7 donne des informations sur les systèmes "standard smooth". J'ai l'impression que le point important est le 7: ce sont des "intersections complètes relatives globales" (définition 10.135.5). En quoi ça fait avancer le schmilblick? Il y a le lemme 10.135.13 sur ces "intersections complètes relatives globales".

    Ce lemme dit que pour tout idéal premier $\mathfrak{q}$ de $\mathbf{A}[X_1,\ldots,X_n]/(\mathbf{F})$, correspondant à un idéal premier $\mathfrak{q}'$ de $\mathbf{A}[X_1,\ldots, X_n]$, la suite $(f_1,\ldots,f_n)$ est régulière dans l'anneau local $\mathbf{A}[X_1,\ldots,X_n]_{\mathfrak{q}'}$. En particulier le complexe de Koszul de $(f_1,\ldots, f_n)$ doit être acyclique après localisation en chaque idéal premier contenant $(f_1,\ldots, f_n)$. Et pour les autres idéaux premiers, ie ceux qui ne viennent pas d'un idéal premier de $\mathbf{A}[X_1,\ldots,X_n]/(\mathbf{F})$? Ben ce sont les idéaux premiers ne contenant pas $(f_1,\ldots, f_n)$, et donc la suite engendre l'idéal unité dans ces localisés, et dans ce cas l'acyclicité du complexe de Koszul est assez simple non? (Vu que $\mathrm{Gr}((f_1,\ldots,f_n))$ ne dépend que de l'idéal $(f_1,\ldots,f_n)$ et que montrer que $\mathrm{Gr}((1)) \geq 1$ me semble assez simple...)

    Bref, il faudrait décortiquer exactement les preuves de ces trucs pour trouver s'il n'y a pas des "court-circuits". La définition d'intersection complète relative globale fait intervenir des trucs sur la dimension de chaque fibre: d'accord pour dire que c'est crade?
  • $\def\Gr{\text{Gr}}\def\ua{\underline a}$Chat-Maths

    Merci pour le boulot de pistage que tu as réalisé dans Stacks. Bien plus précis que mes affaires. Je prétends avoir fait un peu de maths dans ma vie mais je n'ai jamais vu un m.rdier pareil. Je ne sais pas s'il faut essayer de décortiquer ... etc... C'est épuisant, on n'est peut-être pas sûr d'y arriver (voir aussi le point 7), toi tu n'as pas le temps et moi, je manque de plus en plus de courage (je me suis un tantinet épuisé dans AC X pendant plusieurs années, qui certes n'est pas usine à gaz mais l'équipe ne devrait pas en être fier).

    Je vais essayer de compléter ce que tu as dit, mais en fait, pas grand chose de nouveau, c'est juste pour confirmer. Je ne vais pas procéder comme toi en web-pointant sur Stacks, je me contenterai de donner les références précises. D'abord, il est entendu que dans Stacks
    $$
    \text{10 = Commutative Algebra} \qquad\qquad \text{15 = More On Algebra}
    $$1. Effectivement, la définition que tu qualifies de crade est ``relative globale complete intersection'' (je laisse en anglais) que l'on trouve en 10.135.5. Mais malheureusement, les gens de Stacks vont faire transiter le binz qui nous concerne par cette propriété.

    2. D'abord, tu t'es rendu compte que l'on peut supposer $c = n$ (notations de Stacks), le $c$ pour codimension, le $n$ pour le nombre de variables. C'est ce que je vais faire dans la suite et que tu as fait également.

    3. Bien d'accord avec toi sur le fait que l'énoncé 10.136.7 prend comme hypothèse un système (que l'on peut supposer) carré à jacobien modulairement inversible (je préfère ajouter modulairement pour éviter des confusions) et produit une tapée de résultats ``faciles'' sauf le dernier point (7) qui est que l'algèbre est relative globale complete intersection
    $$
    \xymatrix @C=3cm {
    \text{Jacobien modulairement inversible}\qquad \ar@{=>} [r]^{\textstyle 10.136.7\ (7)} & \qquad \text {relative global complete intersection} \\
    }
    $$4. Toujours d'accord avec toi sur l'analyse de 10.135.13 (si cela peut te rassurer 10.135 = Syntomic morphisms, pas des bons souvenirs). Je mentionne ``localement'' moins précis que toi (avec tes idéaux premiers)
    $$
    \xymatrix @C=3cm {
    \text {relative global complete intersection} \qquad \ar@{=>} [r]^-{\textstyle 10.135.13\ (1)} &
    \qquad \text {``localement'', la suite } f_1, \cdots, f_n \text{ est régulière} \\
    }
    $$On obtiendra alors $f_1, \cdots, f_n$ complétement sécante comme tu l'as dit (cf le statut des suites unimodulaires dans le dernier point 8 ici)

    5. On trouve d'ailleurs écrit la chose franchement dans le lemme 15.32.4. Attention, on change de chapitre : on est ici dans 15 More On Algebra L'énoncé est
    $$
    \xymatrix @C=3cm {
    \text {relative global complete intersection} \qquad \ar@{=>} [r]^-{\textstyle 15.32.4} &
    \qquad \text {la suite } f_1, \cdots, f_n \text{ est Koszul regular} \\
    }
    $$Et Koszul regular sequence est défini en 15.29.1 : c'est exactement complètement sécante. Note 1 : la section 15.29 s'intitule Koszul regular sequences. Note 2 : quand on regarde la preuve de 15.32.4, on voit la référence à 10.135.13 et que tout le boulot est fait en 10.135.13.

    6. Bilan :
    $$
    \xymatrix @C=1cm {
    \text{Jacobien modulairement inversible}\qquad \ar@{=>} [r] & \qquad \text {la suite } f_1, \cdots, f_n \text {est complètement sécante}\\
    }$$7. Au lieu de suivre cette usine à gaz, peut-être que cela serait préférable de regarder James Parson ?

    Autre chose : il y a quand même des gens qui font du boulot que j'estime propre. Je pense par exemple à un résultat nommé Ferrand-Vasconcelos, grandement amélioré par Jouanolou : soit $I$ un idéal projectivement résoluble (a fortiori de type fini) tel que $I/I^2$ soit libre de rang $n$. Alors $\Gr(I) \ge n$. Voir juste l'énoncé au début du chapitre 7 de http://claire.tete.free.fr/THESE/LaTotale.pdf

    8. Effectivement, si $\ua = (a_1, \cdots, a_n)$ est une suite (de scalaires) unimodulaire, alors son complexe de Koszul (montant ou descendant) est acyclique. Mieux : chaque $a_k$ tue les $n$ groupes d'homologie (ou cohomologie). C'est le PREMIER résultat à montrer dès la définition. Le premier, pas le second. Pourquoi ? Parce ce que c'est ``carré'' : une homotopie ad-hoc et c'est réglé. Cf la première page du premier chapitre de http://claire.tete.free.fr/THESE/LaTotale.pdf
  • Salut Claude,

    Plutôt d'accord avec ton point 7: c'est un sacré m*rdier, dans le Stacks, et on a potentiellement quelque chose de bien plus simple sous la main, alors pourquoi s'en priver? Le m*rdier du Stacks a quand même l'air de dire beaucoup de choses "intéressantes" au passage, mais sont-elles intéressantes maintenant, quand j'en suis encore à découvrir et à apprendre les choses? Je ne sais pas.

    N'ayant pas lu EGA IV, je ne peux pas en parler très précisément, mais j'ai cru comprendre que la présentation y est similaire, (longue, technique, histoire d'intersections complètes etc...), mais j'avais cru lire quelque part qu'elle disait plein de choses utiles "à côté". Par exemple les histoires d'intersections complètes, ça intéresse les géomètres, et les histoires de trucs Macaulay ont un rapport avec des histoires de dualité, donc leur apparition semble intéressante. M'enfin, tout ça me passe encore bien au dessus de la tête, et ça va probablement encore être le cas pendant quelque temps.

    Je ne sais pas si j'ai le temps ou le courage pour l'instant de me plonger dans tout ce bazar du Stacks, je le ferai peut-être un jour si j'en ai "besoin"...

    J'ajoute quand même des liens vers les résultats du Stacks pour les résultats que tu mentionnes dans le chapitre 15:

    - Définition 15.29.1
    - Proposition 15.32.4

    C'est une petite maniaquerie, mais pour le Stacks, les liens ont (je crois) une grande force: si j'ai bien compris, le "tag" d'une proposition/théorème/section/définition lui est attribué à vie: si une nouvelle section ou un nouveau lemme vient s'intercaler, les numérotations vont changer, mais pas le tag. Du coup pour la postérité, je préfère mettre des liens.

    PS: Vu pour le résultat Ferrand-Vasconcelos-Jouanolou, il y a l'air d'y avoir des choses intéressantes dans cet énoncé. Est-on d'accord que projectivement résoluble, c'est entendu au sens de résoluble par des modules projectifs de type fini? (Edit: peut-être juste une résolution finie par des modules projectifs de type fini?)

    Si tu as un bout de mon message qui a disparu: c'est normal, j'ai écrit un truc un poil trop vite et c'était potentiellement une bêtise.
  • $\def\Spec{\text{Spec}}\def\fa{\mathfrak a}$Salut Chat-Maths

    $\bullet$ 1. Oups, en ce qui concerne les tags de Stacks, je n'avais pas pensé à cela. Effectivement, les choses bougent tout le temps chez eux mais il y une certaine stabilité quelque part.

    Cela vient du fait que je ne lis pas à l'écran mais sur papier. Par exemple, hier, j'ai vérifié les versions de algebra.pdf et more-algebra.pdf (version a577f147, compiled on Sep 05, 2020).

    En tout cas, même si c'est obsessionnel chez moi, ma manière de voir certains faits (sur le binz profondeur, platitude ..etc..) limite le nombre d'énoncés (que je juge importants) par rapport à Stacks. Tu me diras que limiter le nombre d'énoncés par rapport à Stacks, ce n'est pas très difficile.

    Le fait de lire sur papier donne un certain avantage : c'est moins fatiguant qu'à l'écran et je peux prendre mon temps. Ainsi dans ton post http://www.les-mathematiques.net/phorum/read.php?3,2068882,2116204#msg-2116204, il n'y a pas qu'une erreur de signe, il y a une interversion de $P_1, P_2$ : ainsi on a $(\partial_1 \circ \partial_2)(1) = -P_1^2 + P_2^2$. Cela fait le gars qui moucharde mais on sait jamais (une descente de police est si vite arrivée).

    Autre exemple de lecture sur papier : ton post sur les matrices constantes de structure http://www.les-mathematiques.net/phorum/read.php?3,2068882,2116386#msg-2116386. Je n'ai pas compris d'où sortait la matrice $C'_k$. Pour moi, c'est la TRANSPOSEE de la matrice $M_{b_k}$, matrice de multiplication (à la française) par $b_k$ dans ta base $(b_1, \cdots, b_n)$ de $B/A$.

    $\bullet$ 2. Résolution projective finie = via des modules projectifs de type fini ET de longueur finie.

    $\bullet$ 3. Tu auras peut-être remarqué que dans 1-SecantAndFlatness, je n'utilise que le côté 1-sécant de la suite et pas le côté complètement sécant. Sur l'anneau $A$ et sur $A/\fa$ pour tout idéal $\fa$ de $A$.

    Quid de 1-sécant versus complètement sécant ? Glace mince comme on dit dans le métier. Je viens de TeXer une note que j'attache.

    En passant, tu as certainement remarqué dans l'histoire des $F_i \in A[X_1, \cdots, X_n]$ l'importance de la stabilité des hypothèses par extension des scalaires, en particulier $A \mapsto A/\fa$.

    $\bullet$ 4. $\Spec(\Z)$ est simplement connexe : nouvelles plus tard.
  • La matrice $C'_k$, d'où sort-elle?

    Ben simplement, quand je regarde
    \begin{align*}

    \sum\limits_{\ell = 1}^n c_{i, j}^{(\ell)} c_{\ell, k}^{(m)} = \sum\limits_{\ell = 1}^n c_{i, \ell}^{(m)}c_{j, k}^{(\ell)}.

    \end{align*} Je me dis que ça ressemble vachement à un produit matriciel, et qu'effectivement, si je note $C'_k$ la matrice dont le coeff d'indice $i,j$ est $c_{i,k}^{(j)}$, ben j'écris ça
    \begin{align*}

    \sum\limits_{\ell = 1}^n (C'_j)_{i, \ell} (C'_k)_{\ell, m} = \sum\limits_{\ell = 1}^n (C'_k)_{j, \ell}(C'_\ell)_{i,m}.

    \end{align*} Puis avec $(C'_{\ell})_{i,m} = (C'_{i})_{\ell, m}$ (commutativité), je tombe sur \begin{align*}
    \sum\limits_{\ell = 1}^n (C'_j)_{i, \ell} (C'_k)_{\ell, m} = \sum\limits_{\ell = 1}^n (C'_k)_{j, \ell}(C'_i)_{\ell,m}.

    \end{align*} Et ça me donne bien l'égalité \begin{align*}
    (C'_jC'_k)_{i, m} = (C'_kC'_i)_{j, m}.

    \end{align*} Je n'ai pas cherché plus que ça à l'interpréter, je voulais simplement une écriture un poil plus compacte de l'égalité :-D

    En la regardant un peu plus droit dans les yeux, je suis d'accord pour dire que c'est la transposée de la matrice de multiplication par $b_k$ (multiplication à droite même, mais la commutativité nous sauve de cette distinction). Donc ça donne à gauche
    \begin{align*}
    ({}^t M_{b_j} {}^{t}M_{b_k})_{i, m} &= {}^{t}(M_{b_k}M_{b_j})_{i, m}\\
    &= (M_{b_k}M_{b_j})_{m, i},

    \end{align*} et à droite
    \begin{align*}
    (M_{b_i}M_{b_k})_{m, j}.

    \end{align*} Tu valides cette relation ? Je ne suis pas à l'abri d'une erreur d'indice un poil bête...

    PS. Merci pour la note sur 1-sécant vs complétement sécant.

    Pour l'histoire du terrain noethérien cohérent gentil, est-ce que pour nos affaires de lissité/profondeur/syntomicité etc, on peut se réduire au cas noethérien cohérent ? Ils font quelque chose qui y ressemble dans le Stacks : ici (10.135.12), et il me semble que Parson aussi. Mais je n'ai pas décortiqué cela encore.
Connectez-vous ou Inscrivez-vous pour répondre.