Espace algébrique

2»

Réponses

  • Pour la relation d'équivalence de la droite affine à origine double, que penses-tu de la proposition de Knutson que j'attache ? Il ne la prouve pas, mais elle nous dit déjà quelle pourrait être une bonne relation une fois qu'on a un recouvrement étale de notre objet.

    Ça marcherait pour la droite affine, vu qu'on a déjà le recouvrement étale surjectif qui fait marcher le tout (le $\mathbb{A}^1_{\mathbb{C}} \coprod \mathbb{A}^1_{\mathbb{C}} \to X$), mais pour la droite complexifiée, il faudrait trouver ce recouvrement.

    file.php?3,file=9747097468
    97470
  • En gros je pense que l'idée ensembliste c'est le petit truc suivant : Soit $R$ un relation d'équivalence sur un ensemble $U$ ; soit $\pi : U \to X$ la projection canonique !

    L'idée c'est comment on reconstruit $R$ si on ne connais que $\pi$ et bien tu dis que $R$ c'est l'ensemble des couples $(x,y) \in U \times U$ tels que $\pi(x) = \pi(y)$ et ça donne $U \times_{X} U \to U \times U$ ! Je pense que le truc de la proposition c'est ça … bon ensuite faut regarder avec les histoires étales et tout mais je pense qu'à la base c'est ce petit calcul !

    Ps / Oui, Ok pour dire que ça construit le candidat !
  • Chat-maths : C'est tout bon pour moi pour la droite double origine ! La galère pour comprendre cette petite histoire de relation d'équivalence :-D
    Je ne sais pas du tout si je peux faire pareil avec l'autre bidule complexifié (je suis d'une lourdeur dans cette histoire :-D). Je détails mais c'est tout trivial sauf boulette de ma part !

    Donc l'idée c'était de voir $\mathbb{A}^1 \coprod \mathbb{A}^1$ comme $X_0 \subset \mathbb{A}^2$ des couples $(x,y)$ tel que $y^2 =y$ et la projection vers la droite double comme $\Pi : (x,y) \mapsto (x,y \pmod{x})$. (je ne mentionne pas les anneaux histoire de ne pas alourdir le truc) ; La droite double origine son petit nom c'est $\Lambda$ :

    Donc relation d'équivalence c'est un sous-schéma de $X_0 \times X_0$ qui ici sera vu comme :
    $$
    X_0 \times X_0 = \{(x_1,e_1,x_2,e_2) \in \mathbb{A}^2 \times \mathbb{A}^2 \mid e_1^2 =e_1\, , \, e_2^2 = e_2 \}
    $$
    Donc en appliquant la proposition, il s'agit de prendre $\mathcal{R} \subset X_0 \times X_0$ l'ensemble des couples $(a,b)$ tel que $\Pi(a) = \Pi(b)$. Donc dans notre contexte, il s'agit de :
    $$
    \mathcal{R} = \{ (x_1,e_1,x_2,e_2) \in \mathbb{A}^4 \mid x_1 = x_2 \ \, \ e_1^2 = e_1 \, , \, e_2^2 = e_2 \, , \, e_1 = e_2 \pmod{x_1} \}
    $$
    La problématique est ici de d'écrire de manière plus équationnelle la dernière condition par que la on voit pas trop que c'est un sous-schéma ! Mais dire que deux idempotents $e_1,e_2 \pmod{x}$ sont égaux reviens à dire $e_1 \ne 1-e_2$ et donc $e_1+e_2-1$ inversible $\pmod{x}$. Ce qui donne :

    $$
    \mathcal{R} = \{ (x_1,e_1,x_2,e_2) \in X_0 \times X_0 \mid x_1 = x_2 \ , \ \langle x_1, e_1+e_2-1 \rangle =R \}
    $$

    C'est la seule chose qui est importante c'est ça au lieu d'introduire des variable supplémentaire pour traduire une égalité modulo $x$ comme on avait fait au tout début je transforme ça en une condition ouverte !

    Le sous-foncteur $\mathcal{R}$ est bien une relation d'équivalence et c'est un sous-schéma de $X_0 \times X_0$.

    Il y a trois axiomes à vérifier (c'est évident avec la première description) :

    (Réflexivité) Il s'agit de prouver que $(x_1,e_1,x_1,e_1) \in \mathcal{R}$. On a : bien $x_1=x_1$ et ensuite $$(e_1+e_1-1)^2 = 4e_1^2-4e_1+1 = 1$$
    On en déduit que $e_1+e_2-1$ est inversible dans $R$.
    (Symétrie) Sous l'hypothèse $x_1 = x_2$ on a : $\langle x_1, e_1+e_2-1 \rangle = \langle x_2, e_1+e_2-1 \rangle$.
    (Transitivité) Il le plus simple est de dire que $ \langle x , e_1+e_2-1 \rangle = R$ signifie que $e_1 = e_2 \pmod{x}$. La transitivité est alors clair. J'aimerais bien voir le calcul en grand chiant que je suis !!!

    $\bullet$ Maintenant le lien complet : On commence par étudier le foncteur quotient naïf $X_0 / \mathcal{R}$.

    1. Le morphisme $\Pi$ se factorise en un morphisme $\overline{\Pi} : X_0 / \mathcal{R} \to \Lambda$. De plus, celui-ci est injectif.

    Ceci est évident par construction en se rappelant que l'hypothèse $\langle x,e_1+e_2-1 \rangle$ signifie exactement que $e_1 = e_2 \pmod{x}$.

    2. La dernière étape est de constater que la faiscautisation de Zariski associé a notre morphisme $X_0 / \mathcal{R} \to \Lambda$ est un isomorphisme. Il s'agit alors de montrer que tout point de $\Lambda$ est localement dans l'image de $\overline{\Pi}$. Je donne un exemple pour bien comprendre que l'on a pas surjectivité et qu'il faut prendre le faisceau associé au quotient naïf :

    Exemple : Puisque $6^2 =36 = 6 \pmod{15}$ le couple $(15,6) \in \Z \times \Z(15)$ est un élément de $\Lambda(\Z)$. Par contre, il n'est pas dans l'image de $\overline{\Pi}$ puisque celà conduit à l'existence d'un idempotent non trivial de $\Z$.

    Soit $R$ un anneau et $(x,e) \in \Lambda(R)$ notons $\varepsilon$ un relèvement quelconque de $e$ à $R$. Posons $a_1 = 1 - \varepsilon$ et $a_2 = \varepsilon$. Alors puisque $a_1+a_2 = 1$, ils recouvrent $R$. Posons $(x,0) \in X_0(R_{a_1})$ et $(x,1) \in X_0(R_{a_1})$, on constate que :
    $$
    \Pi(x,0) = (x,e)_{a_1} \qquad \qquad \Pi(x,1) = (x,e)_{a_2}
    $$
    En effet, dire que $a_1$ est inversible dans $R(x)$ signifie que $1-e$ est inversible et puisque $1-e$ est idempotent c'est que $e=0$. (c'est pareil que ce que j'avais déjà fait … bref c'est normal !!!)
  • Salut Flip-Flop,
    Comment as tu trouvé $s := e_1 + e_2 - 1$ en partant de $e_1 - e_2$, histoire d'avoir $V(e_1 - e_2) = D(s)$ ? Car c'est bien cela que tu as réalisé n'est ce pas, en partant de deux idempotents quelconques $e_1, e_2$ d'un anneau $A$ ? J'oublie le contexte modulo $x$ ..etc...

    Ce qui veut dire, sans aucun doute, que $s$ est multiple de $s^2$ et que par conséquent, le morphisme canonique $A \to A_s$ est surjectif de noyau $\langle e_1- e_2\rangle$. Et on a donc un isomorphisme canonique entre le quotient $A/\langle e_1 - e_2\rangle$ et le localisé $A_s$. A vérifier quand même.

    Car ton coup de ``si $e_1 = e_2$ alors ... $e_1 + e_2 -1$ est inversible'' est certes vrai mais heuristique. Je crois me souvenir qu'en présence d'idempotents $e_1, e_2$, il y a une partition économique du spectre.
  • Hello Claude
    Oui c'est louche le coup de $e_1 =e_2$ si et seulement si $e_1 \ne 1-e_2$ ! Mais c'est comme ça que j'ai pensé à ça ! Mais c'est louche !

    Par contre, $$

    (e_1-e_2) \times (e_1+e_2-1) = (e_1-e_2) \times (e_1+e_2) -(e_1-e_2) = e_1^2-e_2^2 -e_1 + e_2 = 0 ,


    $$ nous confirme que si $e_1+e_2-1$ est inversible alors $e_1=e_2$ et la réciproque si $e_1=e_2$ et bien : $$

    (e_1+e_2-1)^2 = 4e_1^2-4e_1+1 = 1.

    $$ C'est le coup symétrie / projecteur !
    Je regarde ton histoire de localisé par rapport à $s$ !
  • Rebonjour FlipFlop
    OK. Mais dans ce type d'histoire, c'est que quelque part, il y a un calcul algébrique SANS clause. Je veux dire pas de ``si truc alors machin''. Quand je dis ``calcul algébrique'', je veux dire expressions algébriques.

    Je change le signe de $s$ pour faire joli i.e. je prends $s = 1 - (e_1+e_2)$. La seule possibilité raisonnable, c'est que $s$ se comporte comme un idempotent sans être un idempotent. Et effectivement :
    $$
    s = as^2 \qquad \hbox {avec ou bien} \quad a = 1-2e_1 \quad \hbox {ou bien} \quad a = 1-2e_2
    $$Ce qui fait, d'une part que $as$ est idempotent et, puisque $a$ est inversible, que $s$ c'est pareil que $as$. Donc au lieu de localisé en $s$, on peut localiser en $e = as$ et le noyau est $1-e$. Et je crois que $1-e$, cela doit être pareil que $e_1 - e_2$.

    Est ce que c'est ce type de calcul que tu cherchais ?
  • Hum merci je vais réfléchir un peu si ça me permet de faire un petit calcul que je n'avais pas fait ! Je ne sais pas si c'est que je cherchais mais ça ne peut pas faire de mal :-D
  • Je ne suis pas sur de comprendre ce dont vous parlez sur la fin. Claude, est-tu en train de parler de justifier le "si $e_1 = e_2$ alors $e_1 + e_2 - 1$ est inversible", ou bien est-tu en train d'essayer de trouver des équations algébriques concrètes qui remplacent la clause $\langle x_1, e_1 + e_2 - 1 \rangle = R$? Ou bien même peut-être les deux ? Car de mon côté, je dois encore me convaincre que la clause "$\langle x_1, e_2 + e_1 - 1 \rangle = R$" définit un sous-schéma, qui devrait être localement fermé si je ne dis pas de bêtise (modulo $x_1$, on travaille dans un fermé, et on prend un ouvert dans un fermé), mais j'aimerais bien l'exprimer "joliment", comme un $V(...) \cap D(...)$ idéalement.

    En tout cas, @flipflop, tu n'as pas chômé ! Ton truc a l'air bien partit. Et à mon avis, si on comprend comment ça marche, ça devrait s'adapter assez bien au bidule complexifié.
  • Chat-maths : Oui la clause $\langle x, e_1+e_2 -1 \rangle =R $ c'est l'ouvert complémentaire de $V(I)$ avec $I = \langle x, e_1+e_2-1 \rangle$. Hum je commence à m'embrouiller !
  • $\def\A{\mathbb A}$Chat-Maths
    D'abord, j'ai pris dans le post de FlipFlop ce que je pouvais comprendre !!

    Grosso modo, je l'ai vu remplacer $e_1 = e_2 \bmod x_1$ par $1 \in \langle x_1, 1 - (e_1+e_2)\rangle$. En travaillant dans $A = R/\langle x_1\rangle$, cela semble dire que $V(e_2-e_1) = D(s)$ avec $s = 1 - (e_1+e_2)$. Et j'ai voulu savoir vraiment pourquoi.

    Je pense qu'il y a un machin automatique pour faire cela i.e. pour produire $s$ à partir de $e_2-e_1$ et montrer que $A/\langle e_2-e_1\rangle \simeq_{\rm can} A_s$. Sauf que je ne me souviens plus comment faire et où je l'ai vu.

    En tout cas, partant de deux idempotents $e_1, e_2$, et en se concentrant sur $e_2-e_1$, on peut se demander si $\langle e_2-e_1\rangle$ est engendré (au sens fort) par un idempotent. Au sens fort : à un inversible près. C'est bien le cas : $(1-2e_1)(e_2-e_1)$ est un idempotent. Et petit à petit, on va finir par tomber sur $s$ (facile quand on passe derrière les autres).

    Quant au sous-schéma, je pense que tu fais allusion à $1 \in \langle a,b\rangle$ qui définit le sous-schéma de $\A^2$ dont les $R$-points sont les vecteurs unimodulaires, schéma que j'aime bien noter $\A^2_*$ plutôt que $\A^2 \setminus \{0\}$.
  • Hello,

    Du coup, je fais le coup pour la droite complexifié ! Je pense qu'il faudra encore un peu de temps pour bien comprendre mais ça a l'air de tenir la route … enfin vaudra tout reprendre, histoire de simplifier un peu !

    Alors je note $S = \text{Spec}(\mathbb{Z}[1/2])$ et $S(i) = \text{Spec}(\mathbb{Z}[1/2,i])$. Et je note $\Z = \mathbb{Z}[1/2]$ (au pire on prend $\Q$, c'est pas le problème juste prendre un truc qui inverse $2$ et ne contient pas $i$ !

    L'idée c'est de recoller deux droites $\mathbb{A}^1_{S(i)} := \text{Spec} \left( \Z[X,i ] / (i^2+1) \right)$ ou encore $\{(x,i) \in \mathbb{A}^2 \mid i^2 +1=0 \}$. Recoller le long de l'ouvert ($x$ inversible) et via un twist du style $i \mapsto -i$ (enfin un truc du genre) !

    $\bullet$ Je vais suivre à peu près la même stratégie ! Remarque : j'ai changé le foncteur de D. Madore pour éviter un mélange entre " deux niveaux " de $i$ (en gros, a un moment y'a $4$ $i$ différents qui débarque et faut juste en identifier deux) : L'espace algébrique candidat c'est :
    $$
    \begin{array}{l|rcll}
    \Lambda_\eta : & \Z-\text{Alg} & \longmapsto & \text{Ens} \\
    & R & \longmapsto & \left\{ (x,t) \in R \times R(x) \mid t^2-6t+13= 0 \right\} \\
    \end{array}
    $$
    J'ai noté $R(x) := R/xR$, l'équation $t^2-6t+13 = 0$ c'est polynôme minimal de $2i+3$, c'est pareil que $i$ puisque $2$ est inversible !

    $\bullet$ Un dessin partie gauche pour l'instant :

    $$
    \xymatrix{
    \mathbb{A}^1_{S(i)} \coprod \mathbb{A}^1_{S(i)} \ar[dd] && \\
    && \\
    \Lambda_\eta \times S(i) \ar[rr] \ar[dd] &&S(i) \ar[dd] \\
    && \\
    \Lambda_\eta \ar[rr] && S
    }
    \qquad \qquad \qquad
    \xymatrix{
    (x,t,i) \ar[dd] && \\
    && \\
    (x,t \pmod{x},i) \ar[rr] \ar[dd] && i \ar[dd] \\
    && \\
    (x,t \pmod{x})
    \ar[rr] && \star
    }
    $$
    Ce qui nous intéresse c'est la flèche de haut en bas (composé de deux flèches) !

    $\bullet$ Je vais voir $ \mathbb{A}^1_{S(i)} \coprod \mathbb{A}^1_{S(i)}$ dans $\mathbb{A}^2_{S(i)} := \{ x,t,i) \in \mathbb{A}^3 \mid i^2+1 = 0 \}$ i.e $\text{Spec}\left(\Z[X,T,I] / \langle I^2 +1 \rangle \right)$.
    $$
    \mathbb{A}^1_{S(i)} \coprod \mathbb{A}^1_{S(i)} = \{ (x,t,i) \in \mathbb{A}^3 \mid i^2+1 = 0 \, , \, t^2-6t+13 =0 \} := \text{Spec} \left( \Z[X,T,I] / \langle I^2 +1, T^2-6T+13\rangle \right) =: X_0
    $$
    Les deux copies de $\mathbb{A}^1_{S(i)}$ on y pense comme deux droites horizontales l'une en $2i+3$ et l'autre en $-2i+3$ et on peut regarder la partie droite du diagramme.

    $\bullet$ Là on veut trouver une relation d'équivalence (son graphe) sur $X_0$ i.e $\mathcal{R} \subset X_0 \times X_0$.
    $$
    \mathcal{R} := \Big\{ \big( \left(x_1,t_1,i_1\right),(x_2,t_2,i_2) \big) \mid x_1 = x_2 \ \, \ t_1 = t_2 \pmod{x_1}\Big \}
    $$
    Comme dans l'autre exemple, il faut traduire un peu mieux la condition avec les $\pmod{x}$ là je fais la même chose $t_1 = t_2$ si et seulement si $t_1 \ne \overline{t_2}$ et hop on trouve : $1 \in \langle x_1,x_2,t_1+t_2-6 \rangle$.

    Bref, on peut écrire $\mathcal{R}$ comme réunion au sens (faisceautique ="schématique" ?) :
    $$
    \mathcal{R} = \mathcal{R}_1 \cup \mathcal{R}_2 \qquad
    \left \{
    \begin{array}{r c l}
    \mathcal{R}_1 & = & \Big\{ \big( \left(x_1,t_1,i_1\right),(x_2,t_2,i_2) \big) \in X_0 \times X_0 \mid x_1 = x_2 \ \, \ x_1x_2 \text{inversible} \Big \} \\
    \mathcal{R}_2 & = & \Big\{ \big( \left(x_1,t_1,i_1\right),(x_2,t_2,i_2) \big) \in X_0 \times X_0 \mid x_1 = x_2 \ \, \ t_1+t_2-6 \text{inversible} \Big \}
    \end{array}
    \right .
    $$

    Bref en notant $A = \Z[X,T,I] / \langle I^2 +1, T^2-6T+13\rangle$ il faut prouver que les deux $A$-algèbre :
    $$
    \frac{A[X_1,T_1,I_1,U_1]}{ \langle X-X_1, I_1^2+1, U_1 \times (X *X_1)-1, T_1^2-6T_1+13 \rangle} \qquad \qquad \frac{A[X_1,T_1,I_1,U_1]}{ \langle X-X_1, I_1^2+1, U_1 \times (T+T_1-6)-1, T_1^2-6T_1+13 \rangle}
    $$
    sont étales !
    sage: def Jacob(F,X):
    ....:     R = F[0].parent()
    ....:     return matrix(R,len(X),len(F),[f.derivative(x) for f in F for x in X])
    
    ###  Pour la seconde
    sage: Z.<x1,i1,t1,x2,i2,t2,u> = ZZ[]
    sage: M = Jacob([x1-x2,i2^2+1,t2^2-6*t2+13,(t1+t2-6)*u-1],[x2,i2,t2,u])
    sage: I1 = Z.ideal([i1^2+1,t1^2-6*t1+13])
    sage: test = (I1+Z.ideal(M.det(),(t1+t2-6)*u-1,x1-x2,i2^2+1,t2^2-6*t2+13))
    sage: 16 in test
    True
    sage: 8 in test
    True
    sage: 2 in test
    True
    sage: test.groebner_basis()
    [1]
    sage: M
    [         -1           0           0           0]
    [          0        2*i2           0           0]
    [          0           0    2*t2 - 6           0]
    [          0           0           u t1 + t2 - 6]
    sage: M.det()
    -4*t1*i2*t2 - 4*i2*t2^2 + 12*t1*i2 + 36*i2*t2 - 72*i2
    sage: M.det().factor()
    (-1) * 2^2 * (t2 - 3) * i2 * (t1 + t2 - 6)
    
    ###  Pour la première 
    
    sage: M = Jacob([x1-x2,i2^2+1,t2^2-6*t2+13,(x1*x2)*u-1],[x2,i2,t2,u])
    sage: test = (I1+Z.ideal(M.det(),(x1*x2)*u-1,x1-x2,i2^2+1,t2^2-6*t2+13))
    sage: 16 in test  <---- cool 
    True
    sage: 2 in test   <--- c'est pas grave $2$ est inversible ici j'ai fais les calculs sur Z ! 
    False
    

    Bon normalement, je n'ai pas fait de boulette mais, je ne suis pas certain certain :-D
  • Salut FlipFlop
    C'est quand même hermétique à un moment donné je trouve. Et le lien entre l'équation du second degré et les idempotents n'est plus au programme de la classe de seconde.

    Et tu nous ressors, sans le dire vraiment, sur un anneau QUELCONQUE, le coup du fermé qui est ouvert :
    $$
    V(t_2 - t_1) = D(s) \qquad \text{avec} \quad s = t_1 + t_2 + b, \qquad \text{sous le couvert de} \quad t_i^2 + bt_i + c = 0, \qquad \Delta := b^2 - 4c \quad \text{inversible}
    $$En désignant par $\overline {t_1}$ ``la racine conjuguée'' définie par $t_1 + \overline {t_1} = -b$, c'est utile de connaitre le trick $t_2 = e t_1 + (1-e)\overline{t_1}$ avec $e$ idempotent. Qui ne nécessite pas que $2$ soit inversible.

    Pour te convaincre que ce n'est pas utile de supposer 2 inversible, je rejoue un coup. Et j'oublie le trick ci-dessus. La seule possibilité raisonnable c'est qu'en posant $u = t_2-t_1$, on ait $u^\bullet \in \langle u^{1 + \bullet}\rangle$ pour un certain $\bullet$. Je fais le pari de $\bullet = 1$ i.e. $u$ est multiple de $u^2$ disons $u = au^2$ conduisant à l'idempotent $au$ ....etc...
    [color=#000000]> Z := IntegerRing() ;
    > Z4<b,c, t1,t2> := PolynomialRing(Z,4) ;
    > 
    > H := [t1^2 + b*t1 + c,  t2^2 + b*t2 + c] ;
    > u := t2 - t1 ;        
    > u in Ideal(u^2) + Ideal(H) ;
    false
    [/color]
    
    Tu vois : je travaille au dessus de $\Z$ pas de $\Z[1/2]$. Comme d'habitude, j'ai mis dans $H$ mes hypothèses. Et pour l'instant, $u$ n'est pas multiple de $u^2$ modulo $H$. Pardi, je n'ai pas rendu inversible le discriminant $\Delta = b^2 - 4c$. J'y vais au plus fin cependant sans l'inverser.
    [color=#000000]> Delta := b^2 - 4*c ;
    > Delta*u in Ideal(u^2) + Ideal(H) ;
    true
    [/color]
    
    C'est bon $\Delta u \in \langle u^2\rangle$. Modulo les hypothèses, of course. Plus précis :
    [color=#000000]> q := b + 2*t2 ;
    > Delta*u - q*u^2 in Ideal(H) ;          
    true
    [/color]
    
    Toujours sans inverser le discriminant : on a $us = 0$ et $\Delta \in \langle u,s\rangle$ modulo les hypothèses bien entendu. D'où, en supposant $\Delta$ inversible, le fait que $\langle u\rangle$ d'une part et $\langle s\rangle$ d'autre part sont engendrés par un (unique) idempotent. Et que l'on tient ainsi deux idempotents orthogonaux d'où le coup du fermé $V(u)$ qui est l'ouvert $D(s)$.
    [color=#000000]> s := t1 + t2 + b ;
    > u*s in Ideal(H) ;
    true
    > Delta in Ideal([u,s]) + Ideal(H) ;
    true
    [/color]
    
    Bilans : (A) tu es un cachotier et (B) 2 inversible n'est pas utile ICI.
  • Coucou Claude,

    Juste un truc je n'ai pas tout lu (je vais réfléchir à ton message): quand tu dis que $2$ inversible n'est pas utile : c'est pas $2$ en tant que $2$ lui même qui doit être inversible ! C'est juste le discriminant $\Delta$ qui est égal à $-16$ ici et c'est lui qui doit être inversible ! Est-ce que l'on se comprend ?

    Pour le côté hermétique : oui je sais, c'est parce que je ne comprends pas trop bien ! Bon y'a un autre truc c'est que j'ai dis que je n'allais pas y passé trop de temps et ça fait deux semaines donc c'est déjà beaucoup il est temps de changer de joujou pour moi :-D

    Bilan : beh c'est tout à reprendre un jour :-D
  • FlipFlop,
    Suite. J'ai dit idempotents orthogonaux mais je voulais dire idempotents complémentaires.

    Ton $T^2 - 6T + 13$ est aussi hermétique je trouve. Je suppose que tu l'as choisi pour son discriminant réduit $\Delta' = b'^2 - ac$ qui vaut $3^2 - 13 = -4 = (2i)^2$. Du coup, on ne sait plus ce qu'est 2 : est ce lié au discriminant ou bien au 2 qui pourrait apparaître au dénominateur $(-b \pm \sqrt\Delta)/(2a)$.

    Je n'ai pas le temps mais il faut refaire la totale avec $T^2 + bT + c$ et montrer l'aspect étale à la main sans jacobien.
    Et réfléchir au coup de la dimension relative (de Krull) nulle : on a $\Delta u \in \langle u^2\rangle$ avec $u = t_2 - t_1$ dans les circonstances suivantes
    $$
    F(t_1) = F(t_2) = 0
    $$où $F$ est unitaire de discriminant $\Delta$
    [color=#000000]> Z := IntegerRing() ;                                                
    > P<a0,a1,a2,a3,a4,a5, t1,t2> := PolynomialRing(Z, 5+1 + 2) ;
    > PT<T> := PolynomialRing(P) ;
    > F := T^6 + a5*T^5 + a4*T^4 + a3*T^3 + a2*T^2 + a1*T + a0 ;
    > H := [Evaluate(F,t1), Evaluate(F,t2)] ;
    > Delta := Discriminant(F) ;
    > u := t2 - t1 ;
    > Delta*u^bullet in Ideal(u^(1+bullet)) + Ideal(H) where bullet is 1 ;
    true
    [/color]
    
Connectez-vous ou Inscrivez-vous pour répondre.