Faisceau structurel

1235»

Réponses

  • Claude,

    Je suis ok. Par contre, pourquoi j'ai écrit $-1$ ? hum, je pense que j'ai cru que si $\mathcal{F}$ est serre encodé par $F$ alors $\mathcal{F}^\star$ est Serre encodé par $\mathcal{F}(-1)$ ! Ce qui est n'importe quoi !

    Pour les duaux gradué, est-ce que c'est complexe ?
  • Claude,

    Un bidouillage, dans l'idée c'est pour illustrer l'histoire de Segre Grothendieck. Surtout la version matricielle puisque l'on comprend pas encore bien comment faire pour construire des jolis trucs !

    Donc l'idée c'est que je part d'un fibré diagonal i.e avec matrice de transition diagonale sur $\mathbb{P}^1$ de rang $2$ car c'est déjà complexe !
    sage: C = lambda i,j : diagonal_matrix([X[j]/X[ i],X[ i]^2/X[j]^2])
    
    Ensuite je le perturbe mais pour rester dans la classe d'équivalence au sens de la definition 2.6 de ici ! Donc je fabrique de nouvelle transition :
    sage: M = lambda i : matrix(2,2,[X[ i],1,0,X[ i]])
    sage: Cp = lambda i,j : M(i)^(-1)*C(i,j)*M(j)
    
    Je montre un peu les choses (y'a pas beaucoup ici) :
    sage: M(0)
    [x0  1]
    [ 0 x0]
    sage: M(1)
    [x1  1]
    [ 0 x1]
    sage: C(0,1)
    [    x1/x0         0]
    [        0 x0^2/x1^2]
    sage: C(1,0)
    [    x0/x1         0]
    [        0 x1^2/x0^2]
    sage: Cp(0,1)
    [               x1^2/x0^2 (-x0^2 + x1^2)/(x0^2*x1)]
    [                       0                    x0/x1]
    sage: Cp(1,0)
    [              x0^2/x1^2 (x0^2 - x1^2)/(x0*x1^2)]
    [                      0                   x1/x0]
    
    L'idée c'est imaginons que j'oublie $M(0)$ et $M(1)$ comment je fais pour les retrouver ? C'est bien ce que dit le théorème de Segre Grothendieck ? Que l'on peut les retrouver ?

    Donc l'idée on prend les relations de la proposition $2.5$ du pdf de $4$ pages, il nous faut trouver deux matrices $M(0)$ et $M(1)$ vérifiant :
    $$
    Cp(0,1) = M(0)^{-1} C(0,1) M(1)
    $$
    De plus $M(0)$ est une matrice à coefficient dans $k[x_0,x_1][x_0^{-1}]_{0}$ et $M(1)$ dans dans $k[x_0,x_1][x_1^{-1}]_{0}$. Et je donne la relation sous la forme :
    $$
    M(0) Cp(0,1) = C(0,1) M(1)
    $$
    Donc l'idée c'est de faire des opérations sur les lignes pour $Cp(0,1)$ et sur les colonnes sur $C(0,1)$ pour obtenir la même matrice ! Je commence par faire une multiplication par des matrices diagonales histoires de revenir sur les polynômes :
    sage: X[1]*X[0]^2*Cp(0,1)
    [        x1^3 -x0^2 + x1^2]
    [           0         x0^3]
    sage: C(0,1) *X[0]*X[1]^2
    [x1^3    0]
    [   0 x0^3]
    
    Ensuite, j'enlève le coefficient $-x_0^2$ en faisant l'opération élémentaire $L_0+1/x_0 L_1$ : et je fait un truc sur l'autre matrice diagonale (sur les colonnes) :
    sage: matrix(2,2,[1,1/X[0],0,1])*X[1]*X[0]^2*Cp(0,1)
    [x1^3 x1^2]
    [   0 x0^3]
    sage: C(0,1)*matrix(2,2,[1,1/X[1],0,1])*X[0]*X[1]^2
    [x1^3 x1^2]
    [   0 x0^3]
    C(0,1) * matrix(2,2,[1,1/X[1],0,1])*X[0]*X[1]^2 == matrix(2,2,[1,1/X[0],0,1])*X[1]*X[0]^2*Cp(0,1)
    sage: C(0,1) * matrix(2,2,[1,1/X[1],0,1])*X[0]*X[1]^2 == matrix(2,2,[1,1/X[0],0,1])*X[1]*X[0]^2*Cp(0,1)
    True
    sage: M1 = matrix(2,2,[1,1/X[1],0,1])*X[0]*X[1]^2
    sage: M1
    [x0*x1^2   x0*x1]
    [      0 x0*x1^2]
    sage: M0 =  matrix(2,2,[1,1/X[0],0,1])*X[1]*X[0]^2
    sage: M0
    [x0^2*x1   x0*x1]
    [      0 x0^2*x1]
    sage: M0*Cp(0,1) == C(0,1)*M1
    True
    sage: M1*Cp(1,0) == C(1,0)*M0
    True
    

    Et donc la garantie que le fibré avec transition $Cp$ est bien isomorphe à $\mathcal{O}(-1) \oplus \mathcal{O}(2)$ ( j'ai mis des $\mathcal{O}$ pour ne pas t'embêter, je suis gentil , non, est-ce que j'ai le droit à une demi-tablette de chocolat :-D)

    Hum, c'est peut être tendu d'échanger sur ce genre de truc (vu le bordel $i,j$ et tout) ! C'est un algorithme d'échelonnement ?
  • Ah mince, j'ai fais une boulette les $M(i)$ doit être à coefficient dans $\Z[X_0,X_1][X_i^{-1}]_{(0)}$ et pas dans $\Z[X_0,X_1][X_i^{-1}]$ donc c'est pas bon ce que j'ai fait (ok pas de tablette de chocolat :-D).


    Du coup, je me suis fait quelques petites fonction pour les transitions : et j'ai trouvé un fibré de rang $2$ sur $\mathbb{P}^1$ !
    sage: fibre = O2.twist(-1).Twist_iso(M).dual().Twist_iso(M).dual()   ### heu O2 c'est un truc facile et j'ai mis plein de fonction :-D
    sage: fibre(1,0)
    [     (-x0^4 + x0^3*x1 + x1^4)/(x0^3*x1)                 (x0^4 - x1^4)/(x0^3*x1)]
    [(-x0^4 + x0^3*x1 - x0*x1^3 + x1^4)/x0^4            (x0^4 + x0*x1^3 - x1^4)/x0^4]
    

    L'idée c'est de poser $x = \frac{x_1}{x_0}$ et c'est bien une application de la forme matricielle … Par contre la réalisation effective pour l'instant c'est pas gagné.
  • $\def\Gr{\text{Gr}}\def\Ann{\text{Ann}}$FlipFlop
    Comme cette histoire de dual gradué, je ne sais pas si cela a un rapport avec la choucroute, c'est préférable de mettre cela de côté pour l'instant. J'ai cherché à ``Sheaf dual'', ``Operations on Sheafs'' ou quelque chose de ce goût là. Cela existe mais je n'ai pas trouvé mon bonheur.

    Je réponds juste à ta question de profondeur $\ge 2$ et du $d^{(2)}$. Oui cela a un rapport. Un gros gros rapport. Parce que la profondeur d'une suite de scalaires $a = (a_1, \cdots, a_n)$ (sur un anneau de base $A$) se mesure avec le complexe de Koszul (montant) de $a$. Je parle de $\Gr(a ; A)$ que je note souvent $\Gr(a)$ mais c'est peut-être mieux de mettre ce sur quoi est pris $\Gr$. Je vois que tu as mis un module libre mais c'est inutile car $\Gr(a ; A) \ge 2 \iff \Gr(a; A^m) \ge 2)$.

    Le début du complexe de Koszul montant de $a$ est :
    $$
    0 \to
    \xymatrix @C=1.5cm {
    \bigwedge^0(A^n) \ar[r]^{d^{(1)}} & \bigwedge^1(A^n) \ar[r]^{d^{(2)}} & \bigwedge^2(A^n)
    }
    \qquad \text{i.e.} \qquad
    0 \to
    \xymatrix @C=1cm {
    A \ar[r]^{d^{(1)}} & A^n \ar[r]^{d^{(2)}} & \bigwedge^2(A^n)
    }
    $$Explication : je fais de la suite $a = (a_1, \cdots, a_n)$ un vecteur debout $a \in A^n$. Les différentielles du montant sont les $a \wedge \bullet$ (même si on continuait au delà du degré cohomologique 2). Du coup $d^{(1)}$, ce n'est autre que $1 \mapsto a$.

    Que veut dire que c'est exact au niveau de la source de $d^{(1)}$ ? Que $\Ann(a) = 0$. On dit alors que $\Gr(a) \ge 1$. Qu'est ce que cela signifie que c'est exact en $A$ et en $A^n$ ? En $A$, je viens de le dire : $\Ann(a) = 0$. Et en $A^n$, cela veut dire que le noyau de $d^{(2)}$ est $A.a$. Et comme tu l'as remarqué, via la tronche de $d^{(2)}$, c'est lié aux égalités $b_i a_j = a_i b_j$. Bref, dire qu'il y a les deux exactitudes, c'est exactement dire que $\Gr(a) \ge 2$.

    En fait, c'est (= via le Koszul montant de $a$) la définition initiale de $\Gr(a) \ge 2$. Tu imagines maintenant ce que signifie $\Gr(a) \ge 3$. Tu montes $d^{(3)}$ avec au bout $\bigwedge^3(A^n)$ ..etc..Mais on n'en aura pas besoin.

    Cela te va ?
  • Claude,

    Oui ca me va très bien !

    Pour notre exemple, $\underline{X} := (X_0,\dots,X_n)$ avec $A = k[X_0,\dots,X_n]$. Alors dire que $\text{Gr}(\underline{x},A) \geq 1$. Ca veut dire que si $F \in k[X_0,\dots,X_n]$ vérifie pour $i \in \{0,\dots,n\}$ : $X_i F = 0$ et bien $F=0$.

    Ensuite, le résultat pour $\text{Gr}(\underline{X},A) \geq 2$, on a dit que l'on admet (tu as dit que c'est pas évident). Je vais quand même relire encore une fois les 5 pages du petit livre :-D

    $\bullet$ Juste pour essayé de comprendre le lien avec les histoires de recollement. Soit $A$ un anneau soit $\underline{a} = (a_1,\dots,a_n)$ une suite de $A$. Soit $M$ un $A$-module. Je note $M_i$ la localisation de $M$ en $a_i$.

    Disons qu'au premier niveau, on a : $M \to \prod_{i} M_i$ qui à un élément de $m \in M$ associe les localisations. Dans les histoires de faisceau, on a un condition de séparation i.e une section localement nulle est nulle mais pour une suite uni-modulaire : ici la suite n'est pas uni-modulaire et a priori on sait que si la section est nulle sur les ouverts $D(a_i)$ et bien la section est nulle seulement sur un ouvert de $\text{Spec}(A)$ (l'ouvert en question $D(\underline{a})$.

    Donc ça revient à regarder le noyau de $M \to \prod_i M_i$. Ce noyau s'interprète comme les $m$ tel que $m_i = 0$ dans $M_i$, c'est-à-dire qu'il existe un entier $k$ tel que $a_i^k m = 0$ dans $M$.

    Si on suppose que $\text{Gr}(\underline{a},M) \geq 1$ et bien on a $\text{Gr}(\underline{a}^n,M) \geq 1$ et donc le noyau égal à $0$.

    Donc on a de la séparation même si $\underline{a}$ n'est pas uni-modulaire. En gros, le morphisme de restriction des sections globales vers les sections sur $D(\underline{a})$ est injectif ! Et ensuite, il faut que je regarde avec $d^{(2)}$ mais je pense que ça dit que le morphisme en question est un isomorphisme (du moins c'est ce que je pense lire dans les notes de C.).

    Merci, c'est plus simple quand quelqu'un qui connait explique :-D
  • Claude,

    Ta question : c'est si $\mathcal{M}$ est Serre-encodé par $M$ et si on fait une opération classique sur $\mathcal{M}$ (par exemple le dual), comment l'opération se répercute sur le Serre-encodage ?
  • $\def\Gr{\text{Gr}}\def\Hom{\text{Hom}}\def\uX{\underline{X}}$Ton dernier post : oui c'est exactement cela. Je crois que pour le produit tensoriel, le produit tensoriel des machins, c'est le machin des produits tensoriels. Il y a aussi quelque chose pour $\Hom$, mais je ne suis absolument pas clair.

    As tu le courage de regarder le début (juste le début) des sections 70 et 68 de FAC ? Et tu trouveras également des éléments dans les notes non terminées de Stillman in https://www.msri.org/people/staff/de/ready.pdf et Appendice A de Eisenbud (Geometry of Syzygies) in https://www.msri.org/people/staff/de/ready.pdf. Arg, il y a plus récent pour cet appendice de Eisenbud. Pourrais tu trouver une version récente de cet appendice (c'est important pour toi, pas pour moi, je l'ai sous le nez) ?

    Cela permet d'avoir d'autres sons de cloche(s). Note : fait comme si depth, c'était la profondeur. Tu devrais maintenant trouver écrit partout cette histoire de profondeur $\ge 2$.

    Note : je suis occupé.

    En fait $\Gr(\uX ; S) \ge 2$, ce n'est pas difficile (je me suis mélangé les pinceaux entre le complexe de Kozsul montant et le descendant). Il faut au moins 2 indéterminées quand même. Je t'ai fait un post sur des monômes premiers entre eux, tu l'as loupé ?

    Mais of course, $\Gr(\uX ; M) \ge 2$, cela dépend de $M$ : quand c'est vrai, je dis que $M$ est extra-bon.
  • FlipFlop
    C'est bon : cela figure bien dans l'appendice de Eisenbud même si la version pointée dans mon post précédent est ancienne. Cela = coup de la profondeur $\ge 2$. J'attache comme cela tu le verras.

    Et comment sait-on si $\underline X$ est de profondeur $\ge 2$ sur $M$ ? Via la longueur d'une résolution libre graduée minimale de $M$. Je l'ai écrit plusieurs fois dans mes notes pourries. Et maintenant que tu le sais, tu dois le voir partout.96874
  • Coucou Claude

    J'ai tout relu : bilan je vois un peu les grandes lignes mais tout est très très flou :-D Disons qu'il y a un peu trop d'objets pour que je puisse vraiment comprendre !
  • FlipFlop
    Segre-Grothendieck c'est bon (pour une matrice $2 \times 2$ à coefficients dans $k[x, x^{-1}]$ inversible) : traitement automatique, certificats en entrée, invariants, certificats en sortie. Tablette de chocolat ?
  • Rohhh, j'ai bidouillé le truc dans tous les sens, et pas réussi :-D

    Hum comment tu as fait ?
  • $\def\GL{\text{GL}}$J'ai suivi Varma (le pdf de 3 pages que j'avais pointé). Il se trouve que j'avais déjà fait dans le passé quelque chose de vaguement analogue : 2 anneaux principaux $A, A_\infty$ qui se partagent le même corps de fractions rationnelles : $A = k[x]$, $A_\infty = k[1/x]_{\langle 1/x\rangle}$ (pour calculer des espaces de Riemann-Roch).

    Je te montre d'abord une trace d'exécution : on part d'une matrice $2 \times 2$ à coefficients dans $k[x, x^{-1}]$, inversible. Ce qui veut dire que son déterminant est de la forme $\lambda\ x^e$ avec $\lambda \in k^*$, $e \in \Z$. Pour en produire, on croit à ce que l'on veut démontrer : on part à l'envers avec une matrice diagonale $D$ de diagonale $(x^a, x^d)$ que l'on multiplie à gauche par $Q \in \GL_2(k[x^{-1}])$ et à droite par $P \in \GL_2(k[x])$. Ces deux matrices $P,Q$ sont de déterminants dans $k^*$.

    Cela prend un peu de temps pour produire de telles données, presque autant que le programme lui-même. Bref, voici une génération de données. Le 3,3 dans RandomData concerne les degrés des polynômes et la taille des coefficients. Tandis que $a,d$ sont dans $\Z$
    [color=#000000]> a := Random(-9,9) ;  d := Random(-9,9) ;
    > a, d ;
    7 -1
    > M0, D := RandomData(a,d, 3,3) ;
    > D ;
    [x^7   0]
    [  0 1/x]
    > BaseRing(M0) ;
    Univariate rational function field over Rational Field    Variables: x
    > Det(M0) ;
    x^6
    > M0[1,1] ;
    (-9*x^20 - 6*x^19 - 6*x^18 + 24*x^17 + 12*x^16 + 54*x^15 + 31*x^14 + 54*x^13 - 
        25*x^12 - 8*x^11 - 43*x^10 - 96*x^9 - 131*x^8 - 62*x^7 - 241*x^6 - 32*x^5 - 
        160*x^4 - 52*x^3 - 36*x^2 - 24*x - 4)/x^7
    [/color]
    
    Le point de départ maintenant, c'est $M_0 \in k[x, x^{-1}]$, inversible. Je ne l'ai pas montrée car elle est moche, juste son coefficient $(1,1)$.

    C'est parti mon kiki : VarmaReduction c'est la fonction que je viens d'écrire. Elle va produire $M, Q_0, P_0$ avec $M$ diagonale et $M = Q_0 M_0 P_0$.
    [color=#000000]> M, Q0, P0 := VarmaReduction(M0) ; 
    (0 20)(1 19)(2 18)(3 17)(4 16)(5 15)(6 14)
    nombre iterations = 7
    [/color]
    
    Il y a eu 7 itérations dans l'algorithme et on voit entre parenthèses des degrés $(x^\alpha, x^\delta)$ d'une certaine matrice qui évolue au fur et à mesure. C'est ce qui se passe sur sa diagonale qui assure la terminaison de la boucle.

    Résultats. Attention : $Q_0$, à coefficients dans $k[x^{-1}]$, et $P_0$ à coefficients dans $k[x]$ sont moches. Mais ce qui compte, c'est qu'elles soient de déterminants inversibles.
    [color=#000000]> M ;
    [1/x   0]
    [  0 x^7]
    > Q0 ;
    [16/x^4   (16*x^5 - 16*x^3 - 32*x^2 - 32)/x^5]
    [(-1/16*x^5 - 1/16*x^3 - 1/8*x^2 - 1/8)/x^5   (1/16*x^6 + 1/4*x^5 + 1/4*x^4 + 
        1/4*x^3 + 1/2*x^2 + 1/4)/x^6]
    > P0 ;
    [-9/16*x^6 - 9/8*x^5 - 27/16*x^4 + 9/16*x^2 + 9/8*x - 9/16   -144*x^6 - 96*x^5 -
        240*x^4 - 240*x^2 + 96*x + 32]
    [-9/16*x^6 - 3/8*x^5 - 15/16*x^4 - 15/16*x^2 + 3/8*x + 1/4   -144*x^6 + 96*x^5 -
        304*x^4 - 112*x^2 - 96*x - 16]
    > Det(Q0) ;
    1
    > Det(P0) ;
    1
    > M ;
    [1/x   0]
    [  0 x^7]
    > M eq Q0*M0*P0 ;
    true
    > Sort(Diagonal(M)) eq Sort(Diagonal(D)) ;
    true
    [/color]
    
    Je n'ai plus qu'à te montrer la fonction VarmaReduction (une vingtaine de lignes avec des commentaires) : une réduction d'Hermite (que j'aurais pu faire tout seul vu que c'est $2 \times 2$), une opération sur les lignes, une opération sur les colonnes, et un swap des deux lignes. Avec des invariants sans lesquels je ne m'en serais pas sorti.

    Chocolat si je te montre dans le post suivant ?
  • Marrant. Bon je te montre le truc mais je crois que l'on va rien voir. Faut lire le papier de Verma. Sauf que l'on ne voit pas quelque chose dans ce papier (il y a au moment crucial dans la preuve un argument pas du tout effectif)
    [color=#000000]//     | x^a      0 |
    // M = |            |   c in k[x],   a,d >= 0
    //     | c      x^d |
    
    RowOperation := function(a, c)  // a entier >= 0, c in k[x]
      q,r := Quotrem(kx!c, x^(a+1)) ;
      assert c eq q*x^(a+1) + r ;
      lambda := - (1/x)^a * r ;
      return Matrix(2,2, [1,0, lambda, 1]), q ;
    end function ;
    
    ColOperation := function(d, c)  // d entier >= 0, c in k[x]
      q,r := Quotrem(kx!c, x^d) ;
      assert c eq q*x^d + r ;
      lambda := -q ;
      return Matrix(2,2, [1,0, lambda, 1]) ;
    end function ;
    [/color]
    
    Faut que tu regardes la matrice triangulaire $M$ inférieure là-haut bien bien dans les yeux. Tu as le droit de faire une $k[x^{-1}]$-opération élémentaire sur les lignes et une $k[x]$-opération élémentaire sur les colonnes. Cela prend la tête. Il faut prendre du papier.

    On finit par comprendre que d'une part on peut faire descendre le $x$-degré de $c$ en dessous de $d$ et d'autre part on peut forcer $c$ à être dans $x^{a+1}k[x]$. Et donc si $d \le a$, c'est plié.
    Il faut viser la nullité de $c$ par une suite de telles opérations. C'est possible quitte à permuter les lignes à chaque tour de manège : opération permise car c'est une $k$-opération élémentaire.

    Regarde l'invariant $M = Q_0 (m_0M_0) P_0$. Ici $m_0$ c'est un $x^\bullet$ qui a fait rentrer $M_0$ dans $k[x]$.
    [color=#000000]VarmaReduction := function(M0) // M0 in GL_2(k[x,x^-1])  
      // Multiplier M0 par une puissance >= 0 de x pour la faire rentrer dans k[x]
      // M = m0*M0 (m0 = x^entier) avec M in M_2(k[x])
      m0 := LCM([Denominator(mij) : mij in Eltseq(M0)]) ;
      M := m0*M0 ;   P0 := I2 ; Q0 := I2 ;  
      count := 0 ;
      while true do    // M = Q0 * (m0*M0) * P0
        assert M eq Q0 * (m0*M0) * P0 ;
        count := count + 1 ;
        // Hermite reduction sur M.  Wanted : lower triangular
        M := ChangeRing(M, kx) ;
        tM := Transpose(M) ;
        tH, tP := HermiteForm(tM) ;   assert tP*tM eq tH ;  // Row    SL_2(k[x])-elimination
        H := Transpose(tH) ;  P := Transpose(tP) ;          // Column SL_2(k[x])-elimination
        assert IsLowerTriangular(H) and H eq M*P ;
        // M = Q0 * (m0*M0) * P0    ==>     M*P eq Q0 * (m0*M0) * (P0*P) ;
        P0 := P0*P ;  M := M*P ;
    
        //     | x^a      0 |
        // M = |            |   c in k[x],   a,d >= 0
        //     | c      x^d |
    
        a := Degree(M[1,1]) ;    d := Degree(M[2,2]) ; 
        printf "(%o %o)", a, d ;
    
        // L2 <--- L2 + lambda*L1, lambda in k[x^-1] pour avoir c in x^(a+1)*k[x]
        Q := RowOperation(a, M[2,1]) ;
        // M = Q0 * (m0*M0) * P0   ==>   Q*M = (Q*Q0) * (m0*M0) * P0
        M := Q*M ;   Q0 := Q*Q0 ; 
    
        // C1 <--- C1 + lambda*C2, lambda in k[x] pour avoir Deg(c) < d
        P := ColOperation(d, M[2,1]) ;
        // M = Q0 * (m0*M0) * P0   ==>   M*P = Q0 * (m*M0) * (P0*P) ;
        M := M*P ;   P0 := P0*P ; 
    
        if IsDiagonal(M) then break ; end if ;
        // Permuter les 2 lignes de M
        M := SwapRowsMatrix * M ;   Q0 := SwapRowsMatrix * Q0 ;
      end while ;
      printf "\nnombre iterations = %o\n", count ;
      // M = Q0 * (m0*M0) * P0   =>  (1/m0)*M = Q0 * M0 * P0
      M := (1/m0)*M ;
      assert IsDiagonal(M) and    M eq Q0 * M0 * P0 ;
      return M, Q0, P0 ;
    end function ;
    [/color]
    
    Rien à voir : des matrices super-importantes de déterminant 1. Ultra-résistantes et qui n'ont pas envie en général d'être des produits de matrices élémentaires. Important pour produire des données. C'est la matrice de Cohn. On les trouve aussi comme générateur du sous-groupe fixateur du cusp $a/b$ au bord du demi-plan de Poincaré.
    $$
    \left[ \matrix {1 - ab & a^2 \cr -b^2 & 1 + ab} \right]
    $$
  • $\def\M{\mathbb M}\def\Hom{\text{Hom}}\def\P{\mathbb P}$Salut FlipFlop,
    Je pense que cette histoire de réduction de matrices à coefficients dans $k[x,x^{-1}]$ était connue à l'époque de Dedekind/Weber (je couvre large).
    Ce n'est pas cela qui va faire avancer notre compréhension de $M \mapsto \widetilde M$. Cela ne te gêne pas que l'on soit les deux seuls blaireaux à comprendre aussi peu cette histoire ?

    Il faut que je t'avoue qu'il y a un certain nombre de points où je ne comprends absolument rien. Peut-être que tu peux m'aider ? On va dire qu'il s'agit de $\Hom$ soit dans la catégorie des $S$-modules gradués soit dans la catégorie des faisceaux cohérents sur $\P^n$. A un tel point, que je mélange $S = k[x_0, \cdots, x_n]$ et $k$. Je parle de $k$ vu comme $S$-module au sens $k = S/S_+$ ; $k$ est un $S$-module qui admet comme résolution libre minimale le complexe de Koszul descendant de $x = (x_0, \cdots, x_n)$.

    C'est énorme de confondre $S$ et $k$ : je n'en suis pas fier.

    Autre chose que je ne comprends pas : est ce que les personnes qui parlent ici de géométrie algébrique ont lu FAC ? Je veux dire vraiment lu.

    J'attache encore deux images qui proviennent de http://jvalles.perso.univ-pau.fr/pageweb/wyknojj.pdf. Est ce que tu comprends comment $\M_{n+1}$ modulo l'identité c'est pareil que les matrices $(n+1) \times (n+1)$ de trace nulle au dessus d'un anneau quelconque. Tiens, tiens, je vois que Vallès est de Pau. Je vais tenter quelque chose pour cette histoire de $\Hom$.96902
    96906
  • Claude,

    faut d'abord que je regarde ton tour de magie :-D
  • $\def\GL{\text{GL}}$FlipFlop,
    Il n'y a aucun tour de magie. J'ai retrouvé l'article original (1981) dont Varma s'est inspiré : in http://math.soimeme.org/~arunram/Teaching/2018AlgebraicGeometry/vectorbundlesforPn.pdf

    J'ai un gros regret : jamais je n'aurais dû vouloir faire de la $k[x]$-réduction d'Hermite en colonnes. Ce qui m'a obligé à faire un patacaisse de transposée qui obscurcit la chose. Si c'était à refaire, je ferais de la $k[x]$-réduction d'Hermite en lignes, en mettant donc $\GL_2(k[x])$ à gauche et $\GL_2(k[x^{-1}])$ à droite. Cela m'apprendra à vouloir suivre les auteurs sans réfléchir auparavant.

    Une autre source. De la vraie géométrie algébrique et pas de l'analyse numérique (fosse à purin) in http://www.derekhsorensen.com/docs/sorensen-classification-vector-bundles.pdf. J''attache un extrait de la page 1. Sidérante confusion entre la dimension 1 et la dimension 0 !!96922
  • Claude,

    C'est bon j'ai compris l'algo, faut que j’essaye de programmer mais avant je vais faire un peu de vélo ! (c'est l'été ici) !
  • FlipFlop
    J'ai tout remis ``dans le bon sens'' (en mon sens, cf mon dernier post). Je laisse faire la nature : plus de transposée ...etc... Certes il a fallu que je modifie beaucoup de PETITES choses mais c'est plus clair (pour moi). Je pourrais te montrer à ton retour de vélo .. mais j'ai pas eu ma tablette de chocolat hier.
  • J'ai réussi à faire tourner l'algorithme avec les transpositions ! Y a une petite prise de tête gauche / droite $x$ / $x^{-1}$ :-D
  • $\def\Hom{\text{Hom}}\def\cF{\mathcal{F}}$FlipFlop
    Une bonne chose (Dedekind/Weber/Grothendieck). Ce n'était pas compliqué.

    J'ai enfin compris cette histoire de dual. La réponse est dans FAC, début de la section 68, début de la section 69 et la proposition 1, point (a) de la section 73.

    Mon égarement est le suivant (Stham nous guette) : j'ai confondu la notion de dual dans la catégorie des $S$-modules gradués et la notion de dual gradué dans la même catégorie. La honte ! Soit donc $S = k[x_0, \cdots, x_n]$, $k$ corps (frileux). Tout d'abord, Serre (section 70) dit ``dual'' au lieu de ``dual gradué'' et le note $M^*$ :
    $$
    M^* = \Hom_S(M, k) \qquad \text{au sens} \qquad k = S/S_+
    $$C'était en 1956. Plus personne ne le note comme cela mais plutôt $M^\vee$. Voir par exemple Eisenbud Introduction to Local Cohomology (Appendice de Geometry of Syzygies). Et il dit ``graded dual'' (c'est pour cela que je dis dual gradué). Miller-Sturmfels, dans une catégorie légèrement différente, disent ``dual de Matlis''.

    Bien que ``ce dual'' intervienne de manière fondamentale en cohomologie locale (sinon Eisenbud n'en parlerait pas), ce n'est pas celui qui nous concerne pour le dual d'un faisceau. Je veux dire que si $\cF$ est codé par un $S$-module gradué $M$ de type fini (de présentation finie plutôt), alors
    $$
    \cF^{\rm dual} \quad \text{est codé par} \quad \Hom_S(M,S)
    $$C'est un corollaire de la proposition 1, point (a) de Serre. Note : $\Hom_S(M,N)$ est défini de manière précise chez Serre. En fait, il n'y a pas à se tromper car dans FAC, tout est défini !! Il suffit juste de lire.

    Pour couronner le tout, $\cF^{\rm dual}$ est noté par la plupart des auteurs $\cF^\vee$ !! Si, si.
  • Claude
    Facile : hum hum ! Disons que j'en ai un peu ch.é !
    sage: A = O2.Twist_iso(M).dual().Twist_iso(M).twist(-7).Twist_iso(M)   
    sage: A
    [ (-x0^11 - x0^10*x1 + x0^9*x1^2 + x0^7*x1^4 + x0^6*x1^5)/x1^11 (-x0^10 - 2*x0^9*x1 + x0^7*x1^3 + x0^5*x1^5 + x0^4*x1^6)/x1^10]
    [                                     (x0^11 - x0^7*x1^4)/x1^11                            (x0^10 + x0^9*x1 - x0^5*x1^5)/x1^10]
    sage: m,q,p = A.Mega_solver()
    sage: m
    [x0^7/x1^7         0]
    [        0 x0^8/x1^8]
    
    sage: m == q*A(0,1)*p
    True
    sage: q
    [                         1               (x0 + x1)/x0]
    [(x0^2 - x0*x1 + x1^2)/x0^2       (2*x0^3 + x1^3)/x0^3]
    sage: p
    [   (x0^2 + x0*x1 + x1^2)/x1^2                 (-x0 - x1)/x1]
    [(-x0^3 - x0*x1^2 + x1^3)/x1^3                     x0^2/x1^2]
    
    Dodo :-D
  • Claude,

    Pour ta question ici. Pour les matrices de trace nulle. Si on a une matrice $M$, on peut lui retrancher $\frac{1}{n+1} \text{Trace}(M) \text{Id}$ et bien entendu il faut éviter de diviser par $0$. Je ne vois pas comment contourner ce problème !
  • $\def\cQ{\mathcal{Q}}\def\cO{\mathcal {O}}\def\P{\mathbb P}\def\A{\mathbb A}\def\cS{\mathcal {S}}\def\Im{\text{Im}}$Salut FlipFlop
    Moi, non plus pour cette histoire de matrice de trace nulle. Les auteurs travaillent sur $\C$ problablement.
    Tu me dis que tu en as ch.é pour Dedekind/Weber/Grothendieck. Et pourtant, j'avais quand même avancé la chose, il me semblait.

    De mon côté avoir compris cette histoire de dual m'a soulagé. Et dans la foulée, je me permets d'écrire des trucs comme cela. Ici $S$ c'est $S = k[x_0, \cdots, x_n]$ avec $k$ ben euh...
    $$
    \xymatrix @R = 1.4cm {
    0 \ar[r] &\cS \ar[r] & \P^n \times \A^{n+1} \ar[r] & \cQ\ar[r] & 0 \\
    0 \ar[r] &\cO_{\P^n}(-1) \ar[r] & \cO_{\P^n}^{n+1} \ar[r] & \cQ\ar[r] & 0 \\
    0 \ar[r] & S(-1)\ar[r]^{\textstyle \left[\matrix {x_0\cr \vdots\cr x_n\cr}\right] } & S(0)^{n+1} \ar[r] & Q\ar[r] & 0 \\
    }
    $$Ici $\cS$ c'est le sous-fibré tautologique de $\P^n$ et $\cQ$ le fibré tautologique quotient. La première ligne, on va dire que ce sont des fibrés vectoriels, la seconde des faisceaux et la dernière des $S$-modules gradués. De sorte que $Q$ c'est $S(0)^{n+1}/\langle x\rangle$ because il s'agit de suites exactes. L'oeuf, la poule là dedans ? Je n'en sais trop rien ``mais ça marche'' comme dit l'autre.

    Et figure toi que je viens d'implémenter ce que j'attache en image. Cela vient de https://www.math.wustl.edu/~kumar/papers/KPRalggeom.pdf. J'ai dû corriger des coquilles (l'encadré en bleu). Et figure toi, que l'on n'a absolument pas besoin d'outils faisceaux. De l'algèbre linéaire seulement. Sur $S$ cependant. Des résolutions graduées. Je me suis permis d'ailleurs de remplacer leurs modules $\Im(\Psi)$ et $\Im(\Phi)$ par un meilleur module (extra-bon). Que de l'algèbre linéaire, des mineurs, des suites exactes, je te dis. Il y a déjà plein plein de choses à voir (pour le bébé que je suis). Suite une autrefois. Je suis un gros bourreur ? Absolument pas
    [color=#000000]// Construction of low rank vector bundles on P^4 and P^5
    // Kumar, Peterson, Rao
    // https://www.math.wustl.edu/~kumar/papers/KPRalggeom.pdf
    
    // Proposition 3.4
    // (T,U,V,W) regular sequence of forms in P^3 of degree t,u,v,w with t+w = u+v,  r entier >= 2
    
    Rank2P3Matrices := function(T,U,V,W, r)
      TUVW := [T,U,V,W] ;
      assert &and [IsHomogeneous(F) : F in TUVW] ;
      t,u,v,w := Explode([Degree(F) : F in TUVW]) ;
      assert t+w eq u+v and r ge 2 ;
      a := T^r ; b := U^r ; e := V^r ; f := W^r ;
      c := T*W - U*V ;
      // Attention : erreurs de signes dans l'article
      d := - &+[(T*W)^(r-i-1) * (U*V)^i : i in [0..r-1]] ;
      assert c*d + (T*W)^r - (U*V)^r eq 0 ;
      // i.e. c*d + a*f - b*e = 0
      k1,k2,k3,k4,k5,k6 := Explode([Degree(F) : F in [a,b,c,d,e,f]]) ;
      assert k3 eq t+w   and   k4 eq (r-1)*(t+w) ;
      // k1+k6 = k2+k5 = k3+k4
      assert k1+k6 eq k2+k5  and  k1+k6  eq k3+k4 ;
      assert a*f - b*e + c*d  eq 0 ;
    
      // Pour Phi
      M := Matrix(4,4, [
         [0,  f, -e,  d],
         [-f, 0,  c, -b],
         [e, -c,  0,  a],
         [-d, b, -a,  0]]) ;
      assert Transpose(M) eq -M ;
      assert &and [IsZero(m) : m in Minors(M,3)] ;
      // Pour Psi
      N := Matrix(4,4, [
         [0, -a,  -b,  -c],
         [a,  0,  -d,  -e],
         [b,  d,   0,  -f],
         [c,  e,   f,   0]]) ;
      assert Transpose(N) eq -N ; 
      assert &and [IsZero(m) : m in Minors(N,3)] ;
      .... JE COUPE ....
      S := Universe(TUVW) ;
      // Phi : L1 -> F avec L1, F ~ S^4 correctement gradues
      L1 := GradedModule(S, T1) ;   F := GradedModule(S, T) ;  L2 := GradedModule(S, T2) ;
      Phi := Homomorphism(L1, F, Transpose(M)) ;
      assert IsGraded(Phi) and Degree(Phi) eq 0 ;
      // Psi : F -> L2 avec L2 ~ S^4 correctement gradue
      Psi := Homomorphism(F, L2, Transpose(N)) ;
      assert IsGraded(Psi) and Degree(Psi) eq 0 ;
      return Psi, Phi ;
    end function ;  
    [/color]
    
    96970
  • Claude,

    Tu dis que tu avais bien avancé la chose : hum, tu es gentil mais tu avais tout fait :-D C'est moi qui suis un peu neuneu ! Le gros problème c'était une histoire de conversion de matrice $k[x]$ versus $k(x)$ qui m'a pris un peu de temps pour m'en rendre compte !

    Hum même si je comprends un peu les trois suites exactes me font un peu peur, dès fois je me demande pourquoi je m'embarque dans des histoires trop compliqué pour moi :-D
  • $\def\P{\mathbb P}\def\A{\mathbb A}$Coucou Goleon, alias FlipFlop

    Surprise, non ? Un sacré m.rd.er dans ce fil. Mais il n'est pas vide. J'ai décidé de mettre de l'ordre dans mes affaires. J'y suis depuis 3 jours. Je viens enfin, même si c'est un point de détails, de faire de l'application définie sur les points unimodulaires
    $$
    \P^n \to \P^n \qquad \qquad (x_0 : \cdots : x_n) \mapsto (x_0^2 : \cdots : x_n^2)
    $$une application explicite sur les $R$-points de $\P^n$.

    Je crois me souvenir que tu m'avais dit qu'il y avait ``un principe pour cela''. Pourrait-il donner un résultat explicite (qui ma foi, ici n'est pas si compliqué) ? En tout cas, j'en ai un peu ch.é pendant 2 jours pour mettre la main dessus alors que je pensais en savoir assez sur les $R$-points de $\P^n$.

    Le binz est lié à l'aspect localement monogène des modules qui interviennent. C'est de même nature, dans $\Z$, qu'un truc qui m'avait frappé quand j'étais petit :
    $$
    \langle a, b\rangle^2 = \langle a^2, b^2\rangle, \qquad \langle a, b\rangle^d = \langle a^d, b^d\rangle, \qquad
    $$C'est évident si $a \mid b$ ou $b \mid a$. Et en localisant (les fameux anneaux de valuation, pas besoin de valuation discrète), on s'y ramène.

    En passant : on s'aperçoit que la notion de projecteur de rang 1, c'est trop rigide : soit $P$ un tel projecteur et $P^{(2)}$ obtenu en élevant au carré chaque coefficient. Alors tout mineur $2 \times 2$ de $P^{(2)}$ est nul mais la diagonale de $P^{(2)}$ n'est plus de somme 1 mais seulement unimodulaire. Il faut donc relâcher la pression de trace 1 et la remplacer par unimodulaire.

    Pour te faire plaisir : on obtient ainsi un foncteur de la catégorie des anneaux commutatifs vers la catégorie des anneaux (matrices $n \times n$, mineurs $2 \times 2$ nuls i.e. rang $\le 2$, diagonale unimodulaire, qui verrouille le rang 1). Foncteur qui n'est plus affine : normal, on a relâché la pression de rigidité affine. Mais il doit avoir la même propriété que $\A^{n+1}_\star = \A^{n+1} \setminus \{0\}$. Sous-foncteur ouvert de je-sais-pas-trop-quoi, je crois que c'est cela que l'on dit.

    Of course, ce n'est pas le seul point que j'ai revisité.

    J'attache la première page.113012
  • Tiens, c'est rigolo, j'avais repensé à ce fil l'autre jour :-D

    Je suis curieux de voir ton application. Te souviens-tu de ce très long post? J'ai appris un peu de choses depuis (pas trop quand même, ça fait juste deux mois). Un truc pas banal s'était passé dans ce fil: on était parti d'une application définie en terme de trucs unimodulaires, et on avait fini avec une description explicite sur les points. Ce que j'ai compris depuis: c'est que ça marche en fait toujours comme ça: si ton application est définie par des polynômes homogènes $P_0(X_0,\ldots, X_n), \ldots, P_m(X_0,\ldots, X_n)$ tous de même degré $d$ et "bons" (au sens habituel qu'ils envoient des points unimodulaires sur des points unimodulaires, ce qui revient à la condition habituelle avec l'irelevant ideal), alors sur les $\mathbf{A}$-points de $\mathbb{P}^n$, un $\mathbf{A}$-point $(M, \pi : A^{n+1} \twoheadrightarrow M)$ de $\mathbb{P}^n$ est envoyé sur le $\mathbf{A}$-point de $(M^{\otimes d}, \phi : A^{m+1} \twoheadrightarrow M^{\otimes d})$ de $\mathbb{P}^m$ défini par $\phi(e_i) = P_i(\pi(e_0),\ldots,\pi(e_n))$, où l'évaluation a un sens dans $M^{\otimes d}$ car $M$ est localement libre de rang $1$ donc les tenseurs commutent dans $M^{\otimes d}$ ! (Formellement, l'évaluation a un sens dans $\mathrm{Sym}(M)$, et puisque $M$ est localement libre de rang $1$, l'algèbre symétrique est égale à l'algèbre tensorielle, et donc tout ça a un sens dans $\mathrm{Tens}(M)$, et vu que les polynômes sont homogènes de degré $d$ et les $\pi(e_k)$ homogènes de degré $1$, tout vit dans la partie de degré $d$ de $\mathrm{Tens}(M)$, ie $M^{\otimes d}$.)

    Est-ce que du coup ton application explicite sur les points, ce ne serait pas celle qui, à un $\mathbf{A}$-module localement libre de rang $1$ $M$ muni d'une surjection $\pi : \mathbf{A}^{n+1} \twoheadrightarrow M$ (qui se dualise pour réaliser $M^\vee$ comme une droite dans $\mathbb{A}^{n+1}$) associe le module $M \otimes M$ (aussi localement libre de rang $1$ !), avec la surjection $\varphi : \mathbf{A}^{n+1} \twoheadrightarrow M \otimes M$ définie par $\varphi(e_i) = \pi(e_i) \otimes \pi(e_i)$? Bien sûr, j'imagine que cette description "structurelle" demande du travail pour être traduite en terme de projecteurs explicites.

    PS: Un truc dont je ne suis pas sûr avec tes notations: cette application, elle ne correspondrait pas plutôt à $O_{\mathbb{P}^n}(d)$ plutôt qu'à $O_{\mathbb{P}^n}(-d)$? Peut-être que c'est parce que j'aime mieux travailler avec des modules localement libres de rang $1$ muni de $n+1$ éléments qui les engendre, plutôt qu'avec des sous-modules de $\mathbf{A}^{n+1}$ muni d'une rétraction de rang $1$, et qu'il y a un passage par une dualité qui se fait? En tout cas il me semble que les géomètres diraient que ton morphisme correspond à $O_{\mathbb{P}^n}(d)$. (Edit: en fait, tout va bien: ton morphisme correspond au fibré $O_{\mathbb{P}^n}(d)$ et ses $n+1$ sections globales $x_i^{\otimes d}$, et donc la ligne correspondante est son dual, ie $O_{\mathbb{P}^n}(-d)$.)

    PPS: j'oublie pas les histoires de faisceaux de $1$-formes.
  • Hello Claude,
    Alors oui, y a un principe qui dit que c'est bon, je pense que Chat-maths pourra expliquer mieux que moi :-D ! Je dois faire des révisions pour le faire au propre !

    Pour l'instant j'ai fabriqué un petit truc pour $\mathbb{P}^1$ et la puissance $2$ et donc j'ai remonté au projecteur de rang $1$ et obtenu un morphisme :
    $$\begin{array}{l|rcll}
    \phi : & \frac{\Z[A,B,C,D]}{ \langle A+D-1, AD-BC \rangle} & \longmapsto & \frac{\Z[A,B,C,D]}{ \langle A+D-1, AD-BC \rangle} \\
    & \begin{bmatrix} a & b \\ c & d \end{bmatrix} & \longmapsto & \begin{bmatrix} 2d^3 - 3d^2 + 1 & -2b^2d + 3b^2 \\ 2c^2d + c^2 & -2d^3 + 3d^2 \end{bmatrix}
    \end{array}

    $$ Mais j'ai recollé comme un gugus et donc j'ai un petit doute ! Ce qui est certain c'est que la matrice à droite est bien un projecteur de rang $1$.

    Je fais un petit exemple histoire de me rassurer. Donc je prends le point $[2: 3] \in \mathbb{P}^1(\Z)$ et je dois retrouver le point $[4 : 9] \in \mathbb{P}^1(\Z)$. Donc, on a $(-1) \times 2 + 1 \times 3 = 1$, que l'on écrit : $ \begin{bmatrix} -1 & 1 \end{bmatrix} \begin{bmatrix} 2 \\ 3 \end{bmatrix} = 1$. Et on a le projecteur suivant
    $$
    P = \begin{bmatrix} 2 \\ 3 \end{bmatrix} \begin{bmatrix} -1 & 1 \end{bmatrix} = \begin{bmatrix} -2 & 2 \\ -3 & 3 \end{bmatrix}

    $$
    sage: M
    [2*d^3 - 3*d^2 + 1  -2*b^2*d + 3*b^2]
    [    2*c^2*d + c^2    -2*d^3 + 3*d^2]
    sage: M^2-M
    [0 0]
    [0 0]
    sage: M.trace()
    1
    sage: M.det()
    0
    sage: phi = G.hom([-2,2,-3,3])
    sage: M.apply_morphism(phi)
    [ 28 -12]
    [ 63 -27]
    sage: Pg = M.apply_morphism(phi)
    sage: Pg.trace()
    1
    sage: Pg.det()
    0
    sage: Pg*vector([4,9])  <---  [4,9] est bien dans l'image et les deux colonnes sont proportionnelles à (4,9) je pense que c'est gagné 
     (4, 9)
    
    Donc ça a l'air de fonctionner !

    Est-ce que $\phi$ te convient pour $[a : c] \mapsto [a^2 : c^2 ]$ ? Je suppose que tu veux que j'explique ce que j'ai fait ?

    PS / Tu as vu aucun foncteur dans l'histoire (:P)
  • $\def\P{\mathbb P}$Chat-Maths
    Oui, je me souviens bien de ce post. La magie du rang 1.

    Et je vais finir par croire, vu tes 2 premiers paragraphes, que le codage $A^{n+1} \twoheadrightarrow M$ est plus efficace, plus intuitif que le codage dual i.e. sous-module de $A^{n+1}$, facteur direct de rang 1. Bien que ces codages soient équivalents puisque dual l'un de l'autre.

    Bien entendu, il faut ajouter une clause : $M$ est projectif de rang 1. A comparer avec la clause pour le dual : $N \subset A^{n+1}$, facteur direct de rang 1.

    L'application, je l'ai donnée, c'est $p \mapsto p^{(d)}$. Ce que je voulais surtout c'est une caractérisation de $p^{(d)}$ en fonction de $p$.

    Bien d'accord, avec le paragraphe du milieu avec tes $\pi, \varphi, M \otimes M$. C'est ce qui va se passer. Sauf que travaillant avec le dual, il va s'agir pour moi d'expliciter $\ker \varphi$ en fonction de $\ker \pi$.

    J'attache le brouillon écrit pour mézigue. Probablement la tête dans le guidon mais c'est pas grave pour moi. Il me fallait un alibi pour mettre de l'ordre car c'est un véritable bazard là-dedans. Pour moi, il serait important de revenir sur certains points. J'y compte bien car on devrait en baver moins qu'à la première passe.

    Vu, mais c'est loin de suffire. Remonter au niveau de la grasmannienne affine de rang 1 ne suffit pas pour définir une application de $\P^n \to \P^n$. Car ton point $(a : c)$ de $\P^1$ tu as 36 manières de trouver une matrice de projection dont $(a,c)$ est la première colonne.
  • Hello Claude,

    Ce serait assez amusant que l'image de ma matrice de droite ne dépende que de l'image de ma matrice de gauche !
  • $\def\P{\mathbb P}\def\GA{\mathbb {GA}}$FlipFop

    Oui, bien sûr, l'image de ta matrice de droite ne dépend que de l'image de ta matrice de gauche. Pourquoi ? Parce qu'il y a quelque chose d'intrinsèque au niveau $\P^n$. Mais pour l'instant tu n'as rien montré et tu as fait seulement $n = 1$.

    De plus : au niveau $\P^n \to \P^n$, c'est intrinsèque. Ce n'est évident qu'il y ait quelque chose d'intrinsèque au niveau $\GA_{n+1,1} \to \GA_{n+1,1}$.

    ChatMaths

    1. J'ai relu encore tes affaires et je trouve que c'est le bon point de vue, général, conceptuel ...etc... contrairement au truc que j'ai produit. En particulier, avec une surjection $\pi : A^{n+1} \twoheadrightarrow M$ où $M$ est un module projectif de rang 1, tu produis :
    $$
    A^{n+1} \twoheadrightarrow M \otimes M, \qquad e_i \mapsto \pi(e_i) \otimes \pi(e_i)
    $$Il faut juste voir pourquoi c'est surjectif mais cela on en a l'habitude. Bon, je viens de réécrire une toute petite partie de ce que tu as si bien dit.

    Ma question est : pourquoi cela devient sordide quand on passe au dual ? Est ce moi qui l'ait rendu sordide ? PS : je ne suis pas si clair que cela entre ce que tu dis, qui est limpide, et entre ce que j'ai écrit qui ne l'est pas. Alors que l'on devrait passer automatiquement d'une version à l'autre. En tout cas, de ta version, puisque c'est le bon point de vue, à la version duale.

    Au fait, est ce vraiment intéressant de savoir que pour un $R$-point $p$ de $\P^n$, on a, en tant que module :
    $$
    p^{(d)} = \{ y \in R^{n+1} \mid x^{(d)} \wedge y = 0 \quad \forall x \in p \}
    $$C'est peut-être là que j'ai tord de vouloir cela.

    2. Je n'ai pas compris ce que tu disais dans ton premier PS : ``mon application'' correspondrait ...etc... Je suppose que tu parles du morphisme (qui ne m'appartient pas) $\P^n \to \P^n$ qui réalise sur les points unimodulaires l'élévation à la puissance $d$. Comment un morphisme peut correspondre à un faisceau ? Dans tes phrases, est ce qu'il ne manquerait pas pull-back de ... par le morphisme ... ou quelque chose comme cela ?

    Et dans ton PPS, je ne sais plus à quoi tu fais allusion (histoires de faisceaux de 1-formes).
  • Claude,

    Je n'ai pas vérifié, mais c'est testable par informatique. Par contre, c'est cool si vous avez trouvé le bon point de vu (tu)
  • Salut Claude,

    Moi aussi j'avoue ne pas être super au clair entre le passage de ma version à ta version, je n'ai pas encore trop essayé cela dit...

    Mon premier PS est effectivement un petit peu du charabia: je réexplique en tentant d'être plus précis cette fois: la description des points de $\mathbb{P}^n$ sur un anneau $A$ comme l'ensemble des (classes d'isomorphismes de) surjections $\pi: A^{n+1} \to M$ où $M$ est localement libre de rang $1$ se "globalise" pour fournir une description des points de $\mathbb{P}^n$ à valeurs dans un schéma, i.e une description des morphismes d'un schéma dans $\mathbb{P}^n$. Étant donné un schéma $X$, un morphisme de $X$ dans $\mathbb{P}^n$ est la donnée d'un faisceau (de modules) $\mathscr{L}$ sur $X$, localement libre de rang $1$ (la bonne généralisation des modules projectifs de rang $1$ au cadre schématique), et d'une surjection $\mathscr{O}_{X}^{n+1} \twoheadrightarrow \mathscr{L}$. En particulier, au morphisme $\mathbb{P}^n \to \mathbb{P}^n$ qu'on considère, il doit être associé un faisceau localement libre de rang $1$ sur $\mathbb{P}^n$, et une surjection de $\mathscr{O}_{\mathbb{P}^n}^{n+1}$ dans ce dernier, ce qui correspond de manière équivalente à simplement $n+1$ "sections globales".

    Bien sûr tu peux tout dualiser pour formuler les choses en termes de sous-modules facteurs directs de $\mathscr{O}_{X}^{n+1}$ et localement libres de rang $1$.

    Du coup, quand je parle de "morphisme associé à $\mathscr{O}(d)$", ça n'a effectivement pas vraiment de sens. Mais lorsque tu as un morphisme $\mathbb{P}^n \to \mathbb{P}^n$, tu peux te demander à quel faisceau et quelles sections globales il correspond. Là, pour ton morphisme, avec ce langage, ça va être $\mathscr{O}(d)$, car ben... le polynôme homogène qui définit le morphisme est de degré $d$.
    J'avais écris ce PS car j'avais un doute en te voyant mentionner $\mathscr{O}(-d)$ plutôt que $\mathscr{O}(d)$ dans ton post, mais vu que tu travailles avec le point de vue dual, si de mon côté j'ai une surjection de $\mathscr{O}_{\mathbb{P}^n}^{n+1}$ dans $\mathscr{O}(d)$, toi, tu as une injection (rétractée) de $\mathscr{O}(-d)$ dans $\mathscr{O}_{\mathbb{P}^n}^{n+1}$ et tout va bien dans le meilleur des mondes.

    Si je peux ajouter mes trois centimes pour ce qu'ils valent: ce qui m'a vendu le point de vue ``faisceau localement libre + (n+1) sections globales'', c'est qu'il fait apparaitre ``naturellement'' certaines choses: par exemple si je prends le morphisme identité de $\mathbb{P}^n$, il lui correspond un faisceau localement libre de rang $1$ sur $\mathbb{P}^n$ et $n+1$ sections globales: si je définis $\mathscr{O}(1)$ comme ce faisceau et que j'appelle $x_0,\ldots, x_n$ ces sections, j'ai "gratuitement" une notion de coordonnées qui apparait: pas de gradués, de twists, aussi ``simplement'' que ça. Et le fait qu'il représente l'identité et la définition de l'action du foncteur $\mathbb{P}^n$ sur les flèches permet de retrouver tout seul ce que je disais en début de mon premier post, sur l'action sur les points d'un morphisme défini "par polynômes homogènes".


    Le PPS, c'était pour parler de l'autre fil, sur le fibré cotangent à $\mathbb{P}^n$ où il me semble que je ne t'ai pas encore répondu (car je veux prendre le temps de retravailler les choses avant ça).
  • $\def\P{\mathbb P}\def\M{\mathbb M}\def\cT{\mathcal T}$Merci Chat-Maths pour ta réponse : elle est super-claire. Et de plus, comme tu connais mes faiblesses en géométrie (ce n'est pas un scoop), tu fais en sorte de m'expliquer les choses avec des termes que je peux comprendre.

    Damned. Comment, pour les $A$-points de $\P^n$, ai je pu oublier que le point de vue dual de ``mon'' point de vue, ce n'est pas une surjection $\pi : A^{n+1} \twoheadrightarrow M$ mais, une surjection à isomorphisme près. Je me souviens bien d'ailleurs que mon petit fils m'avait demandé, dans une certaine construction que tu avais faite, si ChatMaths avait bien vérifié que cela ne dépendait que de la classe d'isomorphie de .. Et tu lui avais bien cloué le bec car la réponse/solution était fonctorielle.

    Alors que du côté sous-module de $A^{n+1}$, c'est un sous-module bien précis de $A^{n+1}$ : du égal de chez égal. Peut-être qu'un certain mystère pourrait venir de là ??

    FlipFlop

    J'ai l'impression que revenir sur le passé, solidifier des choses ...etc.. ce n'est pas ta tasse de thé. Je me trompe ?

    Imagine par exemple que l'on veuille raconter à bidule qu'une section globale du fibré tangent à $\P^n$, c'est vachement concret, qu'il y en a $(n+1)^2 - 1$ ...etc.. Encore plus mieux que l'on a une surjection canonique, ``de noyau l'identité'', qui associe à une matrice $A \in M_{n+1}(R)$ une section globale $s_A$ :
    $$
    \M_{n+1} \twoheadrightarrow H^0(\P^n, \cT) \qquad
    A \mapsto s_A
    $$Ben, on a rien à lui donner à bidule. Parce que nos affaires sont dans un état épouvantable. Enfin les miennes. C'est dommage, je trouve, après le temps passé là-dessus. Pas bien grave, car c'est écrit partout pour les enfants. Vraiment ?
  • Hello Claude,

    Comme je t'ai dit (dans l'autre fil) je suis sur d'autre chose en ce moment donc revenir en arrière ne m'intéresse pas du tout.
Connectez-vous ou Inscrivez-vous pour répondre.