Définition rigoureuse du symbole "sigma" ?

Bonjour
C'est ma première publication dans ce forum j'espère que tout va bien.

J'aime savoir la définition la plus rigoureuse de la somme d'une famille des nombres complexes indexée par un ensemble fini I
Le cas où I={1,2,3,....,n} où n un entier non nul est simple à définir mais le cas général est assez plus dur je pense !!
Après la définition j'ai une autre question.
Quelle est le rôle joué par associativité et la commutativité de la loi '+' dans C, et a quelle limite on peut définir une somme d'une loi interne ?
Est-ce qu'on peut définir la somme dans un groupe par exemple non commutatif ?
Merci en avance :)

Réponses

  • On le définit par récurrence sur le cardinal de $I$, en démontrant qu'à chaque étape de la récurrence, la somme obtenue ne dépend pas de l'indice de $I$ choisi pour appliquer l'hypothèse de récurrence. Si tu veux plus de détails je pourrai t'en donner.

    L'associativité et la commutativité interviennent pour démontrer précisément que ça ne dépend pas de l'indice choisi à chaque étape de la récurrence.
    Si le groupe est non commutatif, on peut définir des sommes (plutôt notées comme produits) sur un ensemble d'indices ordonné
  • C'est exactement que j'ai lu dans un cpurs de LLG MPSI
    Tu peux m'ecrire la définition complète avec la preuve de l'indépendance du choix de io ?
    Pour bien comprendre les choses svp :)
  • Soit $I$ un ensemble fini et $(a_i)_{i \in I}$ une famille de nombres complexes par exemple, indexée par $I$.

    Si $I=\emptyset$ on définit $\displaystyle \sum_{i \in I} a_i = 0$ et si $I = \{i_0\}$ on définit $\displaystyle \sum_{i \in I} a_i = a_{i_0}$.

    On va définir par récurrence $\displaystyle \sum_{i \in I} a_i$ quand $I$ est un ensemble à $n$ éléments et montrer que cette quantité vaut $\left(\displaystyle \sum_{i \in I \setminus \{i_0\}} a_i\right) + a_{i_0}$ pour n'importe quel $i_0 \in I$. On vient de le faire pour $n=1$.

    On suppose maintenant le résultat pour un certain entier $n \geq 1$. Soit maintenant $J$ un ensemble à $n+1$ éléments. Alors pour n'importe quel $j_0 \in J$, on sait définir $\displaystyle \sum_{j \in J \setminus \{j_0\}} a_j$ et on définit alors $\displaystyle \sum_{j \in J} a_j = \left(\displaystyle \sum_{j \in J \setminus \{j_0\}} a_j\right) + a_{j_0}$. Cette quantité ne dépend pas du $j_0 \in J$ choisi car si $j_0' \in J$ est différent de $j_0$, on a, en utilisant l'hypothèse de récurrence : $$\displaystyle \sum_{j \in J \setminus \{j_0\}} a_j = \left(\displaystyle \sum_{j \in J \setminus \{j_0, j_0'\}} a_j \right)+ a_{j_0'}$$ et également $$\displaystyle \sum_{j \in J \setminus \{j_0'\}} a_j = \left(\displaystyle \sum_{j \in J \setminus \{j_0, j_0'\}} a_j\right) + a_{j_0},$$ de sorte que $$\left(\displaystyle \sum_{j \in J \setminus \{j_0\}} a_j\right) + a_{j_0} = \left(\displaystyle \sum_{j \in J \setminus \{j_0'\}} a_j\right) + a_{j_0'}.$$ NB : on a utilisé la commutativité et l'associativité dans cette dernière étape pour dire que ces deux quantités sont égales !
  • Étape suivante : $\sum_{J}+\sum_{J'}=\sum_{J\cup J'}$ si $J\cap J'=\emptyset$ ?
  • mirimano : je n'ai aucune idée de ton niveau en mathématiques, mais est-ce que tu connais la théorie de la mesure ? Avec des tribus boréliennes, des mesures de Lebesgue et des intégrales abstraites ? Parce que...

    Pour faire un peu savant, on peut aussi définir les sommes par la théorie de la mesure. On vérifie qu'une suite $(u_n)_{n \in C}$ de nombres complexes (c'est-à-dire une application $u : \mathbb{N} \longrightarrow \mathbb{C}$ est mesurable (pour les tribus $\mathscr{P}(\mathbb{N})$ et borélienne sur $\mathbb{C}$) et on peut ensuite définir l'intégrale de $u$ sur $\mathbb{N}$ par rapport à la mesure de comptage : on obtient la série $\displaystyle \sum u_n$. Après il faut encore se poser des questions de convergence, mais pour les sommes finies le problème ne se pose pas, il suffit de tronquer la suite et de poser $u_n = 0$ à partir d'un certain rang (on vérifie d'ailleurs que les suites sont intégrables en approchant la série par la suite des sommes partielles, comme dans tout cours sur les séries !).

    Cela dit, l'approche de Poirot est beaucoup plus simple et intuitive. La mienne, quand c'est fait correctement, permet de mieux comprendre le rapport entre sommes/séries et intégrales (ou plutôt, que les séries sont des intégrales et que les sommes finies sont des séries particulières). Je pense que c'est utile d'avoir vu les deux, à condition de connaître la théorie de la mesure.
  • @Homo Topi : attention, tu fais un raisonnement circulaire ! Pour définir l'intégrale d'une fonction intégrable par rapport à une mesure (et positive disons), il faut passer par les intégrales des fonctions étagées inférieures à cette fonction, intégrales que l'on définit à l'aide... d'une somme (finie).
  • @mirimano. En fait, ce qui intéresse les gens, étant donné $(E,+_E, 0)$ (je vais abréger $+_E$ par $*$) tel que \forall x\in E: x*0=0*x=0,

    $\forall x\in E: x*0=0*x=x$

    c'est d'avoir une opérateur $\phi$ tel que pour toutes fonctions $f,g$ de codomaine $E$ et de domaines finis:

    $$ \phi(f+g)=\phi(f)*\phi(g)$$

    où $+$ désigne l'opération suivante sur les fonctions:

    1/ On considère n'importe quelle fonction comme définie "partout", simplement, si $x\notin dom(f)$, on considère que $f(x):=0$.

    2/ $\forall x : (f+g)(x) := f(x) * g(x)$

    Une fois que tu as une telle $\phi$, la tendance est de l'écrire comme suit: au lieu de $\phi(f)$, tu écriras $\sum_{x\in dom(f)} \ f(x)$. Si tu veux je te dirai pourquoi cette situation alambiquée notationnelle existe.

    Mais il y a un énorme problème: c'est qu'une telle $\phi$ n'est peut-être pas unique ou n'existe peut-être pas. Dans ce cas, on zappe. Pas de symboles $\sum$ considéré comme ayant du sens.

    Il y a une situation où par contre, il existe une $\phi$ unique qui marche. C'est quand $+_E$ est commutative et associative. Dans ce cas, l'unique $\phî$ qui marche est renommée en $\sum$.
    Aide les autres comme toi-même car ils sont toi, ils sont vraiment toi
  • @christophe : plutôt $x*0= 0*x = x$, non ?
  • oups, grand merci max! Je corrige.
    Aide les autres comme toi-même car ils sont toi, ils sont vraiment toi
  • Oui je m'en suis rendu compte.

    Rien de ce que je n'ai dit est faux, mais ça présuppose d'avoir une définition des sommes finies -__-
Connectez-vous ou Inscrivez-vous pour répondre.