éléments finis — Les-mathematiques.net The most powerful custom community solution in the world

éléments finis

Bonjour,
svp, soit $V_h$ un espace de dimension finie, $dim V_h=N_h.$ On considére le problème $\text { trouver } u_h \in V_h \text { tel que } a(u_h,v_h)=L(v_h), \forall v_h \in V_h.$
On introduit une base $(\phi_j)_{1 \leq j \leq N_h}$ de $V_h.$
Si $u_h = \sum_{j=1}^{N_h} u_j \phi_j,$ on pose $U_h= (u_1,...,u_{N_h})$ le vecteur dans $\mathbb{R}^{N_h}$ des coordonnées de $u_h.$
Alors je trouve que le problème initial est équivalent au problème $\text { trouver } U_h \in \mathbb{R}^{N_h} \text { tel que } a(\sum_{j=1}^{N_h}u_j \phi_j, \sum_{i=1}^{N_h}v_i \phi_i)=L(\sum_{i=1}^{N_h} \phi_i)$
mais, les auteurs trouvent qu'il est équivalent au problème Le problème est équivalent au problème $\text { trouver } U_h \in \mathbb{R}^{N_h} \text { tel que } a(\sum_{j=1}^{N_h} u_j \phi_j, \phi_i)=L(\phi_i), \forall 1 \leq i \leq N_h$
Les auteurs ont du vouloir dire qu'il y'a convention de sommation sur $i.$ Non?
Je vous remercie d'avance pour votre aide.

Réponses

  • Alors je crois qu'il y'a convention de sommation sur $i$ mais et les $v_i$ pourquoi ne sont ils pas dans la formule svp?
    Je vous remercie d'avance pour toute votre aide.
  • Salut,

    Il me semble que tu as bon dans ta reformulation (à un oubli de $v_i$ près dans $L$), mais l'idée c'est que puisque la relation que tu veux vérifier est linéaire, il suffit de la vérifier sur une base.
  • Bonjour,
    bonjour monsieur Egoroff :)
    Svp, la base est représentée par $(\phi_i)_{0 \leq i \leq p}.$ Et donc, les $v_i$ représentent les scalaires.
    Je crois qu'en prenant la formule $a\left(\sum_{j=1}^{N_h} u_j \phi_j, \sum_{i=1}^{N_h} v_i \phi_i \right) = L \left(\sum_{i=1}^{N_h} \phi_i v_i \right),$ puisqu'elle est linéaire, alors on écrit $\sum_{i=1}^{N_h} v_i a\left(\sum_{j=1}^{N_h} u_j \phi_j, \phi_i \right) = \sum_{i=1}^{N_h} v_i L \left(\phi_i\right)$ et on simplifit $\sum_{i=1}^{N_h} v_i $ des deux cotés. Ce qui nous donne la formule $a\left(\sum_{j=1}^{N_h}u_j \phi_j, \phi_i \right) = L (\phi_i), \forall 1 \leq i \leq N_h.$
    C'est correct svp?
    En vous remerciant d'avance pour votre aide.
  • Oups !
    J'ai surement fait une bêtise. Mais svp, je n'ai pas compris lorsque vous avez dit qu'il suffisait de vérifier la relation sur une base. Parce qu'ils n'utilisent qu'une base $(\phi_i)$ et se sont les $v_i$ qui disparaissent.
    En vous remerciant pour toute votre aide ainsi que pour votre patience.
  • Bonsoir,
    svp, qu'elle est l'erreur que j'ai faite?
    En vous remerciant pour votre aide ainsi que pour votre patience.
  • on simplifit $\sum_{i=1}^{N_h} v_i $ des deux cotés.

    Ce n'est pas un facteur commun ! D'où les ::o::o::o d'egoroff auxquels j'ajoute un :-(
  • Bonjour,
    d'accord! ca m'enléve l'expression ::o
    svp, mais qu'est ce qu'on veut dire par "ils ont enlevé les $v_i$ car comme le problème est linéaire, il suffit de le vérifier sur une seule base"?
    En vous remerciant pour toute votre aide ainsi que pour votre patience.
  • Doc : tu as deux applications linéaires $f$ et $g$ sur un espace vectoriel $E$, et une base $(e_i)$ de $E$ ; dire que $f=g$, i.e. que $f(x)=g(x)$ pour tout $x \in E$, est équivalent à dire que $f(e_i)=g(e_i)$ pour tout $i$. C'est un fait élémentaire d'algèbre linéaire. Pour le sens $\Rightarrow$ c'est très facile puisqu'il suffit de particulariser le "pour tout $x \in E$" à "pour tout $e_i$", et dans l'autre sens tu prends un $x$ quelconque, tu le décompose dans la base et tu utilises la linéarité de $f$ et $g$.
  • Bonjour,
    bonjour monsieur Egoroff.
    Merci pour m'avoir expliqué.
    Donc, on a $a\left(\phi_j,\phi_i\right)= L(\phi_i)$ qui est équivalent à $a\left(\sum_{j=1}^n u_j \phi_j, \phi_i \right) = L(\phi_i) \text { pour tous } i \in \{1,...,N_h\}$ grace à la bilinéarité de $a$ et la linéarité de $u.$
    Svp, pn peut écrire ce problème sous la forme matricielle suivante $K_h U_h = b_h$ avec $(K_h)_{ij} = a(\phi_i,\phi_j)$ et $(b_h)_i = L(\phi_i)$ et $U_h=(u_1,...,u_{N_h})$ est le vecteur dans $\mathbb{R}^{N_h}$ des coordonnées de $u_h.$
    On suppose que $a$ est coércive et on voudrait montrer que celà implique que la matrice $K_h$ est définie positive. Pour ca, on doit montrer que $\exists C > 0, K_h U_h . U_h \geq C |U_h|^2.$
    Mais voilà, j'ai des difficultés à écrire correctement $K_h U_h.U_h.$
    J'ai essayé avec $K_h U_h.U_h = a\left(\sum_{j=1}^{N_h} u_j \phi_j,\phi_i\right). U_h$ en sachant que $\left((K_h U_h). U_h\right)_i = \sum_{j=1}^{N_h} (K_h U_h)_{ij} (U_h)_j.$ Mais je n'arrive pas à conbiner entre la linéarité de $a$ et sa coércivité.
    En vous remerciant pour toute votre aide ainsi que pour votre patience.
  • J'ai essayé avec $K_h U_h.U_h = a\left(\sum_{j=1}^{N_h} u_j \phi_j,\phi_i\right). U_h$ en sachant que $\left((K_h U_h). U_h\right)_i = \sum_{j=1}^{N_h} (K_h U_h)_{ij} (U_h)_j.$

    Sachant que $K_h U_h.U_h$ est un scalaire, $ a\left(\sum_{j=1}^{N_h} u_j \phi_j,\phi_i\right)$ est un scalaire, $U_h$ est un vecteur, rien de tout ceci n'est cohérent. Fais un plus attention à la nature des objets, ça t'évitera des écritures absurdes (en plus d'être fausses).
  • Bonsoir,
    bonsoir monsieur Remarque.
    Svp, mais dans l'écriture du problème variationnel en problème matricielle, on a noté que $K_h U_u=b_h$ avec $(K_h)_{ij} = a(\phi_j, \phi_i).$
    Svp, là je n'arrive pas dutout à écrire tout ca correctement. Une petite aide svp?
    En vous remerciant pour toute votre aide ainsi que pour votre patience.
  • Ca c'est correct. Le seul truc à voir, c'est que $U_h$ est le vecteur de $\R^{N_h}$ de composantes $u_i$, et que $u_h=\sum_{i}u_i\phi_i$. A partir de là, tout ça est très simple.
  • Bonsoir,
    svp, alors on a $K_h U_h. U_h = \sum_{j=1}^{N_h} (K_h)_{ij} u_j.u_j = \sum_{j=1}^{N_h} a(\phi_j,\phi_i) u^2_j.$
    C'est bien ca svp?
    En vous remerciant pour toute votre aide ainsi que pour votre patience.
  • Non. Ce n'est pas cohérent encore. Regarde un peu tes indices.
  • Bonsoir,
    bonsoir monsieur Remarque.
    Alors on a: $(K_h U_h)_i = \sum_{j=1}^{N_h} a(\phi_j,\phi_i) u_j,$ donc $(K_h U_h)_i .(U_h)_i = \sum_{j=1}^{N_h} a(\phi_j,\phi_i) u_j^2.$
    En vous remerciant pour toute votre aide ainsi que pour votre patience.
  • Il y a un poil de mieux dans tes indices, mais tu pèches toujours à la finition, comme disent les commentateurs à propos de l'équipe de France.
  • Bonsoir,
    bonsoir monsieur Remarque.
    Svp, je ne vois pas ce qui cloche dans les indices.
    La relation $(K_h U_h)_i .(U_h)_i = \sum_{j=1}^{N_h} a(\phi_j,\phi_i) u_j^2.$ est vérifiée pour tout $i.$
    Que faut-il ajouter svp?
    En vous remerciant pour votre aide ainsi que pour votre patience.
  • Non. Chausse tes lunettes et regarde mieux.
    Alors on a: $(K_h U_h)_i = \sum_{j=1}^{N_h} a(\phi_j,\phi_i) u_j,$

    et $(U_h)_i =??$.
  • Alors on a:
    $(K_h U_h.U_h)_i = \sum_{j=1}^{N_h} a(\phi_j,\phi_i) u_j u_i.$
    C'est bien ca svp?
    En vous remerciant pour votre aide ainsi que pour votre patience.
  • Argh ! $K_h U_h.U_h$ est un scalaire ! Qu'est-ce que c'est que cette composante $i$ ? Une bonne fois pour toutes $K_h$ est une matrice et $U_h$ un vecteur.
  • Oui, c'est comme ça que j'ai développé. En prenant par exemple $N_h=3,$ on a $$
    (K_h)_{ij}=
    \begin{pmatrix}
    a(\phi_1,\phi_1) & a(\phi_2,\phi_1) & a(\phi_3,\phi_1)\\
    a(\phi_1,\phi_2) & a(\phi_2,\phi_2) & a(\phi_3,\phi_2)\\
    a(\phi_1,\phi_3) & a(\phi_2,\phi_3) & a(\phi_3,\phi_3)
    \end{pmatrix}\qquad \mathrm{et} \qquad U_h=
    \begin{pmatrix}
    u_1\\
    u_2\\
    u_3
    \end{pmatrix}
    $$
    alors la première ligne de $K_h U_h$ est $a(\phi_1,\phi_1) u_1 + a(\phi_2,\phi_1) u_2 + a(\phi_3,\phi_1) u_3.$
    Jusque là, c'est correct normalement. Non ?
    En vous remerciant pour toute votre aide ainsi que pour votre patience.
  • OK, c'est ça.
  • Bonjour,
    svp, alors $$K_h U_h.U_h = \sum_{j=1}^{N_h} \left[\sum_{i=1}^{N_h} a(\phi_j,\phi_i) u_j.u_i \right]$$
    C'est bien ca svp?
    En vous remerciant pour toute votre aide ainsi que pour votre patience.
  • Oui, mais pourquoi t'arrêtes-tu en plein milieu du calcul ? On a l'impression que tu avances d'une étape infinitésimale à chaque fois et puis stop ! Tu n'oses plus continuer, paralysée par la crainte de faire une erreur. Ce n'est pas grave de faire des erreurs, du moment que l'on est capable de les détecter soi-même, par exemple en vérifiant la cohérence de ce que l'on écrit.
  • Bonjour,
    bonjour monsieur Remarque.
    Excusez-moi svp, j'ai mélangé les indices et aussi les parenthéses.
    On a: $$K_h U_h. U_h = \sum_{i=1}^{N_h} \left[ \sum_{j=1}^{N_h} a(\phi_j,\phi_i) u_j \right]u_i$$
    Je l'ai vérifié avec $N_h=3$ et ca marche.
    C'est bien ca svp?
    Si oui, aprés, il faut utiliser la coercivité de $a,$ et pour ca, il nous faudrait avoir $a(\phi_j u_j, \phi_i u_i)$ dans la formule pour pouvoir majorer avec $\alpha \| U_h\|^2.$ Mais on n'a pas ca. La seule majoration qui vient à l'ésprit, c'est celle ci: $K_h U_h.U_h \geq a(\phi_j,\phi_i) u_j u_i$ pour un certain $i$ et un certain $j.$
    Après, puisque la forme $a$ est bilinéaires, alors on peut écrire que $a(\phi_i, \phi_j) u_i u_j = a(\phi_i u_i, \phi_j u_j).$
    Et puis, il y'a le probléme des indices $i$ et $j$ qui revient.
    Y-a-t-il un moyen de s'en débarasser svp?
    En vous remerciant pour toute votre aide ainsi que pour votre patience.
  • Je ne comprends pas ton problème. Dans la bilinéarité, il n'y a pas que la multiplication par un scalaire. Il y a aussi les sommes.
  • Bonsoir,
    bonsoir monsieur Remarque.
    Svp, alors on a: \begin{align*}
    K_h U_h . U_h & = \sum_{i=1}^{N_h} \left[ \sum_{j=1}^{N_h} a(\phi_j,\phi_i) u_j \right] u_i\\
    & = a \left( \sum_{j=1}^{N_h} u_j \phi_j, \sum_{j=1}^{N_h} u_j \phi_j\right)\\
    & \geq \nu \| \sum_{j=1} ^{N_h} u_j \phi_j \|^2 \geq C | U_h |^2
    \end{align*}
    En vous remerciant pour toute votre aide ainsi que pour votre patience.
  • Bien. Tu vois, ce n'était pas dur. Un dernier petit point quand même, comment justifies-tu l'existence de la dernière constante $C$ ?
  • Bonsoir,
    bonsoir monsieur Remarque.
    Svp, pour la constante $c.$
    On sait que $\|U_h\|^2 = | \sum_{j=1}^{N_h} u_j |^2,$ et que $\| \sum_{j=1}^{N_h} u_j \phi_j \| = \|\sum_{j} u_j\| \| \phi_j\|$
    Donc, $C$ devrait etre égale à $\nu . \|\phi_j\|^2.$
    En vous remerciant pour toute votre aide ainsi que pour votre patience.
  • Argh ! Non. $\|U_h\|^2 = \sum_{j=1}^{N_h} |u_j |^2,$ et $\red\| \sum_{j=1}^{N_h} u_j \phi_j \| = \|\sum_{j} u_j\| \| \phi_j\|$ !!!

    Attention à ne pas retomber dans tes travers familiers (formules incohérentes).
  • Svp, alors on a: $\| \sum_{j=1}^{N_h} u_j \phi_j \|^2 = (\|\sum_{j} u_j \| \| \phi_j \| )^2 = \|\sum_{j} u_j \|^2 \|\phi_j \|^ 2 \geq \| \sum_{j} u_j \|^2$
    Mais svp, aprés il faut trouver $\sum_{j} |u_j|^2$ dans le second membere. Et nous on trouve $\sum_{j} \| u_j \|^2.$ C'est normal svp?
    En vous remerciant pour toute votre aide ainsi que pour votre patience.
  • Mais enfin regarde ce que tu écris ! Tu sors un indice muet $j$ de la somme. Ca n'a pas de sens.
  • Oups! Excusez-moi svp, j'ai vu ce que vous aviez écris en rouge.
    Svp, on ne peut faire sortir personne de sous le signe norme dans la formule $\| \sum_{j=1}^{N_h} u_j \phi_j \|,$ et pourtant il faut que $\phi_j$ sorte. Comment faire svp?
    En vous remerciant pour toute votre aide ainsi que pour toute votre patience.
  • Non, il ne doit pas sortir, car cela n'a pas de sens. Il faut que tu fasses attention à ce que tu as deux normes sur deux espaces complètement différents : la norme $\|U_h\|$ est une norme sur $\R^{N_h}$, alors que la norme $\|\sum u_j\phi_j\|$ est la norme $H^1(\Omega)$. On se restreint à l'espace $V_h$ qui est de dimension $N_h$ et dont les $\phi_j$ forment une base, mais qui n'a aucune propriété particulière d'orthogonalité.

    Mais on n'a même pas besoin de ça. On est sur $\R^{N_h}$ et on a une forme quadratique définie positive. Vois-tu pourquoi ? Et pourquoi cela donne une constante $C$ ?
  • Bonjour,
    bonjour monsieur Remarque.
    Svp, une forme quadratique est un polynome homogéne de degré 2 avec un nombre queslconque de variables.
    Mais ici, on cherche à prouver que cette forme est définie positive et donc l'existence de $C.$ Svp, je ne vois aucun moyen direct pour ca, et on ne peut pas utiliser les particularités des normes. Où est l'astuce svp?
    En vous remerciant pour toute votre aide ainsi que pour votre patience.
  • Ben ! Quelle est la définition d'une forme quadratique définie positive ? Je parle de $K_hU_h\cdot U_h$, bien sûr.
  • Bonsoir,
    bonsoir monsieur Remarque.
    $K_h U_h . U_h$ est une forme qudratique définie positive si $\exists C > 0, K_h U_h.U_h > C | U_h|^2.$
    En vous remerciant pour toute votre aide ainsi que pour votre patience.
  • Non. La définition est en deux morceaux : positive d'une part, et définie d'autre part. La conclusion est qu'il existe une telle constante $C$, à l'aide d'un argument de compacité en dimension finie.
  • Svp, on doit montrer que la forme quadratique $K_h U_h.U_h$ est définie positive en utilisant la coecivité de $a.$
    Comme on est dans un espace de dimension finie, on peut dire que toute suite convergente est bornée.
    Donc, on pourrait conclure que $\exists C > 0, |U_h|^2 < C.$ Mais en fait non, pourquoi compliquer avec la convergence puisqu'on ne sait meme pas si elle est convergente.
    Svp, un peetite piste svp.
    En vous remerciant pour toute votre aide ainsi que pour votre patience.
  • Hein ?? N'importe quoi ! Tu es en train de te mélanger les pinceaux. Qu'est-ce que tu veux montrer, et qu'est-ce que tu sais ?

    Sinon, tu pourrais essayer d'utiliser une inégalité qui découle facilement de la continuité d'une certaine application linéaire.
  • Oui, convergence de quoi ?

    Mais oui, c'est la coercivité de $a$ qui entraîne que la forme quadratique est définie positive. Mais comme tu n'as pas écrit la définition de définie positive, on aimerait savoir pourquoi c'est vrai !
  • Bonjour,
    excusez-moi svp, j'ai parcouru tout le cours de Girault que j'ai trouvé sur le net, et je n'ai pas trouvé une définition correcte d'une forme quadratique définie positive. Et je la connaissais mais je n'arrive plus à m'en souvenir ni à mettre la main déçue. :-(
    Je vous remercie d'avance pour toute votre aide ainsi que toute votre patience.
  • C'est normal que tu n'aies pas trouvé ça là. C'est une notion beaucoup plus élémentaire, niveau L2 maximum. Bon, après lecture en hyperdiagonale, ce n'est pas très bien fait sur ces deux liens, ici et , mais au moins ils sont là. Il faut dire que je n'ai pas cherché très loin, with your friend Google.
  • Bonjour,
    svp, oui je me rapelle maintenant, c'est cette définition qu'on utilisait:
    $M$ est une matrice définie positive si elle vérifie la condition suivante:
    pour toute matrice colonne $X$ à $n$ éléments réels, on a: $$X^T M X > 0$$
    Alors ici, $K_h$ est une matrice, donc pour montrer qu'elle est définie positive on montre que $X^T K_h X > 0$
    Mais svp, on sait lancé dans la preuve que $K_h U_h . U_h \geq C |U_h|^2.$ Pourquoi svp?
    En vous remerciant pour toute votre patience, votre aide ainsi que pour votre patience.
  • Pourquoi svp?

    Ben je ne sais pas : c'est toi qui a lancé ça. C'est inutile en effet pour montrer que la forme quadratique est définie positive, et de toutes façons, c'est une conséquence automatique du caractère défini positif en dimension finie.
  • Bonsoir,
    bonsoir monsieur Remarque.
    Svp, ils ont dis ceci: "la coécivité de la forme bilinéaire $a(u,v)$ entraine le caractére défini positif de la matrice $K_h,$ et donc son inversibilité. En effet, pour tout vecteur $U_n \in \mathbb{R}^{N_h}$ on a $$K_h U_h . U_h \geq \nu \left\|\| \sum_{j=1}^{N_h} u_j \phi_j \right\|^2 \geq C |U_h|^2 \text { avec } C > 0$$
    car toutes les normes sont équivalentes en dimension finie ($|.|$ désigne la norme euclidienne dans $\mathbb{R}^N$)."
    Svp, je ne vois plus le rapport entre la définition d'une matrice définie positive qu'on a vu plus haut et la méthode qu'ils ont utilisé. Je suis vraiment perdue.
    En vous remerciant pour toute votre aide ainsi que pour toute votre patience.
  • la coécivité de la forme bilinéaire entraine le caractére défini positif de la matrice et donc son inversibilité.

    Ca c'est vrai. Mais la suite à partir de « En effet...» est rédigée maladroitement. Il suffit de dire que
    $$K_hU_h\cdot U_h=a(u_h,u_h)\ge \alpha \|u_h\|^2_{H^1}$$
    avec $\alpha>0$, pour conclure que si $U_h\neq 0$, alors $u_h\neq0$ et donc $K_hU_h\cdot U_h>0$. Le reste ne sert à rien et est de toutes façons automatique, donc bof.
  • Merci beaucoup monsieur Remarque!!!:)
  • Bonjour,
    svp, on veut écrire le probléme suivant: $
    \begin{cases}
    & \text { trouver } (u_h,\theta_h) \in X_h \times M_h \text { tel que }\\
    & \forall w_h \in H(\operatorname{rot},\Omega), \int_\Omega \operatorname{rot} u_h. \operatorname{rot} w_h dx + \int_\Omega w_h. \nabla \theta_h dx = \int_\Omega j. \operatorname{rot} w_h dx\\
    & \forall \mu_h \in M_h, \int_\Omega\Omega u_h. \nabla \mu_h =0
    \end{cases}
    $
    sous forme matricielle. En sachant que $N_1=\dim X_h$ et $N_2 = \dim M_h,$ et on considérant $(w_i)_{1 \leq i \leq N_1}$ la base de $X_h$ et $(\chi_i)_{1 \leq i \leq N_2}$ la base de $M_h.$
    Donc, voilà ce que j'ai fais.
    On commence par écrire $b_h$ et $\theta_h$ suivant les éléments de la base. Et on a: $b_h(x)= \sum_{i=1}^{N_1}\alpha_i w_i(x)$ et $\theta_h = \sum_{i=1}^{N_2}\beta_i \chi_i(x).$
    Ce qui nous donne: $
    \begin{cases}
    & \int_\Omega \operatorname{rot} (\sum_{i=1}^{N_1}\alpha_i w_i). \operatorname{rot} (\sum_{j=1}^{N_1}\alpha_j w_j) + \int_\Omega \sum_{j=1}^{N_1} \alpha_j w_j . \nabla (\sum_{i=1} ^{N_2} \beta_i \chi_i(x)) dx = \int_\Omega j. \operatorname{rot} (\sum_{j=1}^{N_1}\alpha_j w_j)\\
    & \int_\Omega \sum_{i=1}^{N_1}\alpha_i w_i .\nabla (\sum_{j=1}^{N_2}\beta_j \chi_j(x))=0
    \end{cases}
    $
    Et donc, $
    \begin{cases}
    & \int_\Omega \sum_{i=1}^{N_1}\alpha_i (\operatorname{rot} w_i).\sum_{j=1}^{N_1}\alpha_j (\operatorname{rot} w_j) + \int_\Omega \sum_{j=1}^{N_1} \alpha_j w_j . \nabla (\sum_{i=1} ^{N_2} \beta_i \chi_i(x)) dx = \int_\Omega j.\sum_{j=1}^{N_1}\alpha_j (\operatorname{rot} w_j)\\
    & \int_\Omega \sum_{i=1}^{N_1}\alpha_i w_i . \nabla (\sum_{j=1}^{N_2}\beta_j \chi_j(x))=0
    \end{cases}
    $
    Svp, c'est surement bete mais je n'arrive pas à organiser tous ces coefficients et écrire ce problème de la façon suivante:
    $
    \begin{pmatrix}
    A & B^T \\
    B &0
    \end{pmatrix}
    .
    \begin{pmatrix}
    X\\
    Y
    \end{pmatrix}
    =
    \begin{pmatrix}
    C\\
    0
    \end{pmatrix}
    $
    avec $A=(a_{ij})_{1 \leq i,j \leq N_1},$ $B=(b_{ij})_{1 \leq i \leq N_2, 1 \leq j \leq N_1}$ où $$a_{ij}=\int_\Omega \operatorname{rot} w_i . \operatorname{rot} w_j dx, 1 \leq i,j \leq N_2$$
    $$b_{ij} \int_\Omega w_i . \nabla \chi_j dx, 1 \leq i \leq N_2, 1 \leq j \leq N_2$$
    et $C=(c_1,...,c_{N_1})^T$ est le vecteur dont les composantes sont $c_i=\int_\Omega j. \operatorname{rot} w_i ds, 1 \leq i \leq N_2.$
    En vous remerciant pour toute votre aide ainsi que pour toute votre patience.
Connectez-vous ou Inscrivez-vous pour répondre.
Success message!