réseau de neurones et backpropagation
Bonjour,
J'essaie de comprendre la théorie des réseaux de neurones, j'en suis à la phase de backpropagation où on l'on va mettre à jours tous les poids du réseau de neurone afin de réduire l'écart entre la sortie du réseau par rapport à la sortie attendue.
Mettre toute la théorie serait un peu long, donc pour les connaisseurs, voici la partie du cours concernée:
La deuxième image est dans le cas du calcul pour la couche de sortie.
C'est le premier terme calculé que je ne comprends pas, le cours donne:
En calculant la dérivée partielle par rapport à yk, je trouve bien ce terme -(ykdes-yy) , mais la question que je me pose pourquoi le sigma disparait? On est censé sommer les erreur de chaque neurone de sortie, donc j'obtiens ceci:
Quelqu'un pourrait m'expliquer mon erreur, à savoir pourquoi le sigma disparait?
Merci
J'essaie de comprendre la théorie des réseaux de neurones, j'en suis à la phase de backpropagation où on l'on va mettre à jours tous les poids du réseau de neurone afin de réduire l'écart entre la sortie du réseau par rapport à la sortie attendue.
Mettre toute la théorie serait un peu long, donc pour les connaisseurs, voici la partie du cours concernée:
La deuxième image est dans le cas du calcul pour la couche de sortie.
C'est le premier terme calculé que je ne comprends pas, le cours donne:
En calculant la dérivée partielle par rapport à yk, je trouve bien ce terme -(ykdes-yy) , mais la question que je me pose pourquoi le sigma disparait? On est censé sommer les erreur de chaque neurone de sortie, donc j'obtiens ceci:
Quelqu'un pourrait m'expliquer mon erreur, à savoir pourquoi le sigma disparait?
Merci
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses
Si $l\neq k$, alors $\dfrac{\partial}{\partial y_k}\Bigl(y^{des}_l-y_l\Bigr)^2=0$, ce qui fait qu'il ne reste qu'un seul terme dans ta somme.
Je considérais la dérivée partielle un peu trop comme une dérivée stricte... je perdais donc le fait que des termes allaient s'annuler.