IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Méthodes prédictives Discussion :

Réseau de neurones - algorithme de rétropropagation


Sujet :

Méthodes prédictives

  1. #1
    Futur Membre du Club
    Profil pro
    Inscrit en
    Septembre 2010
    Messages
    16
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Septembre 2010
    Messages : 16
    Points : 6
    Points
    6
    Par défaut Réseau de neurones - algorithme de rétropropagation
    Bonjour,

    Je suis entrain d'essayer de comprendre l'algorithme de rétropropagation.

    Cependant, en regardant sur le net, il y a deux avis différents :

    Certaines personnes propage l'erreur en arrière en faisant : (http://galaxy.agh.edu.pl/~vlsi/AI/ba.../backprop.html)

    erreur de la couche précédente = poids x erreur couche actuelle

    Et ensuite il mettent à jours les poids avec :

    nouveau poids = ancien poids + n*erreur*df(e)/de*sortie de la couche précédente

    avec df(e)/de la dérivée de la fonction d'activation



    Et d'autres calcul les erreurs avec
    : (P.39-40 http://asi.insa-rouen.fr/enseignemen...2/06-RN-BP.pdf)

    erreur de la couche précédente = poids x erreur couche actuelle x df(e)/de

    Et du coup pour la mise à jour des poids :

    nouveau poids = ancien poids + n*erreur*sortie de la couche précédente


    Cela ne revient pas au même, pourriez vous m'éclairer ?

    Merci.

  2. #2
    Membre émérite
    Avatar de Franck Dernoncourt
    Homme Profil pro
    PhD student in AI @ MIT
    Inscrit en
    Avril 2010
    Messages
    894
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : PhD student in AI @ MIT
    Secteur : Enseignement

    Informations forums :
    Inscription : Avril 2010
    Messages : 894
    Points : 2 464
    Points
    2 464
    Par défaut
    Heu, dans les deux cas cela donne
    nouveau poids = ancien poids + n*poids x erreur couche actuelle x df(e)/de*sortie*sortie de la couche précédente
    non ?

    A moins que j'ai raté quelque chose

  3. #3
    Futur Membre du Club
    Profil pro
    Inscrit en
    Septembre 2010
    Messages
    16
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Septembre 2010
    Messages : 16
    Points : 6
    Points
    6
    Par défaut
    Oui mais dans le premier cas, l'erreur tiens compte de df(e)/de.

    Et vue que l'erreur est rétroprogaper, df(e)/de l'est aussi.

  4. #4
    Membre émérite
    Avatar de Franck Dernoncourt
    Homme Profil pro
    PhD student in AI @ MIT
    Inscrit en
    Avril 2010
    Messages
    894
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : PhD student in AI @ MIT
    Secteur : Enseignement

    Informations forums :
    Inscription : Avril 2010
    Messages : 894
    Points : 2 464
    Points
    2 464
    Par défaut
    oops, désolé, bien vu, j'avais effectivement raté quelque chose
    Je n'ai pas la formule exacte en tête et le temps de la chercher en ce moment, mais à mon avis la première formule où df(e)/de n'est utilisée que dans le calcul du nouveau poids mais pas dans le calcul de l'erreur est la bonne, étant donné que les fonctions d'activation sont propres aux neurones.

  5. #5
    Membre émérite
    Avatar de Franck Dernoncourt
    Homme Profil pro
    PhD student in AI @ MIT
    Inscrit en
    Avril 2010
    Messages
    894
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : PhD student in AI @ MIT
    Secteur : Enseignement

    Informations forums :
    Inscription : Avril 2010
    Messages : 894
    Points : 2 464
    Points
    2 464
    Par défaut
    Je suis tombé par hasard sur la réponse, mes intuitions étaient apparemment les bonnes, la formule correcte est la première que tu as donné, i.e.
    erreur de la couche précédente = poids x erreur couche actuelle
    nouveau poids = ancien poids + n*erreur*df(e)/de*sortie de la couche précédente



    Source : http://galaxy.agh.edu.pl/~vlsi/AI/ba.../backprop.html
    (En PJ une copie de la page, il faut enlever l'extension .fla)

  6. #6
    Futur Membre du Club
    Profil pro
    Inscrit en
    Septembre 2010
    Messages
    16
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Septembre 2010
    Messages : 16
    Points : 6
    Points
    6
    Par défaut
    Après plusieurs recherches et plusieurs essais, je pense que la bonne relation est plutôt celle la :

    erreur de la couche précédente = poids x erreur couche actuelle x df(e)/de

    Car elle converge alors que l'autre converge beacoup moins bien. C'est également ce qui est dit sur :

    http://fr.wikipedia.org/wiki/R%C3%A9...on_du_gradient


    Qu'es ce que tu en penses ?

Discussions similaires

  1. [Réseaux de neurones] Algorithme de rétropropagation
    Par Naluh dans le forum Méthodes prédictives
    Réponses: 5
    Dernier message: 05/08/2015, 14h49
  2. [Réseau de neurones] Rétropropagation : pas de bons résultats
    Par DJEcalcul dans le forum Méthodes prédictives
    Réponses: 11
    Dernier message: 06/03/2014, 12h21
  3. [Réseaux de neurones] Algorithme de création du réseau
    Par Riless dans le forum Méthodes prédictives
    Réponses: 9
    Dernier message: 19/08/2013, 13h34
  4. Réponses: 1
    Dernier message: 20/06/2011, 11h08
  5. Réponses: 60
    Dernier message: 12/05/2011, 14h18

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo