IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Méthodes prédictives Discussion :

[Réseau de neurones] Rétropropagation et biais


Sujet :

Méthodes prédictives

  1. #1
    Candidat au Club
    Profil pro
    Inscrit en
    Janvier 2012
    Messages
    5
    Détails du profil
    Informations personnelles :
    Localisation : Suisse

    Informations forums :
    Inscription : Janvier 2012
    Messages : 5
    Points : 4
    Points
    4
    Par défaut [Réseau de neurones] Rétropropagation et biais
    Bonjour tout le monde,

    Je viens de finir une ébauche de mon réseau de neurones multi-couches, utilisant l'approximation stochastiques du gradient descendant, backpropagation pour mettre à jour les poids et le sigmoid pour la fonction d'activation.

    J'ai juste une légère incompréhension sur le biais : chacun de mes neurones a un bias (généré aléatoirement au début) qu'il utilise dans la sommation qui passera dans la fonction de squash, en l'occurrence le sigmoid dans mon cas.

    J'ai constaté que lorsque je mettais à jour ce bias avec les deltas (plus un momentum mais ça ne change rien pour le problème), les résultats étaient totalement erronés. Si je ne le mets pas à jour, tout fonctionne niquel.

    Ma question va être pourquoi peut-on utiliser un bias dans un cas multi-couche mais à quoi sert-il ? Dans le cas du perceptron simple, je vois son utilité à cause de la fonction sgn(x) mais là j'ai un peu de peine à conceptualiser. Faut-il le mettre à jour de la même façon que les autres poids ? Pour finir, à quoi sert-il concrètement dans du multi-couche ? Qu'est-ce qui change de l'enlever ? (ça marche aussi si je l'enlève)

    Le réseau de neurones est testés sur du XOR et NXOR actuellement avant de passer au cas concret.

    Je vous remercie de vos réponses. J'ai utilisé comme référence le livre Machine Learning de T.M.

  2. #2
    Candidat au Club
    Profil pro
    Inscrit en
    Janvier 2012
    Messages
    5
    Détails du profil
    Informations personnelles :
    Localisation : Suisse

    Informations forums :
    Inscription : Janvier 2012
    Messages : 5
    Points : 4
    Points
    4
    Par défaut
    Finalement, utiliser le bias fonctionne, j'avais fait une soustraction de celui-ci dans la sommation, plutôt qu'une addition.

    Ma dernière question sera : pourquoi utiliser un bias dans du multicouches ? Dans le monocouche, dans le cas où les inputs valent 0, on a un problème, mais dans le multi-couche, si on utilise sigmoid par exemple, même si les inputs valent 0, l'output de la première couche vaudra 0.5.

    Une idée ?

Discussions similaires

  1. [Réseau de neurones] Rétropropagation : pas de bons résultats
    Par DJEcalcul dans le forum Méthodes prédictives
    Réponses: 11
    Dernier message: 06/03/2014, 12h21
  2. Réseau de neurones - algorithme de rétropropagation
    Par BabyC dans le forum Méthodes prédictives
    Réponses: 5
    Dernier message: 18/10/2011, 20h05
  3. Réponses: 1
    Dernier message: 20/06/2011, 11h08
  4. Réponses: 60
    Dernier message: 12/05/2011, 14h18
  5. Réseau de neurones - reconnaissance visage
    Par PrAbronsius dans le forum Algorithmes et structures de données
    Réponses: 9
    Dernier message: 03/05/2006, 03h38

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo