IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Méthodes prédictives Discussion :

[Réseaux de neurones] Utilité du biais ?


Sujet :

Méthodes prédictives

  1. #1
    Membre du Club
    Profil pro
    Développeur Web
    Inscrit en
    Juin 2010
    Messages
    38
    Détails du profil
    Informations personnelles :
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Juin 2010
    Messages : 38
    Points : 50
    Points
    50
    Par défaut [Réseaux de neurones] Utilité du biais ?
    Bonjour,

    Je suis actuellement entrain d'apprendre à développer des réseaux de neurones.

    J'ai implémenté un perceptron multi-couche pour le calcul du XOR en insérant pour chaque couche un biais (ce biais étant relié à un poid).

    Je me suis demandé tout à coup à quoi servait ce biais. J'ai essayé de le retirer pour voir comment le réseau allait réagir mais effectivement il ne calculait plus le XOR comme auparavant.

    Alors ma question c'est à quoi peu bien servir le biais ?
    Parce que à part rajouter un poid sur chaque couche, j'ai de la peine à savoir en quoi il peut aider le réseau.

    PS: Je connais la différence entre le seuil et le biais.

    Merci d'avance pour vos réponses

  2. #2
    Membre éprouvé

    Homme Profil pro
    Cyber Security & AI
    Inscrit en
    Février 2009
    Messages
    506
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Oise (Picardie)

    Informations professionnelles :
    Activité : Cyber Security & AI

    Informations forums :
    Inscription : Février 2009
    Messages : 506
    Points : 1 189
    Points
    1 189
    Billets dans le blog
    2
    Par défaut
    Il y a cette explication pour le cadre générale:

    Biais dans les réseaux de neurones Chapitre 3/4

    Dans le cas d'une fonction XOR, ta fonction d'activation est la quel dans ton neurone ? Car elle doit être différente de 0. Ne serais ce pas la raison de ton biais.

    J'ai peur de dire une bêtise mais voilà l'explication que je donnerais.

  3. #3
    Membre du Club
    Profil pro
    Développeur Web
    Inscrit en
    Juin 2010
    Messages
    38
    Détails du profil
    Informations personnelles :
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Juin 2010
    Messages : 38
    Points : 50
    Points
    50
    Par défaut
    Salut,

    Merci pour ta réponse, mais même avec l'aide du PDF, j'arrive pas à me représenter la chose. Surtout que dans ce cas le biais n'est pas associé à un poid.

    Pour les neurones de la couche cachée et la couche de sortie, j'utilise la fonction sigmoide comme fonction d'activation.

    J'ai peut-être aussi oublié de préciser que les biais des deux couches sont considérés comme des entrées supplémentaires associés à des poids et qu'ils sont égales à 1.

  4. #4
    Membre éprouvé

    Homme Profil pro
    Cyber Security & AI
    Inscrit en
    Février 2009
    Messages
    506
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Oise (Picardie)

    Informations professionnelles :
    Activité : Cyber Security & AI

    Informations forums :
    Inscription : Février 2009
    Messages : 506
    Points : 1 189
    Points
    1 189
    Billets dans le blog
    2
    Par défaut
    Je vais essayer d'être pédagogue.
    Prenons un réseaux de deux neurones qui renvoie une valeur en entrée.

    Pour l'entrer:
    Pour f(x)=1/(1+e^-x) alors f(0) = 1/2 et f(1)=<1/2 ou 1/4<f(1)<=1/2
    On a les deux points du même coté de la tangente verticale.

    Avec un biais:
    Pour g(x)=1/(1+e^(-x-0.5)) alors g(0)=0.6 et f(0)=0.4
    Nous avons les points de chaque coté de la tangente verticale.

    Dans le premier cas ton second neurone ne peux pas différentier f(1) de f(0) du fais qu'ils sont du même coté de la tangente verticale alors que dans le second cas ils sont de part et autre.

    Tu peux faire varier le poids du neurone mais dans tout les cas si w > 0 alors f(1) et f(0) seront inférieur à 1/2 et dans le cas w<0 supérieur à 1/2.


    Autre approche en Anglais.

    Est ce que cela t'aide à ta compréhension du problème ?

  5. #5
    Membre du Club
    Profil pro
    Développeur Web
    Inscrit en
    Juin 2010
    Messages
    38
    Détails du profil
    Informations personnelles :
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Juin 2010
    Messages : 38
    Points : 50
    Points
    50
    Par défaut
    Salut,

    Oui merci, à l'aide du lien et de ton explication, j'ai peu comprendre la problématique.

    Je te remercie

+ Répondre à la discussion
Cette discussion est résolue.

Discussions similaires

  1. [Réseaux de neurones] Utilité pour de la reconnaissance de caractères
    Par gaetan13 dans le forum Méthodes prédictives
    Réponses: 6
    Dernier message: 09/07/2012, 11h49
  2. [newsom] Réseaux de neurones kohenen (SOM)
    Par Alucard9800XT dans le forum MATLAB
    Réponses: 1
    Dernier message: 22/05/2007, 21h07
  3. réseaux de neurones RBF
    Par liliana07 dans le forum C++Builder
    Réponses: 2
    Dernier message: 22/03/2007, 12h49
  4. Les réseaux de neurones ??? Ouvrage, site, tutos ???
    Par wallys dans le forum Méthodes prédictives
    Réponses: 5
    Dernier message: 21/03/2006, 15h08
  5. Réseaux de neurones
    Par kayin dans le forum Méthodes prédictives
    Réponses: 8
    Dernier message: 10/03/2004, 15h22

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo