IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Méthodes prédictives Discussion :

Réseaux de neurones, initialisation du seuil.


Sujet :

Méthodes prédictives

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Membre averti
    Homme Profil pro
    Étudiant
    Inscrit en
    Avril 2007
    Messages
    23
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Val de Marne (Île de France)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Avril 2007
    Messages : 23
    Par défaut Réseaux de neurones, initialisation du seuil.
    Bonjour,

    Je me suis mis à lire le cours sur les réseaux de neurones de Alp Mestan, j'aimerais être sûr de mes acquis sur un neurone seul avant d'aller plus loin.

    Je suis arrivé à faire apprendre à mon neurone toutes les fonctions booléenne à deux variables linéairement séparables, mais je reste bloqué sur le seuil w_0... Si j'ai bien compris c'est l'ordonnée à l'origine de la droite séparant le vrai du faux, dans quel cas il est impossible d'apprendre la fonction complémentation droite (f(00)=f(10)=1 et f(01)=f(11)=0) avec un seuil compris entre 0 et 1 ?
    Donc on ne peux pas créer de neurone (avec un seuil fixé) qui puisse apprendre n'importe quelle fonction ? À moins que l'on puisse apprendre le seuil ?

    Merci pour votre aide !

  2. #2
    Membre éprouvé
    Inscrit en
    Mai 2006
    Messages
    196
    Détails du profil
    Informations forums :
    Inscription : Mai 2006
    Messages : 196
    Par défaut
    je reste bloqué sur le seuil w_0
    Je ne sais pas ce que vous avez avec ça (tu n'est pas le premier), mais les w_x NE SONT PAS des seuil MAIS des poids

    cf le cour de Alp :
    Un poids est simplement un coefficient w_i [...]. Il y a toutefois un "poids" supplémentaire [...]. Nous le noterons w 0 [...]
    Si j'ai bien compris c'est l'ordonnée à l'origine de la droite séparant le vrai du faux
    En effet, w_0, coefficient de biais, est l'ordonnée à l'origine. Par contre je ne dirais pas " séparant le vrai du faux", " séparant les classes".

    dans quel cas il est impossible d'apprendre la fonction complémentation droite (f(00)=f(10)=1 et f(01)=f(11)=0) avec un seuil compris entre 0 et 1 ?
    Désolé, mais la je ne comprends pas ce que tu veut dire. Ta fonction est linéairement séparable ... Il n'y pas de soucis même avec un perceptron...

    Donc on ne peux pas créer de neurone (avec un seuil fixé) qui puisse apprendre n'importe quelle fonction ? À moins que l'on puisse apprendre le seuil ?
    Encore une fois tu confonds "poids" et "seuil".
    Pour répondre à ta question : Le but d'un réseau de neurone est, justement, d'apprendre ces poids w_i, dont fait partie w_0, afin d'apprendre la fonction voulue.

    Le seuil est une limite fixe qui qui permet de rendre compte ou non de la sortie d'un neurone.

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
     
    x_0
          \
           w_0
            \
    ...      ----- g(e) --- ... ---y_hat 
            /
           w_n
          /
    x_n
    avec :
    x_0, ..., x_n les entrées.
    w_0, ..., w_n les poids correspondant aux x_i
    e=w_0*x_0+...+w_n*x_n.
    g() la fonction d'activation, qui détermine le seuil (cf cours de Alp).
    y_hat la prédiction.
    Les ... entre g(e) et y_hat indique des couches cachées.

    En espérant que cela t'aide.

  3. #3
    Membre averti
    Homme Profil pro
    Étudiant
    Inscrit en
    Avril 2007
    Messages
    23
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Val de Marne (Île de France)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Avril 2007
    Messages : 23
    Par défaut
    Ok, je crois avoir compris, merci !
    En fait, le coefficient de biais w_0 (relié à une entrée x_0=-1), peut être initialisé avec une valeur aléatoire et être ajusté durant l'apprentissage ?
    Mais les algo d'apprentissages de l'articles utilisent tous une boucle:
    w_0 n'est donc pas modifié...

    Ma question sur la complémentation droite est en fait lié à ce problème.

    Sinon dans l'article il est dit en III-D et en IV:
    le coefficient de biais, aussi appelé seuil
    Normal?

    EDIT: Bon après quelques recherches, il semblerait que le coefficient de biais doit aussi être modifier lors de l'apprentissage. Merci clercq.

  4. #4
    Membre averti
    Profil pro
    Inscrit en
    Janvier 2010
    Messages
    14
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Janvier 2010
    Messages : 14
    Par défaut
    Bonjour,

    Une simple question à ce sujet : le biais est-il corrigé de la même manière que les poids des connexions ?

    Merci.

  5. #5
    Membre éprouvé
    Inscrit en
    Mai 2006
    Messages
    196
    Détails du profil
    Informations forums :
    Inscription : Mai 2006
    Messages : 196
    Par défaut
    le coefficient de biais, aussi appelé seuil
    Mea culpa, c'est écrit...
    Pour ma défense, j'ai appris que w_0 est un poids tout comme les autres, associé à "une dimension supplémentaire" qui introduit le biais.

    Pour répondre à Courieux, ce biais est corrigé exactement de la même manière que les autres poids.

    Je tiens juste à préciser que mes réponses proviennent de ce que j'ai appris en cours , et peuvent malheureusement être exprimé différemment que dans le cours de Alp . Même si j'essaie de conserver une certaine cohérence

  6. #6
    Nouveau candidat au Club
    Inscrit en
    Septembre 2010
    Messages
    2
    Détails du profil
    Informations forums :
    Inscription : Septembre 2010
    Messages : 2
    Par défaut Calculer les sorties
    Je suis nouveau ,et je ne sais pas si cette question a été dejà traitée .

    Pour en revenir à la formulation matricielle de Alp

    A supposer que l'on obtient les poids de chaque connection ou synapses .
    Comment fait on intervenir les seuil (tanh et sygmoide) pour calculer la sortie d'un perceptron 2 couches cachées et 3 neurones par couche par exemple

    Merci de répondre à l'adresse Email ci dessous
    samisoa.rafamandrianjafy@omh.mg

+ Répondre à la discussion
Cette discussion est résolue.

Discussions similaires

  1. Poids synaptique et seuil sur réseaux de neurones
    Par Tadj13000 dans le forum MATLAB
    Réponses: 0
    Dernier message: 18/03/2013, 21h48
  2. Réseaux de neurones et seuil
    Par contremaitre dans le forum Méthodes prédictives
    Réponses: 8
    Dernier message: 24/04/2008, 10h53
  3. réseaux de neurones RBF
    Par liliana07 dans le forum C++Builder
    Réponses: 2
    Dernier message: 22/03/2007, 11h49
  4. Les réseaux de neurones ??? Ouvrage, site, tutos ???
    Par wallys dans le forum Méthodes prédictives
    Réponses: 5
    Dernier message: 21/03/2006, 14h08
  5. Réseaux de neurones
    Par kayin dans le forum Méthodes prédictives
    Réponses: 8
    Dernier message: 10/03/2004, 14h22

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo