IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Méthodes prédictives Discussion :

[Réseaux neuronaux] Architecture d'une couche de convolution


Sujet :

Méthodes prédictives

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Futur Membre du Club
    Profil pro
    Inscrit en
    Janvier 2014
    Messages
    4
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Janvier 2014
    Messages : 4
    Par défaut [Réseaux neuronaux] Architecture d'une couche de convolution
    Bonjour,

    je m'intéresse depuis peu aux réseaux de neurones, notamment en ce moments aux réseaux de neurones convolutifs, mais j'ai plusieurs questions auxquelles je n'arrive pas à trouver de réponse claire et précise ...
    Je suis donc venu ici dans l'espoir d'y trouver des réponses !

    Si j'ai bien compris, dans une couche "full connected", chaque neurone est relié à tous les neurones de la couche précédente et chaque neurones a également une matrice de poids (de la même taille que l'entrée) et un biais (optionnel).
    Dans une telle couche les neurones vont faire la somme des x(i)*w(i) et rajouter le biais à la fin (x est l'entrée et w les poids).

    Et dans une couche convolutionnelle c'est tout pareil sauf que la multiplication des matrices est remplacée par une convolution ? (où ce qui est entrainable est le noyau et le biais)
    Si c'est le cas alors pourquoi une couche de convolution à des neurones en profondeur ?
    Pourquoi dit-on que chaque neurone ne regarde qu'une partie de l'image à la fois, alors qu'ils font tous la convolution de toute l'image par leur filtre (noyau) ?
    J'ai crus comprendre que les neurones sur le même "plan" regardaient des parties différentes de l'image mais partageaient le même noyau ? Et que les neurones en profondeur regardaient la même partie que les neurones devant et derrière mais avec un noyau différent (mais commun avec leur plan ?)
    Si les neurones ne font pas la convolution de toute l'image par leur noyau alors que font-ils ? Font-ils seulement une seule itération de la convolution ? (faire la somme des produits indice à indice de leur noyau avec une partie de l'image ?) Dans ce cas il faut adapter le nombre de neurones de la première couche à la taille de l'image en entrée ?
    Peut-être que c'est carrément l'opération de convolution que j'ai mal comprise et qu'en fait la convolution d'une matrice par un noyau est juste le fait de faire la somme des produits indice à indice de la matrice avec le noyau ? Mais d'après Wikipedia il faut réaliser cette étape en faisant glisser le noyau sur la matrice ...

    Bon ça fait beaucoup de questions c'est vrai mais ce sont des questions simples et je suis complètement perdu
    Si quelqu'un pouvait m'expliquer comment ça se passe exactement pour chaque neurone dans une couche de convolution ça m'aiderait vraiment beaucoup !
    Merci d'avance !

  2. #2
    Modérateur
    Avatar de ToTo13
    Homme Profil pro
    Chercheur en informatique
    Inscrit en
    Janvier 2006
    Messages
    5 793
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 46
    Localisation : Etats-Unis

    Informations professionnelles :
    Activité : Chercheur en informatique
    Secteur : Santé

    Informations forums :
    Inscription : Janvier 2006
    Messages : 5 793
    Par défaut
    Dans une couche de convolution, tu as généralement plusieurs maps, que l'on appelle aussi "feature map".
    Chacune de ces maps a son propre noyau de convolution. Donc il y a autant de noyaux de convolution que de map.
    Ensuite, un neurone d'une map, va faire la convolution d'une même zone de toutes (ou une partie, c'est le cas du LeNet qui a un temps battu le record du MNIST) des maps de la couche précédente.
    Consignes aux jeunes padawans : une image vaut 1000 mots !
    - Dans ton message respecter tu dois : les règles de rédaction et du forum, prévisualiser, relire et corriger TOUTES les FAUTES (frappes, sms, d'aurteaugrafe, mettre les ACCENTS et les BALISES) => ECRIRE clairement et en Français tu DOIS.
    - Le côté obscur je sens dans le MP => Tous tes MPs je détruirai et la réponse tu n'auras si en privé tu veux que je t'enseigne.(Lis donc ceci)
    - ton poste tu dois marquer quand la bonne réponse tu as obtenu.

  3. #3
    Futur Membre du Club
    Profil pro
    Inscrit en
    Janvier 2014
    Messages
    4
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Janvier 2014
    Messages : 4
    Par défaut
    Merci pour ta réponse, j'ai à peu près compris l'histoire des feature maps.

    Mais en fait il n'y a pas vraiment de neurones dans une feature map (si on veut l'implémenter) ?
    Chaque feature map va faire la convolution de toute l'image (avec son propre noyau) et un neurone représente une itération de la convolution c'est ça ? (Du coup on dit qu'un neurone regarde une partie de l'image)
    Puis il y a une étape de pooling ... Ensuite la couche de convolution suivante aura des feature maps (autant qu'on veut) avec une profondeur égale au nombre de feature maps de la couche précédente
    Mais un détail me chiffone ... Si on part d'une image 32x32x3 et qu'on applique une convolution de noyau 5x5x3, les feature maps qui en ressortiront seront de taille 28x28 ou 28x28x3 ? En théorie c'est censé ressortir en 28x28x3 mais en lisant différents articles j'ai l'impression que ce qui ressort est du 28x28 ...
    Merci !

Discussions similaires

  1. Réponses: 0
    Dernier message: 04/07/2014, 08h18
  2. Architecture d'une couche d'abstraction ?
    Par JuanLuis dans le forum Architecture
    Réponses: 3
    Dernier message: 08/08/2012, 12h06
  3. Réponses: 2
    Dernier message: 08/04/2011, 17h51
  4. [FLASH MX2004] Architecture d'une classe
    Par matN59 dans le forum Flash
    Réponses: 6
    Dernier message: 13/05/2004, 08h11
  5. réseaux neuronaux (iA)
    Par VincentB dans le forum Méthodes prédictives
    Réponses: 5
    Dernier message: 26/09/2002, 21h12

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo