IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Méthodes prédictives Discussion :

Réseau de neurones pour la classification de signaux.


Sujet :

Méthodes prédictives

  1. #1
    Membre à l'essai
    Profil pro
    Inscrit en
    Juin 2007
    Messages
    27
    Détails du profil
    Informations personnelles :
    Âge : 38
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations forums :
    Inscription : Juin 2007
    Messages : 27
    Points : 22
    Points
    22
    Par défaut Réseau de neurones pour la classification de signaux.
    Bonjour,

    Je souhaite mettre en place un réseau de neurones pour fair de la classification de signaux. Les entrées de mon réseau sont des caractéristique des signaux, pour l'instant j'opte pour la moyenne et la variance, plus tard peut-être j'y ajouterai les moments statistiques d'odre 3 et 4. Pour la sortie il n'y en à qu'une, binaire, elle dit si le signal est de type 0 ou 1.

    Je ne sais pas quel serait l'architecture idéal pour répondre à mon problème, je pense commencer par le plus simple, le perceptron avec une couche cachée. J'utiliserai aussi une fonction d'activation sigmoïde et un apprentissage par rétro-propagation de l'erreur.

    Qu'est ce que vous en pensez ? Il y a peut-être une meilleure solution, je suis ouvert à toutes suggestions.

    J'ai aussi une quesiton concernant la couche cachée, je n'ai aucune idée du nombre de neurones que je dois y mettre. Je n'ai aps trouvé de théorie à ce sujet pour les perceptrons.

  2. #2
    Alp
    Alp est déconnecté
    Expert éminent sénior

    Avatar de Alp
    Homme Profil pro
    Inscrit en
    Juin 2005
    Messages
    8 575
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 35
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations forums :
    Inscription : Juin 2005
    Messages : 8 575
    Points : 11 860
    Points
    11 860
    Par défaut
    Généralement, on peut approximer n'importe quelle fonction continue (et même certaines discontinues) grâce à un perceptron multicouche avec une couche cachée, dans le cas où la fonction d'activation est la fonction sigmoïde.

    Donc te lancer dans cette structure est approprié.

    Pour le nombre de neurones de la couche cachée, il y a des approximations dans certains cas (réseau avec des fonctions à seuil -> pour approcher une fonction booléenne) mais il n'y a rien qui te permet de savoir combien de neurones mettre. Il s'agit donc de faire des essais aléatoires pour le nombre de neurones dans la couche cachée.

    La question donc est de savoir si, pour deux signaux aux caractéristiques très proches, ton réseau doit donner la même chose en sortie (continuité, cf le premier paragraphe de mon message).
    Il semblerait que oui mais bon.

  3. #3
    Membre à l'essai
    Profil pro
    Inscrit en
    Juin 2007
    Messages
    27
    Détails du profil
    Informations personnelles :
    Âge : 38
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations forums :
    Inscription : Juin 2007
    Messages : 27
    Points : 22
    Points
    22
    Par défaut
    Merci, ta remarque sur la continuité m'aide beaucoup, je ne l'avais pas trouvée autre part.

    Donc pour le nombre de neurones, voir ^même le nombre de couche je vais me lancer et on vera.

    J'ai une autre question, est ce que tous les neurones doivent être identiques, dans une même couche et/ou d'une couche à l'autre. Je parle de leur fonction d'activation et de leur fonction de combinaison.

  4. #4
    Alp
    Alp est déconnecté
    Expert éminent sénior

    Avatar de Alp
    Homme Profil pro
    Inscrit en
    Juin 2005
    Messages
    8 575
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 35
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations forums :
    Inscription : Juin 2005
    Messages : 8 575
    Points : 11 860
    Points
    11 860
    Par défaut
    Le théorème qui a été démontré dit qu'avec un RdN à une seule couche cachée, où chaque neurone a comme fonction d'activation la fonction sigmoïde, peut approcher n'importe quelle fonction continue.
    Il me semble que c'est le théorème de Cybenko.

    Pour le nombre de couches cachées -> 1 seule suffira en principe.

    Après, pour le nombre de neurones de la couche cachée ... Tu dois tester et tenter d'améliorer.

Discussions similaires

  1. Une réseau de neurones pour un agent de dialogue en langage naturel
    Par Invité dans le forum Méthodes prédictives
    Réponses: 23
    Dernier message: 19/10/2013, 23h49
  2. Réseau de neurones pour un Morpion
    Par wadison dans le forum Méthodes prédictives
    Réponses: 19
    Dernier message: 20/09/2011, 14h37
  3. Réseau de neurones pour la commande
    Par liinna dans le forum Méthodes prédictives
    Réponses: 5
    Dernier message: 10/11/2009, 14h58
  4. Réseau de neurones pour un OCR
    Par overlolo dans le forum Méthodes prédictives
    Réponses: 4
    Dernier message: 24/05/2009, 10h52
  5. Réseau de neurone pour prévision d'une série temporelle
    Par ranianwayra dans le forum Méthodes prédictives
    Réponses: 1
    Dernier message: 22/08/2008, 23h55

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo