IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Méthodes prédictives Discussion :

Comment combiner deux classifieurs ?


Sujet :

Méthodes prédictives

  1. #1
    Membre du Club
    Inscrit en
    Décembre 2009
    Messages
    62
    Détails du profil
    Informations forums :
    Inscription : Décembre 2009
    Messages : 62
    Points : 41
    Points
    41
    Par défaut Comment combiner deux classifieurs ?
    salut tout le monde
    je veux combiner deux classifieurs (réseaux de neurones et SVM), sachant que j'ai deja classifier avec le réseau de neurones seul et les SVMs seul, maintenant je veux les combiner. comment ???

  2. #2
    Membre habitué Avatar de abidineb
    Inscrit en
    Septembre 2008
    Messages
    298
    Détails du profil
    Informations forums :
    Inscription : Septembre 2008
    Messages : 298
    Points : 132
    Points
    132
    Par défaut
    Merci beacoup telecom85;
    Tu nous apporte une nouvelle idée, je ne savais pas que ça existe, cette combinaison bien sur.
    Merci
    Cordialement

  3. #3
    Modérateur
    Avatar de ToTo13
    Homme Profil pro
    Chercheur en informatique
    Inscrit en
    Janvier 2006
    Messages
    5 793
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 45
    Localisation : Etats-Unis

    Informations professionnelles :
    Activité : Chercheur en informatique
    Secteur : Santé

    Informations forums :
    Inscription : Janvier 2006
    Messages : 5 793
    Points : 9 860
    Points
    9 860
    Par défaut
    Bonjour,

    tu peux simplement faire la moyenne des deux probabilités.
    Le mieux est de travailler avec un nombre impair de classifieurs.
    Mais attention, il est préférable que les classifieurs aient des performances comparables, sinon il vaut mieux pondérer les réponses.

    Une autre solution est de faire du boosting comme cela est fait par AdaBoost. Mais ça, je n'ai jamais utilisé :-(
    Consignes aux jeunes padawans : une image vaut 1000 mots !
    - Dans ton message respecter tu dois : les règles de rédaction et du forum, prévisualiser, relire et corriger TOUTES les FAUTES (frappes, sms, d'aurteaugrafe, mettre les ACCENTS et les BALISES) => ECRIRE clairement et en Français tu DOIS.
    - Le côté obscur je sens dans le MP => Tous tes MPs je détruirai et la réponse tu n'auras si en privé tu veux que je t'enseigne.(Lis donc ceci)
    - ton poste tu dois marquer quand la bonne réponse tu as obtenu.

  4. #4
    Membre habitué Avatar de abidineb
    Inscrit en
    Septembre 2008
    Messages
    298
    Détails du profil
    Informations forums :
    Inscription : Septembre 2008
    Messages : 298
    Points : 132
    Points
    132
    Par défaut
    Bonjour,
    J'ai aucune idée a ce sujet, mais je ne suis pas d'accord sur la moyenne des erreurs, c'est pas logique.
    Cordialement

  5. #5
    Modérateur
    Avatar de ToTo13
    Homme Profil pro
    Chercheur en informatique
    Inscrit en
    Janvier 2006
    Messages
    5 793
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 45
    Localisation : Etats-Unis

    Informations professionnelles :
    Activité : Chercheur en informatique
    Secteur : Santé

    Informations forums :
    Inscription : Janvier 2006
    Messages : 5 793
    Points : 9 860
    Points
    9 860
    Par défaut
    Bonjour,

    si les erreurs sont comparables et différentes, les classifieurs peuvent se compenser et donc corriger les erreurs de l'autre.
    Consignes aux jeunes padawans : une image vaut 1000 mots !
    - Dans ton message respecter tu dois : les règles de rédaction et du forum, prévisualiser, relire et corriger TOUTES les FAUTES (frappes, sms, d'aurteaugrafe, mettre les ACCENTS et les BALISES) => ECRIRE clairement et en Français tu DOIS.
    - Le côté obscur je sens dans le MP => Tous tes MPs je détruirai et la réponse tu n'auras si en privé tu veux que je t'enseigne.(Lis donc ceci)
    - ton poste tu dois marquer quand la bonne réponse tu as obtenu.

  6. #6
    Membre habitué Avatar de abidineb
    Inscrit en
    Septembre 2008
    Messages
    298
    Détails du profil
    Informations forums :
    Inscription : Septembre 2008
    Messages : 298
    Points : 132
    Points
    132
    Par défaut
    Bonjour,
    Ok, il faut vraiment que les erreurs se rapprochent les une des autres.
    Merci
    Cordialement

  7. #7
    Membre régulier
    Inscrit en
    Janvier 2006
    Messages
    288
    Détails du profil
    Informations forums :
    Inscription : Janvier 2006
    Messages : 288
    Points : 113
    Points
    113
    Par défaut
    Bonjour,

    Abidineb disait : "Ok, il faut vraiment que les erreurs se rapprochent les une des autres", ce serait intéressant de donner plus d'explications ou de détails pour le justifier ou le prouver et surtout de nous indiquer comment faire cette combinaison.

    Merci d'avance pour les réponses constructives.

    Bien à Vous

  8. #8
    Membre actif
    Inscrit en
    Mai 2006
    Messages
    196
    Détails du profil
    Informations forums :
    Inscription : Mai 2006
    Messages : 196
    Points : 202
    Points
    202
    Par défaut
    Le principe du Boosting est de façon grossière de "booster" la classification en utilisant la règle 1+1 = 3.

    En gros on prends des classifieurs basiques (perceptron par exemple), on les entraine chacun sur une partie aléatoire d'une base d'apprentissage et l'on test leur performance sur la base d'apprentissage entiere.
    De cette façon chaque classifieur basique (i.e chaque perceptron) reçoit un score en fonction de leur performance sur la base d'app.

    Pour utiliser le classifieur "booster" il 'suffit' d'agréger chaque classifieur basiques en fonction de sa performance -> Je me raccorde ici a Toto13 : On utilise une moyenne pondérée, poids fonction de la performance.

    Cette technique permet avec de classifieurs linéaire de "creer" un classifieur non lineaire.

    En TP j''avais compare la performance perceptron / RdN / Boosting avec P / Boosting avec RdN / ... dans un cas non linéaire.

    Comme on pouvait s'y attendre le perceptron a montre des performance médiocre. L'erreur de classification entre RdN et B-P était comparable, et le B-RdN n'apportait rien, mise a part une perte de temps .

    Ceci pour dire : Le boosting c'est puissant, mais l'idée de combiner RdN et SVM me parait sans grand apport. Mais je me trompe peut être .

    Sinon pour répondre a ta question : Je voterais pour la moyenne pondérée.

  9. #9
    Membre régulier Avatar de Bucketpc
    Inscrit en
    Août 2008
    Messages
    98
    Détails du profil
    Informations personnelles :
    Âge : 36

    Informations forums :
    Inscription : Août 2008
    Messages : 98
    Points : 118
    Points
    118
    Par défaut Combine des classifieurs
    Il est toutes fois possible de combiner les différents classifieurs, mais il faut toujours se poser la question: " est ce que ça va donner de meilleurs résultats ? "

    Vous pouvez la réaliser en utilisant le bagging (le vote) où chaque méthode vote sur une classe (la classe obtenu après le déroulement de la classification) ... et la classe ayant un score élevé est attribuée à l'exemple.

Discussions similaires

  1. Comment fusionner deux classifieurs
    Par abidineb dans le forum Intelligence artificielle
    Réponses: 12
    Dernier message: 17/11/2011, 22h14
  2. comment combiner deux images avec WIA
    Par blondelle dans le forum C++Builder
    Réponses: 0
    Dernier message: 22/05/2009, 14h33
  3. comment comparer deux dates?
    Par billoum dans le forum C++Builder
    Réponses: 2
    Dernier message: 21/08/2004, 21h08
  4. comment lier deux tables?????
    Par baboune dans le forum PostgreSQL
    Réponses: 3
    Dernier message: 16/03/2004, 14h45

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo