bonjour pour mon pfe je susi obligé d'utiliser les svm alors que je n'y connais rien! qq'un peut m'aider?
Version imprimable
bonjour pour mon pfe je susi obligé d'utiliser les svm alors que je n'y connais rien! qq'un peut m'aider?
svm est une methode staistique supervise creer par VAPNIK.
elle consiste à separer les objets(etiquetés soit par "1" soit par "-1" à classes en 2 classes distinctes par 1 hyperplans de la forme [h(x)=w.x + b ]
et si il y'a d'autres problemes je suis là.
bon courrage.
Commence à regarder déjà sur internet : http://fr.wikipedia.org/wiki/Machine...urs_de_support
Et aprés pose des questions, sur ce que tu n'as pas compris.
Bonsoir je me permets de m'introduire dans la discussion
j'ai un petit problème avec la fonction noyau
ce que j'ai compris : on applique une transformation au vecteur d'entrée qui nous donne un nouveau vecteur de dimension beaucoup plus grande, on espère (c'est très probable) que dans cet espace le problème est linérairement séparable
quelle sera la différence alors entre utiliser un SVM, ou appliquer la transformation qu'on vient de voir aux vecteurs d'entrées, puis traiter l'image des vecteurs avec un réseau de neurone à une couche cachée ??
Renaud
L'interet des SVM c'est que le kernel nous renvoie directement la valeur dont on a besoin (= le produit scalaire des vecteurs de grande dimension).
On n'a donc pas besoin de travailler dans l'espace de grande dimension. On n'a meme pas besoin de savoir a quoi cet espace ressemble.
En effet, comme le dit pseudocode, on a pas besoin d'autant d'informations qu'il y paraît.
Avec un RdN, tu aurais beaucoup plus de choses à faire. Grâce aux noyaux, on a le produit scalaire et c'est suffisant pour la suite.
Bonjour,
J'avais une petite question :
pour minimiser la distance entre l'hyperplan séparateur et les échantillons, est-ce qu'on prends en considération tout les exemples d'apprentissage ou bien juste ceux qui sont proches de l'hyperplan ( vecteurs support) ?.
et dans ce dernier cas comment les choisir ?.
Merci d'avance
Ce sont seux qui sont proches de l'hyperplan qui vont être utiles pour trouver la marge à appliquer pour placer l'hyperplan.
Merci Alp,
Mais tu fais comment pour les choisir ces vecteurs ? ou bien ça se fait automatiquement sans avoir à se soucier de voir quels sont les vecteurs support ?
http://www.iro.umontreal.ca/~bengioy...6/svm/svm.htmlCitation:
Envoyé par http://www.iro.umontreal.ca/~bengioy/ift6266/svm/svm.html
Cette page devrait répondre à pas mal de tes questions ;)
Merci encore Alp :)
Tout est automatique.
D'ailleurs, les SVMs font mieux que les RdN pour la classif car il n'y a pas de problème d'over-fit ou de généralisation.
Le kernel trick, c'est un outil qu'on peut utiliser partout où il y a un produit scalaire.
Faut vrament que je fasse un tuto là-dessus un jour, je crois...
Ca serait volontier !