Bonjour à tous,
Il y a un truc que je n'arrive pas bien à saisir. D'une part, quand on utilise des SVM (ou autre algos) pour de la classification, en gros, plus on monte en dimension plus c'est "facile" de séparer mais ceci n'est pas forcément "bien" car le classifieur perd en capacité à généraliser: la malédiction de la dimension.
D'une autre part, le noyau RBF a une dimension infinie et pourtant il donne des résultats assez bon.
Quelqu'un aurait une explication ?
Merci d'avance.
G.
Partager