Bonjour à tous,
j'essaye d'utiliser un réseau de neuronnes pour trouver une correlation entre des problemes et le temps que mettent certains algorithmes pour les resoudre.
J'ai utilise la librairie Encog en java pour simuler mon reseau, mais je ne pense pas que mon probleme vienne d'un defaut de programmation ou qqchose comme ca.
En fait, quelque soit le reseau que j'utilise (j'ai teste avec 1 couche cachee, 2 couches cachees, avec differents nombres de neuronnes dedans), quelque soit la methode d'apprentissage (retropropagation du gradient, Manhattan, QuickPropagation, ...), le reseau evolue de maniere a ce que la sortie aie toujours la meme valeur, quelque soit l'exemple d'entree que je lui donne, et cette valeur semble etre tres proche de la moyenne des sorties ideales.
Mon set d'exemple comporte 58 entrees, de chacune 109 elements. Je suis conscient que ca revient a faire un "apprentissage par coeur", mais meme en reduisant drastiquement le nombre de neuronnes en input, le probleme reste le meme.
J'aimerai donc avoir votre avis d'expert parce que moi en dehors des bases, je n'y connais rien... Est-ce qu'on peut en deduire quelque chose? qu'il faut rajouter des couches, en enlever, ou qu'il n'y a tout simplement pas de correlation a trouver... ?
Merci infiniment ^^
PS desole pour les accents qui manquent, je travaille sur un clavier qwerty
Partager