Éviter le surapprentissage ?
Bonjour,
J'ai deux ensembles : l'un des entrées et l'autre des sorties et je cherche à créer un perceptron multicouche à une couche cachée. Mais l'exécution est longue.
Je voudrais stopper le surapprentissage (nb de neurones cachées, nb d'itérations). Pour ce faire, la validation croisée de K-fold permettrait d'alléger le temps de calcul.
Je ne comprends toujours pas l'algorithme de validation croisée.
Ce que je fais (même si je sais déjà que c'est pas correct, j'essaie sans la boucle, ceci est un cas simple...) :
1) Découper l'ensemble des entrées en K partitions disjontes : Xtrain pour K-1 et Xtest le restant.
2) Construire un modèle avec Xtrain (quel modèle ? Apprendre un réseau de neurones sans rétropropagation ?)
3) Evaluer l'erreur de ce modèle avec Xtest : Pb de dimension, disons Ytrain de taille 80x2 et Ytest de taille 20x2... Comment ?
( avec la boucle for i de 1 à K : 4) Calculer la moyenne de ces erreurs )
Ytest = Sorties(i==K, : ) ?
Merci infiniment