Bonjour grands sages de Matlab! ^_^

J'ai un petit problème qui me turlupine. J'ai un exemple tiré du livre de Negnevitsky (pour les curieux: http://www.booksites.net/download/ne...2/download.htm) qui utilise le Neural Network Toolbox 5.0, mais cette version est obsolète depuis 2007.

On pourrait débattre des pour et des contre de la nouvelle version, mais, au final, c'est toujours Mathworks qui auront le dernier mot

Bref, ma question est: comment je fais pour éviter le warning comme quoi la syntaxe est obsolète (sans supprimer le warning ) tout en conservant les mêmes résultats? Parce que c'est là le problème: ça ne fonctionne plus!

La fonction est simple: reproduction d'un XOR avec 2 neurones sur une couche cachée. Il est donc sensé être facile de reproduire ces résultats...

J'ai regardé le script de la fonction newff et je peine à trouver ce que Matlab fait en cachette.

J'ai amélioré les résultats en forçant les trainings sets à être tous les vecteurs d'entrées (proportions: training=1, validation=0, test=0), mais même à ça, il trouve le moyen de se planter... Pourtant, il semble atteindre le bon taux d'erreur (fixé à 10^-3) en environ 280 époques.

Des idées sur le bobo?

Merci tout plein!!