Citation:
wi(t + 1) = wi(t) + µ * ((d - x) * ei)
Ceci est la bonne formule, elle est appelée règle de Widrow-Hoff.
Citation:
En continuant pour arriver à l'origine de ma venue... Je me posais d'autres questions. La première: est-ce que le poids seuil w0 peut changer lors de la phase d'apprentissage, à la manière des autres poids?
Oui le poids w0 peut changer comme les autres poids. Mais ce n'a rien a voir avec le seuil.
Citation:
Et enfin, il me semblait avoir compris qu'un poids était lié à une information.
Un poids n'a pas liée a une information, mais a un dendrite si je puis m'exprimer ainsi. Et donc dans le cas des perceptrons multicouches une même information peut avoir diffèrent poids.
Citation:
J'ai essayé de réaliser la fonction logique XOR à l'aide de trois neurones disposés comme ceci:
L'image que tu donne est l'image d'une perceptron multicouche, et la méthode pour le résoudre est la back-propagation.
La manière pour résoudre un XOR avec un perceptron mono-couche est un changement de base (ici -> passer d'un espace 2D a un espace 3D), ce qui permet de coller a la dimension de Vapnik–Chervonenkis.