C'est encore mieux que ça : le théorème de Cybenko (si on le traduit en réseaux de neurones) dit qu'on peut approcher toute fonction continue de I^n dans R (où I est un intervalle compact comme [0,1]) avec toute la précision voulue, avec une couche d'entrée à n noeuds, une couche cachée de taille finie et un neurone de sortie (modèle du perceptron multi-couche avec une sigmoïde comme fonction de seuil).
Evidemment c'est un théorème d'existence, très général, qui ne donne ni les poids, ni les biais, ni le nombre de neurones dans la couche cachée.
Partager