IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Méthodes prédictives Discussion :

Création d'un reseau récurrent avec apprentissage par renforcement


Sujet :

Méthodes prédictives

  1. #1
    Membre éclairé
    Homme Profil pro
    Chercheur en informatique
    Inscrit en
    Juin 2008
    Messages
    522
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Puy de Dôme (Auvergne)

    Informations professionnelles :
    Activité : Chercheur en informatique

    Informations forums :
    Inscription : Juin 2008
    Messages : 522
    Points : 725
    Points
    725
    Par défaut Création d'un reseau récurrent avec apprentissage par renforcement
    Bonjour

    J'aimerai réaliser ce type de réseau qui semble interressant, j'ai donc cherché et j'ai trouvé des informations.
    Donc pour ce type de réseau je prends des neurones que je connecte n'importe comment (au hasard) et je défini x neurones d'entrées et je place y neurones de sortie sachant que chaque neurone de sortie modifie l'environnement et les neurones d'entrée recoivent l'information sur l'environnement.
    Ensuite j'utilise la loi de hebb pour modifier les poids selon la règle instar qui améliore la loi de hebb.

    La où j'ai de la difficuleté à comprendre c'est pour le signal de renforcement R. Le réseau doit chercher à le maximiser. Mais comment?
    R est-il une simple entrée comme les autres?
    En bref: Comment implémenter R?

    J'ai utilisé les sources suivantes pour me documenter :
    http://emmanuel.dauce.free.fr/Hermes/chap3.pdf (c'est très qualitatif avec des expériences concrètes dont les résultats sont présentés).
    http://books.google.fr/books?id=P1Gg...20hebb&f=false (pour le règle de Hebb)

    Pouvez-vous m'aider?
    Raphchar.

  2. #2
    Membre expérimenté
    Homme Profil pro
    Chercheur
    Inscrit en
    Mars 2010
    Messages
    1 218
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Chercheur

    Informations forums :
    Inscription : Mars 2010
    Messages : 1 218
    Points : 1 685
    Points
    1 685
    Par défaut
    L'optimisation doit être comprise au sens des processus de décision markoviens :
    http://en.wikipedia.org/wiki/Markov_decision_process

  3. #3
    Membre éclairé
    Homme Profil pro
    Chercheur en informatique
    Inscrit en
    Juin 2008
    Messages
    522
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Puy de Dôme (Auvergne)

    Informations professionnelles :
    Activité : Chercheur en informatique

    Informations forums :
    Inscription : Juin 2008
    Messages : 522
    Points : 725
    Points
    725
    Par défaut
    Il n'y aurait pas des sources détaillant la fabrication d'un réseau récurentes. Des exemples détaillés par exemples.
    Raphchar.

Discussions similaires

  1. [IA] Implémentation d'un apprentissage par renforcement
    Par shinigami dans le forum Méthodes prédictives
    Réponses: 9
    Dernier message: 16/07/2019, 22h25
  2. Apprentissage par renforcement et reconnaissance
    Par SKone dans le forum Méthodes prédictives
    Réponses: 6
    Dernier message: 18/01/2011, 11h30
  3. [java] Apprentissage par renforcement et Tic-Tac-Toe
    Par Champialex dans le forum Contribuez
    Réponses: 0
    Dernier message: 16/06/2010, 01h30
  4. [Algo] Apprentissage par renforcement
    Par adretto dans le forum Méthodes prédictives
    Réponses: 1
    Dernier message: 24/05/2007, 19h25
  5. Apprentissage par Renforcement
    Par Le Furet dans le forum Méthodes prédictives
    Réponses: 4
    Dernier message: 11/08/2005, 17h22

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo