IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Mathématiques Discussion :

Minimisation d'une fonction à plusieurs variables en C++ : algo Line-search, Newton Raphson, Gradient Conjugué


Sujet :

Mathématiques

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Membre du Club
    Homme Profil pro
    Étudiant
    Inscrit en
    Octobre 2012
    Messages
    5
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bas Rhin (Alsace)

    Informations professionnelles :
    Activité : Étudiant
    Secteur : Enseignement

    Informations forums :
    Inscription : Octobre 2012
    Messages : 5
    Par défaut Minimisation d'une fonction à plusieurs variables en C++ : algo Line-search, Newton Raphson, Gradient Conjugué
    Je demandais comment écrire l'algorithme de la méthode de LINE-SEARCH,de NEWTON RAPHSON, et l'algorithme des GRADIENT CONJUGUES pour la minimisation d'une fonction à plusieurs variables en C++.Si vous pouvez m'expliquer avec plus de détaille l'inverse de la matrice Hessienne définie par la dérivée seconde de la fonction à plusieurs variables.
    Cordialement,

  2. #2
    Membre Expert
    Homme Profil pro
    Chercheur
    Inscrit en
    Mars 2010
    Messages
    1 218
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Chercheur

    Informations forums :
    Inscription : Mars 2010
    Messages : 1 218
    Par défaut
    Bonjour,

    la manière dont on programme ce type de méthode dépend fortement du type de données. De quelles données disposes-tu? Dans quel contexte souhaites-tu utiliser ces algorithmes? Il faudra également préciser ce que tu entends par la méthode "line search" car il en existe plusieurs. Précise également ce qui te pose problème avec l'inverse de la matrice hessienne.

  3. #3
    Membre du Club
    Homme Profil pro
    Étudiant
    Inscrit en
    Octobre 2012
    Messages
    5
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bas Rhin (Alsace)

    Informations professionnelles :
    Activité : Étudiant
    Secteur : Enseignement

    Informations forums :
    Inscription : Octobre 2012
    Messages : 5
    Par défaut Minimisation d'une fonction
    Citation Envoyé par Aleph69 Voir le message
    Bonjour,

    la manière dont on programme ce type de méthode dépend fortement du type de données. De quelles données disposes-tu? Dans quel contexte souhaites-tu utiliser ces algorithmes? Il faudra également préciser ce que tu entends par la méthode "line search" car il en existe plusieurs. Précise également ce qui te pose problème avec l'inverse de la matrice hessienne.
    Bonjour,
    On cherche à minimiser la fonction f(x,y)=x*x+x+y*y+xy,avec comme point de départ {x0,y0}={-3,1} par la méthode des gradients conjugués(cette methode utilise dans un premier temps la direction fournie par le gradient de la fonction que l'on cherche à minimiser,dans un deuxiéme temps la direction conjuguée),aussi par la methode de "line-search qui utilise aussi la direction fourni par le gradient de la fonction que l'on cherche à minimiser et par la méthode de Newton Raphson.
    La matrice Hessienne est définie par la dérivée seconde de la fonction f(x,y)).
    Cordiale,

  4. #4
    Membre Expert
    Homme Profil pro
    Chercheur
    Inscrit en
    Mars 2010
    Messages
    1 218
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Chercheur

    Informations forums :
    Inscription : Mars 2010
    Messages : 1 218
    Par défaut
    Bonjour,

    Citation Envoyé par doky87 Voir le message
    Bonjour,
    On cherche à minimiser la fonction f(x,y)=x*x+x+y*y+xy,avec comme point de départ {x0,y0}={-3,1} par la méthode des gradients conjugués(cette methode utilise dans un premier temps la direction fournie par le gradient de la fonction que l'on cherche à minimiser,dans un deuxiéme temps la direction conjuguée),aussi par la methode de "line-search qui utilise aussi la direction fourni par le gradient de la fonction que l'on cherche à minimiser et par la méthode de Newton Raphson.
    LA méthode de "line search" n'existe pas; il y en a plusieurs, chacune porte un nom. Laquelle souhaites-tu utiliser?

    Au niveau de l'implémentation de ces méthodes, quelle(s) difficulté(s) vois-tu?

    Citation Envoyé par doky87 Voir le message
    La matrice Hessienne est définie par la dérivée seconde de la fonction f(x,y)).
    La matrice hessienne étant connue explicitement, tu peux soit calculer son inverse à la main et la fournir en entrée de ton algorithme, soit résoudre numériquement les systèmes linéaires faisant intervenant la matrice hessienne en calculant la factorisation LU de cette dernière au point d'évaluation courant.

  5. #5
    Membre du Club
    Homme Profil pro
    Étudiant
    Inscrit en
    Octobre 2012
    Messages
    5
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bas Rhin (Alsace)

    Informations professionnelles :
    Activité : Étudiant
    Secteur : Enseignement

    Informations forums :
    Inscription : Octobre 2012
    Messages : 5
    Par défaut Minimisation
    Citation Envoyé par Aleph69 Voir le message
    Bonjour,



    LA méthode de "line search" n'existe pas; il y en a plusieurs, chacune porte un nom. Laquelle souhaites-tu utiliser?

    Au niveau de l'implémentation de ces méthodes, quelle(s) difficulté(s) vois-tu?



    La matrice hessienne étant connue explicitement, tu peux soit calculer son inverse à la main et la fournir en entrée de ton algorithme, soit résoudre numériquement les systèmes linéaires faisant intervenant la matrice hessienne en calculant la factorisation LU de cette dernière au point d'évaluation courant.
    Bonjour,
    Si je dispose de l algorithme des gradients conjugues je pourrai traiter l algorithme de la methode de line search.
    Mais jai vraiment bsion de l algorithme de Newton Raphson en Cpp pour laminimisation d une fonction.
    Cordialement,

  6. #6
    Membre Expert
    Homme Profil pro
    Chercheur
    Inscrit en
    Mars 2010
    Messages
    1 218
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Chercheur

    Informations forums :
    Inscription : Mars 2010
    Messages : 1 218
    Par défaut
    Citation Envoyé par doky87 Voir le message
    Mais jai vraiment bsion de l algorithme de Newton Raphson en Cpp pour laminimisation d une fonction.
    D'accord. Partons du principe que tu donnes en entrée de ton algorithme la fonction à minimiser et l'inverse de sa matrice jacobienne. Qu'est-ce qui te pose problème dans l'implémentation en C++?

Discussions similaires

  1. minimiser une fonctions à plusieurs variables
    Par lassaib dans le forum Fortran
    Réponses: 4
    Dernier message: 03/04/2012, 22h04
  2. Réponses: 0
    Dernier message: 22/03/2011, 23h52
  3. Réponses: 0
    Dernier message: 06/08/2010, 16h53
  4. [XL-2003] Optimisation d'une fonction à plusieurs variables
    Par kokoVBA dans le forum Macros et VBA Excel
    Réponses: 45
    Dernier message: 06/05/2009, 10h38
  5. Appeler une fonction plusieurs fois
    Par philippef dans le forum Général JavaScript
    Réponses: 1
    Dernier message: 25/10/2007, 22h54

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo