IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Mathématiques Discussion :

Minimisation d'une fonction à plusieurs variables en C++ : algo Line-search, Newton Raphson, Gradient Conjugué


Sujet :

Mathématiques

  1. #1
    Futur Membre du Club
    Homme Profil pro
    Étudiant
    Inscrit en
    Octobre 2012
    Messages
    5
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bas Rhin (Alsace)

    Informations professionnelles :
    Activité : Étudiant
    Secteur : Enseignement

    Informations forums :
    Inscription : Octobre 2012
    Messages : 5
    Points : 5
    Points
    5
    Par défaut Minimisation d'une fonction à plusieurs variables en C++ : algo Line-search, Newton Raphson, Gradient Conjugué
    Je demandais comment écrire l'algorithme de la méthode de LINE-SEARCH,de NEWTON RAPHSON, et l'algorithme des GRADIENT CONJUGUES pour la minimisation d'une fonction à plusieurs variables en C++.Si vous pouvez m'expliquer avec plus de détaille l'inverse de la matrice Hessienne définie par la dérivée seconde de la fonction à plusieurs variables.
    Cordialement,

  2. #2
    Membre expérimenté
    Homme Profil pro
    Chercheur
    Inscrit en
    Mars 2010
    Messages
    1 218
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Chercheur

    Informations forums :
    Inscription : Mars 2010
    Messages : 1 218
    Points : 1 685
    Points
    1 685
    Par défaut
    Bonjour,

    la manière dont on programme ce type de méthode dépend fortement du type de données. De quelles données disposes-tu? Dans quel contexte souhaites-tu utiliser ces algorithmes? Il faudra également préciser ce que tu entends par la méthode "line search" car il en existe plusieurs. Précise également ce qui te pose problème avec l'inverse de la matrice hessienne.

  3. #3
    Futur Membre du Club
    Homme Profil pro
    Étudiant
    Inscrit en
    Octobre 2012
    Messages
    5
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bas Rhin (Alsace)

    Informations professionnelles :
    Activité : Étudiant
    Secteur : Enseignement

    Informations forums :
    Inscription : Octobre 2012
    Messages : 5
    Points : 5
    Points
    5
    Par défaut Minimisation d'une fonction
    Citation Envoyé par Aleph69 Voir le message
    Bonjour,

    la manière dont on programme ce type de méthode dépend fortement du type de données. De quelles données disposes-tu? Dans quel contexte souhaites-tu utiliser ces algorithmes? Il faudra également préciser ce que tu entends par la méthode "line search" car il en existe plusieurs. Précise également ce qui te pose problème avec l'inverse de la matrice hessienne.
    Bonjour,
    On cherche à minimiser la fonction f(x,y)=x*x+x+y*y+xy,avec comme point de départ {x0,y0}={-3,1} par la méthode des gradients conjugués(cette methode utilise dans un premier temps la direction fournie par le gradient de la fonction que l'on cherche à minimiser,dans un deuxiéme temps la direction conjuguée),aussi par la methode de "line-search qui utilise aussi la direction fourni par le gradient de la fonction que l'on cherche à minimiser et par la méthode de Newton Raphson.
    La matrice Hessienne est définie par la dérivée seconde de la fonction f(x,y)).
    Cordiale,

  4. #4
    Membre expérimenté
    Homme Profil pro
    Chercheur
    Inscrit en
    Mars 2010
    Messages
    1 218
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Chercheur

    Informations forums :
    Inscription : Mars 2010
    Messages : 1 218
    Points : 1 685
    Points
    1 685
    Par défaut
    Bonjour,

    Citation Envoyé par doky87 Voir le message
    Bonjour,
    On cherche à minimiser la fonction f(x,y)=x*x+x+y*y+xy,avec comme point de départ {x0,y0}={-3,1} par la méthode des gradients conjugués(cette methode utilise dans un premier temps la direction fournie par le gradient de la fonction que l'on cherche à minimiser,dans un deuxiéme temps la direction conjuguée),aussi par la methode de "line-search qui utilise aussi la direction fourni par le gradient de la fonction que l'on cherche à minimiser et par la méthode de Newton Raphson.
    LA méthode de "line search" n'existe pas; il y en a plusieurs, chacune porte un nom. Laquelle souhaites-tu utiliser?

    Au niveau de l'implémentation de ces méthodes, quelle(s) difficulté(s) vois-tu?

    Citation Envoyé par doky87 Voir le message
    La matrice Hessienne est définie par la dérivée seconde de la fonction f(x,y)).
    La matrice hessienne étant connue explicitement, tu peux soit calculer son inverse à la main et la fournir en entrée de ton algorithme, soit résoudre numériquement les systèmes linéaires faisant intervenant la matrice hessienne en calculant la factorisation LU de cette dernière au point d'évaluation courant.

  5. #5
    Futur Membre du Club
    Homme Profil pro
    Étudiant
    Inscrit en
    Octobre 2012
    Messages
    5
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bas Rhin (Alsace)

    Informations professionnelles :
    Activité : Étudiant
    Secteur : Enseignement

    Informations forums :
    Inscription : Octobre 2012
    Messages : 5
    Points : 5
    Points
    5
    Par défaut Minimisation
    Citation Envoyé par Aleph69 Voir le message
    Bonjour,



    LA méthode de "line search" n'existe pas; il y en a plusieurs, chacune porte un nom. Laquelle souhaites-tu utiliser?

    Au niveau de l'implémentation de ces méthodes, quelle(s) difficulté(s) vois-tu?



    La matrice hessienne étant connue explicitement, tu peux soit calculer son inverse à la main et la fournir en entrée de ton algorithme, soit résoudre numériquement les systèmes linéaires faisant intervenant la matrice hessienne en calculant la factorisation LU de cette dernière au point d'évaluation courant.
    Bonjour,
    Si je dispose de l algorithme des gradients conjugues je pourrai traiter l algorithme de la methode de line search.
    Mais jai vraiment bsion de l algorithme de Newton Raphson en Cpp pour laminimisation d une fonction.
    Cordialement,

  6. #6
    Membre expérimenté
    Homme Profil pro
    Chercheur
    Inscrit en
    Mars 2010
    Messages
    1 218
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Chercheur

    Informations forums :
    Inscription : Mars 2010
    Messages : 1 218
    Points : 1 685
    Points
    1 685
    Par défaut
    Citation Envoyé par doky87 Voir le message
    Mais jai vraiment bsion de l algorithme de Newton Raphson en Cpp pour laminimisation d une fonction.
    D'accord. Partons du principe que tu donnes en entrée de ton algorithme la fonction à minimiser et l'inverse de sa matrice jacobienne. Qu'est-ce qui te pose problème dans l'implémentation en C++?

  7. #7
    Membre éclairé
    Homme Profil pro
    Ingénieur R&D en apprentissage statistique
    Inscrit en
    Juin 2009
    Messages
    447
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Ingénieur R&D en apprentissage statistique

    Informations forums :
    Inscription : Juin 2009
    Messages : 447
    Points : 752
    Points
    752
    Par défaut
    Je n'ai pas bien compris si tu devais utiliser la méthode appelée "line search Newton-CG", ou si tu voulais tester plusieurs méthodes dont 1) le gradient conjugué, 2) line search (mais dans ce cas comment choisis-tu la direction de descente ?) 3) la méthode de Newton.

    la méthode "line search Newton-Gradient descent" étant une implémentation possible de la méthode de Newton, je dirais que c'est sans doute cette méthode que tu cherches à implémenter ?

    Dans tous les cas je te conseilles la lecture de "Numerical Optimization" de Nocedal Chapitre 3 (line search) Chapitre 5 (conjugate gradient) et Chapitre 6 (Practical Newton methods).

    Pour faire lien avec ce que tu as sans doute vu, il est utile de mettre ta fonction en notation matricielle:

    f(x,y) = z' A z + b'z

    avec z = [x , y]'

    A = [1 1/2]
    [ 1/2 1]
    b = [1 0]

Discussions similaires

  1. minimiser une fonctions à plusieurs variables
    Par lassaib dans le forum Fortran
    Réponses: 4
    Dernier message: 03/04/2012, 22h04
  2. Réponses: 0
    Dernier message: 22/03/2011, 23h52
  3. Réponses: 0
    Dernier message: 06/08/2010, 16h53
  4. [XL-2003] Optimisation d'une fonction à plusieurs variables
    Par kokoVBA dans le forum Macros et VBA Excel
    Réponses: 45
    Dernier message: 06/05/2009, 10h38
  5. Appeler une fonction plusieurs fois
    Par philippef dans le forum Général JavaScript
    Réponses: 1
    Dernier message: 25/10/2007, 22h54

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo