Minimisation d'une fonction à plusieurs variables en C++ : algo Line-search, Newton Raphson, Gradient Conjugué
Je demandais comment écrire l'algorithme de la méthode de LINE-SEARCH,de NEWTON RAPHSON, et l'algorithme des GRADIENT CONJUGUES pour la minimisation d'une fonction à plusieurs variables en C++.Si vous pouvez m'expliquer avec plus de détaille l'inverse de la matrice Hessienne définie par la dérivée seconde de la fonction à plusieurs variables.
Cordialement,
Minimisation d'une fonction
Citation:
Envoyé par
Aleph69
Bonjour,
la manière dont on programme ce type de méthode dépend fortement du type de données. De quelles données disposes-tu? Dans quel contexte souhaites-tu utiliser ces algorithmes? Il faudra également préciser ce que tu entends par la méthode "line search" car il en existe plusieurs. Précise également ce qui te pose problème avec l'inverse de la matrice hessienne.
Bonjour,
On cherche à minimiser la fonction f(x,y)=x*x+x+y*y+xy,avec comme point de départ {x0,y0}={-3,1} par la méthode des gradients conjugués(cette methode utilise dans un premier temps la direction fournie par le gradient de la fonction que l'on cherche à minimiser,dans un deuxiéme temps la direction conjuguée),aussi par la methode de "line-search qui utilise aussi la direction fourni par le gradient de la fonction que l'on cherche à minimiser et par la méthode de Newton Raphson.
La matrice Hessienne est définie par la dérivée seconde de la fonction f(x,y)).
Cordiale,