Bonjour, je cherche à implémenter l'algorithme de la descente de gradient ou dit de la plus grande pente sous sas. Après avoir implémenter les fonctions en questions : fonction à minimiser, fonction gradient,...., la fonction d'optimisation callnlpnra ne marche pas. D'ailleurs je ne sais pas vraiment quelle routine d'optimisation utiliser. Le problème est le suivant ;

Etant donné un point courant theta**(i), le point
theta***(i+1) est obtenu par recherche directe unidimensionnelle
dans la direction -g(theta**(i)).
Le processus itératif de détermination d’un
minimum est donc défini par la formule de
mise à jour
theta**(i+1) = theta**(i) -lambdai*g(theta**(i))
que l’on peut également noter
  theta=theta-lambda* g(theta)
Le point initial i est donné et i est déterminé
par la procédure de recherche directe
unidimensionnelle.


Je précise que la fonction g est la fonction gradient. Et theta**(i) est la i-ème itération de theta.