IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Mathématiques Discussion :

Regression non linéaire


Sujet :

Mathématiques

  1. #21
    Futur Membre du Club
    Profil pro
    Inscrit en
    Août 2010
    Messages
    25
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Août 2010
    Messages : 25
    Points : 7
    Points
    7
    Par défaut
    Merci encore de vos réponses.

    Nemerle : J'utilise le modèle en prévision. Or j'ai l'idée que le réseau neuronal n'est bon en prévision que dans un voisinage des données de départ (la fenêtre de prévision ne peut pas être très large, non?). Si on peut l'utiliser en prévision, je suis très intéressé par la technique que je possède très peu, et les possibilités d'implémentation.

    Nebulix : Oui, bien sur il y a des possibilités de couper des données et de jouer sur moins de points (ce qui permet d'accélérer le calcul). 10 variables ensuite, ce n'est pas tant : elles ne sont pas du tout corrélées (j'ai bien sur étudié la corrélation et c'est très faible) et je pourrais en mettre un peu plus pour mieux expliquer mes points.

    Sur l'aspect optimisation, j'ai un peu tout essayé. Le Nelder Mead n'est pas mauvais (rapide à implémenter et "derivative-free") mais tombe bien sur dans les minima locaux, ce qui oblige à faire du multistart.

    C'est pour cela que je me suis tourné vers l'optim globale avec le recuit simulé qui bien souvent donne des résultats au moins aussi bon (quitte à le completer ensuite par du Nelder-Mead, quand on est tombé dans la dernière "cuvette").

    Mais il est difficile de trancher entre les deux!

  2. #22
    Membre expérimenté
    Homme Profil pro
    Chercheur
    Inscrit en
    Mars 2010
    Messages
    1 218
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Chercheur

    Informations forums :
    Inscription : Mars 2010
    Messages : 1 218
    Points : 1 685
    Points
    1 685
    Par défaut
    Bonjour,

    Citation Envoyé par Nebulix Voir le message
    une boucle du type :
    for individu:=1 to n_individus do
    salaire_total_presume[data[individu].groupe]:=
    salaire_total_presume[data[individu].groupe]+
    k*(data[individu].expérience^alpha + data[individu].durée_études^beta)

    permet de calculer pour chaque groupe une valeur directement comparable à une donnée !
    Oui, maintenant je comprends.
    Vous faites une hypothèse sur la distribution des groupes.

  3. #23
    Invité
    Invité(e)
    Par défaut
    Bonjour,
    Je ne suis pas sûr d'avoir encore bien compris le problème, donc, je vais l'exposer à ma manière, et on me corrigera.
    Soit un certain (grand) nombre d'observations.
    Chacune de ces observations contiennent 11 valeurs.
    La première est la valeur qui nous intéresse, et que l'on cherche à évaluer en fonction des 10 autres.
    Le but est de trouver une fonction F, telle que
    V = F(P1, P2, P2, ... P10)
    V est la valeur qui nous intéresse et P1 à P10 sont les 10 paramètres.
    On suppose que le nombre d'échantillons est suffisamment grand pour autoriser d'adopter un résultat qui sera considéré comme bon, jusqu'à nouvel ordre.

    Etant donné un nouvel individu dont on connait les 10 paramètres q1 à q10, il est légitime, et c'est le but, d'en déduire la "valeur" pour ce nouvel individu par application de la formule
    valeur = F(q1, q2, q3, ... q10)

    Je crains que dans les hypothèses, en fait, il n'y a pas 11 valeurs (10 paramètres et 1 résultat) mais seulement 10 valeurs. Si c'est le cas la seule possibilité me semble être de déterminer 10 fonctions, c'est à dire une pour chaque valeur, en fonction des 9 autres.

  4. #24
    Membre expérimenté
    Profil pro
    chercheur
    Inscrit en
    Avril 2004
    Messages
    830
    Détails du profil
    Informations personnelles :
    Localisation : France, Essonne (Île de France)

    Informations professionnelles :
    Activité : chercheur

    Informations forums :
    Inscription : Avril 2004
    Messages : 830
    Points : 1 453
    Points
    1 453
    Par défaut
    Citation Envoyé par Aleph69 Voir le message
    Vous faites une hypothèse sur la distribution des groupes.
    Il me semble que les groupes sont connus au départ, il n'y a pas d'hypothèse à faire. Sinon c'est insoluble.
    @sfiliste : 10 variables non corrélées mais plusieurs minima pour l'ajustement ? Drôle de bestiole !
    Ce qui s'énonce clairement se conçoit bien ( Le hautbois)

  5. #25
    Expert éminent sénior

    Profil pro
    Inscrit en
    Janvier 2007
    Messages
    10 609
    Détails du profil
    Informations personnelles :
    Âge : 66
    Localisation : France

    Informations forums :
    Inscription : Janvier 2007
    Messages : 10 609
    Points : 17 915
    Points
    17 915
    Billets dans le blog
    2
    Par défaut
    Citation Envoyé par Nebulix Voir le message
    @sfiliste : 10 variables non corrélées mais plusieurs minima pour l'ajustement ? Drôle de bestiole !
    Ben pour moi ça me semblerait rentrer parfaitement dans le cadre d'un moindre carrés à 10 dimensions...

    Ou bien me trompe-je ?
    "Un homme sage ne croit que la moitié de ce qu’il lit. Plus sage encore, il sait laquelle".

    Consultant indépendant.
    Architecture systèmes complexes. Programmation grosses applications critiques. Ergonomie.
    C, Fortran, XWindow/Motif, Java

    Je ne réponds pas aux MP techniques

  6. #26
    Invité
    Invité(e)
    Par défaut
    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    Ben pour moi ça me semblerait rentrer parfaitement dans le cadre d'un moindre carrés à 10 dimensions...
    Tout à fait d'accord.
    Mais pour être franc, je ne sais pas encore si c'est à 9 ou 10 dimensions.
    Il y a une formule très utilisé qui est de la forme
    Q= K . A^u . C^v . I^w.
    Cette formule donne le débit d'un bassin versant en fonction de sa superficie A, son coefficient de ruissellement C et de la pente I. Les coefficients K, u, v, w dépendent de la région et de la fréquence de retour.
    Cette formule a été établie par Caquot vers les années 70 et officialisée par un instruction interministérielle en 77.
    Je ne rentrerai pas dans les détails, mais il me semble bien que le cas présent est tout à fait comparable.
    Le nombre de paramètres est 5 (A, C, I et a et b de Montana).
    La valeur à évaluer est Q.

    Je crois que l'intérêt de cette formulation est que si la formule finale, donc théorique, est continue et dérivable, alors, il s'agit d'une formulation générale et applicable, quant à sa forme, dans tous les cas.
    Autre intérêt (historique), elle est calculable par logarithme.

    Si le contexte et la définition des 10 paramètres n'est pas confidentiel, je suis sûr que plus de détails nous permettraient d'affiner la solution.
    Enfin, si le choix du groupage a été fait dans le but d'accélérer les calculs, je suis sûr que ce n'est pas une bonne idée.

  7. #27
    Membre éprouvé Avatar de Nemerle
    Inscrit en
    Octobre 2003
    Messages
    1 106
    Détails du profil
    Informations personnelles :
    Âge : 53

    Informations forums :
    Inscription : Octobre 2003
    Messages : 1 106
    Points : 1 213
    Points
    1 213
    Par défaut
    Citation Envoyé par sfiliste Voir le message
    Nemerle : J'utilise le modèle en prévision. Or j'ai l'idée que le réseau neuronal n'est bon en prévision que dans un voisinage des données de départ (la fenêtre de prévision ne peut pas être très large, non?). Si on peut l'utiliser en prévision, je suis très intéressé par la technique que je possède très peu, et les possibilités d'implémentation.

    Il est certain qu'entrainer un modèle de prévision requiert un historique pertinent. Un réseau neuronal ne sortira pas de l'intervalle [val_min,val-max] de l'historique, car un RN n'est rien d'autre qu'une régression non linéaire. Outre les cartes auto-organisatrice, un RN est "fait" pour faire de la prévison; un exemple où un RN est performant: la prévision de la vitesse de vent à partir des données météo.
    Nemerle, mathématicopilier de bars, membre du triumvirat du CSTM, 3/4 centre

  8. #28
    Futur Membre du Club
    Profil pro
    Inscrit en
    Août 2010
    Messages
    25
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Août 2010
    Messages : 25
    Points : 7
    Points
    7
    Par défaut
    Bonsoir,

    Je reviens sur cette discussion après quelques jours d'absence! Merci de vos réponses durant cette période.

    Quelques éléments de contexte donc. Il s'agit d'un modèle où le but est d'expliquer un coût, cout qui est la somme de différents couts expliqués eux par les fameuses dix variables.

    Dans les modèles précédents, la chose était simple car nous pouvions facilement calibrer le modèle en fonction des couts (car nous avions 1 cout pour chacune des dix variables explicatives). Ici, ce n'est plus le cas, et nous n'avons plus (pour des raisons de confidentialité) que des couts aggloméré => d'où la problématique...

    Je n'ai pas tant avancé sur la question. Les réseaux neuronaux me font un peu peu en prévision, car nous sortirons justement de l'intervalle de l'historique!

    Pour le moment, je n'ai rien trouvé de mieux que d'effectuer la minimisation de la somme du carré des écarts par une méthode de minimisation locale + du multistart afin de ne pas sombrer dans les minimums locaux (qui sont en grand nombre malheureusement), mais outre que je ne suis pas sur d'avoir atteint le minimum, le processus est très lent...

    Mais bon, je crains qu'il n'y ait rien de mieux!

  9. #29
    Invité
    Invité(e)
    Par défaut
    Bonjour, j'avais rédigé une réponse, je cherchais un terme dans les messages précédents, alors j'ai tout perdu
    Si vous voulez une autre méthode que celle itérative, longue et mon justifiable, relancer le sujet.

    Petit complément.

    J'avais dit dans un message précédent que ce n'était pas une bonne idée de travailler par paquets de 10.
    Maintenant je vous dis que c'est une très mauvaise idée, en général, et surtout en matière de prix.
    Dix fois une chose, c'est pas du tout pareil que une fois dix choses, surtout en matière de prix. Si vous voulez vraiment réduire la durée de votre calcul statistique, prenez un article sur dix
    Dernière modification par Invité ; 28/09/2010 à 16h25.

Discussions similaires

  1. regression non linéaire
    Par romainmill dans le forum Calcul scientifique
    Réponses: 24
    Dernier message: 11/03/2014, 09h54
  2. regression non linéaire
    Par thtghgh dans le forum Mathématiques
    Réponses: 8
    Dernier message: 16/09/2011, 14h49
  3. Regression non linéaire - Prédicteurs
    Par thtghgh dans le forum SAS STAT
    Réponses: 11
    Dernier message: 14/11/2010, 13h04
  4. Regression non linéaire
    Par DooX4EvEr dans le forum MATLAB
    Réponses: 0
    Dernier message: 11/08/2010, 13h01
  5. Loi de King - Regression non linéaire
    Par damienw dans le forum Mathématiques
    Réponses: 6
    Dernier message: 14/05/2008, 21h32

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo