IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Excel Discussion :

Modélisation à partir de distributions fréquentielles


Sujet :

Excel

  1. #41
    Membre habitué
    Profil pro
    Inscrit en
    Novembre 2009
    Messages
    134
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Novembre 2009
    Messages : 134
    Points : 129
    Points
    129
    Par défaut
    Dans ton classeur je n'ai que :

    Attack 470
    Weapon + DMG WA 50
    Mob LVL 63
    Constant STR = 85


    Ou sont les valeurs VIT monstre, etc. ?

    Ok je les ai trouvé (les mettre tout en bas de la page n'aide pas )
    Au taf : Quad Core/8Go de RAM sous Win Seven 64 - Matlab 2009b 64bit.
    Perso : Core 2 Duo/8Go de RAM Mac OS X 10.6 - Matlab 2009b 64bit

  2. #42
    Membre habitué
    Profil pro
    Inscrit en
    Novembre 2009
    Messages
    134
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Novembre 2009
    Messages : 134
    Points : 129
    Points
    129
    Par défaut
    Bon je viens d'effectuer quelques tests...
    j'ai considéré tes 5 premières colonnes de données de ta première feuille :

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    36
    37
    38
    39
    40
    41
    42
    43
    44
    45
    46
    47
    48
    49
    50
    51
    52
    53
    54
    55
    56
    57
    58
    59
    60
    61
    62
    63
    64
    65
    66
    67
    68
    69
    70
    71
    72
    73
    74
    75
    76
    77
    78
    79
    80
    81
    82
    83
    84
    85
    86
    87
    88
    89
    90
    91
    92
    93
    94
    3	5	1	2	3
    2	5	6	10	7
    8	6	5	13	13
    8	11	10	23	16
    13	16	12	34	26
    10	9	22	39	32
    9	20	11	37	39
    11	11	19	34	34
    11	19	21	37	33
    14	10	14	28	29
    17	17	15	37	38
    3	9	20	35	34
    9	11	10	30	24
    13	10	12	37	30
    9	12	12	32	28
    12	16	17	44	33
    10	14	14	33	35
    17	20	18	19	39
    12	6	12	28	32
    16	13	15	34	28
    18	20	18	40	27
    11	11	16	26	35
    11	15	14	41	29
    16	14	7	32	24
    10	17	11	37	27
    14	15	12	37	21
    12	13	19	27	33
    14	18	12	39	33
    7	18	15	45	35
    15	18	16	28	34
    14	11	22	32	29
    21	12	13	44	33
    13	12	15	38	36
    10	12	13	19	31
    12	17	14	30	30
    18	9	20	25	37
    18	18	13	23	34
    21	16	18	28	23
    22	15	18	35	35
    19	14	15	24	24
    19	20	16	36	40
    19	13	24	40	29
    13	13	20	35	41
    12	12	29	28	39
    21	16	16	37	46
    16	16	15	52	32
    16	5	21	36	31
    14	14	20	41	25
    11	10	14	49	28
    11	10	9	37	32
    6	11	16	39	32
    6	7	8	26	28
    7	9	3	21	20
    2	4	1	9	15
    1	1		7	11
    1	1	1	3	7
    1	1	1	3	6
    1	1	2	3	2
    4	1	1	3	5
    3	2	2	1	5
    5	2	2	4	5
    3	5	6	2	5
    1	4	4	11	5
    2	3	3	6	3
    4	4	5	2	2
    1	2	3	2	2
    2	2	4	2	2
    2	3	3	3	7
    3	3	4	3	6
    1	2	5	3	5
    5	2	1	7	10
    1	3	2	6	6
    3	3	6	3	5
    2	6	3	1	5
    3	4	4	11	5
    2	3	3	5	1
    13	6	3	4	3
    11	12	3	1	10
    8	8	4	4	7
    5	4	9	9	7
    9	9	7	8	3
    8	10	9	3	4
    7	11	3	3	4
    9	8	7	6	4
    4	6	7	4	8
    		5	16	18
    		9	11	7
    			10	11
    			14	11
    			9	9
    			8	7
    			10	6
    			13	4
    			7	9
    D'après un simple test statistique, tes 5 colonnes ne peuvent être considérées comme issues d'une marche aléatoire. Par conséquent, ta variable D (même chôse pour toutes transformations linéaires de D, à savoir a*D+b) n'est pas générée de façon aléatoire. J'ai pu cependant calibré (à l'aide de quelques outils dont je dispose) un même modèle stattistiquement valable sur tes 5 colonnes de données. Seul "hic", ce modèle est temporel, c'est-à-dire qu'il suppose que l'ordre de tes observations à de l'importance...

    Le modèle est le suivant (à prendre ou à laisser ) :

    Observation(i) = Cste + Coefficient x Observation(i-1) + AléaGaussien.

    La Cste varie de la colonne 1 à la colonne 5, tout comme la valeur du coefficient, mais le modèle reste le même. Alors maintenant, on peut essayer de trouver une relation entre la Cste, le coefficient et le Ratio, NiveauLVL, etc.
    Au taf : Quad Core/8Go de RAM sous Win Seven 64 - Matlab 2009b 64bit.
    Perso : Core 2 Duo/8Go de RAM Mac OS X 10.6 - Matlab 2009b 64bit

  3. #43
    Nouveau membre du Club
    Profil pro
    Inscrit en
    Août 2009
    Messages
    140
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Août 2009
    Messages : 140
    Points : 37
    Points
    37
    Par défaut
    Bonsoir,

    Euh... je suis un peu dépassé là

    Dans l'ordre:

    1.Ces 5 premières colonnes de données, sont celles des valeurs de dommages ou celles des fréquences associées ?
    Je demande ça car je sait qu'avec une WoodvilleAxe(WA) de Damage50 sur un monstre lvl63, je fais des dommages de l'ordre de 90 minimum...Dois-je en déduire que ces chiffres que tu as posté sont les fréquences ? EDIT: ok j'ai trouvé, ce sont bien les fréquences que tu as pris.
    Sinon, oui ces 5 premières colonnes sont des tests réalisés avec la même arme, sur des monstres lvl63,64,65 et les 2 suivantes avec une attack plus faible sur monstre lvl63,64 (t'aurais pu prendre la sixième aussi pour le lvl65)

    2. T'as pas mélangé les valeurs des coups normaux avec les valeurs pour les critiques (bi-colonnes encore en dessous) ? EDIT: ok j'ai trouvé, et en effet tu as mélangé ce qu'on pense être 2 distributions différentes (coups normaux/critiques). A priori (peut être que je me trompe) les critiques devraient utiliser la même équation que les coups normaux avec juste un multiplicateur en + (me parait le scenario le + simple pour un programmeur non?)

    3. Je le répète : la 1ère colonne concerne des conditions extrèmes, les dommages min/max sont fixés par quelquechose d'externe à l'équation qu'on cherche, et de même la moyenne restera constante quelque soit les valeurs des valeurs epxlicatives au dessus de Ratio>2. Par conséquent est-ce judicieux de prendre ces 5 premières colonnes "au pif" ? Si je ne me trompe pas, je peux te "préparer" quelles distribs prendre si tu le souhaite ?

    4. Concernant le modèle que tu propose, le principe parait étonnant en effet (temporel o.O???) mais bon restons ouvert, pourquoi pas ?

  4. #44
    Membre habitué
    Profil pro
    Inscrit en
    Novembre 2009
    Messages
    134
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Novembre 2009
    Messages : 134
    Points : 129
    Points
    129
    Par défaut
    Re-bonsoir donc

    Pour reprendre l'étude je te propose de reprendre depuis le départ, de façon claire, précise et construite l'étude de ta modélisation.
    Pour commencer, il serait nécessaire d'obtenir des échantillons d'observations selon différents critères, de façon claire.
    Peux-tu poster de façon simple avec des explications précises tes valeurs obtenues, ce que tu as fait varier dans tel cas, etc. etc. ?
    Au taf : Quad Core/8Go de RAM sous Win Seven 64 - Matlab 2009b 64bit.
    Perso : Core 2 Duo/8Go de RAM Mac OS X 10.6 - Matlab 2009b 64bit

  5. #45
    Nouveau membre du Club
    Profil pro
    Inscrit en
    Août 2009
    Messages
    140
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Août 2009
    Messages : 140
    Points : 37
    Points
    37
    Par défaut
    Citation Envoyé par Masamunai Voir le message
    Bonjour

    Je m'intéresse depuis quelque temps à la modélisation à partir de mesures réalisées sur un process à priori aléatoire.

    Pour cela, je me suis servi comme "terrain d'entraînement" un jeu en ligne dont je connait bien le fonctionnement (sauf bien sûr le modèle recherché).
    Pourquoi? parce que ce jeu utilise un système aléatoire pour gérer les dommages infligés par votre personnage aux monstres, qui est donc facilement répétable et testable.

    Connaissant à peu près les variables d'influence, ainsi qu'un modèle qui avait déjà été établi par des japonais il y a quelques années (mais dont on a perdu toutes les données qui ont servi à l'établir), moi et quelques autres personnes avons décidé de "revérifier" l'ancien modèle. Pourquoi? parce qu'on s'est aperçu que les valeurs théoriques produites par ce modèle présentent des écarts plus que significatifs... en particulier sur les valeurs moyennes et extrêmes min/max.

    Ce modèle s'écrit encore actuellement sous la forme :
    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    D = pDIF * BD
    avec :
    D: dommage infligé au monstre, affiché en integer sur l'écran
    BD: Base Damage=(WeaponDamage + f(Player_Strength - Monster_Vitality))
    pDIF: coefficient aléatoire fonction de l'attaque de votre personnage versus la défense du monstre (voire aussi peut être d'autres paramètres comme WeaponDamage,...)
    Nous avons donc réalisé un certain nombre de "parses" (mesures) sur un même type de monstre, en ne faisant varier que notre valeur d'attaque, et en gardant tous les autres paramètres constants. Les résultats de ces parses ont été compilés dans un fichier excel disponibles à l'adresse :
    http://ffxidmgformula.googlecode.com...ns%20study.xls

    On y trouvera donc plusieurs distributions fréquentielles de damage réalisées à des valeurs de Ratio différentes, sur la 1ère feuille; ainsi que leurs représentations graphiques en 3ème feuille. Ratio = Player_Attack / Monster_Defense.
    Chacune de ces distributions est composée de 2 sous-distributions, une pour les dommages "normaux", et l'autre pour les coups "critiques" (fréquences de la 2ème bien moindres que celles de la 1ère).
    On y trouvera aussi 2 types de distributions, celles réalisées avec des armes de type 1H "à 1 main" (comme dague ou épée) et celles pour les armes 2H "à 2 mains" (comme Lance ou Grande Hache). Cette différenciation a été faite car on pense A PRIORI que l'équation correspondant à chacun de ces types d'armes serait différente...
    Enfin, parmi les graphiques fréquentiels en 3eme feuille, il y a un graphe en "vue de dessus" càd pDIF=f(Ratio). On y voit assez clairement qu'il s'agit d'un problème aléatoire à peu près linéaire. Cela prouve A PRIORI la validité du format de l'équation testée. Ce graphe présente aussi des régressions linéaires, mais ayant un R² différent de 1 (ou alors pas assez proches de 1 pour guarantir très peu d'ecarts sur les valeurs de dommages au final)
    Objectif à atteindre = modéliser la moyenne de dommages à 95% de confiance, et les valeurs de dommages max/min à +/- 1 damage.

    "Format" de l'équation à priori : D = ??? * (WD+fSTR), avec ??? aléatoire dont je veux extraire la moyenne et les bornes max/min, avec une équation en fonction des variables d'influence suivantes :

    Player_STR - Monster_VIT = fSTR, non précisé ici, car supposé connu.
    WD : valeur de base de l'arme utilisée pour chacun des tests.
    Player_Attack / Monster_ Defense = Ratio : Variable principale d'influence.

    En pratique, les mesures ont été réalisées dans une zone où se trouve un même type de monstre (peu importe leur nombre) mais pouvant être de niveau
    variant entre Level63, 64 ou 65. Ce qui signifie que leurs valeurs de Defense et de VIT varient (forcément) :
    - LVL63: VIT=52 , Def=231
    - LVL64: VIT=52 , Def=235
    - LVL65: VIT=55 , Def=241
    Donc là encore variables entièrement connues. Mais par simplification, on peut par exemple ne tenir compte dans la modèlisation que de leurs Def et VIT, puisqu'ils sont déjà représentatifs du niveau du monstre à eux seuls.

    En ce qui concerne le testeur:
    Dans le fichier Excel, il prépare ses colonnes de données avec :
    - choisir la bonne feuille ("1H" s'il utilise une arme à 1 main ou "2H" à 2 mains)
    - noter l'attaque utilisée en 1ère ligne
    - noter la valeur WD de son arme en 2ème ligne (les initiales servent juste de reconnaissance visuelle pour les graphs)
    - préparer 3x2 colonnes pour recevoir les données fréquentielles sur chaque Niveau de monstre
    - Pour le 1er niveau de monstre (63) copier les valeurs de dommage NORMAUX mesurées en 1ere colonne et leurs fréquences respectives en vis a vis en 2ème colonne.
    - En dessous de cette double colonne (laisser quelques lignes vides) copier les données fréquentielles pour les coups CRITIQUES.
    - Idem pour les 2e et 3e niveaux de monstre (64 et 65) dans les 2 "bi-colonnes" suivantes.

    Voilà le principe pour 1 seul test, qui comprends donc 3x2 colonnes de données fréquentielles réalisées dans des conditions identiques (à part le niveau du monstre évidemment).
    Les tests suivants, en lisant de la gauche vers la droite, ne font varier essentiellement que l'attaque, puis (afin de pouvoir aller encore plus bas en attaque) on a utilisé des armes plus faibles mais WD a été bien précisé pour chaque test.
    Donc au final on se retrouve avec des données couvrant une gamme de dommage (normaux et critiques) pour une large fourchette d'attaque, allant de 470 à 218.

    Premiers constats d'exploitation: les graphs en 3eme feuille (à lire de haut en bas avec zoom à 25%)

    Dans un 1er temps, j'ai reporté ces bicolonnes de données fréquentielles sous forme de graphs qu'on peut voir tout à gauche (1ére série de graphs).1er constat: les dommages normaux (bleu) et critiques (rose) se "déplacent" de la droite vers la gauche (diminuent) quand l'attaque diminue.
    2éme constat: les "caps", pour mieux les voir j'ai "converti" ces valeurs de dommages en les divisant par (WD+fSTR), ce qui permet de nous affranchir des variations de WD durant les tests. Cela donne la 2ème série de graphs.
    2e constat: les valeurs dommages min et max (quelque soit l'arme utilisée) s'arrêtent brutalement à des endroits précis lors des tests à une certaine valeur d'attaque. En particulier pour Ratio>2, et 1.25<Ratio<1.5.
    3e constat: un pic fréquentiel apparait nettement pour Ratio<1.5 pour les dommages normaux, et un autre moins visible pour les coups critiques pour Ratio>Cap=1.65.


    Voilà ceci sont les explications de base, si ce n'est pas encore clair n'hésite pas à me demander. N'hésite pas à relire les autres posts aussi

  6. #46
    Nouveau membre du Club
    Profil pro
    Inscrit en
    Août 2009
    Messages
    140
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Août 2009
    Messages : 140
    Points : 37
    Points
    37
    Par défaut
    Petites précisions en ce qui concerne les irrégularités dans les tests :

    A. Sur les 3 variables explicatives Ratio, WD et fSTR, ces tests ne font varier que Ratio principalement, quelques uns seulement ayant un changement de WD, et tous ont été fait avec une STR constante (càd fSTR constant selon le niveau du monstre).

    B. Taille d'échantillon et valeurs min/max : bien qu'ayant réalisé ces tests pour ~3ooo coups par test (soit 1ooo coups pour chacun des 3 niveau de monstre), les valeurs min/max ont une probabilité d'occurence très rare. Donc il se peut que certains tests manquent encore leurs valeurs extrèmes. On peut à priori les deviner à l'aide d'une régression linéaire par rapport aux autres tests peut être ?
    De même, les coups critiques ayant une probabilité d'occurence d'environ 10%~20% à chaque coup tenté sur le monstre, il est donc normal de constater leurs échantillons ayant une taille fréquentielle faible (en termes d'exploitation). Càd que pour 1ooo coups, il n'y aura que environ 100-200 coups critiques.

    C. Pour les armes à 1 main, un des premiers tests utilisait une dague. Or ces monstres de test en particulier ont un point faible contre ce type d'arme... ce qui provoque toutes les valeurs de dommages multipliées par 125%. Ces tests sont ceux intitulés TK343 (colonnes CC/CD, CI/CJ et CO/CP), et sont donc à prendre avec des pincettes :p

    D. Pour les armes 1H, les 2 tests réalisés avec une attaque de 218 ont été fait sur les habituels monstres de niveau 63,64,65 pour le 1er, mais de niveau 71,72,73 pour le second. Ces derniers ayant une Def et VIT + élevée, le Ratio correspondant est donc + faible.
    - VIT=60 pour les 3,
    - LVL71: Def=272
    - LVL72: Def=277
    - LVL73: Def=282
    Cependant, on n'a pas pu aller encore plus bas, cela devenant vraiment dangereux...

  7. #47
    Membre habitué
    Profil pro
    Inscrit en
    Novembre 2009
    Messages
    134
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Novembre 2009
    Messages : 134
    Points : 129
    Points
    129
    Par défaut
    Non mais j'pige pas une chose, tu vas donc éclairer ma lanterne.
    Pour quoi veux-tu modéliser l'évolution des Extremas de ta distribution d'aléas ? A quoi cela va te servir ?
    Au taf : Quad Core/8Go de RAM sous Win Seven 64 - Matlab 2009b 64bit.
    Perso : Core 2 Duo/8Go de RAM Mac OS X 10.6 - Matlab 2009b 64bit

  8. #48
    Membre habitué
    Profil pro
    Inscrit en
    Novembre 2009
    Messages
    134
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Novembre 2009
    Messages : 134
    Points : 129
    Points
    129
    Au taf : Quad Core/8Go de RAM sous Win Seven 64 - Matlab 2009b 64bit.
    Perso : Core 2 Duo/8Go de RAM Mac OS X 10.6 - Matlab 2009b 64bit

  9. #49
    Nouveau membre du Club
    Profil pro
    Inscrit en
    Août 2009
    Messages
    140
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Août 2009
    Messages : 140
    Points : 37
    Points
    37
    Par défaut
    Citation Envoyé par HAL-9000 Voir le message
    Non mais j'pige pas une chose, tu vas donc éclairer ma lanterne.
    Pour quoi veux-tu modéliser l'évolution des Extremas de ta distribution d'aléas ? A quoi cela va te servir ?
    Parce que dans n'importe quel process ayant une valeur aléatoire, on utilise toujours une valeur minimale, une valeur maximale acceptées, avec une moyenne (en général au milieu), ceci connaissant l'équipement utilisé. Si la pièce produite est en dehors de ces 2 extremes, elle est balancée aux rebuts.
    Ici, c'est pareil sauf qu'il s'agit d'un jeu donc impossible a priori d'avoir des valeurs en dehors des 2 extremes (tant mieux). La moyenne a priori entre ces 2 valeurs extremes servira donc d'une estimation des dommages réalisés avec l'équipement utilisé et sur un monstre donné.
    Concrètement dans notre exemple ici:
    l'équation supposée de la forme : D = Aléa??? * (WD+fSTR) deviendra
    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
     
    Dmin (Coup normal) = Aléa???min * (WD+fSTR)
    Dmax (Coup normal) = Aléa???max * (WD+fSTR)
    Dmin (Coup critique) = (Aléa???min + coef?)* (WD+fSTR)
    Dmax (Coup critique) = (Aléa???max + coef?)* (WD+fSTR)
    Remarque : Ratio n'apparait pas car les japs qui ont élaboré ce "format" pensent que Aléa??? = a*Ratio+b linéaire justement, cf. ci dessous:



    Sinon, merci pour ce document-cours sur la régression linéaire. Cependant, si cela marchait, je n'aurais même pas posté ici :
    Comme montré sur la feuille "Graphs" du fichier Excel, nous avions déjà "trouvé" une sorte de progression à peu près linéaire entre les différents tests réalisés. Nous avons donc immédiatement pensé aux régressions linéaires.
    Gros "hic": trouver des coefficients (amin;bmin) (amax;bmax) (amin;bmin)crit (amax;bmax)crit qui donnent des valeurs exactement égales aux dommages min/max mesurés (à +/- 1 damage près a la limite). On a même essayé des coefs au format virgule fixe /1024, avec des R² entre 0.9998~0.95, sans jamais obtenir exactement les mêmes valeurs... Notre conclusion est donc: ben mince alors si régressions linéaires marchent pas, c'est que c'est autre chose, ou pire modèle carrement faux...
    Voilà pourquoi je poste ici, pensant du même coup apprendre une méthode rigoureuse comment exploiter des distributions aléatoires. Personnellement, en arrivant ici je pensais que si j'arrivais (avec l'aide du forum) à trouver un modèle aléatoire connu (Normal, Gauss, etc...) dont les paramètres correspondent aux valeurs mesurées, alors j'aurai fait d'une pierre 3 coups: non seulement ce modèle me donnera les valeurs min/max que je n'aurai qu'a multiplier par (WD+fSTR), mais aussi sa moyenne théorique qui devrait à priori être suffisamment proche de celle mesurée (à 95% de confidence).

    Esperant que cela éclaire ta lanterne

    EDIT: lecture intéressante à partir de la page 22 de ton doc, peut être y trouverais-je quelquechose non testé encore

  10. #50
    Membre habitué
    Profil pro
    Inscrit en
    Novembre 2009
    Messages
    134
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Novembre 2009
    Messages : 134
    Points : 129
    Points
    129
    Par défaut
    Parce que dans n'importe quel process ayant une valeur aléatoire, on utilise toujours une valeur minimale, une valeur maximale acceptées [...]
    Ben non justement, pas toujours, voir quasiment jamais à ma connaissance.
    Il faut bien faire la différence entre modélisation et estimation. On modélise une dynamique, un phénomène alors que l'on estime des paramètres. Et l'un ne va pas sans l'autre car un modèle sans estimation de ses paramètres est ce que l'on appelle un modèle non calibré. La calibration est la base de tout modèle, car sans calibration (estimation des paramètres du modèles) on ne peut vérifier la pertinance du modèle. Maintenant si tes observations D suivent bien une des dynamiques :

    Dmin (Coup normal) = Aléa???min * (WD+fSTR)
    Dmax (Coup normal) = Aléa???max * (WD+fSTR)
    Dmin (Coup critique) = (Aléa???min + coef?)* (WD+fSTR)
    Dmax (Coup critique) = (Aléa???max + coef?)* (WD+fSTR)

    Alors les paramètres de tes modèles sont WD, fSTR, coeff?? ainsi que les paramètres de ton Aléa???. Or un aléa n'est autre qu'une varaiable aléatoire possédant une densité de probabilité. Donc les paramètres de tes aléas sont les paramètres de sa loi de probabilité. Et à ma connaissance, les paramètres d'une loi de Gauss sont espérance et variance uniquement! Pour une loi de Student paramètre = degrès de liberté. Je ne connais pas de loi de probabilité ayant comme paramètre un Min et un Max...

    Tu vois ce que je veux te dire ?
    Au taf : Quad Core/8Go de RAM sous Win Seven 64 - Matlab 2009b 64bit.
    Perso : Core 2 Duo/8Go de RAM Mac OS X 10.6 - Matlab 2009b 64bit

  11. #51
    Nouveau membre du Club
    Profil pro
    Inscrit en
    Août 2009
    Messages
    140
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Août 2009
    Messages : 140
    Points : 37
    Points
    37
    Par défaut
    Bonsoir HAL et le Forum,

    Pour ta 1ère remarque, je travaille dans 2 usines de production dont les cotes et poids des pièces en sortie de presses sont mesurées systematiquement pour être sûr qu'elles respectent bien les exigences clients. Donc désolé ces min et max existent bel et bien dans toutes production industrielle...

    Sinon, oui j'avais lu pas mal de documents concernant ces estimateurs de paramètres, lses uns plus adaptés que d'autres selon le phénoméne à modéliser... mais bon j'avoue je me suis vite senti "dépassé" par toutes ces formules C'est pour ça qu'on a d'abord joué à "l'apprenti sorcier" en espérant tomber sur une formule "correcte"... ce qui n'est pas le cas.

    Maintenant, les formules que j'ai posté plus haut sont celles des japs d'il y a quelques années, et j'avoue avoir eu même pensée "choquée" que toi de voir qu'ils modélisaient l'Aléa avec une simple formule linéaire (a*Ratio+b) mais bon fallait avouer qu'au final cela approchait pas trop mal les valeurs de dommages extremes (avec coef? = 1 pour les dommages critiques). Mais les tests montrent des écarts non négligeables (+/- 10 damage~) alors qu'il s'agit d'un phénoméne INFORMATIQUE (pas naturel). Par conséquent, la logique nous dit qu'il doit surement exister une autre formulation donnant les mêmes exactes valeurs extrèmes que celles mesurées lors des tests.

    Donc, on peut très bien envisager une autre formulation comme j'avais testé quelques posts auparavant :
    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    D = (WD+fSTR)*Ratio * Aléa???
    lequel donnerait :
    Dmin = (WD+fSTR)*Ratio * MIN(Aléa???)
    Dmax = (WD+fSTR)*Ratio * MAX(Aléa???)
    Dmin Crit= (WD+fSTR)*Ratio * (MIN(Aléa???)+coef?)
    Dmax Crit= (WD+fSTR)*Ratio * (MAX(Aléa???)+coef?)
    avec Aléa??? suivant une loi de probabilité connue (et donc ses bornes sup/inf et moyenne sont connues) sans autres paramètres que ceux propres à la loi de probabilité choisie.
    Quant à ta remarque :
    Et à ma connaissance, les paramètres d'une loi de Gauss sont espérance et variance uniquement! Pour une loi de Student paramètre = degrès de liberté. Je ne connais pas de loi de probabilité ayant comme paramètre un Min et un Max...
    je ne parlait pas des paramètres proprement dit de l'Aléa choisi mais de sa "forme", càd que pour une forme en cloche de la Loi de Gauss, on voit clairement un min un max et une moyenne au milieu... Pareil pour un aléa uniforme, on voit bien un min un max et une moyenne au milieu. Les paramètres proprement dits de l'Aléa choisi à la limite on s'en fout au final ce qui compte c'est qu'il soit bien "calibré" de façon à ce que les valeurs min/max et moyenne qu'il produit donnent, après multiplication par les constantes (WS+fSTR)*Ratio, bien les valeurs mesurées. C'est tout

    Désolé si j'ai une vision un peu "simpliste" des choses

    @++

  12. #52
    Membre habitué
    Profil pro
    Inscrit en
    Novembre 2009
    Messages
    134
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Novembre 2009
    Messages : 134
    Points : 129
    Points
    129
    Par défaut
    pour une forme en cloche de la Loi de Gauss, on voit clairement un min un max et une moyenne au milieu...
    La loi de probabilité de Gauss est définie sur l'ensemble des réels donc les bornes sup et inf sont respectivement +infini et -infini .
    Sinon la moyenne (ou plutôt l'espérance mathématique) n'est pas la médiane, sauf dans le cas particulier de la loi de probabilité de Gauss.

    Je regarde de nouveau tes données et reviens vers toi quand j'ai des résultats
    Au taf : Quad Core/8Go de RAM sous Win Seven 64 - Matlab 2009b 64bit.
    Perso : Core 2 Duo/8Go de RAM Mac OS X 10.6 - Matlab 2009b 64bit

  13. #53
    Nouveau membre du Club
    Profil pro
    Inscrit en
    Août 2009
    Messages
    140
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Août 2009
    Messages : 140
    Points : 37
    Points
    37
    Par défaut
    Surtout n'hésite pas à poser des questions sur ces données si elles te semblent "louches", je ne voudrait pas que tu perde ton temps sur des échantillons "pris au pif" :s

    De même, si certaines distribs te semblent encore inconsistentes en taille pour être exploitables, signale les et j'irai les "continuer".

    Aussi, garde à l'esprit que les valeurs extrêmes min/max sont TRES rares, donc peut être que celles que j'ai réussi à enregisterer sont les bonnes valeurs extrêmes ou alors sont celles juste avant...

    Quant aux moyennes ben je sais qu'elles dépendent de la taille de l'échantillon (pour 95% de confiance), mais certaines distribs sont "mystérieusement affectées" par quelque chose provoquant des pics fréquentiels uniquement pour certaines valeurs de dommages. Conséquence directe : la moyenne de ces échantillons est "tirée" vers ces valeurs de dommages "boostées".

    Enfin, le dernier constat concerne la nature même du phénomène à priori pseudo-aléatoire: la plupart des distributions semblent montrer qu'il est capable de générer TOUTES les valeurs entières possibles entre les bornes min/max. Par conséquent, peut être serait-il intéressant de "combler" les trous de ces distribs par une fréquence "0" ? (A l"exception des 3 distribs avec dague TK attaque343 qui lui manque tous les nombres se terminant par "4" ou "9" ce qui semble dû à la multiplication par 112,5%)

    @++
    Masa

Discussions similaires

  1. [OL-2007] Créer une liste de distribution à partir d'un fichier Excel
    Par Flaguette dans le forum Outlook
    Réponses: 2
    Dernier message: 04/12/2012, 19h14
  2. [Débutant] générer distribution à partir de M et V
    Par membreComplexe12 dans le forum MATLAB
    Réponses: 5
    Dernier message: 02/05/2012, 16h48
  3. Modélisation en étoile à partir de relations en 1n-1n
    Par alucardalex dans le forum Conception/Modélisation
    Réponses: 5
    Dernier message: 08/02/2011, 10h05
  4. Modéliser une distribution de Pareto
    Par enicnath dans le forum SAS STAT
    Réponses: 5
    Dernier message: 07/10/2010, 17h37
  5. Réponses: 1
    Dernier message: 10/08/2008, 18h00

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo