Mesure de performance de la prévision
Bonjour tout le monde,
Je travaille sur la prévision en R et pour cela j'utilise la fonction accuracy() pour mesurer la performance des scénarios réalisés sauf que j'ai constaté que la précision change pour la mesure MASE si je convertis mon Test de serie chronologique à un vecteur numérique. Je cherche à comprendre pourquoi et quel résultat correct . Voici un exemple :
Code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
| > Dem2=window(y2,end=c(2011,12))
> Test<-window(y2,start=c(2012,1))
> fit<-ets(Dem2)
> f1<-forecast(fit,12)
> round(accuracy(f1,Test),2)
ME RMSE MAE MPE MAPE MASE ACF1 Theil s U
Training set -0.01 0.07 0.05 -0.05 0.27 0.08 0.27 NA
Test set -0.08 0.14 0.12 -0.47 0.65 0.17 0.58 1.06
> Test=as.vector(Test)
> Test
[1] 18.72528 18.80953 18.64780 18.65369 18.51886 18.59252 18.33444 18.36091 18.14653 17.96715
[11] 18.01493 17.92674
> round(accuracy(f1,Test),2)
ME RMSE MAE MPE MAPE MASE ACF1
Training set -0.01 0.07 0.05 -0.05 0.27 0.5 0.27
Test set -0.08 0.14 0.12 -0.47 0.65 1.1 NA |
Merci.