BazEkon - The Main Library of the Cracow University of Economics

BazEkon home page

Main menu

Author
Szupiluk Ryszard (Szkoła Główna Handlowa w Warszawie)
Title
Agregacja modeli predykcyjnych z wykorzystaniem dekompozycji błędu średniokwadratowego
Prediction models ensemble with MSE decomposition
Source
Roczniki Kolegium Analiz Ekonomicznych / Szkoła Główna Handlowa, 2009, nr 19, s. 163-170, tab., bibliogr. 30 poz.
Issue title
Technologie informatyczne w zarządzaniu organizacjami : wybrane zagadnienia
Keyword
Energia elektryczna, Sztuczna inteligencja, Agregacja modeli, Zużycie energii
Electric power, Artificial intelligence, Aggregation models, Energy use
Note
streszcz., summ.
Abstract
W niniejszym artykule przedstawione zostaną teoretyczne podstawy dla działania metody agregacji modeli w oparciu o wielowymiarowe dekompozycje danych. W metodzie tej traktujemy zbiór rezultatów predykcji jako wielowymiarową zmienną, zawierającą destrukcyjne dla wyniku prognozy ukryte komponenty. Wykorzystanie technik dekorelujących dane oraz dekompozycja błędu średniokwadratowego pozwala na identyfikacje i eliminuję komponentów destrukcyjnych. Prowadzi to do poprawy wyników predykcji. Potwierdzeniem skuteczności metody jest praktyczny eksperyment prognozowania zużycia energii elektrycznej. (abstrakt oryginalny)

In this paper we present the theoretical background for ensemble methods via multivariate decompositions. Having a set of models we treat their results as a multivariate variable with destructive and constructive latent components. The data decorrelation and MSE error decompositions provide to proper destructive components identification and elimination. The elimination of destructive components should improve final prediction. The validity of the approach is verified by energy load prediction problem. (original abstract)
Accessibility
The Main Library of the Cracow University of Economics
The Library of Warsaw School of Economics
The Library of University of Economics in Katowice
The Main Library of Poznań University of Economics and Business
The Main Library of the Wroclaw University of Economics
Bibliography
Show
  1. Amari S. (1998) Natural gradient works efficiently in learning, Neural Computation, 10:271-276.
  2. Bastes J.M., C.W.J. Granger (1969) The combination of forecasts, Operations Research Quarterly 20, 451-468.
  3. Bishop C. M. (1995), Neural Networks for Pattern Recognition Oxford University Press.
  4. Breiman L. (1996) Bagging Predictors, Machine Learning 24, 123-140.
  5. Cardoso J.F. (1999) High-order contrasts for independent component analysis, in Neural Computation, vol. 11, no 1, pp. 157-192, Jan.
  6. Cichocki, A., Amari, S. (2002) Adaptive Blind Signal and Image Processing, John Wiley, Chichester.
  7. Cichosz P., (2007) Systemy uczące się, WNT 2007.
  8. Clemen R. T. (1997) Combining forecasts: review and annotated bibliography, Int. J. of Forecasting 5 (1989): 559-583.
  9. Drucker H. Improving Regressors using Boosting Techniques. ICML 1997, 107-115.
  10. Elliott G., A. Timmermann (2004) Optimal forecast combinations under general loss functions and forecast error distributions, Journal of Econometrics 122(1),47-79.
  11. Gatnar E. (2008), Podejście wielomodelowe w zagadnieniach dyskryminacji i regresji, PWN, Warszawa.
  12. Haykin, S. (1994) Neural networks: a comprehensive foundation, Macmillan, New York.
  13. Hoeting J., D. Madigan, A. Raftery, C. Volinsky (1999) Bayesian model averaging: a tutorial. Statistical Science, 14, 382-417.
  14. Hyvarinen, A., Karhunen, J., Oja, E. (2001) Independent Component Analysis. John Wiley.
  15. Joliffe I. T. (2002) Principal Component Analysis, Springer Verlag, July.
  16. Lendasse, A., Cottrell, M., Wertz, V., Verdleysen (2002) M. Prediction of Electric Load using Kohonen Maps - Application to the Polish Electricity Consumption, Proc. Am. Control Conf., Anchorage AK 3684-3689.
  17. Mitchell, T. (1997) Machine Learning. McGraw-Hill, Boston.
  18. Rutkowski L. (2006) Metody i techniki sztucznej inteligencji, PWN.
  19. Osowski S. (1996) Sieci neuronowe w ujęciu algorytmicznym, WNT.
  20. Siwek K. (2000), Prognozowanie obciążeń w systemie elektroenergetycznym przy wykorzystaniu sztucznych sieci neuronowych, Warszawa, Politechnika Warszawska.
  21. Siwek K., Osowski S., Szupiluk R., Wojewnik P., Ząbkowski T. (2005), Blind Source Separation for Improved Load Forecasting in the Power System, IEEE Conf. ECCTD 2005, Cork, Irlnandia.
  22. Scholkopf B., Smola A. (2002), Learning With Kernels: Support Vector Machines, Regularization, Optimization and Beyond, MIT Press.
  23. Szupiluk, R., Wojewnik, P., Zabkowski, T. (2004) Model Improvement by the Statistical Decomposition. Artificial Intelligence and Soft Computing Proceedings. LNCS, Springer-Verlag Heidelberg, 1199-1204.
  24. Szupiluk, R., Wojewnik, P., Zabkowski, T. (2007) Smooth Component Analysis as Ensemble Method for Prediction Improvement, ICA2007, Lecture Notes in Computer Science, Springer Berlin-Heidelberg, vol. 4666/ 2007 pp. 277-284.
  25. Szupiluk R., Wojewnik P., Zabkowski T., (2006) Temporal Blind Source Separation Methods For Models Results Improvement, Artificial Intelligence and Soft Computing, seria Challanging Problems in Science, wydawnictwo Exit, Warszawa.
  26. Therrien, C.W. (1992) Discrete Random Signals and Statistical Signal Processing. Prentice Hall, New Jersey.
  27. Vapnik V. (1998), Statistical Learning Theory, John Wiley.
  28. Witten I. H., Frank E. (2005) Data Mining: Practical Machine Learning Tools and Techniques (Second Edition), Morgan Kauftnann.
  29. Wolpert D. (1992) Stacked Generalization. Neural Networks, Vol. 5, 241-259.
  30. Zibulevsky, M., Kisilev, P., Zeevi, Y.Y., Pearlmutter, B.A. (2002) Blind source separation via multinode sparse representation. In Advances in Neural Information Processing.
Cited by
Show
ISSN
1232-4671
Language
pol
Share on Facebook Share on Twitter Share on Google+ Share on Pinterest Share on LinkedIn Wyślij znajomemu