BazEkon - Biblioteka Główna Uniwersytetu Ekonomicznego w Krakowie

BazEkon home page

Meny główne

Autor
Szupiluk Ryszard (Szkoła Główna Handlowa w Warszawie)
Tytuł
Agregacja modeli predykcyjnych z wykorzystaniem dekompozycji błędu średniokwadratowego
Prediction models ensemble with MSE decomposition
Źródło
Roczniki Kolegium Analiz Ekonomicznych / Szkoła Główna Handlowa, 2009, nr 19, s. 163-170, tab., bibliogr. 30 poz.
Tytuł własny numeru
Technologie informatyczne w zarządzaniu organizacjami : wybrane zagadnienia
Słowa kluczowe
Energia elektryczna, Sztuczna inteligencja, Agregacja modeli, Zużycie energii
Electric power, Artificial intelligence, Aggregation models, Energy use
Uwagi
streszcz., summ.
Abstrakt
W niniejszym artykule przedstawione zostaną teoretyczne podstawy dla działania metody agregacji modeli w oparciu o wielowymiarowe dekompozycje danych. W metodzie tej traktujemy zbiór rezultatów predykcji jako wielowymiarową zmienną, zawierającą destrukcyjne dla wyniku prognozy ukryte komponenty. Wykorzystanie technik dekorelujących dane oraz dekompozycja błędu średniokwadratowego pozwala na identyfikacje i eliminuję komponentów destrukcyjnych. Prowadzi to do poprawy wyników predykcji. Potwierdzeniem skuteczności metody jest praktyczny eksperyment prognozowania zużycia energii elektrycznej. (abstrakt oryginalny)

In this paper we present the theoretical background for ensemble methods via multivariate decompositions. Having a set of models we treat their results as a multivariate variable with destructive and constructive latent components. The data decorrelation and MSE error decompositions provide to proper destructive components identification and elimination. The elimination of destructive components should improve final prediction. The validity of the approach is verified by energy load prediction problem. (original abstract)
Dostępne w
Biblioteka Główna Uniwersytetu Ekonomicznego w Krakowie
Biblioteka SGH im. Profesora Andrzeja Grodka
Biblioteka Główna Uniwersytetu Ekonomicznego w Katowicach
Biblioteka Główna Uniwersytetu Ekonomicznego w Poznaniu
Biblioteka Główna Uniwersytetu Ekonomicznego we Wrocławiu
Bibliografia
Pokaż
  1. Amari S. (1998) Natural gradient works efficiently in learning, Neural Computation, 10:271-276.
  2. Bastes J.M., C.W.J. Granger (1969) The combination of forecasts, Operations Research Quarterly 20, 451-468.
  3. Bishop C. M. (1995), Neural Networks for Pattern Recognition Oxford University Press.
  4. Breiman L. (1996) Bagging Predictors, Machine Learning 24, 123-140.
  5. Cardoso J.F. (1999) High-order contrasts for independent component analysis, in Neural Computation, vol. 11, no 1, pp. 157-192, Jan.
  6. Cichocki, A., Amari, S. (2002) Adaptive Blind Signal and Image Processing, John Wiley, Chichester.
  7. Cichosz P., (2007) Systemy uczące się, WNT 2007.
  8. Clemen R. T. (1997) Combining forecasts: review and annotated bibliography, Int. J. of Forecasting 5 (1989): 559-583.
  9. Drucker H. Improving Regressors using Boosting Techniques. ICML 1997, 107-115.
  10. Elliott G., A. Timmermann (2004) Optimal forecast combinations under general loss functions and forecast error distributions, Journal of Econometrics 122(1),47-79.
  11. Gatnar E. (2008), Podejście wielomodelowe w zagadnieniach dyskryminacji i regresji, PWN, Warszawa.
  12. Haykin, S. (1994) Neural networks: a comprehensive foundation, Macmillan, New York.
  13. Hoeting J., D. Madigan, A. Raftery, C. Volinsky (1999) Bayesian model averaging: a tutorial. Statistical Science, 14, 382-417.
  14. Hyvarinen, A., Karhunen, J., Oja, E. (2001) Independent Component Analysis. John Wiley.
  15. Joliffe I. T. (2002) Principal Component Analysis, Springer Verlag, July.
  16. Lendasse, A., Cottrell, M., Wertz, V., Verdleysen (2002) M. Prediction of Electric Load using Kohonen Maps - Application to the Polish Electricity Consumption, Proc. Am. Control Conf., Anchorage AK 3684-3689.
  17. Mitchell, T. (1997) Machine Learning. McGraw-Hill, Boston.
  18. Rutkowski L. (2006) Metody i techniki sztucznej inteligencji, PWN.
  19. Osowski S. (1996) Sieci neuronowe w ujęciu algorytmicznym, WNT.
  20. Siwek K. (2000), Prognozowanie obciążeń w systemie elektroenergetycznym przy wykorzystaniu sztucznych sieci neuronowych, Warszawa, Politechnika Warszawska.
  21. Siwek K., Osowski S., Szupiluk R., Wojewnik P., Ząbkowski T. (2005), Blind Source Separation for Improved Load Forecasting in the Power System, IEEE Conf. ECCTD 2005, Cork, Irlnandia.
  22. Scholkopf B., Smola A. (2002), Learning With Kernels: Support Vector Machines, Regularization, Optimization and Beyond, MIT Press.
  23. Szupiluk, R., Wojewnik, P., Zabkowski, T. (2004) Model Improvement by the Statistical Decomposition. Artificial Intelligence and Soft Computing Proceedings. LNCS, Springer-Verlag Heidelberg, 1199-1204.
  24. Szupiluk, R., Wojewnik, P., Zabkowski, T. (2007) Smooth Component Analysis as Ensemble Method for Prediction Improvement, ICA2007, Lecture Notes in Computer Science, Springer Berlin-Heidelberg, vol. 4666/ 2007 pp. 277-284.
  25. Szupiluk R., Wojewnik P., Zabkowski T., (2006) Temporal Blind Source Separation Methods For Models Results Improvement, Artificial Intelligence and Soft Computing, seria Challanging Problems in Science, wydawnictwo Exit, Warszawa.
  26. Therrien, C.W. (1992) Discrete Random Signals and Statistical Signal Processing. Prentice Hall, New Jersey.
  27. Vapnik V. (1998), Statistical Learning Theory, John Wiley.
  28. Witten I. H., Frank E. (2005) Data Mining: Practical Machine Learning Tools and Techniques (Second Edition), Morgan Kauftnann.
  29. Wolpert D. (1992) Stacked Generalization. Neural Networks, Vol. 5, 241-259.
  30. Zibulevsky, M., Kisilev, P., Zeevi, Y.Y., Pearlmutter, B.A. (2002) Blind source separation via multinode sparse representation. In Advances in Neural Information Processing.
Cytowane przez
Pokaż
ISSN
1232-4671
Język
pol
Udostępnij na Facebooku Udostępnij na Twitterze Udostępnij na Google+ Udostępnij na Pinterest Udostępnij na LinkedIn Wyślij znajomemu