BazEkon - Biblioteka Główna Uniwersytetu Ekonomicznego w Krakowie

BazEkon home page

Meny główne

Autor
Szupiluk Ryszard (Szkoła Główna Handlowa w Warszawie)
Tytuł
Integracja modeli w metodach Data Mining
Models integration in Data Mining
Źródło
Roczniki Kolegium Analiz Ekonomicznych / Szkoła Główna Handlowa, 2006, nr 16, s. 301-309, tab., bibliogr. 21 poz.
Tytuł własny numeru
Współczesne trendy w informatyce ekonomicznej
Słowa kluczowe
Data Mining, Zarządzanie przedsiębiorstwem, Analiza finansowa
Data Mining, Enterprise management, Financial analysis
Uwagi
streszcz., summ.
Abstrakt
W odróżnieniu od standardowych procedur zadaniem nowej metody integracji nie jest uśrednianie czy ważenie wyników kilku modeli (boosting, bagging) w sposób optymalny dla jednego kryterium błędu (np. MSE), lecz poszukiwanie fundamentalnych komponentów mających wpływ na predykcję. Czynimy to jednak nie od strony danych wejściowych, a od strony rezultatów. Czynniki te mogą być bowiem związane zarówno z danymi wejściowymi, jak i działaniem modeli, rezultaty zaś zawierają informację o całym procesie. Estymacja, interpretacja, a następnie eliminacja destrukcyjnych komponentów jest rzeczą kluczową w całym procesie. Zauważmy też, że eliminacja takiego czynnika prowadzi (teoretycznie) do poprawy we wszystkich modelach, według wszystkich kryteriów. Metoda opisana powyżej może być traktowana jako wielowymiarowa filtracja eliminująca negatywne komponenty, która w odróżnieniu od klasycznej filtracji wykorzystuje informację generowaną jednocześnie przez wiele modeli. Istotnym czynnikiem przemawiającym za stosowaniem niniejszej metody może być to, że mimo nowatorskiej koncepcji jej realizacja odbywa się przez wykorzystanie standardowych procedur istniejących w pakietach Data Mining. Adresowana więc może zarówno do statystyków, jak i informatyków baz danych. (abstrakt oryginalny)

In this paper we propose a novel ensemble methods for prediction improvement. Results generated by a model usually include both wanted and destructive components. In case of a few models, some of the components can be common to all of them. Our aim is to find basis elements and distinguish the components with the constructive influence on the modelling quality from the destructive ones. After rejecting the negative elements from the models' results we obtain better results in terms of some standard error criteria. (original abstract)
Dostępne w
Biblioteka Główna Uniwersytetu Ekonomicznego w Krakowie
Biblioteka Szkoły Głównej Handlowej w Warszawie
Biblioteka Główna Uniwersytetu Ekonomicznego w Katowicach
Biblioteka Główna Uniwersytetu Ekonomicznego w Poznaniu
Biblioteka Główna Uniwersytetu Ekonomicznego we Wrocławiu
Bibliografia
Pokaż
  1. Akaike H., A new look at the statistical model identification, "IEEE Transactions on Automatic Control" 1974, Vol. 19, s. 716-723.
  2. Armstrong J.S., Collopy F., Error Measures For Generalizing About Forecasting Methods: Empirical Comparisons, "International Journal of Forecasting" 1992, Vol. 8, s. 69-80.
  3. Breiman L., Bagging predictors, "Machine Learning" 1996, Vol. 24, s. 123-140.
  4. Breiman L., Bias, Variance, and Arcing Classifiers, Technical Report No. 460 Statistics Depertinent, University of California 1996.
  5. Breiman L., Stacked Regressions, "Machine Learning" 1996, Vol. 24, nr 1, s. 41-64.
  6. Cichocki A., Amari S., Adaptive Blind Signal and Image Processing, John Wiley, Chichester 2002.
  7. Clemen R.T., Combiningforecasts: A review and annotated bibliography, "International Journal of Forecasting" 1989, No 5, s. 559-583.
  8. Drucker H., Improving Regressors using Boosting Techniques, Proceedings of 14th International Conference on Machine Learning, Morgan-Kaufmann 1997, s. 107-115.
  9. Greene W.H., Econometric analysis, Prentice Hall 2000.
  10. Golub G.H., Van-Loan C.F., Matrix Computations, John Hopkins 1996.
  11. Haykin S., Neural Networks: a comprehensive foundation, Macmillan, New York 1994.
  12. Hoeting J., Madigan D., Raftery A., Volinsky C., Bayesian model averaging: a tutorial, "Statistical Science" 1999, Vol. 14, s. 382-417.
  13. Hyvarinen A., Karhunen J., Oja E., Independent Component Analysis, John Wiley 2001.
  14. Kennedy R.L., Lee Y., Van Roy B., Reed C., Lippman R.P., Solving Data Mining Problems with Pattern Recognition, Prentice Hall 1997.
  15. Mitchell T., Machine Learning, McGraw-Hill, Boston 1997.
  16. Szupiluk R., Wojewnik P., Ząbkowski T., Model Improvement by the Statistical Decomposition, Artificial Intelligence and Soft Computing Proceedings, "Lecture Notes in Computer Science", Springer Verlag, Heidelberg 2004, s. 1199-1204.
  17. Szupiluk R., Wojewnik P., Ząbkowski T., Combining Forecasts with Blind Signal Separation Methods in Electric Load Prediction Framework, Artificial Intelligence and Applications, AIA 2006, Innsbruck, February 13-16,2006.
  18. Szupiluk R., Wojewnik P., Ząbkowski T., Siwek K., Wielokryterialny system decyzyjny dla integracji modeli metodami ślepej separacji sygnałów, XXIXIC-SPETO, Ustroń 2005.
  19. Witten I.H., Frank E., Data Mining: Practical Machine Learning Tools and Techniques, Morgan Kaufman 2005.
  20. Wolpert D.H., Stacked generalization, "Neural Networks" 1992, No 5,241-259.
  21. Yang Y., Adaptive regression by mixing, "Journal of American Statistical Association" 2001, Vol. 96.
Cytowane przez
Pokaż
ISSN
1232-4671
Język
pol
Udostępnij na Facebooku Udostępnij na Twitterze Udostępnij na Google+ Udostępnij na Pinterest Udostępnij na LinkedIn Wyślij znajomemu