BazEkon - Biblioteka Główna Uniwersytetu Ekonomicznego w Krakowie

BazEkon home page

Meny główne

Autor
Kubus Mariusz (Politechnika Opolska)
Tytuł
Zastosowanie metody boosting w indukcji reguł
Boosting Application in Rules Induction
Źródło
Prace Naukowe Uniwersytetu Ekonomicznego we Wrocławiu. Taksonomia (15), 2008, nr 7 (1207), s. 470-477, rys., tab., bibliogr. 9 poz.
Tytuł własny numeru
Klasyfikacja i analiza danych - teoria i zastosowania
Słowa kluczowe
Algorytmy, Analiza dyskryminacyjna, Analiza regresji, Drzewa klasyfikacyjne
Algorithms, Discriminant analysis, Regression analysis, Classification trees
Uwagi
summ.
Kraj/Region
Region łódzki
Abstrakt
Metoda boosting została opracowana, aby zmniejszyć zależność jakości predykcji od struktury zbioru uczącego. Celem artykułu jest zbadanie wybranych właściwości algorytmu SLIPPER opracowanego przez Cohena i Singera [1999] oraz porównanie go z dobrze znanym algorytmem drzew klasyfikacyjnych CART.

The induction of classification rules in the implication form is an alternative to classification trees in a presence of non-metric variables. Many algorithms of rules induction follow the classical manner separate-and-conquer [Michalski 1969], Cohen and Singer [1999] proposed to use boosting instead of the step ''separate " and implemented it in SLIPPER. The goal of this paper is to test the selected properties of SLIPPER algorithm and compare it with popular CART. (original abstract)
Dostępne w
Biblioteka Główna Uniwersytetu Ekonomicznego w Krakowie
Biblioteka Główna Uniwersytetu Ekonomicznego w Katowicach
Biblioteka Główna Uniwersytetu Ekonomicznego w Poznaniu
Biblioteka Główna Uniwersytetu Ekonomicznego we Wrocławiu
Bibliografia
Pokaż
  1. Blake C., Keogh E., Merz C.J. (1998), UCI Repository of Machine Learning Databases, Department of Information and Computer Science, University of California, Irvine, www.ics.uci.edu/~ mlearn /MLRepository.html.
  2. Breiman L. (1998), Arcing Classifiers, „Annals of Statistics" nr 26.
  3. Cohen W.W. (1995), Fast Effective Rule Induction, [w:] Proceedings of the 12th International Conference on Machine Learning, red. A. Prieditis, S. Russell.
  4. Cohen W.W., Singer Y. (1999), A Simple, Fast, and Effective Rule Learner, Proceedings of Annual Conference of American Association for Artificial Intelligence, s. 335-342.
  5. Freund Y., Schapire R. E. (1997), A Decision-theoretic Generalization of On-line Learning and an Application to Boosting, „Journal of Computer and System Sciences" nr 55.
  6. Gatnar E. (1998), Symboliczne metody klasyfikacji danych, Wydawnictwo Naukowe PWN, Warszawa.
  7. Gatnar E. (2001), Nieparametryczna metoda dyskryminacji i regresji, Wydawnictwo Naukowe PWN, Warszawa.
  8. Michalski R.S. (1969), On the Quasi-Minimal Solution of the Covering Problem, Proceedings of the 5th International Symposium on Information Processing (FCIP-69), vol. A3 (Switching Circuits), Bled, Yugoslavia, s. 125-128.
  9. Schapire R.E., Singer Y. (1998), Improved Boosting Algorithms Using Confidence-rated Predictions, Proceedings of the Eleventh Annual Conference on Computational Learning Theory, s. 80-91.
Cytowane przez
Pokaż
ISSN
1899-3192
1505-9332
Język
pol
Udostępnij na Facebooku Udostępnij na Twitterze Udostępnij na Google+ Udostępnij na Pinterest Udostępnij na LinkedIn Wyślij znajomemu