BazEkon - Biblioteka Główna Uniwersytetu Ekonomicznego w Krakowie

BazEkon home page

Meny główne

Autor
Kubus Mariusz (Opole University of Technology, Poland)
Tytuł
The Influence of Irrelevant Variables on Classification Error in Rules Induction
Wpływ zmiennych nieistotnych na błąd klasyfikacji w indukcji reguł
Źródło
Acta Universitatis Lodziensis. Folia Oeconomica, 2011, t. 255, s. 167-173, tab., bibliogr. 16 poz.
Tytuł własny numeru
Methodological Aspects of Multivariate Statistical Analysis : Statistical Models and Applications
Słowa kluczowe
Logika indukcji, Data Mining, Analiza dyskryminacyjna, Algorytmy
Logic of induction, Data Mining, Discriminant analysis, Algorithms
Uwagi
summ., streszcz.
Abstrakt
Typowym zadaniem data mining jest wykrycie niespodziewanych i systematycznych relacji w danych, gdy nie ma wcześniejszych oczekiwań co do natury tych relacji. W dużych zbiorach, które nie były zgromadzone w celu prowadzonej przez badacza analizy, zwykle występuje wiele zmiennych nieistotnych, co może obniżyć jakość modelu dyskryminacyjnego. W takich sytuacjach stosowane są metody selekcji zmiennych. W nieparametrycznych i adaptacyjnych metodach dyskryminacji (drzewa klasyfikacyjne, indukcja reguł) selekcja zmiennych jest częścią algorytmu uczącego. Za pomocą symulacji badany jest wpływ zmiennych nieistotnych na błąd klasyfikacji w tych metodach. (abstrakt oryginalny)

Typical data mining task is to extract unsuspected and systematic relations from the data, when there are no previously set expectations about the nature of this relations. When data sets are large and not collected for a purpose to answer the particular question, there are usually many irrelevant variables which may deteriorate the quality of discrimination model. In such situations feature selection methods are applied. In adaptive and nonparametric methods of discrimination (classification trees, rules induction) feature selection is a part of learning algorithm. Using simulations, the influence of irrelevant variables on classification error is examined in this methods. (original abstract)
Dostępne w
Biblioteka Główna Uniwersytetu Ekonomicznego w Krakowie
Biblioteka Szkoły Głównej Handlowej
Biblioteka Główna Uniwersytetu Ekonomicznego w Katowicach
Biblioteka Główna Uniwersytetu Ekonomicznego w Poznaniu
Biblioteka Główna Uniwersytetu Ekonomicznego we Wrocławiu
Pełny tekst
Pokaż
Bibliografia
Pokaż
  1. Breiman L. (2001). Random forests. "Machine Learning", 45. p. 5-32.
  2. Clark P., Boswell R. (1991). Rule induction with CN2: some recent improvements, [in:] Kodratoff Y. (red.) Machine learning - EWSL-91, European working session on learning, p. 151-163. Springer Verlag. Berlin.
  3. Clark P., Niblett T. (1989), The CN2 induction algorithm. "Machine Learning", 3(4). p. 261-283. Kluwer.
  4. Cohen W.W. (1995). Fast effective rule induction. In Prieditis A., Russell S. (Eds.) Proceedings of the 12th International Conference on Machine Learning.
  5. Cohen W.W., Singer Y. (1999). A Simple, Fast, and Effective Rule Learner. In Proceedings of Annual Conference of American Association for Artificial Intelligence (p.335-342).
  6. Freund Y., Schapire R. E. (1997). A Decision-Theoretic Generalization of On-Line Learning and an Application to Boosting. "Journal of Computer and System Sciences". No 55. p. 119-139.
  7. Friedman J. H., Popescu B. E. (2004). Gradient directed regularization for linear regression and classification. (Technical Report). Dept. of Statistics. Stanford University
  8. Friedman J. H., Popescu B. E. (2005). Predictive learning via rule ensembles. (Technical Report). Dept. of Statistics. Stanford University
  9. Fürnkranz J. (1999). Separate-and-Conquer Rule Learning. Artificial Intelligence Review 13(1).
  10. Gatnar E. (2008). Podejście wielomodelowe w zagadnieniach dyskryminacji i regresji. PWN. Warszawa
  11. Hastie T., Tibshirani R., Friedman J. (2001). The Elements of Statistical Learning: Data Mining, Inferance, and Prediction. Springer. New York
  12. Kohavi R., John G. (1997). Wrappers for feature selection. Artificial Intelligence. 97( 1-2): 273-324.
  13. Kubus M. (2009). Porównanie indukcji reguł z wybranymi metodami dyskryminacji, [in:] K. Jajuga, M. Walesiak (red.). Taksonomia 16, Klasyfikacja i analiza danych - teoria i zastosowania. Prace Naukowe Uniwersytetu Ekonomicznego we Wrocławiu. No 47. p. 367-374.
  14. Michalski R.S. (1969). On the quasi-minimal solution of the covering problem. In Proceedings of the 5th International Symposium on Information Processing (FC1P-69). Vol. A3 (Switching Circuits), p. 125-128 Bled. Yugoslavia.
  15. Quinlan J.R. (1993). C4.5 programs for machine learning. Morgan Kaufmann. San Mateo.
  16. Rissanen J. (1978). Modeling by shortest data description. Automatica. 14. p. 465-471.
Cytowane przez
Pokaż
ISSN
0208-6018
Język
eng
URI / DOI
http://hdl.handle.net/11089/696
Udostępnij na Facebooku Udostępnij na Twitterze Udostępnij na Google+ Udostępnij na Pinterest Udostępnij na LinkedIn Wyślij znajomemu