- Autor
- Kubus Mariusz (Politechnika Opolska)
- Tytuł
- Upraszczanie wstępne reguł klasyfikacji drzew logicznych
Pre-Pruning of Classification Rules for Logical Trees - Źródło
- Prace Naukowe Akademii Ekonomicznej we Wrocławiu. Taksonomia (14), 2007, nr 1169, s. 499-506, rys., tab., bibliogr. 9 poz.
- Tytuł własny numeru
- Klasyfikacja i analiza danych - teoria i zastosowania
- Słowa kluczowe
- Klasyfikacja, Modele dyskryminacyjne
Classification, Discriminatory models - Uwagi
- summ.
- Abstrakt
- Obszarem zainteresowań będą metody dyskryminacji, które można stosować dla zmiennych z mocnych i słabych skal pomiaru. W statystyce ugruntowaną już pozycję ma metoda drzew klasyfikacyjnych. Jednocześnie na gruncie nauki o indukcyjnych metodach uczenia rozwijano metody dyskryminacji prowadzące do modeli w postaci reguł klasyfikacji, których części warunkowe są koniunkcjami wartości cech. Znaczna ich liczba opiera się na ogólnym schemacie wypracowanym przez Michalskiego. Do konstrukcji takich modeli dyskryminacyjnych można zastosować także drzewa logiczne. Zaproponowana przez autora metoda daje dokładności klasyfikacji porównywalne z powszechnie znanymi algorytmami CN2 (indukcja reguł) i C4.5 (drzewa klasyfikacyjne). Celem artykułu jest zastosowanie w metodzie drzew logicznych różnych technik upraszczania wstępnego modelu (pre-pruning) spotykanych w indukcji reguł i drzewach klasyfikacyjnych. Ponieważ omawiane metody zostały opracowane głównie dla zmiennych niemetrycznych, postać klasyfikatora nie może zawierać operacji artymetrycznych. Naturalnym środkiem wyrazu w tej sytuacji jest posługiwanie się komunikacjami wartości cech, co czynimy na co dzień. (fragment tekstu)
Discriminant models that ideally separate classes do not perform well on the new observations, especialy in the presence of noise. This is the general problem of discriminant analysis. Several technics of pruning were proposed in the literature to avoide overfitting. In this paper, pre-pruning technics that deal with noise during model generation are considered. The main goal of this paper is to adopt pre-pruning technics - used in classification trees and rules induction - for logical trees based discrimination method. The examples from UCI Repository of Machine Learning Databases are given. (original abstract) - Dostępne w
- Biblioteka Główna Uniwersytetu Ekonomicznego w Krakowie
Biblioteka SGH im. Profesora Andrzeja Grodka
Biblioteka Główna Uniwersytetu Ekonomicznego w Poznaniu - Bibliografia
- Blake C., Keogh E., Merz C.J. (1998), UC1 Repository of Machine Learning Databases, Department of Information and Computer Science, University of California, Irvine, www.ics.uci.edu/~mleam/MLRepository.html.
- Fürnkranz J. (1997), Pruning Algorithms for Rule Learning, "Machine Learning" 27(2).
- Fürnkranz J. (1999), Separate-and-Conquer Rule Learning, "Artif. Intelligence Review" 13(1).
- Fürnkranz J., Flach P.A. (2005), ROC 'n' Rule Learning - Towards a Better Understanding of Covering Algorithms, "Machine Learning" 58, s. 39-77.
- Gatnar E. (2001), Nieparametryczna metoda dyskryminacji i regresji, PWN, Warszawa.
- Gatnar E. (1998), Symboliczne metody klasyfikacji danych, PWN, Warszawa.
- Kubus M. (2006), O pewnej metodzie dyskryminacji obiektów jakościowych, "Prace Naukowe AE we Wrocławiu", nr 1126, AE, Wrocław.
- Michalski R.S. (1969), On the Quasi-Minimal Solution of the Covering Problem, [w:] Proceedings of the 5th International Symposium on Information Processing (FCIP-69) vol. A3 (Switching Circuits), Bled, Yugoslavia, s. 125-128.
- Quinlan J.R., Cameron-Jones R.M. (1995), Oversearching and Layered Search in Empirical Learning, [w:] C. Mellish (red.), Proceedings of the 14th International Joint Conference on Artificial Intelligence, Morgan Kaufman, s. 1019-1024.
- Cytowane przez
- ISSN
- 0324-8445
1505-9332 - Język
- pol