BazEkon - Biblioteka Główna Uniwersytetu Ekonomicznego w Krakowie

BazEkon home page

Meny główne

Autor
Kubus Mariusz (Politechnika Opolska)
Tytuł
Propozycja agregowanego klasyfikatora kNN z selekcją zmiennych
The Proposition of the Knn Ensemble with Feature Selection
Źródło
Ekonometria / Uniwersytet Ekonomiczny we Wrocławiu, 2016, nr 3 (53), s. 32-41, tab., bibliogr. 22 poz.
Econometrics / Uniwersytet Ekonomiczny we Wrocławiu
Słowa kluczowe
Drzewa klasyfikacyjne, Metoda najbliższego sąsiedztwa
Classification trees, Neighbor joining distance method
Uwagi
streszcz., summ.
Abstrakt
Modele zagregowanych drzew klasyfikacyjnych zyskały uznanie ze względu na poprawę stabilności i często redukcję obciążenia. Adaptacja tego podejścia do metody k najbliższych sąsiadów (kNN) napotyka jednak na pewne trudności: względnie duża stabilność tych klasyfikatorów oraz wzrost błędu klasyfikacji, gdy w zbiorze uczącym są zmienne bez mocy dyskryminacyjnej. W artykule proponuje się agregowany klasyfikator kNN z selekcją zmiennych. Jego dokładność klasyfikacji zweryfikowana jest na zbiorach rzeczywistych z dołączonymi zmiennymi nieistotnymi.(abstrakt oryginalny)

Aggregated classification trees have gained recognition due to improved stability, and frequently reduced bias. However, the adaptation of this approach to the k nearest neighbors method (kNN), faces some difficulties: the relatively high stability of these classifiers, and an increase of misclassifications when the variables without discrimination power are present in the training set. In this paper we propose aggregated kNN classifier with feature selection. Its classification accuracy has been verified on the real data with added irrelevant variables.(original abstract)
Dostępne w
Biblioteka Główna Uniwersytetu Ekonomicznego w Krakowie
Biblioteka SGH im. Profesora Andrzeja Grodka
Biblioteka Główna Uniwersytetu Ekonomicznego w Katowicach
Biblioteka Główna Uniwersytetu Ekonomicznego w Poznaniu
Biblioteka Główna Uniwersytetu Ekonomicznego we Wrocławiu
Pełny tekst
Pokaż
Bibliografia
Pokaż
  1. Bay S.D., 1999, Nearest neighbour classification from multiple feature subsets, Intelligent Data Analysis, 3(3), s. 191-209.
  2. Breiman L., 1996, Bagging predictors, Machine Learning, 24(2), s. 123-140.
  3. Breiman L., 2001, Random forests, Machine Learning, 45, s. 5-32.
  4. Dietterich T.G., 2000, Ensemble methods in machine learning, [w:] Multiple Classifier Systems. First International Workshop, vol. 1857, Springer-Verlag.
  5. Domeniconi C., Yan B., 2004, Nearest neighbour ensemble, IEEE Proceedings of the 17th International Conference on Pattern Recognition (ICPR 2004), vol. 1.
  6. Enas G.G., Choi S.C., 1986, Choice of the smoothing parameter and efficiency of k-nearest neighbor classification, Computer and Mathematics with Applications, 12A(2), s. 235-244.
  7. Frank A., Asuncion A., 2010, UCI Machine Learning Repository, Irvine, CA, University of California, School of Information and Computer Science, http://archive.ics.uci.edu/ml/.
  8. Freund Y., Schapire R.E., 1997, A Decision-Theoretic Generalization of On-Line Learning and an Application to Boosting, Journal of Computer and System Sciences, no. 55, s. 119-139.
  9. Friedman J.H., Popescu B.E., 2005, Predictive learning via rule ensembles, Technical Report, Department of Statistics, Stanford University.
  10. Fumera G., Roli F., 2001, Error rejection in linearly combined multiple classifiers, Proceedings of International Workshop on Multiple Classifier Systems, Springer, Cambridge, UK.
  11. Gatnar E., 2008, Podejście wielomodelowe w zagadnieniach dyskryminacji i regresji, Wydawnictwo Naukowe PWN, Warszawa.
  12. Gul A., Perperoglou A., Khan Z., Mahmoud O., Miftahuddin M., Adler W., Lausen B., 2014, Ensemble of a subset of kNN classifiers, Advances in Data Analysis and Classification, s. 1-14.
  13. Guyon I., Gunn S., Nikravesh M., Zadeh L., 2006, Feature Extraction: Foundations and Applications, Springer, New York.
  14. Hechenbichler K., Schliep K.P., 2004, Weighted k-Nearest-Neighbour Techniques and Ordinal Classification, Discussion Paper 399, SFB 386, Ludwig-Maximilians Universität München.
  15. Hellwig Z., 1969, Problem optymalnego wyboru predykant, Przegląd Statystyczny, nr 3-4, s. 221-237.
  16. King R.D., Feng C., Sutherland A., 1995, StatLog: Comparison of classification algorithms on large real-world problems, Applied Artificial Intelligence, vol. 9, no. 3, s. 289-333.
  17. Kira K., Rendell L.A., 1992, The feature selection problem: Traditional methods and a new algorithm, Proceedings AAAI-92, MIT Press.
  18. Kononenko I., 1994, Estimating attributes: Analysis and extensions of RELIEF, Proceedings European Conference on Machine Learning.
  19. Kubus M., 2015, Feature selection and the chessboard problem, Acta Universitatis Lodziensis, Folia Oeconomica, Statistical Analysis in Theory and Practice, no. 1 (311), s. 17-25.
  20. Kubus M., 2016, Lokalna ocena mocy dyskryminacyjnej zmiennych, Prace Naukowe Uniwersytetu Ekonomicznego we Wrocławiu, nr 427, Taksonomia 27, Klasyfikacja i analiza danych - teoria i zastosowania, Wrocław.
  21. Opitz D., Maclin R., 1999, Popular ensemble methods: An empirical study, Journal of Artificial Intelligence Research, 11, s. 169-198.
  22. Zhou Z.H., Yu Y., 2005, Adapt bagging to nearest neighbour classifiers, Journal of Computer Science and Technology, vol. 20(1), s. 48-54.
Cytowane przez
Pokaż
ISSN
1507-3866
Język
pol
URI / DOI
http://dx.doi.org/10.15611/ekt.2016.3.03
Udostępnij na Facebooku Udostępnij na Twitterze Udostępnij na Google+ Udostępnij na Pinterest Udostępnij na LinkedIn Wyślij znajomemu