BazEkon - Biblioteka Główna Uniwersytetu Ekonomicznego w Krakowie

BazEkon home page

Meny główne

Autor
Gatnar Eugeniusz (Akademia Ekonomiczna im. Karola Adamieckiego w Katowicach)
Tytuł
Wykorzystanie metod taksonomicznych do budowy modeli zagregowanych
The Application of Cluster Analysis in Aggregation of Classifiers
Źródło
Prace Naukowe Akademii Ekonomicznej we Wrocławiu. Taksonomia (14), 2007, nr 1169, s. 57-64, rys., tab., bibliogr. 17 poz.
Tytuł własny numeru
Klasyfikacja i analiza danych - teoria i zastosowania
Słowa kluczowe
Metody taksonomiczne, Macierze
Taxonomic methods, Matrix
Uwagi
summ.
Abstrakt
Sukces podejścia polegającego na agregacji modeli w analizie dyskryminacyjnej zależy od zróżnicowania modeli składowych (lokalnych) C1 (x),..., CK (x). Jak udowodnili Turner i Ghosh [1996], błąd klasyfikacji modelu zagregowanego C*(x) maleje wraz ze spadkiem stopnia podobieństwa ("korelacji") modeli składowych. Celowe staje się więc łączenie tylko takich modeli, które jak najbardziej różnią się od siebie. Jednym z rozwiązań mogących zapewnić to, że modele składowe będą maksymalnie niepodobne jest wykorzystanie metod taksonomicznych. W artykule zaproponowano metodę budowy modeli zagregowanych, która polega na wygenerowaniu dużej liczby modeli, nр. K = 300, i pogrupowaniu ich w klasy, a następnie połączeniu reprezentantów klas w jeden model C*(x). W związku z tym, że brak jest głębszych badań nad omawianym zagadnieniem, kolejnym celem artykułu stała się analiza porównawcza metod taksonomicznych, które mogą być wykorzystane w proponowanym podejściu. Pojawił się także problem konstrukcji macierzy niepodobieństwa modeli, ponieważ istnieje kilka konkurencyjnych miar mogących służyć do tego celu. W dalszej części pracy zbadano więc także to, jak wielkość błędu klasyfikacji zależy od wyboru odpowiedniej miary zróżnicowania. (fragment tekstu)

Combining multiple classifiers into an ensemble has proved to be very successful in the past decade. The key issue is the diversity of the component classifiers, because the most unrelated members the most accurate is the ensemble. In this paper we propose a new method of combining classifiers, that is based on clustering of the single models. We also compare different hierarchical clustering methods and diversity measures used to create the dissimilarity matrix. (original abstract)
Dostępne w
Biblioteka Główna Uniwersytetu Ekonomicznego w Krakowie
Biblioteka SGH im. Profesora Andrzeja Grodka
Biblioteka Główna Uniwersytetu Ekonomicznego w Poznaniu
Bibliografia
Pokaż
  1. Breiman L. (1998), Arcing Classifiers, "Annals of Statistics" 26, s. 801-849.
  2. Breiman L. (1996), Bagging Predictors, "Machine learning" 24, s. 123-140.
  3. Breiman L. (2001), Random Forests, "Machine Learning" 45, s. 5-32.
  4. Dietterich Т., Bakiri G. (1995), Solving Multiclass Learning Problem via Error- Correcting Output Codes, ,,Journal of Artificial Intelligence Research" 2, s. 263-286.
  5. Freund Y., Schapire R.E. (1997), A Decision-Theoretic Generalization of On-Line Learning and an Application to Boosting, "Journal of Computer and System Sciences" 55, s. 119-139.
  6. Gatnar E. (2001), Nieparametryczna metoda dyskryminacji i regresji, PWN, Warszawa.
  7. Gatnar E. (2006), Wykorzystanie miary Hamanna do oceny podobieństwa modeli w podejściu wielomodelowym, Taksonomia 13, "Prace Naukowe AE we Wrocławiu", nr 1126, AE, Wrocław, s. 56-64.
  8. Giacinto G., Roli F. (2001), Design of Effective Neural Network Ensembles for Image Classification Processes, "Image Vision and Computing Journal" 19, s. 699-707.
  9. Giacinto G., Roli F., Fumera G. (2000), Design of Effective Multiple Classifier Systems by Clustering of Classifiers, Proc. of the Int. Conference on Pattern Recognition, ICPR'00, IEEE.
  10. Но Т.K. (1998), The Random Subspace Method for Constructing Decision Forests, "IEEE Transactions on Pattern Analysis and Machine Intelligence" 20, s. 832-844.
  11. Kuncheva L., Whitaker C., Shipp D., Duin R. (2000), Is Independence Good for Combining Classifiers, Proceedings of the 15th International Conference on Pattern Recognition, Barcelona, Spain, s. 168-171.
  12. Margineantu M.M., Dietterich T.G. (1997), Pruning Adaptive Boosting, Proceedings of the 14th International Conference on Machine Learning, Morgan Kaufmann, San Mateo, s. 211-218.
  13. Partridge D., Yates W.B. (1996), Engineering Multiversion Neural-Net Systems, "Neural Computation" 8, s. 869-893.
  14. Skalak D.B. (1996), The Sources of Increased Accuracy for Two Proposed Boosting Algorithms, Proceedings of the American Association for Artificial Intelligence AAAI-96, Morgan Kaufmann, San Mateo.
  15. Themeau T.M., Atkinson E.J. (1997), An Introduction to Recursive Partitioning Using the RPART Routines, Mayo Foundation, Rochester.
  16. Turner K., Ghosh J. (1996), Analysis of Decision Boundaries in Linearly Combined Neural Classifiers, "Pattern Recognition" 29, s. 341-348.
  17. Wolpert D. (1992), Stacked Generalization, "Neural Networks" 5, s. 241-259.
Cytowane przez
Pokaż
ISSN
0324-8445
1505-9332
Język
pol
Udostępnij na Facebooku Udostępnij na Twitterze Udostępnij na Google+ Udostępnij na Pinterest Udostępnij na LinkedIn Wyślij znajomemu