BazEkon - Biblioteka Główna Uniwersytetu Ekonomicznego w Krakowie

BazEkon home page

Meny główne

Autor
Trzęsiok Joanna (Akademia Ekonomiczna im. Karola Adamieckiego w Katowicach)
Tytuł
Porównanie metody gradientowej wykorzystującej transformację logistyczną z wybranymi metodami dyskryminacji
Comparison of Gradient Boosting Method Using the Multiple Logistic Transform with Other Classification Methods
Źródło
Prace Naukowe Akademii Ekonomicznej we Wrocławiu. Taksonomia (14), 2007, nr 1169, s. 245-252, tab., bibliogr. 9 poz.
Tytuł własny numeru
Klasyfikacja i analiza danych - teoria i zastosowania
Słowa kluczowe
Metoda gradientu, Analiza dyskryminacyjna, Analiza porównawcza
Gradient method, Discriminant analysis, Comparative analysis
Uwagi
summ.
Abstrakt
Metoda MART, stosowana w regresji, generuje modele charakteryzujące się niskimi wartościami błędów predykcji. Na ogół jest ona najdokładniejsza w badanej grupie metod. Dla jej modyfikacji - omawianej metody gradientowej, otrzymaliśmy relatywnie dobre wartości błędów klasyfikacji, obliczonych na zbiorach testowych. Jednak w porównaniu z innymi metodami regresji otrzymujemy zawsze błędy klasyfikacji o co najmniej kilka procent wyższe niż np. dla modeli skonstruowanych na podstawie metody wektorów nośnych lub zagregowanych drzew Breimana. Warto podkreślić, że atutem omawianej metody gradientowej jest jej przynależność do klasy metod nieparametrycznych. Nie wymaga ona znajomości rozkładów badanych zmiennych ani analitycznych postaci związków między nimi. Ponadto, ponieważ jest oparta na drzewach klasyfikacyjnych, pozwala na wprowadzanie do konstruowanego modelu zmiennych zarówno metrycznych, jak i niemetrycznych. (fragment tekstu)

The main subject of this paper is related to gradient boosting method using the multiple logistic transform. This is a method for classification, which is based о MART - the multiple additive regression trees. The goal of the article is to compare the presented method with other classification methods in terms of classification error generated by the final model. T analysis was conducted on some real and artificial benchmarking data sets. (original abstract)
Dostępne w
Biblioteka Główna Uniwersytetu Ekonomicznego w Krakowie
Biblioteka Główna Uniwersytetu Ekonomicznego w Poznaniu
Bibliografia
Pokaż
  1. Freund Y., Schapire R. (1997), A Decision-Theoretic Generalization of On-Line Learning and an Application to Boosting, "Journal of Computer and System Sciences" 55, s. 119-139.
  2. Friedman J.H. (2001), Greedy Function Approximation: a Gradient Boosting Machine, Technical report, Dept, of Statistics, Stanford University.
  3. Friedman J.H., Hastie Т., Tibshirani R. (1999), Additive Logistic Regression: a Statistical View of Boosting, Technical report, Dept, of Statistics, Stanford University.
  4. Gatnar E. (2000), Nieparametryczna metoda dyskryminacji i regresji, Wydawnictwo Naukowe PWN, Warszawa.
  5. Hastie Т., Tibshirani R., Friedman J.H. (2001), The Elements of Statistical Learning, Springer-Verlag, New York.
  6. Meyer D., Leisch F., Hornik K. (2002), Benchmarking Support Vector Machines, Report no. 78, Vienna University of Economics and Business Administration, http://www.wuwien.ac.at/am/Download/report78.pdf.
  7. Rozmus D. (2004), Random forest jako metoda agregacji modeli dyskryminacyjnych, [w:] K. Jajuga, M. Walesiak (red.), Klasyfikacja i analiza danych - teoria i zastosowania, "Prace Naukowe AE we Wrocławiu", Taksonomia 11, nr 1022, AE, Wrocław, s. 441-448.
  8. Trzęsiok M. (2004), Analiza wybranych własności metody dyskryminacji wykorzystującej wektory nośne, [w:] A.S. Barczak (red.), Postępy ekonometrii, AE, Katowice, s. 331-342.
  9. Trzęsiok J. (2006), Analiza wybranych własności metody MART, [w:] K. Jajuga, M. Walesiak (red.), Klasyfikacja i analiza danych - teoria i zastosowania, "Prace Naukowe AE we Wrocławiu", Taksonomia 13, nr 1126, AE, Wrocław, s. 510-518.
Cytowane przez
Pokaż
ISSN
0324-8445
1505-9332
Język
pol
Udostępnij na Facebooku Udostępnij na Twitterze Udostępnij na Google+ Udostępnij na Pinterest Udostępnij na LinkedIn Wyślij znajomemu