BazEkon - Biblioteka Główna Uniwersytetu Ekonomicznego w Krakowie

BazEkon home page

Meny główne

Autor
Trzęsiok Michał (Akademia Ekonomiczna im. Karola Adamieckiego w Katowicach)
Tytuł
Problem doboru zmiennych do modelu dyskryminacyjnego budowanego metodą wektorów nośnych
Variable selection in Support Vector Machines
Źródło
Prace Naukowe Uniwersytetu Ekonomicznego we Wrocławiu. Taksonomia (16), 2009, nr 47, s. 214-222, rys., tab., bibliogr. 8 poz.
Research of Wrocław University of Economics
Tytuł własny numeru
Klasyfikacja i analiza danych - teoria i zastosowania
Słowa kluczowe
Analiza dyskryminacyjna, Metoda wektorów nośnych (SVM), Dobór zmiennych
Discriminant analysis, Support Vector Machines (SVM), Variables selection
Uwagi
summ.
Abstrakt
(...) w artykule zaproponowano modyfikację znanej metody doboru zmiennych do modelu przez stworzenie ich rankingu i eliminację zmiennych redundantnych. Zbadano również, wykorzystując empiryczne badania symulacyjne, czy usunięcie ze zbioru zmiennych objaśniających tych, które zidentyfikowano jako nieistotne, ma wpływ na poprawność klasyfikacji nowych obserwacji w modelach SVM. Informacja o tym, które ze zmiennych objaśniających mają największy wpływ na otrzymaną klasyfikację obiektów, a także które zmienne można uznać za nieistotne w danym zadaniu dyskryminacji, jest szczególnie ważna dla decydentów i znacznie wspomaga proces podejmowania decyzji. (fragment tekstu)

Support Vector Machines (SVM) belong to the group of Data Mining methods and are considered as a black box method. Some authors suggest that variable selection is usually not necessary for SVMs, i.e. building the model on a set of variables including some (but not too many) redundant variables does not change the generalization ability. Once the model is built, it is still valuable to recognize the relative importance of predictor variables. The paper presents the simple modification of the backward elimination technique for feature selection and empirically shows that deleting the redundant variables can improve the classification accuracy and reduce the complexity of SVM models. (original abstract)
Dostępne w
Biblioteka Główna Uniwersytetu Ekonomicznego w Krakowie
Biblioteka Główna Uniwersytetu Ekonomicznego w Katowicach
Biblioteka Główna Uniwersytetu Ekonomicznego w Poznaniu
Biblioteka Główna Uniwersytetu Ekonomicznego we Wrocławiu
Pełny tekst
Pokaż
Bibliografia
Pokaż
  1. Abe S. (2005), Support vector machines for pattern classification (advances in pattern recognition), Springer.
  2. Cristianini N., Shawe-Taylor J. (2000), An introduction to support vector machines (and other kernel-based learning methods), Cambridge University Press, Cambridge.
  3. Feature extraction, foundations and applications (2006), red. I. Guyon, S. Gunn, M. Nikravesh, L. Zadeh, Springer.
  4. Hastie T., Tibshirani R., Friedman J. (2001), The elements of statistical learning, Springer Verlag, N.Y.
  5. Rakotomamonjy A. (2003), Variable selection using SVM-based criteria, "Journal of Machine Learning Research" no 3, s. 1357-1370.
  6. Trzęsiok M. (2004), Analiza wybranych własności metody dyskryminacji wykorzystującej wektory nośne, [w:] Postępy ekonometrii, red. A.S. Barczak, AE, Katowice.
  7. Vapnik V. (1998), Statistical learning theory, John Wiley & Sons, N.Y.
  8. Weston J., Mukherjee S., Chapelle O., Pontil M., Piaggio T., Vapnik V. (2001), Feature selection for SVMs, "Advances in Neural Information Processing Systems", 13, MIT Press, s. 668-681.
Cytowane przez
Pokaż
ISSN
1899-3192
1505-9332
Język
pol
Udostępnij na Facebooku Udostępnij na Twitterze Udostępnij na Google+ Udostępnij na Pinterest Udostępnij na LinkedIn Wyślij znajomemu