BazEkon - Biblioteka Główna Uniwersytetu Ekonomicznego w Krakowie

BazEkon home page

Meny główne

Autor
Kubus Mariusz (Politechnika Opolska)
Tytuł
Analiza metody LARS w problemie selekcji zmiennych w regresji
The Analysis Of LARS Method In Feature Selection Problem In Regression
Źródło
Prace Naukowe Uniwersytetu Ekonomicznego we Wrocławiu. Taksonomia (18), 2011, nr 176, s. 408-416, bibliogr. 10 poz.
Research of Wrocław University of Economics
Tytuł własny numeru
Klasyfikacja i analiza danych - teoria i zastosowania
Słowa kluczowe
Algorytmy, Efektywność algorytmów
Algorithms, Algorithmic effectiveness
Uwagi
streszcz., sum.
Abstrakt
Selekcja zmiennych jest typowym zadaniem data mining, gdzie prowadzący analizę poszukuje interesujących i nieoczekiwanych relacji w danych bez wiedzy początkowej na temat badanego zjawiska. W liniowym modelu regresji, zamiast popularnej procedury krokowej czy też eliminacji zmiennych testem istotności współczynników, do selekcji zmiennych zastosować można metody iteracyjnej estymacji parametrów modelu (np. LARS Efrona i in. [2004]). Celem artykułu jest zbadanie zdolności metody LARS do identyfikowania zmiennych nieistotnych, szczególnie gdy zachodzą między nimi zależności liniowe. Dokonano w nim też porównania z wybranymi metodami selekcji zmiennych.(abstrakt oryginalny)

Feature selection is a typical task of data mining when a researcher looks for an interesting and unsuspected relations in the large data-sets without prior knowledge about the examined phenomenon. In linear regression, the iterative estimation methods can be applied for this purpose (i.e. LARS proposed by Efron et al. [2004]) instead of popular stepwise regression or classical testing of the significance of coefficients. The goal of this paper is to test the abilities of LARS in the identification of irrelevant variables, especially when some of them are collinear. The comparison between some feature selection methods is also given.(original abstract)
Dostępne w
Biblioteka Główna Uniwersytetu Ekonomicznego w Krakowie
Biblioteka SGH im. Profesora Andrzeja Grodka
Biblioteka Główna Uniwersytetu Ekonomicznego w Katowicach
Biblioteka Główna Uniwersytetu Ekonomicznego w Poznaniu
Biblioteka Główna Uniwersytetu Ekonomicznego we Wrocławiu
Pełny tekst
Pokaż
Bibliografia
Pokaż
  1. Blum A.L., Langley P., Selection of relevant features and examples in machine learning, ,,Artificial Intelligence" 1997, vol. 97 no. 1-2, s. 245-271.
  2. Efron B., Hastie T., Johnstone I., Tibshirani R., Least angle regression, ,,Annals of Statistics" 2004, 32 (2), s. 407-499.
  3. Gatnar E., Nieparametryczna metoda dyskryminacji i regresji, Wyd. Naukowe PWN, Warszawa 2001.
  4. Guyon I., Gunn S., Nikravesh M., Zadeh L., Feature Extraction: Foundations and Applications, Springer, New York 2006.
  5. Guyon I., Elisseeff A., An introduction to variable and feature selection, ,,Journal of Machine Learning Research" 2003, 3, s.1157-1182.
  6. Hastie T., Tibshirani R., Friedman J., The Elements of Statistical Learning: Data Mining, Inferance, and Prediction, 2nd ed., Springer, New York 2009.
  7. Liu H., Yu L., Toward integrating feature selection algorithms for classification and clustering, ,,IEEE Transactions on Knowledge and Data Engineering" 2005, 17, s. 491-502.
  8. Miller A., Subset Selection in Regression, 2nd ed., Chapman and Hall/CRC, Boca Raton, 2002.
  9. Osborne M., Presnell B., Turlach B., A new approach to variable selection in least squares problems, ,,IMA Journal of Numerical Analysis" 2000, 20, s. 389-404.
  10. Tibshirani R., Regression shrinkage and selection via the lasso, ,,J. Royal. Statist. Soc. B." 1996, 58, s. 267-288.
Cytowane przez
Pokaż
ISSN
1899-3192
1505-9332
Język
pol
Udostępnij na Facebooku Udostępnij na Twitterze Udostępnij na Google+ Udostępnij na Pinterest Udostępnij na LinkedIn Wyślij znajomemu