BazEkon - Biblioteka Główna Uniwersytetu Ekonomicznego w Krakowie

BazEkon home page

Meny główne

Autor
Kubus Mariusz (Politechnika Opolska)
Tytuł
Liniowy model prawdopodobieństwa z regularyzacją jako metoda doboru zmiennych
Regularized Linear Probability Model as a Filter
Źródło
Prace Naukowe Uniwersytetu Ekonomicznego we Wrocławiu. Taksonomia (21), 2013, nr 279, s. 201-208, tab., bibliogr. 10 poz.
Research Papers of Wrocław University of Economics
Tytuł własny numeru
Klasyfikacja i analiza danych - teoria i zastosowania
Słowa kluczowe
Dobór zmiennych, Bazy danych
Variables selection, Databases
Uwagi
streszcz., summ.
Abstrakt
W artykule zaproponowano zastosowanie liniowego modelu prawdopodobieństwa z regularyzacją jako narzędzia doboru zmiennych przed regresją logistyczną. W etapie selekcji zmiennych dodatkowo stosowano sprawdzanie krzyżowe. Takie podejście zapewnia skuteczniejszą eliminację zmiennych nieistotnych od powszechnie stosowanej regularyzowanej regresji logistycznej, a błędy klasyfikacji porównywanych metod nie różnią się w sposób statystycznie istotny. W badaniach empirycznych wykorzystano zbiory z repozytorium Uniwersytetu Kalifornijskiego, a sztucznie wprowadzane zmienne nieistotne generowano z rozkładów zero-jedynkowego lub normalnego.(abstrakt oryginalny)

The application of regularized linear probability model as a filter which precedes the logistic regression is proposed in this paper. Additionally the cross-validation is applied in the feature selection stage. Such an approach guaranties more efficient elimination of the irrelevant variables than commonly used regularized logistic regression and classification errors of compared methods do not differ significantly. The datasets from UCI Repository were used in empirical study and noisy variables were generated from Bernoulli or normal distributions.(original abstract)
Dostępne w
Biblioteka Główna Uniwersytetu Ekonomicznego w Krakowie
Biblioteka Główna Uniwersytetu Ekonomicznego w Katowicach
Biblioteka Główna Uniwersytetu Ekonomicznego w Poznaniu
Biblioteka Główna Uniwersytetu Ekonomicznego we Wrocławiu
Bibliografia
Pokaż
  1. Efron B., Hastie T., Johnstone I., Tibshirani R. (2004), Least angle regression, ,,Annals of Statistics" 32(2), s. 407-499.
  2. Frank A., Asuncion A. (2010), UCI Machine Learning Repository, Irvine, CA: University of California, School of Information and Computer Science [http://archive.ics.uci.edu/ml].
  3. Friedman J., Hastie T., Tibshirani R. (2010), Regularization paths for generalized linear models via coordinate descent, ,,Journal of Statistical Software", 33(1), s. 1-22.
  4. Guyon I., Gunn S., Nikravesh M., Zadeh L. (2006), Feature Extraction: Foundations and Applications. Springer, New York.
  5. Hoerl A.E., Kennard R. (1970), Ridge regression: biased estimation for nonorthogonal problems, ,,Technometrics" 12, s. 55-67.
  6. Kubus M. (2011), On model selection in some regularized linear regression methods, XXX Konferencja Wielowymiarowa Analiza Statystyczna, Łódź (w druku).
  7. Lee S., Lee H., Abbeel P., Ng A.Y. (2006), Efficient L1 regularized logistic regression, In 21th National Conference on Artificial Intelligence (AAAI), s. 401-407.
  8. Tibshirani R. (1996), Regression shrinkage and selection via the lasso, ,,J.Royal. Statist. Soc. B." 58, s. 267-288.
  9. Yuan G., Ho C., Lin C. (2012), An improved GLMNET for L1-regularized logistic regression, ,,Journal of Machine Learning Research" 13, s.1999-2030.
  10. Zou H., Hastie T. (2005), Regularization and variable selection via the elastic net, ,,Journal of the Royal Statistical Society" Series B. 67(2): s. 301-320.
Cytowane przez
Pokaż
ISSN
1899-3192
1505-9332
Język
pol
Udostępnij na Facebooku Udostępnij na Twitterze Udostępnij na Google+ Udostępnij na Pinterest Udostępnij na LinkedIn Wyślij znajomemu