BazEkon - Biblioteka Główna Uniwersytetu Ekonomicznego w Krakowie

BazEkon home page

Meny główne

Autor
Stelmach Jacek (Uniwersytet Ekonomiczny w Katowicach)
Tytuł
O wpływie wybranych metod selekcji nieliniowych zmiennych objaśniających na jakość modeli regresyjnch
On the Impact of Some Methods of Selection Nonlinear Variables on Quality of Regression Models
Źródło
Studia Ekonomiczne / Uniwersytet Ekonomiczny w Katowicach, 2015, nr 219, s. 79-96, tab., wykr., bibliogr. 23 poz.
Słowa kluczowe
Modele regresji, Algorytmy genetyczne, Metody statystyczne
Regression models, Genetic algorithms, Statistical methods
Uwagi
streszcz., summ.
Abstrakt
Najpopularniejsza parametryczna metoda najmniejszych kwadratów oraz jej rozszerzenia (regresja grzbietowa, metoda LASSO, metoda LARS, regresja BRIDGE) pozwalają na budowę addytywnych modeli liniowych. W rzeczywistości często mamy do czynienia z nieliniowymi zależnościami, a użyteczna informacja jest powtarzana w wielu zmiennych objaśniających. Bezkrytyczne wykorzystanie wszystkich takich dostępnych zmiennych może prowadzić do naruszenia założeń Gaussa-Markowa i najczęściej obniża jakość modeli regresyjnych. Znane metody selekcji pozwalają na wybór zmiennych, które wnoszą najwięcej użytecznej informacji, ograniczając jednocześnie zbędny szum. Opisany eksperyment weryfikuje metodą symulacji komputerowej jakość modeli regresyjnych otrzymanych za pomocą wybranych metod parametrycznych, dla których przeprowadzono selekcję predyktorów, wykorzystując: drzewa regresyjne, regresję grzbietową oraz algorytm genetyczny(abstrakt oryginalny)

The most common parametric Ordinary Least Squares Method and its extension (ridge regression, LASSO and LARS methods, BRIDGE regression) allow to build additive linear models. In reality, we often have to deal with non-linear dependencies, and useful information is repeated in a number of explanatory variables. Use of all available variables can lead to violations of Gauss-Markow assumptions and frequently reduces the quality of regression models. Known methods of selection allow to select the variables that contribute the most useful information, reducing unnecessary noise. Described experiment verifies, by computer simulation, quality of regression models obtained using selected parametric methods, for which the selection was carried out using: regression trees, ridge regression and genetic algorithm.(original abstract)
Dostępne w
Biblioteka Główna Uniwersytetu Ekonomicznego w Krakowie
Biblioteka Główna Uniwersytetu Ekonomicznego w Katowicach
Biblioteka Główna Uniwersytetu Ekonomicznego w Poznaniu
Pełny tekst
Pokaż
Bibliografia
Pokaż
  1. Barczak A., Biolik J. (2003), Podstawy ekonometrii, Wydawnictwo AE, Katowice.
  2. Cule E., De Iorio M. (2012), A semi-automatic method to guide the choice of ridge parameter in ridge regression, arXiv:1205.0686v1 [stat.AP].
  3. Dittmann P. (2008), Prognozowanie w przedsiębiorstwie, Oficyna a Wolters Kluwer business, Kraków.
  4. Efron B., Hastie T., Johnstone I., Tibshirani R. (2004), Least Angle Regression, "The Annals of Statistics, Vol. 32.
  5. Faraway J.J. (2002), Practical Regression and Anova using R, http://cran.rproject. org/doc/contrib/Faraway-PRA.pdf (dostęp: 12.10.2012).
  6. Fox J., Weisberg S. (2011), An R Companion to Applied Regression, Sage, Thousand Oaks CA.
  7. Friedman J.H. (1991), Multivariate Adaptive Regression Splines, "Annals of Statistics", Vol. 19(1).
  8. Fu W.J. (1998), Penalized Regressions: The Bridge Versus the Lasso, "Journal of Computational and Graphical Statistics", Vol. 7.
  9. Geladi P., Kowalski B. (1986), Partial least square regression: A tutorial, "Analytica Chemica Acta", Vol. 35.
  10. Hastie T., Tibshirani R., Friedman J. (2008), The Elements of Statistical Learning. Data Mining, Inference, and Prediction, Springer Science+Business Media B.V., New York
  11. Hawkins D.M. (1994), The feasible solution algorithm for least trimmed squares regression, "Computational Statistics & Data Analysis", Vol. 17.
  12. Helland I.S. (1999), Some theoretical aspects of partial least squares regression, "Chemometrics and Intelligent Laboratory Systems", Vol. 58.
  13. Hoerl A.E., Kennard R.W. (1970), Ridge Regression: Biased Estimation for Nonorthogonal Problems, "Technometrics", Vol. 12.
  14. Hoskuldson A. (1988), Pls regression methods, "Journal of Chemometrics", Vol. 2.
  15. Huber P.J. (1964), Robust estimation of a location parameter, "The Annals of Mathematical Statistics", Vol. 35(1).
  16. Huber P.J., Ronchetti E.M. (2009), Robust Statistics, A John Wiley & Sons, Inc. Publication, New Jersey.
  17. Jackson E.J. (1991), A User's Guide to Principal Components, A John Wiley & Sons, Inc. Publication, New Jersey.
  18. Maddala G.S. (2008), Ekonometria, Wydawnictwo Naukowe PWN, Warszawa.
  19. Mix D.F. (1995), Random Signal Processing, Prentice Hall Inc.
  20. Rencher A.C. (2002), Methods of Multivariate Analysis, A John Wiley & Sons, Inc. Publication, New Jersey.
  21. Tibshirani R. (1996), Regression Shrinkage and Selection via the Lasso, "Journal of the Royal Statistical Society", Vol. 58.
  22. Wasserman L. (2006), All of nonparametric statistics, Springer Science+Business Media B.V., New York.
  23. Wilcox R.R. (2010), Fundamentals of Modern Statistical Methods, Springer Science+ Business Media B.V., New York
Cytowane przez
Pokaż
ISSN
2083-8611
Język
pol
Udostępnij na Facebooku Udostępnij na Twitterze Udostępnij na Google+ Udostępnij na Pinterest Udostępnij na LinkedIn Wyślij znajomemu