BazEkon - Biblioteka Główna Uniwersytetu Ekonomicznego w Krakowie

BazEkon home page

Meny główne

Autor
Trzęsiok Joanna (Uniwersytet Ekonomiczny w Katowicach)
Tytuł
Porównanie nieparametrycznych modeli regresji pod względem zdolnoœci predykcyjnych
Źródło
Prace Naukowe / Uniwersytet Ekonomiczny w Katowicach. Metody i modele analiz ilościowych w ekonomii i zarządzaniu. Cz. 4, 2012, tab., bibliogr. 16 poz.
Słowa kluczowe
Modele regresji, Metody statystyczne
Regression models, Statistical methods
Abstrakt
Nieparametryczne metody regresji stanowią zróżnicowaną i dynamicznie rozwijającą się grupę. Metody te budowane są z wykorzystaniem różnych podstaw teoretycznych oraz odmiennych podejść do rozwiązania zadania regresji. Różnorodność idei stanowiących podstawę konstrukcji tych metod zaowocowała: - różniącymi się postaciami otrzymywanych modeli, - odmiennymi mechanizmami działania algorytmów pozwalających na oszacowanie parametrów tych modeli. Ze względu na owe różnice ważne staje się porównanie tych metod pod względem własności statystycznych, w tym głównie zdolności predykcyjnych modeli, które dzięki nim uzyskujemy. W niniejszym rozdziale pojęcie „zdolność predykcyjna modelu” będzie rozumiane jako ocena, na ile wartości teoretyczne ŷi, różnią się od wartości empirycznych yi dla obserwacji spoza zbioru uczącego. Do oceny zdolności predykcyjnych modelu można wybrać takie mierniki, jak błąd œśredniokwadratowy MSE czy współczynnik determinacji R2. Różnica polega na tym, że w tym przypadku są one obliczane dla obserwacji nienależących do zbioru uczącego, lecz należących do tzw. zbioru testowego. (fragment tekstu)
Dostępne w
Biblioteka Główna Uniwersytetu Ekonomicznego w Krakowie
Biblioteka Szkoły Głównej Handlowej
Biblioteka Główna Uniwersytetu Ekonomicznego w Katowicach
Biblioteka Główna Uniwersytetu Ekonomicznego w Poznaniu
Biblioteka Główna Uniwersytetu Ekonomicznego we Wrocławiu
Bibliografia
Pokaż
  1. Bishop C., Neural Networks for Pattern Recognition, Oxford University Press, Oxford 1995
  2. Blum A., Kalai A., Langford J., Beating the Hold-Out: Bounds for K-fold and Progressive Cross-Validation, „COLT” 1999
  3. Breiman L.,Bagging Predictors, „Machine Learning” 1996, Vol. 24
  4. Breiman L., Random Forests, „Machine Learning” 2001, Vol. 45
  5. Breiman L., Friedman J., Estimating Optimal Transformations for Multiple Regression and Correlation (with discussion), „Journal of the American Statistical Association” 1985, Vol. 80
  6. Breiman L., Friedman J., Olshen R., Stone C., Classification and Regression Trees, Chapman & Hall, New York 1984
  7. Duda R., Hart P., Stork D., Pattern Classification, John Wiley & Sons, New York 2001
  8. Friedman J., Greedy Function Approximation: a Gradient Boosting Machine, Technical Report, Stanford University, Dept. of Statistics, 1999
  9. Friedman J., Stochastic Gradient Boosting, Technical Report, Stanford University, Dept. of Statistics, 1999
  10. Friedman J., Stuetzle W., Projection Pursuit Regression, „Journal of the American Statistical Association”, 1981, Vol. 76
  11. Heilpern S., Modelowanie odporne, w: Statystyczne metody analizy danych, red. W. Ostasiewicz, Akademia Ekonomiczna, Wroclaw 1999
  12. Kohavi R., A Study of Cross- Validation and Bootstrap for Accuracy Estimation and Model Selection, „IJCAI” 1995
  13. Kooperberg C., Bose S., Stone C., Polychotomous Regression, „Journal of the American Statistical Association” 1997, Vol. 92
  14. Tibshirani R., Estimating Transformations for Regression Via Additivity and Variance Stabilization, „Journal of the American Statistical Association” 1988, Vol. 83(402)
  15. Vapnik V., Statistical Learning Theory, „Adaptive and Learning Systems for Signal Processing, Communications, and Control”, John Wiley & Sons, New York 1998
  16. Wolpert D., Macready W., No Free Lunch Theorems for Optimization, „IEEE Transactions on Evolutionary Computation” 1997, Vol. 1(1)
Cytowane przez
Pokaż
Język
pol
Udostępnij na Facebooku Udostępnij na Twitterze Udostępnij na Google+ Udostępnij na Pinterest Udostępnij na LinkedIn Wyślij znajomemu