- Autor
- Trzęsiok Joanna (Uniwersytet Ekonomiczny w Katowicach)
- Tytuł
- Porównanie nieparametrycznych modeli regresji pod względem zdolnoci predykcyjnych
- Źródło
- Prace Naukowe / Uniwersytet Ekonomiczny w Katowicach. Metody i modele analiz ilościowych w ekonomii i zarządzaniu. Cz. 4, 2012, tab., bibliogr. 16 poz.
- Słowa kluczowe
- Modele regresji, Metody statystyczne
Regression models, Statistical methods - Abstrakt
- Nieparametryczne metody regresji stanowią zróżnicowaną i dynamicznie rozwijającą się grupę. Metody te budowane są z wykorzystaniem różnych podstaw teoretycznych oraz odmiennych podejść do rozwiązania zadania regresji. Różnorodność idei stanowiących podstawę konstrukcji tych metod zaowocowała: - różniącymi się postaciami otrzymywanych modeli, - odmiennymi mechanizmami działania algorytmów pozwalających na oszacowanie parametrów tych modeli. Ze względu na owe różnice ważne staje się porównanie tych metod pod względem własności statystycznych, w tym głównie zdolności predykcyjnych modeli, które dzięki nim uzyskujemy. W niniejszym rozdziale pojęcie zdolność predykcyjna modelu będzie rozumiane jako ocena, na ile wartości teoretyczne ŷi, różnią się od wartości empirycznych yi dla obserwacji spoza zbioru uczącego. Do oceny zdolności predykcyjnych modelu można wybrać takie mierniki, jak błąd średniokwadratowy MSE czy współczynnik determinacji R2. Różnica polega na tym, że w tym przypadku są one obliczane dla obserwacji nienależących do zbioru uczącego, lecz należących do tzw. zbioru testowego. (fragment tekstu)
- Dostępne w
- Biblioteka Główna Uniwersytetu Ekonomicznego w Krakowie
Biblioteka SGH im. Profesora Andrzeja Grodka
Biblioteka Główna Uniwersytetu Ekonomicznego w Katowicach
Biblioteka Główna Uniwersytetu Ekonomicznego w Poznaniu
Biblioteka Główna Uniwersytetu Ekonomicznego we Wrocławiu - Bibliografia
-
- Bishop C., Neural Networks for Pattern Recognition, Oxford University Press, Oxford 1995
- Blum A., Kalai A., Langford J., Beating the Hold-Out: Bounds for K-fold and Progressive Cross-Validation, COLT 1999
- Breiman L.,Bagging Predictors, Machine Learning 1996, Vol. 24
- Breiman L., Random Forests, Machine Learning 2001, Vol. 45
- Breiman L., Friedman J., Estimating Optimal Transformations for Multiple Regression and Correlation (with discussion), Journal of the American Statistical Association 1985, Vol. 80
- Breiman L., Friedman J., Olshen R., Stone C., Classification and Regression Trees, Chapman & Hall, New York 1984
- Duda R., Hart P., Stork D., Pattern Classification, John Wiley & Sons, New York 2001
- Friedman J., Greedy Function Approximation: a Gradient Boosting Machine, Technical Report, Stanford University, Dept. of Statistics, 1999
- Friedman J., Stochastic Gradient Boosting, Technical Report, Stanford University, Dept. of Statistics, 1999
- Friedman J., Stuetzle W., Projection Pursuit Regression, Journal of the American Statistical Association, 1981, Vol. 76
- Heilpern S., Modelowanie odporne, w: Statystyczne metody analizy danych, red. W. Ostasiewicz, Akademia Ekonomiczna, Wroclaw 1999
- Kohavi R., A Study of Cross- Validation and Bootstrap for Accuracy Estimation and Model Selection, IJCAI 1995
- Kooperberg C., Bose S., Stone C., Polychotomous Regression, Journal of the American Statistical Association 1997, Vol. 92
- Tibshirani R., Estimating Transformations for Regression Via Additivity and Variance Stabilization, Journal of the American Statistical Association 1988, Vol. 83(402)
- Vapnik V., Statistical Learning Theory, Adaptive and Learning Systems for Signal Processing, Communications, and Control, John Wiley & Sons, New York 1998
- Wolpert D., Macready W., No Free Lunch Theorems for Optimization, IEEE Transactions on Evolutionary Computation 1997, Vol. 1(1)
- Cytowane przez
- Język
- pol






