- Autor
- Rozmus Dorota (Akademia Ekonomiczna im. Karola Adamieckiego w Katowicach)
- Tytuł
- Dekompozycja błędu klasyfikacji w zagregowanych modelach dyskryminacyjnych
Error Decomposition in Aggregated Discriminant Models - Źródło
- Prace Naukowe Akademii Ekonomicznej we Wrocławiu. Taksonomia (12), 2005, nr 1076, s. 274-282, rys., tab., bibliogr. 7 poz.
- Tytuł własny numeru
- Klasyfikacja i analiza danych - teoria i zastosowania
- Słowa kluczowe
- Modele dyskryminacyjne, Błąd klasyfikacji
Discriminatory models, Classification error - Uwagi
- summ.
- Abstrakt
- Pojęcie dekompozycji błędu predykcji wywodzi się z regresji i polega na rozbiciu spodziewanej wartości błędu na trzy składowe, tj.: szum (ang. noise), obciążenie (ang. bias) i wariancję (ang. variance). Podjęto także próby przeniesienia idei dekompozycji do zagadnienia klasyfikacji. Agregacja modeli ma na celu obniżenie wartości błędu przez redukcję albo obciążenia, albo wariancji, albo obydwu tych wielkości jednocześnie. Jednak, aby porównać różne metody agregacji modeli dyskryminacyjnych ze względu na ich wpływ na wartości obciążenia i wariancji, należy być bardzo ostrożnym, bowiem różne sposoby dekompozycji błędu klasyfikacji zaproponowane w literaturze przedmiotu, dają różne wartości tych wielkości. (fragment tekstu)
The idea of error decomposition comes from regression where the square loss function is applied. Prediction error is decomposed into three components: noise, bias and variance.
There are also trials to apply the idea of error decomposition in classification. But the sum of those three components is different to the value of classification error. This is why several authors have proposed their own definitions of decomposition components for classification problem. In this paper we present and compare known decompositions for 0-1 loss. (original abstract) - Dostępne w
- Biblioteka Główna Uniwersytetu Ekonomicznego w Krakowie
Biblioteka SGH im. Profesora Andrzeja Grodka
Biblioteka Główna Uniwersytetu Ekonomicznego w Poznaniu - Bibliografia
- Blake C., Keogh E., Merz C.J., UCI Repository of Machine Learning Databases, Department of Information and Computer Science, University of California, Irvine 1998.
- Breiman L., Arcing Classifiers, Technical Report, Departament of Statistics, University of California, California 1996.
- Breiman L., Randomizing Outputs to Increase Prediction Accuracy, "Machine Learning" 2000, 40 (3), wrzesień.
- Domingos P., A Unified Bias-Variance Decomposition for Zero-One and Squared Loss, "Proceedings of the Seventeenth National Conference on Arificial Intelligence", AAAI Press, Austin 2000.
- Kohavi R., Wolpert D.H., Bias Plus Variance Decomposition for Zero-One Loss Functions, "Proceedings of the Twelfth International Conference on Machine Learnig", Morgan Kaufmann, Tahoe City 1995.
- Kong E.B., Dietterich T.G., Error-Correcting Output Coding Corrects Bias and Variance, "Proceedings of the Thirteenth International Conference on Machine Learnig", Morgan Kaufmann 1995.
- Tibshirani R., Bias, Variance and Prediction Error for Classification Rules, Technical Report, Department of Statistics, University of Toronto, Toronto 1996.
- Cytowane przez
- ISSN
- 0324-8445
1505-9332 - Język
- pol