BazEkon - The Main Library of the Cracow University of Economics

BazEkon home page

Main menu

Author
Rozmus Dorota (Akademia Ekonomiczna im. Karola Adamieckiego w Katowicach)
Title
Dekompozycja błędu klasyfikacji w zagregowanych modelach dyskryminacyjnych
Error Decomposition in Aggregated Discriminant Models
Source
Prace Naukowe Akademii Ekonomicznej we Wrocławiu. Taksonomia (12), 2005, nr 1076, s. 274-282, rys., tab., bibliogr. 7 poz.
Issue title
Klasyfikacja i analiza danych - teoria i zastosowania
Keyword
Modele dyskryminacyjne, Błąd klasyfikacji
Discriminatory models, Classification error
Note
summ.
Abstract
Pojęcie dekompozycji błędu predykcji wywodzi się z regresji i polega na rozbiciu spodziewanej wartości błędu na trzy składowe, tj.: szum (ang. noise), obciążenie (ang. bias) i wariancję (ang. variance). Podjęto także próby przeniesienia idei dekompozycji do zagadnienia klasyfikacji. Agregacja modeli ma na celu obniżenie wartości błędu przez redukcję albo obciążenia, albo wariancji, albo obydwu tych wielkości jednocześnie. Jednak, aby porównać różne metody agregacji modeli dyskryminacyjnych ze względu na ich wpływ na wartości obciążenia i wariancji, należy być bardzo ostrożnym, bowiem różne sposoby dekompozycji błędu klasyfikacji zaproponowane w literaturze przedmiotu, dają różne wartości tych wielkości. (fragment tekstu)

The idea of error decomposition comes from regression where the square loss function is applied. Prediction error is decomposed into three components: noise, bias and variance.
There are also trials to apply the idea of error decomposition in classification. But the sum of those three components is different to the value of classification error. This is why several authors have proposed their own definitions of decomposition components for classification problem. In this paper we present and compare known decompositions for 0-1 loss. (original abstract)
Accessibility
The Main Library of the Cracow University of Economics
The Library of Warsaw School of Economics
The Main Library of Poznań University of Economics and Business
Full text
Show
Bibliography
Show
  1. Blake C., Keogh E., Merz C.J., UCI Repository of Machine Learning Databases, Department of Information and Computer Science, University of California, Irvine 1998.
  2. Breiman L., Arcing Classifiers, Technical Report, Departament of Statistics, University of California, California 1996.
  3. Breiman L., Randomizing Outputs to Increase Prediction Accuracy, "Machine Learning" 2000, 40 (3), wrzesień.
  4. Domingos P., A Unified Bias-Variance Decomposition for Zero-One and Squared Loss, "Proceedings of the Seventeenth National Conference on Arificial Intelligence", AAAI Press, Austin 2000.
  5. Kohavi R., Wolpert D.H., Bias Plus Variance Decomposition for Zero-One Loss Functions, "Proceedings of the Twelfth International Conference on Machine Learnig", Morgan Kaufmann, Tahoe City 1995.
  6. Kong E.B., Dietterich T.G., Error-Correcting Output Coding Corrects Bias and Variance, "Proceedings of the Thirteenth International Conference on Machine Learnig", Morgan Kaufmann 1995.
  7. Tibshirani R., Bias, Variance and Prediction Error for Classification Rules, Technical Report, Department of Statistics, University of Toronto, Toronto 1996.
Cited by
Show
ISSN
0324-8445
1505-9332
Language
pol
Share on Facebook Share on Twitter Share on Google+ Share on Pinterest Share on LinkedIn Wyślij znajomemu