- Autor
- Surma Jerzy (Warsaw School of Economics, Poland)
- Tytuł
- Attack Vectors on Supervised Machine Learning Systems In Business Applications
Wektory ataków na nadzorowane systemy uczące się w zastosowaniach biznesowych - Źródło
- Informatyka Ekonomiczna / Uniwersytet Ekonomiczny we Wrocławiu, 2020, nr 3 (57), s. 65-72, rys., tab., bibliogr. 17 poz.
Business Informatics / Uniwersytet Ekonomiczny we Wrocławiu - Słowa kluczowe
- Uczenie maszynowe, Bezpieczeństwo systemów teleinformatycznych, Bezpieczeństwo
Machine learning, Teleinformation systems security, Security - Uwagi
- Klasyfikacja JEL: C890
streszcz., summ. - Abstrakt
- Systemy uczące się stają się coraz bardziej popularne i mają wiele praktycznych zastosowań. Szczególnie istotny i szybko rozwijający się jest obszar zastosowań biznesowych. W tym kontekście bezpieczeństwo informacyjne takich systemów jest niezwykle ważne, zwłaszcza przy dużej aktywności zorganizowanych grup cyberprzestępców. W artykule przedstawiono taksonomię intencjonalnych ataków na systemy uczące się pod nadzorem, które to są obecnie najpopularniejsze w zastosowaniach biznesowych. Omówiono także potencjalne wektory ataków. Wskazano ataki typu "czarna skrzynka" jako najbardziej prawdopodobne scenariusze ataków i omówiono je bardziej szczegółowo.(abstrakt oryginalny)
Machine learning systems have become incredibly popular and now have practical applications in many fields. An area of business applications has been developing particularly well, starting from the prediction of customers' purchase preferences and up to the automation of critical business processes. In this context, the security of such systems in a situation of a threat of intentional attacks carried by organized crime is extremely important. A theoretical framework of attacks on supervised machine learning systems, which are the most popular in business applications, is set out in this article. The possible attack vectors are widely discussed. The main contribution of this article is to recognize that the black box type attack scenario is the most probable, therefore the scenario of this kind of attacks was described extensively.(original abstract) - Dostępne w
- Biblioteka Główna Uniwersytetu Ekonomicznego w Krakowie
Biblioteka SGH im. Profesora Andrzeja Grodka
Biblioteka Główna Uniwersytetu Ekonomicznego w Katowicach
Biblioteka Główna Uniwersytetu Ekonomicznego we Wrocławiu - Pełny tekst
- Pokaż
- Bibliografia
- Chakraborty, A., Alam, M., Dey, V., Chattopadhyay, A. and Mukhopadhyay, D. (2018). Adversarial attacks and defences: a survey. Retrieved from arXiv:1810.00069
- Barreno, M., Nelson, B., Sears, R., Joseph, A., Tygar, J. (2006). Can machine learning be secure? In ASIACCS'06, 16-25.
- Barreno, M. Nelson, B., Joseph, A., and Tygar, J. (2010). The security of machine learning. Machine Learning, 81(2), 121-148.
- Brewster, T. (2019). Hackers use little stickers to trick tesla autopilot into the wrong lane. Forbes Magazine, April 1.
- Bubnicki, Z. (1974). Identyfikacja obiektów sterowania. Warszawa: PWN.
- Dalvi, N., Domingos, P., Sumit, M., and Verma, D. (2004). Adversarial classification (Proceedings of the tenth ACM SIGKDD international conference on Knowledge Discovery and Data Mining (KDD'04), pp. 99-108) ACM Press.
- Goodfellow, I., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., Courville, A., and Bengio, Y. (2014). Generative Adversarial Networks, arXiv:1406.2661
- Huang, L., Joseph, A., Nelson, B., Rubinstein, B., Tygar, J. (2011). Adversarial machine learning (Proceedings of the 4th ACM workshop on Security and Artificial Intelligence (AISec '11), pp. 43-58), ACM Press.
- Kurzyński, M. (1997). Rozpoznawanie obrazów. Metody statystyczne. Wrocław: Oficyna Wydawnicza Politechniki Wrocławskiej.
- Laskov, P., and Lippmann, R. (2010). Machine learning in adversarial environments. Machine Learning, 81(2), 115-119.
- Muńoz-González, L. (2019). The security of machine learning systems. In L.F. Sikos (Ed.), AI in cybersecurity (pp. 47-79). Springer.
- Nelson, B. (2010). Behavior of machine learning algorithms in adversarial environments (Technical Report No. UCB/EECS-2010-140. Electrical Engineering and Computer Sciences). University of California at Berkeley.
- McDaniel, P., Papernot, N., and Celik, Z. (2016). Machine learning in adversarial settings. IEEE Security & Privacy, May/June, 68-72.
- Papernot, N, McDaniel, P., Goodfellow, I., Jha, S., Celik, Z., and Swami, A. (2017). Practical Black- -Box Attacks against Machine Learning (Proceedings of the 2017 ACM on Asia Conference on Computer and Communications Security (ASIA CCS '17), pp. 506-519). ACM: New York, NY, USA.
- Shankar, R., Nyström, M., Lambert, J., Marshall, A., Goertzel, M., Comissoneru, A., Swann, M., and Xia, S. (2020). Adversarial machine learning - industry perspectives. Retrieved from arXiv:2002.05646
- Surma, J. (2011). Business intelligence: making decisions through data analytics. New York: Business Expert Press.
- Surma, J. (2020). Hacking machine learning: towards the comprehensive taxonomy of attacks against machine learning systems (ICIAI 2020: ACM Proceedings of the 2020 the 4th International Conference on Innovation in Artificial Intelligence, pp. 1-4).
- Cytowane przez
- ISSN
- 1507-3858
- Język
- eng
- URI / DOI
- http://dx.doi.org/10.15611/ie.2020.3.05