BazEkon - The Main Library of the Cracow University of Economics

BazEkon home page

Main menu

Author
Twaróg Bogusław (Uniwersytet Rzeszowski), Gomółka Zbigniew (Uniwersytet Rzeszowski), Żesławska Ewa (Wyższa Szkoła Informatyki i Zarządzania w Rzeszowie), Malska Wiesława (Politechnika Rzeszowska)
Title
Systemy wizyjne w nawigacji robotów mobilnych
Visual systems of navigation for mobile robots
Source
Acta Scientifica Academiae Ostroviensis. Sectio A, Nauki Humanistyczne, Społeczne i Techniczne, 2017, nr 9(1), s. 258-271, rys., bibliogr. 8 poz.
Keyword
Łączność bezprzewodowa, Systemy komputerowe, Kierunki rozwoju techniki, Komputerowe wspomaganie dydaktyki, Nowe technologie, Obsługa aplikacji bezprzewodowych (WAP), Algorytmy, Technologia systemów informacyjnych, Technologie informacyjne i telekomunikacyjne, Technologie mobilne, Robotyzacja, Postęp naukowo-techniczny
Wireless, Computer systems, Trends in development of technology, Information technology in teaching, High-tech, Wireless Application Protocol (WAP), Algorithms, Information systems technology, Information and Communication Technology (ICT), Mobile technologies, Robotization, Progress in science and technology
Note
streszcz., summ.
Abstract
W pracy zaprezentowano projekt i realizację zdalnego systemu sterowania robotem mobilnym, wykorzystując komputerowe systemy wizyjne z bezpośrednim wsparciem dla silnych klasyfikatorów Haaro - podobnych. Tak zaimplementowany program będzie zawierał wirtualny interfejs pozwalający na podstawowe sterowanie robotem typu Lego NXT 2.0. Aplikacja pobiera obraz z kamery wideo w czasie rzeczywistym, na bazie którego odbywa się proces wyszukiwania określonych obiektów przy wykorzystaniu algorytmu klasyfikacji Ada-Boost. Wskazany w ten sposób obiekt ma dokonać interakcji z wirtualnym interfejsem. Docelowo graficzny interfejs użytkownika powinien stosunkowo responsywnie współpracować z ruchami osoby wykorzystującej program. Samo przesyłanie informacji między interfejsem, a robotem odbywać się będzie przy wykorzystaniu komunikacji bezprzewodowej Bluethooth i sterowania bezpośredniego Direct Com-mands, które jest dostępne w Lego OS. Rozwiązanie to pozwoli na sterowanie robotem bez wgrywania dodatkowej aplikacji do systemu mikroprocesorowego jednostki. Przygotowanie platformy konstrukcyjnej Lego NXT 2.0 jest indywidualnym rozwiązaniem, którego głównym zadaniem jest poruszanie się po wskazanym obszarze. Dodatkową cechą jest możliwość dokonywania pomiarów odległości przy wykorzystaniu dalmierza ultradźwiękowego.(abstrakt oryginalny)

The work presents the design and implementation of a remote mobile robot control system using computer vision systems with direct support for strong Haar-like features. The implemented program will include a virtual interface allowing basic control of the Lego NXT 2.0 robot. The application retrieves images from a real-time video camera on the basis of which the process of searching for specific objects takes place using the AdaBoost classification algorithm. This is how the object is supposed to interact with the virtual interface. Ultimately, the graphical interface of a user should responsively correlate with the movements of a person using the program. The transfer of information between the interface and the robot will be via Bluetooth wireless communic ation and Direct Commands direct control, which is available in Lego OS. This solution will allow you to control the robot without loading additional applications into the unit's microprocessor system. An additional feature is the ability to measure distances using the ultrasonic rangefinder. Thanks to the modular construction, the robot should be easily ex-pandable depending on a user's needs..(original abstract)
Full text
Show
Bibliography
Show
  1. Gomółka Z., Twaróg B., Kwater T., Algorytm śledzenia twarzy z wykorzystaniem mechanizmu predykcji, Technical News, ISSN 1992-8149, 2010/(31), (32) s.173-176.
  2. Gonzalez, Wintz, Digital Image Processing, Addison-Wesley 2008.
  3. Meir R., Ratsch G., An introduction to boosting and leveraging, Advanced Lectures on Machine Learning, LNCS, pages 119-184. Springer, 2003.
  4. Mita T.,Kaneko, Joint Haar-like Features for Face Detection, Tenth IEEE International Conference on Computer Vision ICCV05 Volume 1 (2005), pp: 1619-1626.
  5. Stąpor, K., Automatyczna klasyfikacja obiektów, EXIT 2005.
  6. Tadeusiewicz R., Systemy wizyjne robotów przemysłowych, Warszawa WNT 1992.
  7. Viola P., M. Jones, Rapid object detection using a boosted cascade of simple features, IEEE Computer Society Conference on Computer Vision and Pattern Recognition CVPR 2001, volume 1, pp. 511-518, 2001.
  8. Wilkowski P., Wykorzystanie algorytmu detekcji i lokalizacji w zadaniu chwytania, Politechnika Warszawska, Warszawa 2009.
Cited by
Show
ISSN
2300-1739
Language
pol
Share on Facebook Share on Twitter Share on Google+ Share on Pinterest Share on LinkedIn Wyślij znajomemu