KR101037379B1 - The moving robot exploration system founded the distance information of a surrounding circumstance required from distance sensor and the exploration method using the moving robot exploration system - Google Patents
The moving robot exploration system founded the distance information of a surrounding circumstance required from distance sensor and the exploration method using the moving robot exploration system Download PDFInfo
- Publication number
- KR101037379B1 KR101037379B1 KR1020080129195A KR20080129195A KR101037379B1 KR 101037379 B1 KR101037379 B1 KR 101037379B1 KR 1020080129195 A KR1020080129195 A KR 1020080129195A KR 20080129195 A KR20080129195 A KR 20080129195A KR 101037379 B1 KR101037379 B1 KR 101037379B1
- Authority
- KR
- South Korea
- Prior art keywords
- node
- mobile robot
- exploration
- information
- distance sensor
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000012545 processing Methods 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims 1
- 238000000605 extraction Methods 0.000 abstract description 15
- 238000010586 diagram Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 4
- 238000002372 labelling Methods 0.000 description 3
- 230000004807 localization Effects 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- FWXAUDSWDBGCMN-DNQXCXABSA-N [(2r,3r)-3-diphenylphosphanylbutan-2-yl]-diphenylphosphane Chemical compound C=1C=CC=CC=1P([C@H](C)[C@@H](C)P(C=1C=CC=CC=1)C=1C=CC=CC=1)C1=CC=CC=C1 FWXAUDSWDBGCMN-DNQXCXABSA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0217—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with energy consumption, time reduction or distance reduction criteria
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
본 발명은 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템을 이용한 탐사방법에 관한 것으로, 이동 이동로봇탐사시스템이 거리 센서를 통해 지형 정보를 획득하여, 스스로 위상 지도를 생성하면서 이동하는 탐사 방법에 관한 것이다.The present invention relates to an exploration method using a mobile robot exploration system based on distance information of a surrounding environment obtained from a distance sensor. The mobile robot exploration system acquires terrain information through a distance sensor and generates a phase map by itself. It is about exploration method to move.
본 발명에 따른 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템을 이용한 탐사방법은 거리센서부로부터 주위 환경의 거리 정보를 입력을 받는 거리 정보 입력 단계와, 지도생성부가 거리 정보 입력 단계에서 입력된 정보에서 노드 정보를 획득하는 노드 추출 단계와, 지도 생성부의 노드 추출단계에서 입력된 노드 정보 중에서 일차연결노드(first child node)를 찾아내는 일차연결노드(first child node) 추출 단계와 일차연결노드(first child node) 중에서 컨케이브노드(concave node)를 찾아내는 컨케이브노드(concave node) 추출 단계와, 일차연결노드(first child node)에서 위상지도로 사용할 노드들을 선정하고 위상지도를 생성하는 전역적 위상지도 생성 단계와 위상지도에서 이동로봇탐사시스템이 이동할 노드(node)를 선택하는 타겟포인트(target point) 선정 단계를 포함한다.An exploration method using a mobile robot sensing system based on distance information of a surrounding environment obtained from a distance sensor according to the present invention includes a distance information input step of receiving distance information of a surrounding environment from a distance sensor unit, and a map generation unit for distance information. A node extraction step of obtaining node information from the information input at the input step, a first child node extraction step of finding a first child node among node information input at the node extraction step of the map generator; Concave node extraction step to find concave node among the first child node, select nodes to be used as the phase map in the first child node and generate the topology map Global phase map generation step and target point (ta) to select node to move rget point) selection step.
이동로봇탐사시스템, 위상지도, 컨케이브노드(concave node), 탐 사(exploration), 거리센서 Mobile Robot Exploration System, Topology Map, Concave Node, Exploration, Distance Sensor
Description
본 발명은 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템을 이용한 탐사방법에 관한 것으로, 이동로봇탐사시스템이 주위 환경의 거리 정보를 획득하고, 노드정보를 추출하여 주위 환경을 탐사하는 방법에 관한 것이다. The present invention relates to an exploration method using a mobile robot exploration system based on distance information of a surrounding environment obtained from a distance sensor, wherein the mobile robot exploration system obtains distance information of the surrounding environment and extracts node information to determine the surrounding environment. It is about how to explore.
산업용 로봇을 시작으로 최근에는 임의의 환경에서도 동작할 수 있는 지능형 로봇의 형태로 그 영역을 넓혀가고 있다. 지능형 로봇은 서비스, 군사, 경비, 위험지역 탐사와 같은 다양한 분야에 응용이 가능하며, 이러한 지능형 로봇에 있어서 로봇의 자율 주행기술의 확보는 필수적이라고 할 수 있다. 그 중에서 로봇이 주위 환경에 대한 정보를 확보하지 못한 공간에 위치했을 때, 스스로 정보를 획득하고 지도를 생성하면서 이동하는 탐사(exploration) 기술은 핵심요소가 된다.Beginning with industrial robots, the area has recently been expanded in the form of intelligent robots that can operate in any environment. Intelligent robots can be applied to various fields such as service, military, security, and dangerous area exploration, and it is essential to secure autonomous driving technology of such robots. Among them, exploration technology that moves while acquiring information and generating a map by itself is a key element when the robot is located in a space where information about the surrounding environment is not available.
이러한 로봇의 탐사기술은 기본적으로 지도 생성과 함께 이루어지며, 어떤 지도를 사용하느냐와 어떤 종류의 센서를 사용하느냐에 따라 다양한 방법이 존재한다. 최근의 연구에서는 지도를 간단하게 기술할 수 있는 위상적 (topological) 지도를 주로 사용하며, 센서로는 레이저 및 초음파 센서와 같은 거리 정보를 획득하는 센서를 주로 사용한다. The robot's exploration technology is basically made with map generation, and there are various methods depending on which map and which kind of sensor are used. Recent research mainly uses topological maps, which can easily describe maps, and sensors that obtain distance information such as lasers and ultrasonic sensors.
이러한 센서들을 기반으로 로봇 스스로 지도를 생성하고 탐사를 수행하고자 한 종래의 기술은 다음과 같다.Conventional techniques for generating maps and performing exploration on the basis of such sensors are as follows.
국내의 특허로는 거리 센서를 사용하여 획득한 주위 환경 정보에 대하여 세선화 알고리즘을 적용하여 위상지도를 만들고자 한 특허(출원번호 10-2005-0057716)와 로봇이 벽을 따라 이동하면서 위상지도를 생성하면서 자율주행을 수행하는 방법에 대한 특허(출원번호 10-2006-0003787)와 거리 센서 및 장애물 인식센서를 이용하여 로봇이 이동한 경로를 바탕으로 위상지도를 생성하는 방법에 대한 특허(공개번호 10-2004-0087171)가 있다. 첫 번째 특허는 로봇이 위상지도 격자지도를 동시에 만들기 때문에 효율성이 떨어지는 단점이 있고, 두 번째 특허의 경우, 벽을 따라 이동하기 때문에 거리 정보를 획득하고 위상지도를 생성하는데 있어서 공간의 정보를 획득하는데 효율성이 떨어진다고 볼 수 있다. 또한 세 번째 특허의 경우, 탐사에 있어 전략이 없이 단순히 장애물을 회피하면서 이동하기 때문에 전체 환경을 탐사하는데 있어서 효율성이 떨어진다는 단점이 있다. Domestic patents include a patent for creating a phase map by applying a thinning algorithm to the surrounding environment information obtained using a distance sensor (application number 10-2005-0057716) and a robot generating a phase map while moving along a wall. Patent for a method of performing autonomous driving (application number 10-2006-0003787) and a method for generating a phase map based on a path traveled by a robot using a distance sensor and an obstacle recognition sensor (publication number 10 -2004-0087171. The first patent has the disadvantage that efficiency is inferior because the robot makes the topographic map grid map at the same time. In the second patent, it moves along the wall, so it acquires the distance information and the spatial information in generating the topographic map. It can be seen that the efficiency is poor. In addition, the third patent has a disadvantage in that the efficiency of exploration of the entire environment is reduced because it moves simply avoiding obstacles without any strategy in exploration.
그리고 공개된 논문들 중에서 본 특허와 유사한 기술은 다음과 같은 것이 있다. B. Yamauchi 가 거리 센서를 바탕으로 격자 지도를 생성하면서 탐사를 수행하는 방법을 제시하였다. (B. Yamauchi, "A Frontier-Based Approach for Autonomous Exploration," IEEE CIRA, 1997.) 이러한 방법은 격자지도를 사용하기 때문에 지도 정보의 크기가 크다는 단점뿐만 아니라 하나의 좌표계를 기준으로 지도를 생성하기 때문에 탐사를 수행하면서 에러가 지속적으로 누적된다는 문제점이 있었다. H. Choset 등은 거리센서로부터 획득한 데이터에 대하여 GVG(generalized voronoi graph)를 이용하여 노드 정보를 획득하여 탐사를 수행하는 방법을 제안하였다 (H. Choset and K. Nagatani, "Topological simultaneous localization and mapping(SLAM): towards exact localization without explicit localization," IEEE Transactions on Robotics and Automation, vol. 17, no. 2, pp. 125-137, 2001.). 이 방법에서는 탐사를 수행하면서 단순히 가까운 노드 순서로 이동하기 때문에 탐사 방법이 효율적이지 못하다는 단점이 있었다. Among the published papers, similar technologies to this patent are as follows. B. Yamauchi presented a method to perform an exploration while generating a grid map based on a distance sensor. (B. Yamauchi, "A Frontier-Based Approach for Autonomous Exploration," IEEE CIRA, 1997.) This method uses grid maps to create maps based on one coordinate system, as well as the disadvantage of large map information. Therefore, there was a problem that errors accumulated continuously during the exploration. H. Choset et al. Proposed a method of performing node exploration using GVG (generalized voronoi graph) on the data obtained from distance sensors (H. Choset and K. Nagatani, "Topological simultaneous localization and mapping). (SLAM): towards exact localization without explicit localization, "IEEE Transactions on Robotics and Automation, vol. 17, no. 2, pp. 125-137, 2001.). This method has the disadvantage that the exploration method is not efficient because it simply moves to the nearest node order during the exploration.
본 발명은 상기한 바와 같은 종래 기술의 불편함을 해결하기 위하여 안출된 것으로서, 로봇이 자신이 위치한 공간에 대한 사전 정보 없이 거리센서만을 이용하여 환경 정보를 획득하여 지도를 생성하고 효율적으로 탐사를 수행하는 방법을 제공하는 것이다.The present invention has been made to solve the inconvenience of the prior art as described above, the robot obtains environmental information using only the distance sensor without prior information about the space where the robot is located to generate a map and perform exploration efficiently To provide a way.
또한 본 발명의 다른 목적은 지도의 크기가 작은 위상 지도를 생성함과 동시에 지역적 좌표계를 사용하여, 로봇이 탐사를 수행하면서 발생하는 에러를 줄이고, 삼면이 막힌 노드를 미리 방문하여 탐사를 수행하여, 모든 공간을 방문하기까지 걸리는 시간 또는 거리의 효율성을 높인 탐사 방법을 제공하는 것이다.In addition, another object of the present invention is to generate a topographic map of a small map size and at the same time using a local coordinate system, to reduce the errors caused by the robot to perform the exploration, and to perform the exploration by visiting the nodes blocked three sides in advance, It is to provide an exploration method that increases the time or distance required to visit all the spaces.
상기한 목적을 달성하기 위한 기술적 사상으로서, 본 발명에서는 제 1 관점으로서 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템에 있어서, 외부의 주변환경의 영상을 입력받는 카메라부(100)와; 외부동작 및 물체모델을 저장하며 거리정보를 입력하고 전역적 위상 지도를 생성하는 로봇본체부(200)와; 상기 이동로봇탐사시스템을 이동시키는 로봇이동부(300)를 포함한 것을 특징으로 하는 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템이 제시된다.As a technical idea for achieving the above object, in the present invention, in the mobile robot exploration system based on the distance information of the surrounding environment obtained from the distance sensor as a first aspect, a camera unit for receiving an image of the external surrounding environment ( 100); A
상기 제1 관점에 있어서,In the first aspect,
상기 로봇본체부(200)는,The
외부 동작을 하기 위한 기계 팔인 머니퓨레이터(210)와; 외부에 장착되어서 주위 환경의 거리 정보를 입력을 하는 거리센서부(220)와; 내부에 위치하고 물체 인식을 위한 물체모델을 저장한 데이터베이스(230)와; 상기 거리센서부(220)에서 입력되는 거리 정보를 사용하여 전역적 위상 지도를 생성하는 지도생성부(240)를 포함하는 것을 특징으로 하고,A
상기 제1 관점에 있어서,In the first aspect,
상기 로봇이동부(300)는, 바퀴 또는 캐터필라인 것을 특징으로 하고,The
상기 거리센서부(220)는 전방향의 거리 정보를 획득하는 것을 특징으로 하고,The
상기 제1 관점에 있어서,In the first aspect,
상기 전역적 위상 지도는 지역적 좌표계를 사용하는 것을 특징으로 하고,The global phase map is characterized by using a local coordinate system,
상기 제1 관점에 있어서,In the first aspect,
상기 이동로봇탐사시스템은,The mobile robot exploration system,
주위환경에 대한 사전정보를 갖지 않은 상태에서 거리센서로부터 주변환경정보를 얻어 주변지역을 탐사하는 것을 특징으로 한다.It is characterized by exploring the surrounding area by obtaining the surrounding environment information from the distance sensor in the state of not having prior information on the surrounding environment.
제2 관점으로서, 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템을 이용한 탐사방법에 있어서, 거리센서부(220)로부터 거리 정보를 입력받는 1단계(S110)와; 상기 입력된 거리정보에서 이동로봇탐사시스템의 이동이 가능한 노드 정보를 추출하는 2단계(S120)와; 상기 입력 받은 이동로봇탐사시스템의 이동이 가능한 노드 정보중에서 일차연결노드(first child node)를 추출하 는 3단계(S130)와; 상기 추출한 일차연결노드(first child node)중에서 컨케이브노드(concave node)를 찾아내는 4단계(S140)와; 상기 이동로봇탐사시스템의 이동이 가능한 상기 일차연결노드(first child node)들을 전역적 위상지도로 만드는 5단계(S150)와; 상기 전역적 위상지도로부터 이동로봇탐사시스템이 다음으로 이동할 위치인 타겟포인트(target point)를 결정하는 6단계(S160)를 포함하는 것을 특징으로 하는 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템을 이용한 탐사방법이 제시된다.As a second aspect, an exploration method using a mobile robot exploration system based on distance information of a surrounding environment obtained from a distance sensor, comprising: a first step (S110) of receiving distance information from a
상기 제2 관점에 있어서,In the second aspect,
상기 거리센서부(220)는 전방향의 거리 정보를 획득하는 것을 특징으로 하고,The
상기 제2 관점에 있어서,In the second aspect,
상기 전역적 위상 지도는 지역적 좌표계를 사용하는 것을 특징으로 하고,The global phase map is characterized by using a local coordinate system,
상기 제2 관점에 있어서,In the second aspect,
상기 이동로봇탐사시스템은, 주위환경에 대한 사전정보를 갖지 않은 상태에서 거리센서로부터 주변환경정보를 얻어 주변지역을 탐사하는 것을 특징으로 하고,The mobile robot exploration system, characterized in that to explore the surrounding area by obtaining the surrounding environment information from the distance sensor in the state that does not have prior information about the surrounding environment,
상기 제2 관점에 있어서,In the second aspect,
상기 2단계는, 상기 거리센서부로부터 얻은 주위환경정보를 이미지형태로 저장하고, 이에 대하여 골격화 알고리즘을 적용하고, 생성된 골격영상에 대하여 수학식 1인 마스크를 적용하여 이동가능한 노드를 찾아내는 것을 특징으로 하고,In the second step, the surrounding environment information obtained from the distance sensor unit is stored in the form of an image, a skeletalization algorithm is applied thereto, and a mask of
상기 제2 관점에 있어서,In the second aspect,
상기 3단계는, 상기 골격영상에서 상기 이동로봇탐사시스템의 현재 위치로부터 뻗어나간 각각의 호(arc)에 대하여 그 호의 방향성에 따라 적합한 수학식 2인 마스크를 적용하여 일차연결노드(first child node)를 찾아내는 것을 특징으로 하고,In the third step, a first child node is applied to each arc extending from the current position of the mobile robot exploration system in the skeletal image by applying a mask (2) suitable according to the direction of the arc. Characterized by finding
상기 제2 관점에 있어서,In the second aspect,
상기 4단계는, 상기 컨케이브노드가 두개의 엔드노드(end node)와 하나의 브랜치노드(branch node)가 연결된다는 특성을 고려하여 일차연결노드를 검색할때 사용한 호의 방향성에 따른 수학식 2인 마스크를 적용하여 컨케이브 노드의 위치를 찾아내는 것을 특징으로 하고,Step 4 is a mask of equation (2) according to the direction of the arc used when searching for the primary connection node in consideration of the characteristic that the end of the concave node is connected to two end nodes and one branch node (branch node) Finding the position of the concave node by applying the,
상기 제2 관점에 있어서,In the second aspect,
상기 골격화 알고리즘은, 모폴로지컬 영상 처리 알고리즘, 브러쉬파이어 알고리즘인 것을 특징으로 한다.The skeletalization algorithm is a morphological image processing algorithm or a brushfire algorithm.
본 발명에 따른 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템을 이용한 탐사방법은 주위 환경의 거리 정보를 획득하여 노드 정보를 추출하고 위상 지도를 생성함으로써 주위 환경을 스스로 탐사할 수 있다. 또한 컨케이브노드(concave node)라는 개념을 사용하여, 주위 환경을 탐사하는데 있어서 시간, 거리 측면에서의 효율성을 증가시킬 수 있는 효과가 있다.An exploration method using a mobile robot exploration system based on distance information of a surrounding environment obtained from a distance sensor according to the present invention obtains distance information of a surrounding environment, extracts node information, and generates a phase map to explore the surrounding environment by itself. Can be. In addition, the concept of a concave node can be used to increase the efficiency in terms of time and distance in exploring the environment.
이하에서는 첨부한 도면을 참조하면서 본 발명의 실시예에 대한 구성 및 작 용을 상세하게 설명하기로 한다.Hereinafter, with reference to the accompanying drawings will be described in detail the configuration and operation of the embodiment of the present invention.
상기 목적을 달성하기 위하여 본 발명에 따른 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템을 이용한 탐사방법은 이동로봇탐사시스템이 주위 환경에 대한 사전 정보 없이 스스로 주위 환경을 이동하면서 지도를 생성하는 방법에 관한 것으로, 이동로봇탐사시스템이 거리 센서에 의해 지형 정보를 획득하여 전역적 위상 지도 정보를 생성하면서 이동하는 탐사 방법에 대한 발명이다.In order to achieve the above object, the exploration method using the mobile robot exploration system based on the distance information of the surrounding environment obtained from the distance sensor according to the present invention moves the surrounding environment by itself without the prior information about the surrounding environment. The present invention relates to a method for generating a map, and an invention for an exploration method in which a mobile robot exploration system obtains terrain information by a distance sensor and moves while generating global phase map information.
본 발명에 따른 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템을 이용한 탐사방법은 거리센서부(220)로부터 주위 환경의 거리 정보를 입력을 받는 거리 정보 입력 단계와, 지도생성부가 거리 정보 입력 단계에서 입력된 정보에서 노드 정보를 획득하는 노드 추출 단계와, 지도 생성부의 노드 추출단계에서 입력된 노드 정보 중에서 일차연결노드(first child node)를 찾아내는 일차연결노드(first child node) 추출 단계와 일차연결노드(first child node) 중에서 컨케이브노드(concave node)를 찾아내는 컨케이브노드(concave node) 추출 단계와, 일차연결노드(first child node)에서 위상지도로 사용할 노드들을 선정하고 위상지도를 생성하는 전역적 위상지도 생성 단계와 위상지도에서 이동로봇탐사시스템이 이동할 노드(node)를 선택하는 타겟포인트(target point) 선정 단계를 포함한다.An exploration method using a mobile robot exploration system based on distance information of a surrounding environment obtained from a distance sensor according to the present invention includes a distance information input step of receiving distance information of a surrounding environment from a
본 발명에 따른 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템 및 이를 이용한 탐사방법을 보다 구체적으로 살펴본다.The mobile robot exploration system based on the distance information of the surrounding environment obtained from the distance sensor according to the present invention and the exploration method using the same will be described in more detail.
도 1은 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템의 구조도이다.1 is a structural diagram of a mobile robot exploration system based on distance information of a surrounding environment obtained from a distance sensor.
본 발명에 따른 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템 도 1에 도시된 바와 같이 카메라부(100)와 로봇본체부(200)와 로봇이동부(300)를 포함하여 구성된다.Mobile robot exploration system based on the distance information of the surrounding environment obtained from the distance sensor according to the present invention, as shown in Figure 1 including a
상기 카메라부(100)는 외부의 주변환경의 영상을 입력받는다. 상기 로봇본체부(200)는 외부동작 및 물체모델을 저장하며 거리정보를 입력하고 전역적 위상 지도를 생성한다. 상기 로봇이동부(300)는 상기 이동로봇탐사시스템을 이동시킨다.The
상기 로봇본체부(200)는 외부 동작을 하기 위한 기계 팔인 머니퓨레이터(210)와 주위 환경의 거리 정보를 입력을 하는 거리센서부(220)가 외부에 장착되고, 내부에 물체 인식을 위한 물체모델을 저장한 데이터베이스(230,미도시)와 상기 거리센서부(220)에서 입력되는 거리 정보를 사용하여 상기 전역적 위상 지도를 생성하는 지도생성부(240,미도시)를 포함한다.The robot
상기 거리센서부(220)는 상기 로봇본체부(200)의 전 후로 하나씩 장착되어 한 번에 전방향 거리를 획득할 수 있는 것이 이상적이다.Ideally, the
상기 로봇이동부(300)는 이동로봇탐사시스템을 이동 경로에 따라 이동시키는 구성으로 바퀴나 캐터필라를 비롯하여 이동로봇탐사시스템의 본체를 이동시킬 수 있는 모든 장치를 사용할 수 있다.The
도 2는 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템을 이용한 탐사방법의 흐름도이다.2 is a flowchart of an exploration method using a mobile robot exploration system based on distance information of a surrounding environment obtained from a distance sensor.
본 발명에 따른 거리센서로부터 얻은 주변환경의 거리정보를 바탕으로 한 이동로봇탐사시스템을 이용한 탐사방법은 도 2에 도시된 바와 같이 상기 거리센서부(220)로부터 거리 정보를 입력받는 1단계(S110)와; 상기 입력된 거리정보에서 이동로봇탐사시스템의 이동이 가능한 노드 정보를 추출하는 2단계(S120)와; 상기 입력 받은 이동로봇탐사시스템의 이동이 가능한 노드 정보중에서 일차연결노드(first child node)를 추출하는 3단계(S130)와; 상기 추출한 일차연결노드(first child node)중에서 컨케이브노드(concave node)를 찾아내는 4단계(S140)와; 상기 이동로봇탐사시스템의 이동이 가능한 상기 일차연결노드(first child node)들을 전역적 위상지도로 만드는 5단계(S150)와; 상기 전역적 위상지도로부터 이동로봇탐사시스템이 다음으로 이동할 위치인 타겟포인트(target point) 결정하는 6단계(S160)를 포함한다. 따라서, 본 발명에서는 기본적으로 먼저 환경 거리 정보를 획득하고, 이를 바탕으로 노드 정보를 추출하여 전역적 위상 지도를 생성하고, 이동로봇탐사시스템의 이동을 수행한다.In the exploration method using the mobile robot exploration system based on the distance information of the surrounding environment obtained from the distance sensor according to the present invention, as shown in FIG. 2,
상기 거리센서부(220)를 사용하여 전방향 거리 정보를 획득하고 획득한 거리 정보를 각도 순서대로 연결하여 폐영역을 생성하여 이진 영상으로 저장한다. 거리 정보의 100mm는 이진영상의 1픽셀(pixel)에 해당하도록 영상을 생성한다. 그리고 생성된 이진영상의 폐영역 내부를 모폴로지컬 영상 처리 알고리즘을 사용하여 채운다. 채워진 폐영역 영상에 대하여 브러쉬파이어 알고리즘(brushfire algorithm)을 적용하여 도 3과 같은 뼈대 영상을 추출한다.The
상기 획득한 뼈대 영상에서 위상 지도의 노드로 사용할 정보를 뽑아내는 과 정이 필요하다. 도 3과 같이 얻어진 뼈대(skeleton) 정보에 대하여 수학식 1의 마스크를 적용하여 노드 정보를 찾아낸다.It is necessary to extract information to be used as a node of the phase map from the obtained skeleton image. Node information is found by applying a mask of
수학식 1의 마스크를 뼈대 영상에 적용하면 도 4와 같이 노드(node) 정보를 분류할 수 있다. 도 4의 (a)와 같은 결과는 엔드노드(end node)를 의미하고 (b)와 같은 결과는 브랜치노드(branch node)를 의미하며, (c)와 같은 결과는 호(arc)를 의미한다. 상기 결과에서 (b)와 같은 결과를 보이는 브랜치노드(branch node)를 위상지도의 노드로 사용한다. 상기 수학식 1의 마스크를 사용한 결과는 도 5와 같이 덩어리진 형태로 발견된다. 각각의 덩어리진 브랜치노드(branch node)로부터 그 중심점을 찾아내는 과정이 필요하다. 먼저 영상 처리 알고리즘 중에서 라벨링 알고리즘(Labeling algorithm)을 이용하여 각각의 덩어리들을 구분한다. 라벨링 알고리즘(Labeling algorithm)은 흔히 사용되는 이미지 프로세싱 알고리즘(image processing algorithm)의 하나로, 인접한 픽셀들을 찾아내어 하나로 엮어주는 역할을 한다. 그리고 각각의 덩어리에서 무게중심을 구하는 알고리즘을 사용하여 도 6과 같이 각각의 덩어리에서 하나의 브랜치노드(branch node)를 찾아낸다. 이로써, 뼈대(skeleton) 정보로부터, 브랜치노드(branch node)에 관한 정보를 추출하였다. 그리고 그중에서 이동로봇탐사시스템이 이동 불가능한 공간에서 발생한 노드(node) 를 필터링(filtering)하는 과정을 거쳐야 한다. 이것은 도 7과 같이 이동로봇탐사시스템크기의 마스크를 각각의 노드에 적용하여 레이저 데이터(laser data)로부터 생성한 폐영역 영상과 겹치는 부분이 있는지 검사하여 찾아낼 수 있다.When the mask of
이동로봇탐사시스템의 탐사(exploration)는 상기 노드 추출 단계에서 획득한 노드를 기반으로 진행한다. 먼저 이동로봇탐사시스템이 주위환경에 대한 아무런 정보없이 탐사를 시작하면 초기화(initialization)과정을 수행한다. 초기화 과정을 시작하면 이동로봇탐사시스템은 노드 추출 단계를 수행하고 노드 추출 단계에서 획득한 브랜치노드(branch node) 중에서 가장 가까운 브랜치노드(branch node)로 이동한다. 그리고 이동한 위치를 전역적 위상지도의 원점(initial point)인 (0,0,0)으로 선정한다.Exploration of the mobile robot exploration system proceeds based on the nodes obtained in the node extraction step. First, when the mobile robot exploration system starts the exploration without any information about the surrounding environment, it performs the initialization process. When the initialization process starts, the mobile robot exploration system performs the node extraction step and moves to the nearest branch node among the branch nodes obtained in the node extraction step. The shifted position is selected as (0,0,0) which is the initial point of the global phase map.
원점을 설정한 후, 이동로봇탐사시스템은 상기 거리센서부(220)를 통하여 주위 환경의 전방향 거리 정보를 획득한다. 획득한 전방향 거리 정보로부터 상기 노드추출 단계를 수행한다. 노드추출 단계에서 획득한 브랜치노드(branch node)정보 중에서 다음으로 이동할 노드를 선정하는 작업을 수행한다. 본 발명에서는 상기 뼈대 영상에서 획득한 브랜치노드(branch node)중에서 이동로봇탐사시스템의 현재 위치에 일차적으로 연결된 일차연결노드(first child node)만을 이동로봇탐사시스템이 이동할 노드로 사용한다. 이 때, 현재 이동로봇탐사시스템의 위치에 브랜치노드(branch node)가 발생하지 않을 가능성이 높다. 그러므로 일차연결노드(first child node)의 검색을 수행하기 위한 기준점을 선정할 필요가 있다. 기준점은 현재 이동로봇탐사시스템의 위치에서 반경 1m 내에 존재하는 모든 브랜치 포인트(branch point)를 사용한다. 그리고 반경 1m 내에 브랜치노드(branch node)가 존재하지 않을 경우, 가장 가까운 뼈대 영상의 픽셀 포인트(pixel point)를 기준점으로 사용한다. 기준점을 선정한 후, 일차연결노드(first child node)를 검색한다. 상기 수학식 1의 마스크를 기준점에 적용하면 기준점으로부터 호(arc)가 어느 방향으로 뻗어나가는지를 알 수 있다. 호(arc)의 방향을 획득하면 그 방향을 따라 브랜치노드(branch node)의 검색을 수행한다. 이 때, 이미 검색을 수행한 픽셀(pixel)로 돌아오는 것을 방지하기 위하여, 수학식 2와 같이 호(arc)의 방향에 따라 다른 형태의 마스크를 사용하는 방법을 제안한다.After setting the origin, the mobile robot exploration system obtains omnidirectional distance information of the surrounding environment through the
수학식 2에서 제안한 마스크는 도 8과 같은 형태로 사용한다. 마스크를 적용하여 상기 노드 추출 단계와 같이 마스크를 적용한 픽셀(pixel)의 노드(node) 종류를 판단한다. 마스크를 적용한 결과 값이 2 이상이면 브랜치노드(branch node)로 판단하고 1이면 호(arc), 0이면 엔드노드(end node)로 판단한다. 또한 현재 픽셀이 호(arc)인 경우에 마스크를 씌운 결과로부터 방향성을 획득하여, 수학식 2의 마스크들 중에서 해당 방향의 마스크를 선택하여 일차연결노드(first child node)의 검색을 지속적으로 수행한다.The mask proposed by Equation 2 is used in the form as shown in FIG. The mask is applied to determine the node type of the pixel to which the mask is applied as in the node extraction step. If the result of applying the mask is 2 or more, it is determined to be a branch node, 1 is an arc, and 0 is an end node. In addition, when the current pixel is an arc, the direction is obtained from the masking result, and the mask of the corresponding direction is selected from the masks of Equation 2 to continuously search for the first child node. .
일차연결노드(first child node)의 검색이 끝나면, 컨케이브 노드(concave node)를 검색하는 과정을 수행한다. 컨케이브 노드는 도 9와 같이 삼면이 막힌 노드를 의미하며 도 10과 같이 일차 연결 노드가 두 개의 엔드노드(end node)와 하나의 브랜치노드(branch node)로 이루어지는 특성을 가진다. 컨케이브 노드를 찾는 방법은 일차연결노드(first child node)를 찾는 방법과 유사하다. 각각의 일차연결노드(first child node)에 대하여 수학식 2에서 제안한 마스크를 사용하여 일차적으로 연결된 노드(node)를 검색하여 하나의 브랜치노드(branch node)와 두 개의 엔드노드(end node)가 발견되면 컨케이브노드(concave node)로 선정한다.After the search for the first child node is completed, a process of searching for a concave node is performed. As shown in FIG. 9, a concave node refers to a node with three blocked surfaces, and as shown in FIG. 10, a primary connection node includes two end nodes and one branch node. Finding a convex node is similar to finding a first child node. For each first child node, one branch node and two end nodes are found by searching for nodes that are connected first using the mask proposed in Equation 2. If so, select the concave node.
현재 이동로봇탐사시스템의 위치에서 획득한 일차연결노드(first child node)와 이동로봇탐사시스템의 데이터베이스에 저장된 위상지도의 노드 중에서 같은 공간에 표상된 노드를 걸러내는 과정이 필요하다. 이 과정에서는 두 가지 기준을 사용한다. 첫째로 전역적 위상지도(topological map)의 모든 노드(node)들과 비교하여 일차연결노드(first child node)와 가장 가까운 노드(node)를 찾는다. 현재 위치가 아닌 다른 노드(node)와 사용자가 임의로 정한 값인 DThreshold이하의 거리만큼 떨어진 경우, 그 노드(node)와 중복된 위치를 나타낸다고 판단한다. 두 번째로 일 차연결노드(first child node)와 가장 가까운 노드(node)의 각도 정보와 그 노드(node)에 일차적으로 연결된 노드(node)들의 각도 차이를 비교하여 사용자가 임의로 정한 값인 θThreshold 이하인 경우에 불필요한 노드(node)로 판단한다. 그 사용예는 도 11과 같다. 불필요한 노드(node) 정보를 제외한 일차연결노드(first child node)를 전역적 위상지도(topological map)로 저장한다. 그리고 타겟포인트(target point)를 선정한다. 타겟포인트(target point)는 컨케이브노드(concave node) 여부와 노드(node)간의 거리를 기준으로 정한다. 일차연결노드(first child node)가 존재하지 않을 경우, 전역적 위상지도(topological map)에서 방문하지 않은 노드(node) 중 가장 가까운 노드(node)를 타겟포인트(target point)로 선정한다. 이 때, 노드(node)까지의 거리는 Dijkstra’s algorithm을 사용하여 계산한다. 그리고 전역적위상지도(topological map)상에서 더 이상 방문하지 않은 노드(node)가 존재하지 않을 경우, 탐사(exploration)를 종료한다.It is necessary to filter out the nodes represented in the same space among the first child node acquired at the position of the current mobile robot exploration system and the nodes of the topology map stored in the database of the mobile robot exploration system. This process uses two criteria. First, we find the node closest to the first child node by comparing it with all nodes of the global topological map. If a node that is different from the current position and a distance less than a D Threshold, which is arbitrarily determined by the user, is determined to be a duplicate position with the node. Second, the angle difference between the first child node and the node closest to the node and the angle difference between the nodes that are primarily connected to the node is compared to be less than or equal to θ Threshold, which is arbitrarily determined by the user. In this case, it is determined to be an unnecessary node. An example of its use is shown in FIG. The first child node except for unnecessary node information is stored as a global topological map. Then select a target point. The target point is determined based on whether the node is a concave node and the distance between nodes. If the first child node does not exist, the nearest node among the nodes not visited in the global topological map is selected as the target point. At this time, the distance to the node is calculated using Dijkstra's algorithm. The exploration is terminated when there are no more nodes visited on the topological map.
이상으로 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 그 기술적 사상이나 필수적인 특징을 변경하지 않고 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 따라서 이상에서 기술한 실시예는 모든 면에서 예시적인 것이며 한정적이 아닌 것이다.Although the embodiments of the present invention have been described above with reference to the accompanying drawings, those skilled in the art to which the present invention pertains may be embodied in other specific forms without changing the technical spirit or essential features of the present invention. You will understand that. Accordingly, the embodiments described above are exemplary in all respects and not restrictive.
도 1은 본 발명에 따른 거리 정보를 바탕으로 탐사를 수행하고 위상 지도를 생성하는 이동로봇탐사시스템의 구조도이다. 1 is a structural diagram of a mobile robot exploration system for performing exploration and generating a phase map based on distance information according to the present invention.
도 2는 본 발명에 따른 거리 정보를 바탕으로 탐사를 수행하고 위상 지도를 생성하는 방법의 기본 순서도이다.2 is a basic flowchart of a method of performing an exploration and generating a phase map based on distance information according to the present invention.
도 3은 본 발명에서 이동로봇탐사시스템이 획득한 전방향 거리 정보를 이진 영상으로 만든 후 골격화 과정을 거친 결과 그림이다.3 is a result of skeletalization after generating a binary image of the omnidirectional distance information acquired by the mobile robot exploration system in the present invention.
도 4는 본 발명에 따른 마스크(mask)를 사용한 브랜치노드(branch node), 엔드노드(end node), 호(arc) 탐색의 개념도이다.4 is a conceptual diagram of a branch node, an end node, and an arc search using a mask according to the present invention.
도 5는 본 발명에 따른 마스크(mask)를 사용하여 브랜치노드(branch node)탐색을 수행한 결과에 대한 개념도이다.5 is a conceptual diagram of a result of performing a branch node search using a mask according to the present invention.
도 6은 본 발명에 따른 덩어리진 브랜치노드(branch node) 중에서 중심점을 찾아낸 결과에 대한 개념도이다.FIG. 6 is a conceptual diagram of a result of finding a center point among agglomerated branch nodes according to the present invention.
도 7은 본 발명에 따른 이동로봇탐사시스템의 이동이 불가능한 브랜치노드(branch node)를 걸러내는 결과에 대한 개념도이다.FIG. 7 is a conceptual diagram of a result of filtering out branch nodes that are not movable in the mobile robot exploration system according to the present invention.
도 8은 본 발명에 따른 일차 연결 노드를 찾아내기 위한 마스크(mask)들의 사용에 대한 개념도이다.8 is a conceptual diagram of the use of masks to find a primary connection node in accordance with the present invention.
도 9는 본 발명에 따른 컨케이브노드(concave node)가 발견되는 지역에 대한 개념도이다.9 is a conceptual diagram of a region where a concave node is found according to the present invention.
도 10은 본 발명에 따른 컨케이브노드(concave node)의 골격 정보에서의 특 성에 대한 개념도이다.10 is a conceptual diagram of characteristics in skeleton information of a concave node according to the present invention.
도 11은 본 발명에 따른 중복되는 노드(node)의 추출에 대한 개념도이다.11 is a conceptual diagram for the extraction of overlapping nodes according to the present invention.
< 도면의 주요부호에 대한 설명 > <Description of Major Symbols in Drawing>
100 : 카메라부 200 : 로봇본체부100: camera portion 200: robot body portion
210 : 머니퓨레이터 220 : 거리센서부210: Money Purifier 220: Distance Sensor
230 : 데이터베이스 240 : 지도생성부230: database 240: map generator
300 : 로봇이동부300: robot moving part
Claims (15)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080129195A KR101037379B1 (en) | 2008-12-18 | 2008-12-18 | The moving robot exploration system founded the distance information of a surrounding circumstance required from distance sensor and the exploration method using the moving robot exploration system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080129195A KR101037379B1 (en) | 2008-12-18 | 2008-12-18 | The moving robot exploration system founded the distance information of a surrounding circumstance required from distance sensor and the exploration method using the moving robot exploration system |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100070582A KR20100070582A (en) | 2010-06-28 |
KR101037379B1 true KR101037379B1 (en) | 2011-05-27 |
Family
ID=42368305
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080129195A KR101037379B1 (en) | 2008-12-18 | 2008-12-18 | The moving robot exploration system founded the distance information of a surrounding circumstance required from distance sensor and the exploration method using the moving robot exploration system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101037379B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109737980A (en) * | 2018-12-29 | 2019-05-10 | 上海岚豹智能科技有限公司 | A kind of air navigation aid and its corresponding robot |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101040528B1 (en) * | 2011-02-17 | 2011-06-16 | 국방과학연구소 | Sensor assembly for detecting terrain and autonomous mobile platform having the same |
KR101883473B1 (en) * | 2013-05-07 | 2018-07-30 | 한화지상방산 주식회사 | Apparatus and method for constructing map of mobile robot |
KR102431194B1 (en) | 2015-12-11 | 2022-08-11 | 한화디펜스 주식회사 | Method for obstacle collision determination using object moving path and apparatus for the same |
KR102224637B1 (en) | 2019-07-05 | 2021-03-08 | 엘지전자 주식회사 | Moving robot and control method thereof |
KR102275300B1 (en) | 2019-07-05 | 2021-07-08 | 엘지전자 주식회사 | Moving robot and control method thereof |
KR102361130B1 (en) | 2019-07-11 | 2022-02-09 | 엘지전자 주식회사 | Moving robot and control method thereof |
KR102297496B1 (en) | 2019-07-11 | 2021-09-02 | 엘지전자 주식회사 | A ROBOT CLEANER Using artificial intelligence AND CONTROL METHOD THEREOF |
KR102302575B1 (en) | 2019-07-16 | 2021-09-14 | 엘지전자 주식회사 | Moving robot and control method thereof |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20070061079A (en) * | 2005-12-08 | 2007-06-13 | 한국전자통신연구원 | Localization system of mobile robot based on camera and landmarks and method there of |
-
2008
- 2008-12-18 KR KR1020080129195A patent/KR101037379B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20070061079A (en) * | 2005-12-08 | 2007-06-13 | 한국전자통신연구원 | Localization system of mobile robot based on camera and landmarks and method there of |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109737980A (en) * | 2018-12-29 | 2019-05-10 | 上海岚豹智能科技有限公司 | A kind of air navigation aid and its corresponding robot |
Also Published As
Publication number | Publication date |
---|---|
KR20100070582A (en) | 2010-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101037379B1 (en) | The moving robot exploration system founded the distance information of a surrounding circumstance required from distance sensor and the exploration method using the moving robot exploration system | |
CN108983781B (en) | Environment detection method in unmanned vehicle target search system | |
JP6896077B2 (en) | Vehicle automatic parking system and method | |
CN109682373B (en) | Perception system of unmanned platform | |
US8286122B2 (en) | Method, system, and computer product for forming a graph structure that describes free and occupied areas | |
Badino et al. | Visual topometric localization | |
WO2021021862A1 (en) | Mapping and localization system for autonomous vehicles | |
Li et al. | Review of vision-based Simultaneous Localization and Mapping | |
Jaspers et al. | Multi-modal local terrain maps from vision and lidar | |
US20230071794A1 (en) | Method and system for building lane-level map by using 3D point cloud map | |
Büchner et al. | Learning and aggregating lane graphs for urban automated driving | |
EP2828620B1 (en) | Generating navigation data | |
Zhang et al. | Hierarchical road topology learning for urban mapless driving | |
Tapus et al. | A cognitive modeling of space using fingerprints of places for mobile robot navigation | |
Nasr et al. | Landmark recognition for autonomous mobile robots | |
Birk et al. | Simultaneous localization and mapping (SLAM) | |
Ahmadi et al. | HDPV-SLAM: Hybrid depth-augmented panoramic visual SLAM for mobile mapping system with tilted LiDAR and panoramic visual camera | |
Thomas et al. | Delio: Decoupled lidar odometry | |
Gadipudi et al. | A review on monocular tracking and mapping: from model-based to data-driven methods | |
CN109977455B (en) | Ant colony optimization path construction method suitable for three-dimensional space with terrain obstacles | |
Hassouna et al. | Robust robotic path planning using level sets | |
Muravyev et al. | PRISM-TopoMap: Online Topological Mapping with Place Recognition and Scan Matching | |
CN116295485A (en) | Unmanned vehicle track planning method based on energy optimization | |
CA3184001A1 (en) | Multi-agent map generation | |
Üzer et al. | Vision-based hybrid map building for mobile robot navigation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application | ||
J201 | Request for trial against refusal decision | ||
AMND | Amendment | ||
B701 | Decision to grant | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20140507 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20150430 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20180409 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20190520 Year of fee payment: 9 |