JP2015152338A - Distance information acquisition method, distance information acquisition apparatus, and robot - Google Patents
Distance information acquisition method, distance information acquisition apparatus, and robot Download PDFInfo
- Publication number
- JP2015152338A JP2015152338A JP2014024089A JP2014024089A JP2015152338A JP 2015152338 A JP2015152338 A JP 2015152338A JP 2014024089 A JP2014024089 A JP 2014024089A JP 2014024089 A JP2014024089 A JP 2014024089A JP 2015152338 A JP2015152338 A JP 2015152338A
- Authority
- JP
- Japan
- Prior art keywords
- distance
- distance information
- vector
- information acquisition
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S11/00—Systems for determining distance or velocity not using reflection or reradiation
- G01S11/12—Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Measurement Of Optical Distance (AREA)
- Manipulator (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本発明は距離情報取得方法、距離情報取得装置及びロボットに関する。 The present invention relates to a distance information acquisition method, a distance information acquisition device, and a robot.
対象物の3次元情報を取得するときに、複数のカメラが一体になった多眼カメラがしばしば用いられる。特許文献1には、各カメラの外部パラメータ(カメラの位置姿勢)および内部パラメータ(焦点距離、画素ピッチなど)が予め校正されている多眼カメラによって、対象物を撮像し、得られた複数の画像から対応点を検出し、三角測量の原理で対応点までの距離、すなわち、対応点の距離情報を取得し、3次元再構成を行って、対象物の3次元情報を取得することが記載されている。 When acquiring three-dimensional information of an object, a multi-view camera in which a plurality of cameras are integrated is often used. In Patent Document 1, an object is imaged by a multi-view camera in which external parameters (camera position and orientation) and internal parameters (focal length, pixel pitch, etc.) of each camera are calibrated in advance. It is described that the corresponding point is detected from the image, the distance to the corresponding point, that is, the distance information of the corresponding point is acquired by the principle of triangulation, and the three-dimensional reconstruction is performed to acquire the three-dimensional information of the object. Has been.
上述のように、背景技術に係る多眼カメラにより容易に対象物までの距離、すなわち、対象物の距離情報を取得することができる。しかしながら、多眼カメラにおいては、複数のカメラのうちの一つのカメラで対象物を捉えて撮像したときに、障害物などの存在により他のカメラが当該対象物を撮像できず、当該対象物の距離情報を取得できないことがある。このようなことは、カメラと距離センサとを用いて対象物の距離情報を取得するときにも起こり得る。例えば、ほぼ無限遠まで撮像できるカメラの撮像情報に基づいて距離センサが対象物の距離情報を取得しようとしたときに、計測範囲が0.5〜4.0mと狭い距離センサでは対象物の距離情報を取得できない。 As described above, the distance to the object, that is, the distance information of the object can be easily acquired by the multi-lens camera according to the background art. However, in a multi-lens camera, when one of a plurality of cameras captures and captures an object, another camera cannot capture the object due to the presence of an obstacle or the like. Distance information may not be acquired. Such a situation can also occur when distance information of an object is acquired using a camera and a distance sensor. For example, when the distance sensor tries to acquire the distance information of the object based on the imaging information of the camera that can image up to almost infinity, the distance of the object is small in the distance sensor having a measurement range of 0.5 to 4.0 m. Information cannot be obtained.
本発明は、このような問題を解決するためになされたものであり、対象物の距離情報を確実に取得することができる距離情報取得方法、距離情報取得装置及びロボットを提供することを目的とする。 The present invention has been made to solve such problems, and an object of the present invention is to provide a distance information acquisition method, a distance information acquisition device, and a robot that can reliably acquire distance information of an object. To do.
本発明に係る距離情報取得方法は、距離情報を取得する対象までの距離を距離センサにより計測する距離情報取得方法であって、前記対象を指し示すベクトルを検出するステップと、前記ベクトル上に前記距離センサによる距離情報がない場合に、前記距離センサが計測領域を変更して距離を計測するステップと、前記ベクトル上にある前記距離センサによる距離情報を検出するステップと、前記検出した距離情報に基づいて前記対象の距離情報を取得するステップとを有するものである。このような構成により、対象の距離情報を確実に取得することができる。 The distance information acquisition method according to the present invention is a distance information acquisition method for measuring a distance to a target from which distance information is acquired by a distance sensor, the step of detecting a vector pointing to the target, and the distance on the vector When there is no distance information by the sensor, the distance sensor changes the measurement area and measures the distance, the step of detecting the distance information by the distance sensor on the vector, and the detected distance information And obtaining the distance information of the object. With such a configuration, it is possible to reliably acquire target distance information.
また、本発明に係る距離情報取得装置は、距離情報を取得する対象を指し示すベクトルを検出するベクトル検出部と、前記ベクトル上にある距離センサによる距離情報を検出し、前記距離情報に基づいて前記対象の距離情報を取得する距離検出部とを備え、前記ベクトル上に前記距離センサによる距離情報がない場合に、前記距離センサが計測領域を変更して距離を計測するように前記距離センサを駆動するセンサ駆動部を更に備えるものである。このような構成により、対象の距離情報を確実に取得することができる。 Further, the distance information acquisition device according to the present invention detects a vector detection unit that detects a vector indicating a target for which distance information is acquired, and distance information by a distance sensor on the vector, and based on the distance information, A distance detection unit that acquires distance information of a target, and drives the distance sensor so that the distance sensor changes a measurement region and measures a distance when there is no distance information by the distance sensor on the vector And a sensor driving unit. With such a configuration, it is possible to reliably acquire target distance information.
また、本発明に係る距離情報取得プログラムは、コンピュータに、距離情報を取得する対象を指し示すベクトルを検出する手順と、前記ベクトル上に距離センサによる距離情報がない場合に、前記距離センサが計測領域を変更して距離を計測するように前記距離センサを駆動する手順と、前記ベクトル上にある前記距離センサによる距離情報を検出する手順と、前記距離情報に基づいて前記対象の距離情報を取得する手順とを実行させるためのものである。このような構成により、対象の距離情報を確実に取得することができる。 In addition, the distance information acquisition program according to the present invention is a method for detecting a vector indicating a target for acquiring distance information in a computer, and the distance sensor is a measurement region when there is no distance information by the distance sensor on the vector. The distance sensor information is acquired based on the procedure for driving the distance sensor to measure the distance by changing the distance, the procedure for detecting the distance information by the distance sensor on the vector, and the distance information. To execute the procedure. With such a configuration, it is possible to reliably acquire target distance information.
本発明により、対象物の距離情報を確実に取得することができる距離情報取得方法、距離情報取得装置及びロボットを提供することができる。 ADVANTAGE OF THE INVENTION By this invention, the distance information acquisition method, distance information acquisition apparatus, and robot which can acquire the distance information of a target object reliably can be provided.
(発明の実施の形態1)
以下、図面を参照して本実施の形態1に係る距離情報取得装置について説明する。
本実施の形態1に係る距離情報取得装置は、距離センサが距離情報を取得できないときに、距離センサを駆動してその計測領域を変更し、距離情報を取得するものである。
まず、本実施の形態1に係る距離情報取得装置を内蔵するロボットとその動作について概略を説明する。
(Embodiment 1 of the invention)
Hereinafter, the distance information acquisition apparatus according to the first embodiment will be described with reference to the drawings.
The distance information acquisition apparatus according to the first embodiment acquires distance information by driving the distance sensor to change the measurement region when the distance sensor cannot acquire distance information.
First, an outline of a robot incorporating the distance information acquisition apparatus according to the first embodiment and its operation will be described.
図1Aは、本実施の形態1に係るロボット11とその動作環境を示す図である。図1Bは、本実施の形態1に係るロボット11に指示を与えるHMI21を示す図である。
ロボット11は距離情報取得装置(図示せず)を内蔵しており、また、その頭部にHMI(Human Machine Interface)表示用のカメラ12と距離センサ13とを搭載している。カメラ12の視野14と距離センサ13の計測領域15とはそれぞれロボット11が把持する対象であるリモコン(リモートコントローラ)17の方向に向けられている。このような状況において、ユーザが操作可能な表示手段であるHMI21を操作してロボット11に指示を出し、ロボット11が移動機構またはアーム・ハンド機構である作用部16によりリモコン17を把持する動作を実行する。距離情報取得装置は、ロボット11の距離情報取得に係る処理を実行する。
FIG. 1A is a diagram showing a robot 11 and its operating environment according to the first embodiment. FIG. 1B is a diagram showing the HMI 21 that gives an instruction to the robot 11 according to the first embodiment.
The robot 11 has a built-in distance information acquisition device (not shown), and also has a camera 12 for displaying an HMI (Human Machine Interface) and a distance sensor 13 on its head. The field of view 14 of the camera 12 and the measurement area 15 of the distance sensor 13 are each directed in the direction of a remote controller (remote controller) 17 that is an object to be gripped by the robot 11. In such a situation, the user operates the HMI 21 that is a display means that can be operated by the user to give an instruction to the robot 11, and the robot 11 performs an operation of gripping the remote controller 17 by the action unit 16 that is a moving mechanism or an arm / hand mechanism. Run. The distance information acquisition device executes processing related to distance information acquisition of the robot 11.
HMI21は、カメラ12が撮像したリモコン17の画像を表示している。ユーザは、表示されたリモコン17の画像をタップすることにより、リモコン17が把持対象物であることをロボット11に指示する。ロボット11は距離センサ13の距離情報に基づいてリモコン17の位置情報や3次元情報を取得してリモコン17を把持する。このとき、ロボット11がリモコン17の距離情報を取得できない状況が生じることがある。 The HMI 21 displays an image of the remote controller 17 captured by the camera 12. The user instructs the robot 11 that the remote controller 17 is a gripping object by tapping the displayed image of the remote controller 17. The robot 11 acquires the position information and three-dimensional information of the remote controller 17 based on the distance information of the distance sensor 13 and holds the remote controller 17. At this time, there may be a situation in which the robot 11 cannot acquire the distance information of the remote controller 17.
図2は、本実施の形態1に係るカメラ12の視野14と距離センサ13の計測領域15との位置関係を示す図であり、壁際の床面上に置かれているリモコン17をカメラ12が撮像している状況をカメラ12の水平方向(横方向)から見たときの図である。距離センサ13が、計測領域15内にある床面やリモコン17の表面の一部について距離情報を距離点31として取得している。また、ユーザがHMI21の表示画像をタップした点は、透視投影モデルの仮想画像面32上のユーザ指示点33として反映されている。 FIG. 2 is a diagram showing a positional relationship between the visual field 14 of the camera 12 and the measurement area 15 of the distance sensor 13 according to the first embodiment. The camera 12 is connected to the remote controller 17 placed on the floor near the wall. It is a figure when the situation which is imaging is seen from the horizontal direction (lateral direction) of the camera. The distance sensor 13 acquires distance information as distance points 31 for a part of the floor surface in the measurement region 15 and the surface of the remote controller 17. Further, the point where the user taps the display image of the HMI 21 is reflected as the user instruction point 33 on the virtual image plane 32 of the perspective projection model.
なお、透視投影とは、空間中の物体点を仮想画像面上に写像することである。仮想画像面は、カメラの視点Oの前方の焦点距離fの位置にある仮想的な面である。「透視投影」、「仮想画像面」、「視点」、後述する「光軸」などの技術用語については、金谷健一,"カメラキャリブレーションの数理 ―最良格子パタンはどのようにして導かれたか― その1透視変換と焦点距離",数理科学,サイエンス社,1993年10月,第31巻,第10号,p.56-62などで分かりやすく説明されている。 The perspective projection is to map an object point in space on a virtual image plane. The virtual image plane is a virtual plane located at the focal length f in front of the camera viewpoint O. For technical terms such as “perspective projection”, “virtual image plane”, “viewpoint”, and “optical axis”, which will be described later, Kenichi Kanaya, “Mathematics of Camera Calibration —How was the best lattice pattern derived?” “Part 1 perspective transformation and focal length”, Mathematical Science, Science, October 1993, Vol. 31, No. 10, p.
図2Aは本実施の形態1に係るロボット11が距離情報を取得できるときの視野14と計測領域15との位置関係を示す図である。カメラ12の視点Oとユーザ指示点33とを結ぶベクトルである指示ベクトル34上に距離点31があるときには、ロボット11は距離情報を取得することができる。
図2Bは本実施の形態1に係るロボット11が距離情報を取得できないときの視野14と計測領域15との位置関係を示す図である。何らかの理由により、視野14と計測領域15との位置関係が図2Aに示したものから変化している。このために、指示ベクトル34上に距離点31がなく、ロボット11は距離情報を取得することができない。
FIG. 2A is a diagram showing a positional relationship between the visual field 14 and the measurement region 15 when the robot 11 according to the first embodiment can acquire distance information. When the distance point 31 is on the instruction vector 34, which is a vector connecting the viewpoint O of the camera 12 and the user instruction point 33, the robot 11 can acquire distance information.
FIG. 2B is a diagram showing a positional relationship between the visual field 14 and the measurement region 15 when the robot 11 according to the first embodiment cannot acquire distance information. For some reason, the positional relationship between the visual field 14 and the measurement region 15 has changed from that shown in FIG. 2A. For this reason, there is no distance point 31 on the instruction vector 34, and the robot 11 cannot acquire distance information.
図2Cは本実施の形態1に係るロボット11が計測領域15を変更したときの視野14と計測領域15との位置関係を示す図である。ロボット11は、図2Bに示したような距離情報を取得できない状況が生じたときに、距離センサ13を駆動して距離センサ13の位置を変化させ計測領域15を変更する。そして、指示ベクトル34上を走査し、指示ベクトル34上に距離点31が現れたときに、その距離情報をユーザが指示した対象物の距離情報として取得する。このようにして、本実施の形態1に係る距離情報取得装置は、対象物の距離情報を確実に取得することができる。 FIG. 2C is a diagram showing a positional relationship between the visual field 14 and the measurement region 15 when the robot 11 according to the first embodiment changes the measurement region 15. When the situation where the distance information cannot be acquired as shown in FIG. 2B occurs, the robot 11 drives the distance sensor 13 to change the position of the distance sensor 13 and change the measurement region 15. Then, scanning is performed on the instruction vector 34, and when the distance point 31 appears on the instruction vector 34, the distance information is acquired as the distance information of the target object designated by the user. Thus, the distance information acquisition apparatus according to Embodiment 1 can reliably acquire the distance information of the target object.
次に、本実施の形態1に係る距離情報取得装置の概略構成を距離情報取得装置を備えるロボット11の概略構成と併せて説明する。
図3は、本実施の形態1に係る距離情報取得装置100を備えるロボット11の概略構成を示すブロック図である。ロボット11は、距離情報取得装置100、カメラ12、距離センサ13、3次元情報取得部110、動作制御部111、作用部16などを備えている。また、距離情報取得装置100は、ベクトル検出部101、距離検出部102、センサ駆動部103などを備えている。また、ロボット11の外部、例えば、ユーザの手元にはHMI21が備えられている。
Next, a schematic configuration of the distance information acquisition device according to the first embodiment will be described together with a schematic configuration of the robot 11 including the distance information acquisition device.
FIG. 3 is a block diagram illustrating a schematic configuration of the robot 11 including the distance information acquisition device 100 according to the first embodiment. The robot 11 includes a distance information acquisition device 100, a camera 12, a distance sensor 13, a three-dimensional information acquisition unit 110, an operation control unit 111, an action unit 16, and the like. The distance information acquisition apparatus 100 includes a vector detection unit 101, a distance detection unit 102, a sensor driving unit 103, and the like. Further, an HMI 21 is provided outside the robot 11, for example, at the user's hand.
ベクトル検出部101は、ユーザがHMI21の表示画像をタップして対象物を指示したときに、HMI21から表示画像におけるタップ位置の座標情報を入力し、これを仮想画像面32におけるユーザ指示点33の座標情報に変換する。また、カメラ12から視点Oの位置情報を入力する。そして、ベクトル検出部101は、視点Oとユーザ指示点33とを結ぶベクトルを3次元空間上に始点と方向とを有する指示ベクトルとして、また、距離情報を取得する対象を指し示すベクトルとして検出し、距離検出部102に出力する。 When the user designates an object by tapping the display image of the HMI 21, the vector detection unit 101 inputs the coordinate information of the tap position in the display image from the HMI 21, and this is input to the user indication point 33 on the virtual image plane 32. Convert to coordinate information. Further, the position information of the viewpoint O is input from the camera 12. Then, the vector detection unit 101 detects a vector connecting the viewpoint O and the user instruction point 33 as an instruction vector having a start point and a direction in a three-dimensional space, and as a vector indicating a target for obtaining distance information, The data is output to the distance detection unit 102.
距離検出部102は、ベクトル検出部101から指示ベクトル情報を入力し、距離センサ13から距離情報を入力し、指示ベクトル34上に距離点31があるか否かを判定し、指示ベクトル34上に距離点31があるときに、当該距離点31の距離情報と距離センサの位置情報とに基づいて対象物の距離情報を取得し、3次元情報取得部110へ出力する。また、距離検出部102は、指示ベクトル34上に距離点31がないときに、その旨とベクトル情報とをセンサ駆動部103に出力する。 The distance detection unit 102 inputs the instruction vector information from the vector detection unit 101, inputs the distance information from the distance sensor 13, determines whether or not the distance point 31 is on the instruction vector 34, and When there is a distance point 31, the distance information of the object is acquired based on the distance information of the distance point 31 and the position information of the distance sensor, and is output to the three-dimensional information acquisition unit 110. Further, when there is no distance point 31 on the instruction vector 34, the distance detection unit 102 outputs the fact and vector information to the sensor driving unit 103.
センサ駆動部103は、指示ベクトル34上に距離点31がない旨を距離検出部102から入力したときに、併せて入力したベクトル情報に基づいて距離センサ13を駆動する。そして、センサ駆動部103は、距離センサ13に回転や移動などの変位を起こさせ、距離センサ13の計測領域15を変更し、距離センサ13が少なくとも指示ベクトル34上を走査できるようにする。センサ駆動部103は、距離センサ13を駆動するときに、ロボットに搭載された距離センサ駆動装置(図示せず)を用いる。 The sensor driving unit 103 drives the distance sensor 13 based on the vector information input together when the distance detection unit 102 inputs that there is no distance point 31 on the instruction vector 34. Then, the sensor driving unit 103 causes the distance sensor 13 to be displaced, such as rotation or movement, to change the measurement region 15 of the distance sensor 13 so that the distance sensor 13 can scan at least the instruction vector 34. The sensor driving unit 103 uses a distance sensor driving device (not shown) mounted on the robot when driving the distance sensor 13.
3次元情報取得部110は、距離検出部102から対象物の距離情報を複数入力し、3次元再構成を行い、対象物の3次元情報にして、動作制御部111に出力する。
動作制御部111は、3次元情報取得部110から対象物の3次元情報を入力し、当該情報に基づいて対象物に対する操作、例えば、取る、押す、引くなどの操作を行うように、作用部16に指示する。このとき、動作制御部111は、他の情報、例えば、対象物の画像認識結果を併せて入力して用いても良い。動作制御部111は、ロボット11の動作全般の制御を行う。
The three-dimensional information acquisition unit 110 inputs a plurality of distance information of the object from the distance detection unit 102, performs three-dimensional reconstruction, and outputs the three-dimensional information of the object to the operation control unit 111.
The action control unit 111 inputs the three-dimensional information of the object from the three-dimensional information acquisition unit 110 and performs an operation on the object based on the information, for example, an operation such as taking, pushing, and pulling. 16 is instructed. At this time, the operation control unit 111 may input and use other information, for example, an image recognition result of the target object. The operation control unit 111 controls the overall operation of the robot 11.
なお、距離センサ13には、ステレオカメラ、Kinect(登録商標)のような距離画像センサ、TOF(Time Of Flight)のようなレーザセンサなどを用いることができる。距離センサ13がステレオカメラである場合には、複数あるカメラの一つをHMI表示用のカメラとして兼用することができる。
また、距離センサ駆動装置には、ロボット11の可動部や環境に固定された可動式雲台などを用いることができる。
また、ロボット11は、HSR(Human Support Robot)のような移動式マニピュレータである。
As the distance sensor 13, a stereo camera, a distance image sensor such as Kinect (registered trademark), a laser sensor such as TOF (Time Of Flight), or the like can be used. When the distance sensor 13 is a stereo camera, one of a plurality of cameras can be used as an HMI display camera.
The distance sensor driving device may be a movable part of the robot 11 or a movable head fixed to the environment.
The robot 11 is a mobile manipulator such as an HSR (Human Support Robot).
また、距離情報取得装置100が実現する各構成要素は、例えば、コンピュータである距離情報取得装置100が備える演算装置(図示せず)の制御によって、プログラムを実行させることによって実現できる。より具体的には、距離情報取得装置100は、記憶部(図示せず)に格納されたプログラムを主記憶装置(図示せず)にロードし、演算装置の制御によってプログラムを実行して実現する。また、各構成要素は、プログラムによるソフトウェアで実現することに限ることなく、ハードウェア、ファームウェア、及びソフトウェアのうちのいずれかの組み合わせ等により実現しても良い Moreover, each component which the distance information acquisition apparatus 100 implement | achieves is realizable by making a program run by control of the arithmetic unit (not shown) with which the distance information acquisition apparatus 100 which is a computer is provided, for example. More specifically, the distance information acquisition device 100 is realized by loading a program stored in a storage unit (not shown) into a main storage device (not shown) and executing the program under the control of the arithmetic unit. . In addition, each component is not limited to being realized by software by a program, and may be realized by any combination of hardware, firmware, and software.
上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。 The above-described program can be stored using various types of non-transitory computer readable media and supplied to a computer. Non-transitory computer readable media include various types of tangible storage media. Examples of non-transitory computer-readable media include magnetic recording media (for example, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (for example, magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs, CD-R / W and semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (random access memory)) are included.
また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されても良い。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。 Further, the program may be supplied to the computer by various types of temporary computer readable media. Examples of transitory computer readable media include electrical signals, optical signals, and electromagnetic waves. The temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.
次に、本実施の形態1に係る距離情報取得装置100の動作について説明する。
図4は、本実施の形態1に係る距離情報取得装置100が実行する距離情報取得方法の処理手順を示すフローチャートである。
まず、ユーザがロボットに対して、対象物を指示する(ステップS10)。具体的には、図1A、1Bに示したように、ロボット11に搭載されたHMI表示用カメラ12で対象物であるリモコン17を撮像し、当該対象物の画像を通信でHMI21へ入力して表示し、ユーザがHMI21の表示画像上をタップすることにより対象物を指示する。
Next, the operation of the distance information acquisition apparatus 100 according to the first embodiment will be described.
FIG. 4 is a flowchart showing a processing procedure of the distance information acquisition method executed by the distance information acquisition device 100 according to the first embodiment.
First, the user instructs a target object to the robot (step S10). Specifically, as shown in FIGS. 1A and 1B, the remote controller 17 as an object is imaged by the HMI display camera 12 mounted on the robot 11, and the image of the object is input to the HMI 21 by communication. The object is indicated by tapping on the display image of the HMI 21 by the user.
次に、ベクトル検出部101が、指示ベクトル34を検出する(ステップS20)。
図5は、本実施の形態1に係るベクトル検出部101が検出した指示ベクトル34を示す図である。
HMI表示用カメラ視点Oは、ロボット11の設計情報と、ロボット11の自己位置情報とにより3次元座標として求めることができる。また、透視投影モデルにおける仮想画像面上のユーザ指示点33の2次元座標p(x,y)と、対象物17の3次元座標P(X,Y,Z)との関係は式1、2に示す通りとなる。式中、fは焦点距離、Dはカメラ12から対象物17までの距離を示す。この場合、距離Dは未知であるが、式3から指示ベクトル34の傾きvを求めることができ、始点位置O、傾きvの3次元ベクトルを算出することができる。
Next, the vector detection unit 101 detects the instruction vector 34 (step S20).
FIG. 5 is a diagram showing the instruction vector 34 detected by the vector detection unit 101 according to the first embodiment.
The camera viewpoint O for HMI display can be obtained as a three-dimensional coordinate from the design information of the robot 11 and the self-position information of the robot 11. Further, the relationship between the two-dimensional coordinate p (x, y) of the user instruction point 33 on the virtual image plane in the perspective projection model and the three-dimensional coordinate P (X, Y, Z) of the object 17 is expressed by Equations 1 and 2. It becomes as shown in. In the formula, f indicates the focal length, and D indicates the distance from the camera 12 to the object 17. In this case, although the distance D is unknown, the inclination v of the instruction vector 34 can be obtained from Equation 3, and the three-dimensional vector of the starting point position O and the inclination v can be calculated.
次に、距離検出部102が、指示ベクトル34上に距離点31があるか否かを判定する(ステップS30)。
図6は、本実施の形態1に係る距離検出部102が距離情報を検出する方法を示した図である。距離検出部102は、3次元空間上に、カメラ視点Oを始点とするレイ(線分)を設定し、計測した距離点群を一定の大きさの球群として設定する。そして、レイキャストでレイに衝突する球があるかどうかを判定することで、指示ベクトル34上に距離点があるかどうかを判定することができる。
レイキャストについては、例えば、"レイによる距離測定",[online],[平成26年1月28日検索],インターネット<https://www10.atwiki.jp/bambooflow/pages/239.html>などに記載されている。
Next, the distance detection unit 102 determines whether or not the distance point 31 is on the instruction vector 34 (step S30).
FIG. 6 is a diagram illustrating a method in which the distance detection unit 102 according to the first embodiment detects distance information. The distance detection unit 102 sets a ray (line segment) starting from the camera viewpoint O in a three-dimensional space, and sets the measured distance point group as a sphere group of a certain size. Then, it can be determined whether there is a distance point on the instruction vector 34 by determining whether there is a sphere that collides with the ray by ray casting.
For Raycast, for example, “Measure distance by ray”, [online], [Search on January 28, 2014], Internet <https://www10.atwiki.jp/bambooflow/pages/239.html>, etc. It is described in.
距離検出部102が、指示ベクトル34上に距離点31がないと判定したとき(ステップS30のNo)は、センサ駆動部103が、距離センサ13の計測領域を変更するために距離センサ13の位置や方向などを決定する(ステップS40)。
図7は、本実施の形態1に係るセンサ駆動部103が決定する距離センサ13の位置及び方向を示す図である。センサ駆動部103は、指示ベクトル34上の3次元点をサンプリングして注視点35とし、距離センサ13の光軸が注視点35を向くようにロボット11の首角度を計画する。
When the distance detection unit 102 determines that there is no distance point 31 on the instruction vector 34 (No in step S30), the sensor driving unit 103 determines the position of the distance sensor 13 in order to change the measurement area of the distance sensor 13. And the direction are determined (step S40).
FIG. 7 is a diagram illustrating the position and direction of the distance sensor 13 determined by the sensor driving unit 103 according to the first embodiment. The sensor driving unit 103 samples a three-dimensional point on the instruction vector 34 to obtain a gaze point 35, and plans the neck angle of the robot 11 so that the optical axis of the distance sensor 13 faces the gaze point 35.
次に、距離センサ13が決定された位置及び方向において距離情報を計測する(ステップS50)。
次に、距離検出部102が、指示ベクトル34上に距離点31があるかを判定する(ステップS60)。このときの判定方法は、ステップS30で行ったレイキャストによる判定方法と同じであり、説明は省略する。
次に、距離検出部102は指示ベクトル34上に距離点31があったとき(ステップS60のYes)に、当該距離点31の距離情報と距離センサ13の位置情報とに基づいて対象物の3次元座標を取得し、ロボット11の3次元情報取得部110に通知する(ステップS70)。
Next, distance information is measured at the determined position and direction of the distance sensor 13 (step S50).
Next, the distance detection unit 102 determines whether or not the distance point 31 is on the instruction vector 34 (step S60). The determination method at this time is the same as the determination method by ray casting performed in step S30, and a description thereof will be omitted.
Next, when the distance point 31 is on the instruction vector 34 (Yes in step S60), the distance detection unit 102 determines the object 3 based on the distance information of the distance point 31 and the position information of the distance sensor 13. The dimensional coordinates are acquired and notified to the three-dimensional information acquisition unit 110 of the robot 11 (step S70).
そして、ロボット11は、3次元情報取得部110が出力する対象物の3次元情報などに基づいて動作制御部111がロボット11の動作を制御し、作用部16が対象物に対する操作を行い、物理的作用を与える。
なお、距離センサ13の計測領域を変更する前に、距離検出部102が指示ベクトル34上に距離点31があると判定したとき(ステップS30のYes)は、距離検出部102はその距離情報を基づく対象物の3次元座標をロボット11の3次元情報取得部110に通知する(ステップS70)。
Then, the robot 11 controls the operation of the robot 11 based on the three-dimensional information of the object output from the three-dimensional information acquisition unit 110, and the operation unit 16 performs an operation on the object. Give a positive effect.
When the distance detection unit 102 determines that the distance point 31 is on the instruction vector 34 before changing the measurement area of the distance sensor 13 (Yes in step S30), the distance detection unit 102 displays the distance information. The three-dimensional coordinates of the target object are notified to the three-dimensional information acquisition unit 110 of the robot 11 (step S70).
また、距離センサ13の計測領域を変更した後に、距離検出部102が指示ベクトル34上に距離点31がないと判定したとき(ステップS60のNo)は、センサ動作決定処理(ステップS40)または距離計測処理(ステップS50)に戻って、指示ベクトル34上の距離点31の検出を続行する。 When the distance detection unit 102 determines that there is no distance point 31 on the instruction vector 34 after changing the measurement region of the distance sensor 13 (No in step S60), the sensor operation determination process (step S40) or the distance Returning to the measurement process (step S50), the detection of the distance point 31 on the instruction vector 34 is continued.
上述したように、本実施の形態1に係る距離情報取得方法は、距離情報を取得する対象までの距離を距離センサにより計測する距離情報取得方法であって、対象を指し示すベクトルを検出するステップS20と、ベクトル上に距離センサによる距離情報がない場合に、距離センサが計測領域を変更して距離を計測するステップS50と、ベクトル上にある距離センサによる距離情報を検出するステップS60と、検出した距離情報に基づいて対象の距離情報を取得するステップS70とを有するものである。このような構成により、対象物の距離情報を確実に取得することができることができ、また、距離センサの未観測領域をユーザが指示した場合でも3次元情報を特定することができる。 As described above, the distance information acquisition method according to the first embodiment is a distance information acquisition method in which the distance to the target from which the distance information is acquired is measured by the distance sensor, and a vector indicating the target is detected in step S20. When there is no distance information from the distance sensor on the vector, the distance sensor changes the measurement area and measures the distance, and step S50 detects the distance information from the distance sensor on the vector. And step S70 for obtaining target distance information based on the distance information. With such a configuration, it is possible to reliably acquire the distance information of the target object, and it is possible to specify the three-dimensional information even when the user indicates an unobserved region of the distance sensor.
また、本実施の形態1に係る距離情報取得方法は、カメラが対象を撮像するステップS10と、カメラの仮想画像面上の対象を検出するステップS10とを更に有し、ベクトルを検出するステップS20は、カメラの視点と仮想画像面上の対象とを結ぶベクトルをベクトルとして検出することが好ましい。 In addition, the distance information acquisition method according to the first embodiment further includes step S10 in which the camera captures an object and step S10 in which the object on the virtual image plane of the camera is detected, and step S20 in which a vector is detected. Preferably, a vector connecting the camera viewpoint and the object on the virtual image plane is detected as a vector.
(その他の発明の実施の形態)
なお、本発明は上記実施の形態1に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
例えば、実施の形態1では、HMI21表示用のカメラ12はロボット11に搭載されていたが、このカメラをHMI21に搭載するようにしたり、環境中に配置したりしても良い。この場合においても、カメラの視点Oを室内GPSなどの手法により特定することにより、当該カメラから指示ベクトル34を検出するようにすることができる。
(Other Embodiments of the Invention)
The present invention is not limited to the first embodiment, and can be appropriately changed without departing from the spirit of the present invention.
For example, in the first embodiment, the camera 12 for displaying the HMI 21 is mounted on the robot 11, but this camera may be mounted on the HMI 21 or arranged in the environment. Even in this case, the instruction vector 34 can be detected from the camera by specifying the viewpoint O of the camera by a technique such as indoor GPS.
また、実施の形態1では、ベクトル検出部101がHMI21表示用のカメラ12の情報に基づいて指示ベクトル34を検出していたが、ベクトル検出部101はユーザの指差しなどのジェスチャを骨格トラッキングのような手法を用いて認識した結果に基づいて指示ベクトルを検出するようにしても良い。骨格トラッキングでは、肩位置・肘位置・ハンド位置といった情報が3次元座標として得られるので肩位置からハンド位置へのベクトルを指示ベクトルとして算出することができる。
骨格トラッキングについては、例えば、"Kinect for Windows(登録商標) SDK 入門4:骨格トラッキングと3D表示",[online],[平成26年1月28日検索],インターネット<https://d.hatena.ne.jp/astrobot/20110721/1311240780>などに記載されている。
In the first embodiment, the vector detection unit 101 detects the instruction vector 34 based on the information of the camera 12 for displaying the HMI 21. The instruction vector may be detected based on the result recognized using such a method. In skeletal tracking, information such as the shoulder position, elbow position, and hand position is obtained as three-dimensional coordinates, so a vector from the shoulder position to the hand position can be calculated as an instruction vector.
For skeletal tracking, for example, "Kinect for Windows (registered trademark) SDK Introduction 4: Skeletal tracking and 3D display", [online], [Search January 28, 2014], Internet <http: //d.hatena .ne.jp / astrobot / 20110721/1311240780> and the like.
また、実施の形態1では、距離センサ13の計測領域を変更するときに、センサ駆動部103が距離センサ13の光軸が注視点を向くようにロボットの首角度を計画したが、距離センサ13が注視点を画像中心でとらえられれば良く、例えば、距離センサ13の画像中心または測域中心が注視点を向くようにしても良い。すなわち、注視点が計測領域の略中心にくるようにすれば良い。 In the first embodiment, when the measurement area of the distance sensor 13 is changed, the sensor drive unit 103 plans the neck angle of the robot so that the optical axis of the distance sensor 13 faces the gazing point. However, it is sufficient that the gazing point is captured at the center of the image. For example, the image center or the measurement range center of the distance sensor 13 may face the gazing point. In other words, the gazing point may be approximately at the center of the measurement area.
上述したように、他の実施の形態に係る距離情報取得方法は、距離情報を計測するステップS50が、ベクトル上の点が計測領域の略中心にくるようにして計測領域を変更することが好ましい。このような構成により、対象物の距離情報をより確実に、容易に取得することができる。
また、他の実施の形態に係る距離情報取得方法は、ベクトルを検出するステップS20が、ユーザが対象を直接指し示すジェスチャから抽出したベクトルをベクトルとして検出することが好ましい。
As described above, in the distance information acquisition method according to another embodiment, it is preferable that step S50 for measuring distance information changes the measurement region so that the point on the vector is substantially at the center of the measurement region. . With such a configuration, the distance information of the object can be acquired more reliably and easily.
In the distance information acquisition method according to another embodiment, it is preferable that the step S20 of detecting a vector detects a vector extracted from a gesture in which the user directly points to the target as a vector.
11 ロボット
12 カメラ
13 距離センサ
15 計測領域
16 作用部
31 距離点
32 仮想画像面
33 ユーザ指示点
34 指示ベクトル
100 距離情報取得装置
101 ベクトル検出部
102 距離検出部
103 センサ駆動部
DESCRIPTION OF SYMBOLS 11 Robot 12 Camera 13 Distance sensor 15 Measurement area 16 Action part 31 Distance point 32 Virtual image surface 33 User indication point 34 Instruction vector 100 Distance information acquisition apparatus 101 Vector detection part 102 Distance detection part 103 Sensor drive part
Claims (7)
前記対象を指し示すベクトルを検出するステップと、
前記ベクトル上に前記距離センサによる距離情報がない場合に、前記距離センサが計測領域を変更して距離を計測するステップと、
前記ベクトル上にある前記距離センサによる距離情報を検出するステップと、
前記検出した距離情報に基づいて前記対象の距離情報を取得するステップと
を有する距離情報取得方法。 A distance information acquisition method for measuring a distance to a target for acquiring distance information with a distance sensor,
Detecting a vector pointing to the object;
When the distance information by the distance sensor is not on the vector, the distance sensor changes the measurement area and measures the distance;
Detecting distance information by the distance sensor on the vector;
A distance information acquisition method comprising: acquiring distance information of the target based on the detected distance information.
請求項1記載の距離情報取得方法。 The distance information acquisition method according to claim 1, wherein in the measuring step, the measurement area is changed so that a point on the vector is substantially at the center of the measurement area.
前記カメラの仮想画像面上の前記対象を検出するステップとを更に有し、
前記ベクトルを検出するステップは、
前記カメラの視点と前記仮想画像面上の前記対象とを結ぶベクトルを前記ベクトルとして検出する請求項1または請求項2記載の距離情報取得方法。 A camera imaging the object;
Detecting the object on a virtual image plane of the camera,
Detecting the vector comprises:
The distance information acquisition method according to claim 1, wherein a vector connecting the viewpoint of the camera and the object on the virtual image plane is detected as the vector.
ユーザが前記対象を直接指し示すジェスチャから抽出したベクトルを前記ベクトルとして検出する請求項1または請求項2記載の距離情報取得方法。 Detecting the vector comprises:
The distance information acquisition method according to claim 1, wherein a vector extracted from a gesture directly pointing to the object by the user is detected as the vector.
前記ベクトル上にある距離センサによる距離情報を検出し、前記距離情報に基づいて前記対象の距離情報を取得する距離検出部と
を備えた距離情報取得装置であって、
前記ベクトル上に前記距離センサによる距離情報がない場合に、前記距離センサが計測領域を変更して距離を計測するように前記距離センサを駆動するセンサ駆動部
を更に備えた距離情報取得装置。 A vector detection unit for detecting a vector indicating a target for which distance information is acquired;
A distance information acquisition device comprising: a distance detection unit that detects distance information by a distance sensor on the vector and acquires distance information of the object based on the distance information;
A distance information acquisition apparatus further comprising: a sensor driving unit that drives the distance sensor so that the distance sensor changes a measurement region and measures the distance when there is no distance information on the vector on the vector.
前記対象の距離情報に基づいて、前記対象の3次元情報を取得する3次元情報取得部と、
前記3次元情報に基づいて前記対象に物理的作用を与える作用部と
を備えたロボット。 The distance information acquisition device according to claim 5;
A three-dimensional information acquisition unit that acquires the three-dimensional information of the target based on the distance information of the target;
A robot comprising: an action unit that applies a physical action to the object based on the three-dimensional information.
距離情報を取得する対象を指し示すベクトルを検出する手順と、
前記ベクトル上に距離センサによる距離情報がない場合に、前記距離センサが計測領域を変更して距離を計測するように前記距離センサを駆動する手順と、
前記ベクトル上にある前記距離センサによる距離情報を検出する手順と、
前記距離情報に基づいて前記対象の距離情報を取得する手順と
を実行させるための距離情報取得プログラム。 On the computer,
A procedure for detecting a vector indicating an object for which distance information is to be obtained;
A procedure for driving the distance sensor so that the distance sensor changes the measurement area and measures the distance when there is no distance information by the distance sensor on the vector;
Detecting distance information by the distance sensor on the vector;
A distance information acquisition program for executing a procedure for acquiring the target distance information based on the distance information.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014024089A JP2015152338A (en) | 2014-02-12 | 2014-02-12 | Distance information acquisition method, distance information acquisition apparatus, and robot |
PCT/IB2015/000123 WO2015121729A1 (en) | 2014-02-12 | 2015-02-09 | Distance information acquisition method, distance information acquisition device, distance information acquisition program and robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014024089A JP2015152338A (en) | 2014-02-12 | 2014-02-12 | Distance information acquisition method, distance information acquisition apparatus, and robot |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015152338A true JP2015152338A (en) | 2015-08-24 |
Family
ID=52774285
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014024089A Pending JP2015152338A (en) | 2014-02-12 | 2014-02-12 | Distance information acquisition method, distance information acquisition apparatus, and robot |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2015152338A (en) |
WO (1) | WO2015121729A1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005321966A (en) * | 2004-05-07 | 2005-11-17 | Nippon Telegr & Teleph Corp <Ntt> | Interface method, device and program |
JP2009175012A (en) * | 2008-01-24 | 2009-08-06 | Hitachi Ltd | Measurement device and measurement method |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
NO301999B1 (en) * | 1995-10-12 | 1998-01-05 | Metronor As | Combination of laser tracker and camera based coordinate measurement |
JP2002342787A (en) | 2001-05-22 | 2002-11-29 | Minolta Co Ltd | Method and device for generating three-dimensional model and computer program |
US20090196491A1 (en) * | 2004-08-30 | 2009-08-06 | Maxwell Leslie Stainlay | Method for automated 3d imaging |
ATE522831T1 (en) * | 2007-03-08 | 2011-09-15 | Trimble Ab | METHOD AND INSTRUMENTS FOR ESTIMATING TARGET MOTION |
-
2014
- 2014-02-12 JP JP2014024089A patent/JP2015152338A/en active Pending
-
2015
- 2015-02-09 WO PCT/IB2015/000123 patent/WO2015121729A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005321966A (en) * | 2004-05-07 | 2005-11-17 | Nippon Telegr & Teleph Corp <Ntt> | Interface method, device and program |
JP2009175012A (en) * | 2008-01-24 | 2009-08-06 | Hitachi Ltd | Measurement device and measurement method |
Also Published As
Publication number | Publication date |
---|---|
WO2015121729A1 (en) | 2015-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4850984B2 (en) | Action space presentation device, action space presentation method, and program | |
JP5624394B2 (en) | Position / orientation measurement apparatus, measurement processing method thereof, and program | |
US9342925B2 (en) | Information processing apparatus, information processing method, and program | |
JP5257335B2 (en) | Method for displaying measurement effective area in three-dimensional visual sensor and three-dimensional visual sensor | |
US20210112181A1 (en) | Image processing device, image processing method, and recording medium | |
KR101973917B1 (en) | Three-dimensional measuring device and its supporting method of measurement | |
US10571254B2 (en) | Three-dimensional shape data and texture information generating system, imaging control program, and three-dimensional shape data and texture information generating method | |
JP2018126857A5 (en) | Control methods, robot systems, article manufacturing methods, programs and recording media | |
JP2014028415A (en) | Device for unloading bulk loaded commodities with robot | |
JP2017118396A (en) | Program, device and method for calculating internal parameter of depth camera | |
JP2015194478A (en) | Information processing device, information processing method, and program | |
JP2016061687A (en) | Contour line measurement device and robot system | |
US9154769B2 (en) | Parallel online-offline reconstruction for three-dimensional space measurement | |
TWI493153B (en) | Non-contact measurement device and method for object space information and the method thereof for computing the path from capturing the image | |
JP2017033429A (en) | Three-dimensional object inspection device | |
JPWO2018038152A1 (en) | Gas measurement system and gas measurement program | |
JPWO2019012803A1 (en) | Designated device and designated program | |
US11717243B2 (en) | Medical information processing apparatus, medical diagnostic apparatus, medical information processing system, medical information processing method, medical imaging apparatus, and medical treatment apparatus | |
JP2014053018A (en) | Information processing device, control method for information processing device, and program | |
JP2012145381A (en) | Three-dimensional coordinate measurement device | |
KR101920682B1 (en) | Image pickup apparatus for measuring the length of crack | |
JP2015152338A (en) | Distance information acquisition method, distance information acquisition apparatus, and robot | |
JP2016078142A (en) | Method for control of robot device, and robot device | |
CN111522299B (en) | mechanical control device | |
JP2015019270A (en) | Camera system and control method and control program of the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160119 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161122 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170711 |