JP2017196678A - Robot motion control device - Google Patents
Robot motion control device Download PDFInfo
- Publication number
- JP2017196678A JP2017196678A JP2016087583A JP2016087583A JP2017196678A JP 2017196678 A JP2017196678 A JP 2017196678A JP 2016087583 A JP2016087583 A JP 2016087583A JP 2016087583 A JP2016087583 A JP 2016087583A JP 2017196678 A JP2017196678 A JP 2017196678A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- motion
- user
- trajectory
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、ロボットの動作を制御するロボット動作制御装置に関し、特に、使用者の動作をロボットの動作として実行させるものに関する。 The present invention relates to a robot operation control apparatus that controls the operation of a robot, and more particularly to an apparatus that causes a user's operation to be executed as a robot operation.
従来の2次元CCD撮像装置の動作について、図13に示すインタラクション操作システムを用いて説明する。インタラクション操作システムでは、操作者の動作とロボット100の検知する感覚情報が互いに影響しあう非拘束、かつ、直観的連動的なロボット操作システムの提供を目的として、ロボット100側には感覚情報を検出する感覚情報検出部121と、感覚情報を伝送する感覚情報出力部130と、ロボットを駆動させるロボット駆動装置140を備え、操作者は、ロボット100から伝送された前記感覚情報を操作者に付与する感覚情報付与部300と、多関節構造体410、制御部420及び教示情報出力部430より成るロボット教示装置400と、を装着し、多関節構造体410は、可動部412にポテンショメータ413を有する関節を含む複数の関節体411と、ポテンショメータ413のセンサ信号を処理するCPU414と、処理されたセンサ信号を伝送する教示装置出力部430と、により構成されることにより、操作者の動作を拘束せず、かつ、操作者の身体的条件を問わずにロボットの操作を行うことができるシステムが実現している(以上、特許文献1参照)。
The operation of the conventional two-dimensional CCD image pickup apparatus will be described using the interaction operation system shown in FIG. In the interaction operation system, sensor information is detected on the
前述のインタラクション操作システムには、以下に示すような改善すべき点がある。インタラクション装置では、ロボット100とロボット教示装置400との間での通信に要する時間による制御遅れが生じ、操作者が操作時に違和感を感じるとともに、操作者の操作速度が遅くなる、という改善すべき点がある。また、ロボット100とロボット教示装置400との間に機構学的構造な違いが存在するため、動作位置や動作姿勢に誤差が生じてしまい、ロボット100に使用者が意図する動作を実行させることができない、という改善すべき点がある。さらに、ロボット100から使用者に提供する感覚提示が不十分出るため、操作者がロボット100の動作環境、例えば動作対象とロボット100との間の距離や位置を正確に把握できず、ロボット100に使用者が意図する動作を実行させることができない、という改善すべき点がある。つまり、これらの問題は、操作者がロボット100に直感的に操作することを妨げ、結果として、作業効率を低下させる、という改善すべき点がある。
The above interaction operation system has the following points to be improved. In the interaction device, a control delay due to the time required for communication between the
そこで、本発明は、動作を実行する使用者に違和感なく、使用者の動作を確実にロボットに実行させるロボット動作制御装置を提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide a robot operation control device that allows a user who performs an operation to perform the operation of the user without causing any uncomfortable feeling.
本発明における課題を解決するための手段及び発明の効果を以下に示す。 Means for solving the problems in the present invention and the effects of the invention will be described below.
本発明に係るロボット動作制御装置は、使用者の動作である使用者動作を示す使用者動作情報に対応する動作であるロボット動作をロボットに実行させるロボット動作制御装置であって、前記ロボットにおける前記ロボット動作の方向の画像を示すロボット画像情報から、前記ロボット動作の対象となり得る動作対象候補物体を判断する動作対象候補物体判断手段、前記動作対象候補物体から、前記ロボットの動作の対象物体となる動作対象物体を決定するロボット動作対象物体決定手段、前記使用者動作情報を用いて、前記使用者動作情報に対応する前記動作の軌道である使用者動作軌道を算出する使用者動作軌道算出手段、前記使用者動作軌道を用いて、前記ロボット動作の軌道であるロボット動作軌道を算出するロボット動作軌道算出手段、前記ロボット動作軌道を用いて、前記ロボットの動作を制御するロボット動作制御情報を生成するロボット動作制御情報生成手段、を有する。 A robot motion control device according to the present invention is a robot motion control device that causes a robot to perform a robot motion that is a motion corresponding to user motion information indicating a user motion that is a user motion, the robot in the robot An operation target candidate object determining unit that determines an operation target candidate object that can be a target of the robot operation from robot image information indicating an image of the direction of the robot operation, and a target object of the robot operation from the operation target candidate object A robot motion target object determining means for determining a motion target object, a user motion trajectory calculating means for calculating a user motion trajectory corresponding to the user motion information using the user motion information, Robot motion trajectory calculation that calculates a robot motion trajectory that is the trajectory of the robot motion using the user motion trajectory Stage, using the robot operation track, having a robot operation control information generating means for generating a robot motion control information for controlling the operation of the robot.
これにより、動作を実行する使用者に違和感なく、使用者の動作を確実にロボットに実行させることができる。 Thereby, the user's operation can be surely executed by the robot without a sense of incongruity to the user who executes the operation.
本発明に係るロボット動作制御装置では、前記ロボット動作対象物体決定手段は、前記ロボット画像情報の前記画像に対する使用者の視線を示す視線情報をもちいて、前記画像から前記動作対象物体を決定すること、を特徴とする。 In the robot motion control device according to the present invention, the robot motion target object determining means determines the motion target object from the image using line-of-sight information indicating a user's line of sight with respect to the image of the robot image information. It is characterized by.
これにより、使用者は視線を動作対象物体に向けるだけで、容易に動作対象物体を決定できる。よって、使用者の作業効率が高くなる。 Thus, the user can easily determine the motion target object simply by directing his / her line of sight toward the motion target object. Therefore, the user's work efficiency is increased.
本発明に係るロボット動作制御装置では、前記ロボット動作対象物体決定手段は、前記動作対象候補物体に対する前記使用者の動作の方向を、確率フィルタを用いて確率分布として算出することによって、前記画像から前記動作対象物体を決定すること、を特徴とする。 In the robot motion control device according to the present invention, the robot motion target object determining means calculates the direction of the user's motion with respect to the motion target candidate object as a probability distribution using a probability filter. The operation target object is determined.
これにより、使用者の動作方向を見ながら、動作対象物体を決定することができる。つまり、間違って動作対象物体を決定したとしても、短時間で、正しい動作対象物体を判断できる。 As a result, it is possible to determine the movement target object while looking at the movement direction of the user. That is, even if the motion target object is determined by mistake, the correct motion target object can be determined in a short time.
本発明に係るロボット動作制御装置では、前記ロボット動作軌道算出手段は、前記使用者動作軌道における使用者の動作ベクトルである使用者動作ベクトルを変化させて、ロボットの動作ベクトルであるロボット動作ベクトルを算出すること、を特徴とする。 In the robot motion control apparatus according to the present invention, the robot motion trajectory calculating means changes a user motion vector that is a user motion vector in the user motion trajectory to obtain a robot motion vector that is a robot motion vector. It is characterized by calculating.
これにより、動作を実行する使用者に違和感なく、使用者の動作を確実にロボットに実行させることができる。 Thereby, the user's operation can be surely executed by the robot without a sense of incongruity to the user who executes the operation.
本発明に係るロボット動作制御プログラムは、コンピュータを、使用者の動作である使用者動作を示す使用者動作情報に対応する動作であるロボット動作をロボットに実行させるロボット動作制御装置として機能させるロボット動作制御プログラムであって、前記ロボット動作制御プログラムは、前記コンピュータを、前記ロボットにおける前記ロボット動作の方向の画像を示すロボット画像情報から、前記ロボット動作の対象となり得る動作対象候補物体を判断する動作対象候補物体判断手段、前記動作対象候補物体から、前記ロボットの動作の対象物体となる動作対象物体を決定するロボット動作対象物体決定手段、前記使用者動作情報を用いて、前記使用者動作情報に対応する前記動作の軌道である使用者動作軌道を算出する使用者動作軌道算出手段、前記使用者動作軌道を用いて、前記ロボット動作の軌道であるロボット動作軌道を算出するロボット動作軌道算出手段、前記ロボット動作軌道を用いて、前記ロボットの動作を制御するロボット動作制御情報を生成するロボット動作制御情報生成手段、として機能させること、を特徴とする。 The robot operation control program according to the present invention is a robot operation that causes a computer to function as a robot operation control device that causes a robot to execute a robot operation that is an operation corresponding to user operation information indicating a user operation that is a user operation. An operation target for determining an operation target candidate object that can be a target of the robot operation from robot image information indicating an image of a direction of the robot operation in the robot. Candidate object determining means, robot action target object determining means for determining an action target object to be the action object of the robot from the action target candidate object, and corresponding to the user action information using the user action information User motion to calculate a user motion trajectory that is the trajectory of the motion Trajectory calculating means, robot motion trajectory calculating means for calculating a robot motion trajectory that is the trajectory of the robot motion using the user motion trajectory, and robot motion control for controlling the motion of the robot using the robot motion trajectory It functions as a robot motion control information generating means for generating information.
これにより、動作を実行する使用者に違和感なく、使用者の動作を確実にロボットに実行させることができる。
Thereby, the user's operation can be surely executed by the robot without a sense of incongruity to the user who executes the operation.
以下、本発明の実施例について、図面を参照しながら詳細に説明していく。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
本発明に係るロボット動作制御装置について、図1に示すロボット動作制御装置100を例に説明する。
A robot motion control apparatus according to the present invention will be described using the robot
第1 ハードウェア構成
ロボット動作制御装置100は、ロボット動作制御システムRSの一部として機能する。ロボット動作制御システムRSは、ロボットRT、ロボット動作入力装置TM、および、ロボット動作制御装置100を有している。ロボット動作制御システムRSは、使用者がロボット動作入力装置TMを介して、ロボットRTに動作させようとする動作を入力すると、ロボット動作制御装置100は、ロボット動作入力装置TMを介して入力された動作を、ロボットRTが動作できるように調整し、ロボットRTに出力し、ロボットRTは、調整された動作を実行するものである。これにより、ロボット動作入力装置TMを用いて動作を実行する使用者に違和感なく、使用者の動作を確実にロボットRTに実行させることができる。
First Hardware Configuration The robot
1. ロボットRTのハードウェア構成
ロボットRTのハードウェア構成について、図2を用いて説明する。ロボットRTは、ロボット本体RT10、及び、ロボット視認画像取得装置RT30を有している。ロボット本体RT10は、胴部RT11、頭部RT12、首部RT13、肩部RT14、腕部RT15、肘部RT16、手首部RT17、手指部RT18、ベース部RT19を有している。なお、ロボット本体RT10は、頭部RT12を上下方向に回転させる駆動部、首部RT13を左右方向に回転させる駆動部等、各部を所定方向に動作させる駆動部を有している。ロボット本体RT10は、ベース部RT19をかいして、所定位置に固定される。なお、ロボット本体RT10には、多関節構造体TM10の動作基準点PT1(後述)に対応した動作基準点PT0が設定されている。ロボット本体RT10は、ロボット動作制御情報(後述)を取得すると、胴部RT11〜手指部RT18を動作させて、ロボット動作制御情報に対応する動作を実行する。
1. Hardware Configuration of Robot RT A hardware configuration of the robot RT will be described with reference to FIG. The robot RT includes a robot body RT10 and a robot visual image acquisition device RT30. The robot main body RT10 has a trunk portion RT11, a head portion RT12, a neck portion RT13, a shoulder portion RT14, an arm portion RT15, an elbow portion RT16, a wrist portion RT17, a finger portion RT18, and a base portion RT19. The robot body RT10 has a drive unit that moves each part in a predetermined direction, such as a drive unit that rotates the head RT12 in the vertical direction and a drive unit that rotates the neck part RT13 in the left-right direction. The robot body RT10 is fixed at a predetermined position through the base portion RT19. In the robot body RT10, an operation reference point PT0 corresponding to an operation reference point PT1 (described later) of the multi-joint structure TM10 is set. When the robot main body RT10 acquires the robot operation control information (described later), the robot main body RT10 operates the torso RT11 to the finger RT18 to execute an operation corresponding to the robot operation control information.
ロボット視認画像取得装置RT30は、ステレオカメラを有しており、人間の目に対する視認画像を取得する。なお、ロボット視認画像取得装置RT30は、ロボット本体RT10の頭部RT12において、人間の目に対応する位置に配置される。ロボット視認画像取得装置RT30は、ロボット本体RT10の動作の方向の画像を取得する。ロボット視認画像取得装置RT30は、取得した視認画像をロボット視認画像情報として送信する。 The robot visual image acquisition device RT30 has a stereo camera and acquires a visual image with respect to human eyes. The robot visual image acquisition device RT30 is disposed at a position corresponding to the human eye in the head RT12 of the robot main body RT10. The robot visual image acquisition device RT30 acquires an image in the direction of operation of the robot body RT10. The robot visual image acquisition device RT30 transmits the acquired visual image as robot visual image information.
2. ロボット動作入力装置TMのハードウェア構成
ロボット動作入力装置TMのハードウェア構成について、図3を用いて説明する。ロボット動作入力装置TMは、多関節構造体TM10、及び、ロボット視線情報取得装置TM30を有している。多関節構造体TM10は操作者の背中、後頭部、腕、手指に密着して装着されていて、操作者の動作に連動して形状を変化させることによって、ロボット本体RT10に動作を入力するための装置である。
2. Hardware Configuration of Robot Motion Input Device TM The hardware configuration of the robot motion input device TM will be described with reference to FIG. The robot motion input device TM includes a multi-joint structure TM10 and a robot line-of-sight information acquisition device TM30. The multi-joint structure TM10 is mounted in close contact with the back, back of the head, arms, and fingers of the operator, and is used to input an operation to the robot body RT10 by changing the shape in conjunction with the operation of the operator. Device.
多関節構造体TM10について、図4を用いて説明する。多関節構造体TM10は、多数の関節体TM11により構成される。関節体TM11は、円筒状の筐体を有している。関節体TM11は、筐体内部に、可動部TM12、及び、ポテンショメータTM13を有している。可動部TM12は、関節体TM11の両端部、つまり、隣接する関節体TM11との接続部分に配置される。可動部TM12は、X軸方向、Y軸方向、又は、Z軸方向のいずれかを中心軸として回転する。ポテンショメータTM13は、可動部TM12に対応して配置される。ポテンショメータTM13は、可動部TM12の角度の変化量(回転量)を計測する。また、多関節構造体TM10を構成する関節体TM11の一部は、CAN通信機能付きCPUTM14を有している。多関節構造体TM10には、関節体TM11の位置の基準となる動作基準点PT1が設定されている。 The multi-joint structure TM10 will be described with reference to FIG. The multi-joint structure TM10 includes a large number of joint bodies TM11. The joint body TM11 has a cylindrical casing. The joint body TM11 has a movable part TM12 and a potentiometer TM13 inside the housing. Movable part TM12 is arrange | positioned at the both ends of joint body TM11, ie, a connection part with adjacent joint body TM11. The movable part TM12 rotates about any one of the X-axis direction, the Y-axis direction, and the Z-axis direction as a central axis. The potentiometer TM13 is arranged corresponding to the movable part TM12. The potentiometer TM13 measures the amount of change (rotation amount) of the angle of the movable part TM12. Further, a part of the joint body TM11 constituting the multi-joint structure TM10 has a CPUTM 14 with a CAN communication function. In the multi-joint structure TM10, an operation reference point PT1 that is a reference for the position of the joint body TM11 is set.
多関節構造体TM10は、操作者の動作に連動して多関節構造体TM10の形状が変化し、可動部TM12の角度が変化する。関節体TM11毎に、動作基準点PT1に対する初期位置と形状変化後の位置とをポテンショメータTM13の角度変化値として検出する。各関節体TM11において検出されたポテンショメータTM13の角度変化値は、近接するCPUTM14に送信・集積される。CPUTM14は、送信されてきたポテンショメータTM13の角度変化値を、使用者動作情報としての多関節構造体状態情報としてロボット動作制御装置100へ送信する。
In the multi-joint structure TM10, the shape of the multi-joint structure TM10 changes in conjunction with the operation of the operator, and the angle of the movable part TM12 changes. For each joint body TM11, the initial position with respect to the motion reference point PT1 and the position after the shape change are detected as an angle change value of the potentiometer TM13. The angle change value of the potentiometer TM13 detected in each joint body TM11 is transmitted and accumulated in the adjacent CPU TM14. The CPU TM 14 transmits the transmitted angle change value of the potentiometer TM 13 to the robot
視線情報取得装置TM30について、図5を用いて説明する。図5において、Aは、視線情報取得装置TM30を側面から見た状態を、Bは視線情報取得装置TM30を側面から見た状態を、それぞれ示している。図5Aに示すように、視線情報取得装置TM30は、いわゆるヘッドマウント・ディスプレイとして、使用者の頭部に装着される。図5Bに示すように、視線情報取得装置TM30は、ディスプレイTM31、及び、視線検知部TM33を有している。ディスプレイTM31は、所定の画像を表示する。視線検知部TM33は、ディスプレイTM31に表示された画像に対する使用者の視線を検知し、視線情報として取得する。なお、視線情報取得装置TM30は、ロボットRTのロボット視認画像取得装置RT30から、ロボット動作制御装置100を介してロボット視認画像情報を取得すると、取得したロボット視認画像情報に対応する画像をディスプレイに表示する。
The line-of-sight information acquisition device TM30 will be described with reference to FIG. In FIG. 5, A shows a state when the line-of-sight information acquisition device TM30 is viewed from the side surface, and B shows a state when the line-of-sight information acquisition device TM30 is viewed from the side surface. As shown in FIG. 5A, the line-of-sight information acquisition device TM30 is mounted on the user's head as a so-called head-mounted display. As illustrated in FIG. 5B, the line-of-sight information acquisition device TM30 includes a display TM31 and a line-of-sight detection unit TM33. The display TM31 displays a predetermined image. The line-of-sight detection unit TM33 detects the line of sight of the user with respect to the image displayed on the display TM31 and acquires the line-of-sight information. The line-of-sight information acquisition device TM30, when acquiring the robot visual recognition image information from the robot visual recognition image acquisition device RT30 of the robot RT via the robot
3.ロボット動作制御装置100のハードウェア構成
ロボット動作制御装置100のハードウェア構成について図6を用いて説明する。ロボット動作制御装置100は、CPU100a、メモリ100b、ハードディスクドライブ100c(以下、HDD100cとする)、キーボード100d、マウス100e、ディスプレイ100f、光学式ドライブ100g、及び、通信回路100hを有している。
3. Hardware Configuration of Robot Motion Control Device 100 A hardware configuration of the robot
CPU100aは、HDD100cに記録されているオペレーティング・システム(OS)、ロボット動作制御プログラム等その他のアプリケーションに基づいた処理を行う。メモリ100bは、CPU100aに対して作業領域を提供する。HDD100cは、オペレーティング・システム(OS)、ロボット動作制御プログラム等その他のアプリケーションのプログラム、及び、各種データを記録保持する。
The
キーボード100d、マウス100eは、外部からの命令を受け付ける。ディスプレイ100fは、ユーザーインターフェイス等の画像を表示する。光学式ドライブ100gは、ロボット動作制御プログラムが記録されている光学式メディア100pからロボット動作制御プログラムを読み取り、また、他の光学式メディアからその他のアプリケーションのプログラムを読み取る等、光学式メディアからのデータの読み取りを行う。通信回路100hは、ロボットRT、ロボット動作入力装置TM等の外部の通信機器との情報の送受信を行う。
The
第2 ロボット動作制御装置100の動作
ロボット動作制御装置100の動作について、図7に示すフローチャートを用いて説明する。ロボット動作制御装置100のCPU100aは、ロボット動作対象候補物体判断処理(S701)、ロボット動作対象物体決定処理(S703)、使用者動作軌道算出処理(S705)、ロボット動作軌道算出処理(S707)、及び、ロボット動作制御情報生成処理(S709)を実行する。以下において、各処理について説明する。
Operation of Second Robot
1.ロボット動作対象候補物体判断処理
ロボット動作対象候補物体判断処理について、図8に示すフローチャートを用いて説明する。ロボット動作対象候補物体判断処理とは、ロボット視認画像取得装置RT30から取得するロボット視認画像情報から、ロボット本体RT10の動作の対象となり得る動作対象候補物体(後述)を判断する処理をいう。
1. Robot Motion Target Candidate Object Determination Process The robot motion target candidate object determination process will be described with reference to the flowchart shown in FIG. The robot operation target candidate object determination process refers to a process of determining an operation target candidate object (described later) that can be an operation target of the robot body RT10 from the robot visual image information acquired from the robot visual image acquisition device RT30.
まず、ロボットRTのロボット視認画像取得装置RT30は、取得したロボット視認画像情報をロボット動作制御装置100に送信する。
First, the robot visual image acquisition device RT30 of the robot RT transmits the acquired robot visual image information to the robot
ロボット動作制御装置100のCPU100aは、通信回路100hを介してロボット視認画像情報を取得すると(S801)、ロボット視認画像に表示されている物体の位置、及び、形状を、画像処理技術を用いて判断する(S803)。CPU100aは、位置、及び、形状を判断した物体を動作対象候補物体とした動作対象候補物体情報を生成し、メモリ100bに記憶保持する(S805)。CPU100aは、取得したロボット視認画像情報を、使用者が装着している視線情報取得装置TM30に、通信回路100hを介して送信する(S807)。
When the
2.ロボット動作対象物体決定処理
動作対象物体決定処理について、図9を用いて説明する。動作対象物体決定処理とは、動作対象候補物体から動作対象物体を決定する処理をいう。
2. Robot Motion Target Object Determination Process The motion target object determination process will be described with reference to FIG. The motion target object determination process is a process of determining a motion target object from motion target candidate objects.
視線情報取得装置TM30は、ロボット視認画像情報を取得すると、ロボット視認画像を生成し、ディスプレイに表示する。使用者は、ディスプレイに表示されているロボット視認画像から、動作対象とする物体(以下、動作対象物体)を決定し、動作対象物体に視線を移動させる。使用者の視線の移動にともない、使用者の頭部が移動すると、連動して多関節構造体TM10の形状が変化する。多関節構造体TM10は、各関節体TM11における可動部TM12の位置変化を示すポテンショメータTM13の角度変化値を多関節構造体状態情報としてCPUTM14を介して、ロボット動作制御装置100に送信する。同時に、視線情報取得装置TM30は、取得した使用者の視線情報をロボット動作制御装置100に送信する。
When the line-of-sight information acquisition device TM30 acquires the robot visual recognition image information, the visual line information acquisition device TM30 generates a robot visual recognition image and displays it on the display. The user determines an object to be operated (hereinafter referred to as an operation target object) from the robot visual image displayed on the display, and moves the line of sight to the operation target object. When the user's head moves as the user's line of sight moves, the shape of the multi-joint structure TM10 changes in conjunction. The multi-joint structure TM10 transmits the angle change value of the potentiometer TM13 indicating the change in position of the movable portion TM12 in each joint body TM11 to the robot
ロボット動作制御装置100のCPU100aは、多関節構造体状態情報及び視線情報を、通信回路100hを介して取得すると(S901)、使用者が動作し始めたか否か、例えば使用者の手が動作し始めたか否かを判断する(S903)。なお、使用者が動作し始めたか否かの判断は、これまでに取得した多関節構造体状態情報から多関節構造体TM10の状態が変化したか否かにより判断する。CPU100aは、使用者が動作し始めたと判断すると、等加速度運動に加速度補正項を付加した動きとして近似して、使用者の動作を算出する(S905)。具体的には、次の式を用いて、使用者の手の動きを算出する。
次に、CPU100aは、算出した使用者の動作を用いて、今後の使用者の動作方向を予測し、動作方向予測の確率分布を算出する(S907)。動作方向予測の確率分布を算出する際には、一般的に使用される確率フィルタである粒子フィルタを用いる。
Next, the
CPU100aは、視線情報が示す操作者の視線方向を考慮して、動作対象候補物体毎の動作対象可能性指標を算出する(S909)。ここで、動作対象可能性指標とは、動作対象候補物体情報に含まれる動作対象候補物体について、使用者が動作対象とする可能性を示す指標である。CPU100aは、具体的には、次の式を用いて、動作対象候補物体毎の動作対象可能性指標を算出する。
動作対象候補物体毎の動作対象可能性指標を算出するにあたり、CPU100aは、メモリ100bに記憶している視線情報、動作対象候補物体情報、多関節構造体状態情報等を使用する。
In calculating the motion target possibility index for each motion target candidate object, the
CPU100aは、最も大きい動作対象可能性指標に対応する動作対象候補物体を、動作対象物体と判断する(S911)。なお、CPU100aは、ステップS903において、使用者が動作していないと判断すると、ステップS1203へ進み、現在取得している多関節構造体状態情報に基づき、ロボット動作制御情報を生成する(図12参照)。
The
3.使用者動作軌道算出処理
使用者動作軌道算出処理について、図10を用いて説明する。使用者動作軌道算出処理とは、多関節構造体状態情報を用いて、多関節構造体状態情報に対応する動作の軌道である使用者動作軌道を算出する処理をいう。
3. User Motion Trajectory Calculation Process The user motion trajectory calculation process will be described with reference to FIG. The user motion trajectory calculation processing refers to processing for calculating a user motion trajectory that is a motion trajectory corresponding to the multi-joint structure state information using the multi-joint structure state information.
CPU100aは、メモリ100bから多関節構造体状態情報を取得する(S1001)。CPU100aは、取得した多関節構造体状態情報を用いて、ステップS911で判断した動作対象物体に対する使用者の動作軌道を算出する(S1003)。使用者の動作軌道を算出する際には、人の動作モデルと知られる躍度最小モデル(次式参照)を用いて、計測された実際の使用者の動作軌道を、躍度最小モデルに基づいて、フィッティングし、使用者の未来の動作軌道を予測する。
具体的には、次の式を用いて、評価値Eを最小化するx0、t0、xf、tfを算出する。
4.ロボット動作軌道算出処理
ロボット動作軌道算出処理について、図11を用いて説明する。ロボット動作軌道算出処理とは、使用者動作軌道で表される使用者の動作を、ロボット本体RT10における動作を表すロボット動作軌道に変換する処理をいう。
4). Robot Motion Trajectory Calculation Processing Robot motion trajectory calculation processing will be described with reference to FIG. The robot motion trajectory calculation processing refers to processing for converting a user motion represented by the user motion trajectory into a robot motion trajectory representing motion in the robot body RT10.
CPU100aは、使用者動作軌道における使用者の動作ベクトル(操作速度と動作方向)である使用者動作ベクトルを微小に変化させたロボットの動作ベクトルであるロボット動作ベクトルを算出する(S1101)。具体的には、次の式を用いて、ロボット動作ベクトルを算出する
さらに、CPU100aは、使用者動作ベクトルとロボット動作ベクトルとの差を最小とするように次式の評価値Jを実時間で最適化する(S1103)。なお、CPU100aは、モデル予測制御の計算手法を用いて最適化し、最適化の結果として得られたu(t)を、毎制御サイクルで用いる。
これにより、使用者動作ベクトルとロボット動作ベクトルとの差による生ずる使用者の動作とロボット本体RT10の動作との間の違和感を最小にする。 This minimizes the uncomfortable feeling between the user motion and the motion of the robot body RT10 caused by the difference between the user motion vector and the robot motion vector.
5.ロボット動作制御情報生成処理
ロボット動作制御情報生成処理について、図12を用いて説明する。ロボット動作制御情報生成処理とは、ロボット動作軌道で表される動作を、ロボット本体RT10で実行させるための情報を生成する処理をいう。
5. Robot Operation Control Information Generation Processing Robot operation control information generation processing will be described with reference to FIG. The robot operation control information generation process is a process for generating information for causing the robot body RT10 to execute an operation represented by a robot operation trajectory.
CPU100aは、ステップS1101で算出したロボット動作ベクトルを用いて、ロボット本体RT10を実際に動作させるためのロボット動作制御情報を生成する(S1201)。CPU100aは、生成したロボット制御情報を、通信回路100hを介してロボット本体RT10に送信する(S1203)。
The
ロボット本体RT10は、ロボット動作制御情報を取得すると、取得したロボット動作制御情報にしたがって、各部を動作させる。
When the robot body RT10 acquires the robot operation control information, the robot body RT10 operates each unit in accordance with the acquired robot operation control information.
[その他の実施形態]
(1)ロボット視認画像情報:前述の実施例1においては、ロボット本体RT10が動作する方向の画像としてのロボット視認画像情報を、ロボット本体RT10の頭部RT12に配置されるロボット視認画像取得装置RT30を用いて取得するとしたが、例示のものに限定されない。例えば、ロボット本体RT10とは別体として、所定位置に配置されるカメラを用いてロボット本体RT10が動作する方向の画像を取得するようにしてもよい。
[Other Embodiments]
(1) Robot visual recognition image information: In the above-described first embodiment, the robot visual recognition image acquisition device RT30 arranged on the head RT12 of the robot main body RT10 is used as robot visual recognition image information as an image in the direction in which the robot main body RT10 operates. However, the present invention is not limited to the example. For example, a separate image from the robot body RT10 may be used to acquire an image in the direction in which the robot body RT10 operates using a camera arranged at a predetermined position.
(2)視線情報の取得:前述の実施例1においては、視線情報取得装置TM30を用いて取得した使用者の視線に関する視線情報を用いて、動作対象候補物体から動作対象物体を決定するとしたが、詳細な多関節構造体状態情報等、動作対象物体を特定できる情報が使用者動作情報として取得できる場合であれば、視線情報を用いずに、動作対象物体を決定するようにしてもよい。 (2) Acquisition of line-of-sight information: In the above-described first embodiment, the movement target object is determined from the movement target candidate objects using the line-of-sight information regarding the user's line of sight acquired using the line-of-sight information acquisition device TM30. If information that can identify the motion target object such as detailed multi-joint structure state information can be acquired as user motion information, the motion target object may be determined without using the line-of-sight information.
(3)使用者の動作の入力:前述の実施例1においては、多関節構造体TM10を用いて使用者の動作を入力するとしたが、使用者の動作を取得し、ロボット本体RT10に動作を入力できるものであれば、例示のものに限定されない。例えば、モーションセンサを用いて使用者の動作を検出したり、使用者の動作を画像により取得し、画像解析を用いて使用者の動作を検出するようにしてもよい。 (3) Input of user's motion: In the above-described first embodiment, the user's motion is input using the multi-joint structure TM10. However, the user's motion is acquired and the robot body RT10 is operated. Anything that can be input is not limited to the example. For example, the motion of the user may be detected using a motion sensor, or the motion of the user may be acquired from an image, and the motion of the user may be detected using image analysis.
(4)多関節構造体TM10のハードウェア構成:前述の実施例1においては、多関節構造体TM10の関節体TM11は、1つの可動部TM12、つまり、1つの自由度を有するとしたが、2つ以上の可動部TM12を有し、2つ以上の自由度を有するようにしてもよい。また、X軸、Y軸、Z軸の各軸を中心に可動部を順番に配置せずに、任意の可動部を配置するようにしてもよい。さらに、全ての関節体TM11が可動部TM12を有するとせずに、一部の関節体TM11が、可動部TM12を有するようにしてもよい。 (4) Hardware configuration of the multi-joint structure TM10: In the above-described first embodiment, the joint body TM11 of the multi-joint structure TM10 is assumed to have one movable part TM12, that is, one degree of freedom. Two or more movable parts TM12 may be included and two or more degrees of freedom may be provided. Moreover, you may make it arrange | position arbitrary movable parts, without arrange | positioning a movable part in order centering on each axis | shaft of an X-axis, a Y-axis, and Z-axis. Furthermore, not all the joint bodies TM11 have the movable part TM12, and some joint bodies TM11 may have the movable part TM12.
(5)ロボット動作制御装置100のハードウェア構成:前述の実施例1においては、CPU100a等を用いてロボット動作制御装置100を形成するとしたが、所定のプログラムを実行できるものであれば、例示のものに限定されない。例えば、専用のロジック回路を用いてロボット動作制御装置100に所定のプログラムを実行させるようにしてもよい。
(5) Hardware configuration of the robot motion control apparatus 100: In the above-described first embodiment, the robot
(6)ロボット動作制御プログラム:前述の実施例1においては、ロボット動作制御プログラムは、図7に示す機能を、図8〜図12に示すフローチャートに沿った処理により実現するとしたが、図7に示す機能を実現するものであれば、例示のものに限定されない。
(6) Robot operation control program: In the first embodiment, the robot operation control program realizes the function shown in FIG. 7 by the processing according to the flowcharts shown in FIGS. The present invention is not limited to the examples as long as the functions shown are realized.
本発明に係るロボット動作制御装置は、例えば、人型ロボットの動作を、人間の動作によって制御するロボット動作制御システムに使用できる。 The robot motion control device according to the present invention can be used, for example, in a robot motion control system that controls the motion of a humanoid robot by human motion.
100 ロボット動作制御装置
100a CPU
100b メモリ
100c ハードディスクドライブ
100d キーボード
100e マウス
100f ディスプレイ
100g 光学式ドライブ
100h 通信回路
100p 光学式メディア
RT ロボット
RT10 ロボット本体
RT11 胴部
RT12 頭部
RT13 首部
RT14 肩部
RT15 腕部
RT16 肘部
RT17 手首部
RT18 手指部
RT19 ベース部
RT30 ロボット視認画像取得装置
TM ロボット動作入力装置
TM10 多関節構造体
TM11 関節体
TM12 可動部
TM13 ポテンショメータ
TM14 CPU
TM30 ロボット視線情報取得装置
TM30 視線情報取得装置
TM31 ディスプレイ
TM33 視線検知部
RS ロボット動作制御システム
100 Robot
TM30 Robot Gaze Information Acquisition Device TM30 Gaze Information Acquisition Device TM31 Display TM33 Gaze Detection Unit RS Robot Motion Control System
Claims (5)
前記ロボットにおける前記ロボット動作の方向の画像を示すロボット画像情報から、前記ロボット動作の対象となり得る動作対象候補物体を判断する動作対象候補物体判断手段、
前記動作対象候補物体から、前記ロボットの動作の対象物体となる動作対象物体を決定するロボット動作対象物体決定手段、
前記使用者動作情報を用いて、前記使用者動作情報に対応する前記動作の軌道である使用者動作軌道を算出する使用者動作軌道算出手段、
前記使用者動作軌道を用いて、前記ロボット動作の軌道であるロボット動作軌道を算出するロボット動作軌道算出手段、
前記ロボット動作軌道を用いて、前記ロボットの動作を制御するロボット動作制御情報を生成するロボット動作制御情報生成手段、
を有するロボット動作制御装置。 A robot motion control device that causes a robot to execute a robot motion that is a motion corresponding to user motion information indicating a user motion that is a user motion,
Action target candidate object judging means for judging an action target candidate object that can be a target of the robot action from robot image information indicating an image of the direction of the robot action in the robot;
A robot motion target object determining means for determining a motion target object to be a motion target object of the robot from the motion target candidate object;
A user motion trajectory calculating means for calculating a user motion trajectory that is a trajectory of the motion corresponding to the user motion information using the user motion information;
Robot motion trajectory calculating means for calculating a robot motion trajectory that is the trajectory of the robot motion using the user motion trajectory,
Robot operation control information generating means for generating robot operation control information for controlling the operation of the robot using the robot operation trajectory,
A robot motion control device having
前記ロボット動作対象物体決定手段は、
前記ロボット画像情報の前記画像に対する使用者の視線を示す視線情報をもちいて、前記画像から前記動作対象物体を決定すること、
を特徴とするロボット動作制御装置。 In the robot motion control device according to claim 1,
The robot motion target object determining means includes
Using the line-of-sight information indicating the line of sight of the user with respect to the image of the robot image information, determining the operation target object from the image;
A robot motion control device characterized by the above.
前記ロボット動作対象物体決定手段は、
前記動作対象候補物体に対する前記使用者の動作の方向を、確率フィルタを用いて確率分布として算出することによって、前記画像から前記動作対象物体を決定すること、
を特徴とするロボット動作制御装置。 In the robot motion control device according to claim 1 or 2,
The robot motion target object determining means includes
Determining the motion target object from the image by calculating a direction of the motion of the user with respect to the motion target candidate object as a probability distribution using a probability filter;
A robot motion control device characterized by the above.
前記ロボット動作軌道算出手段は、
前記使用者動作軌道における使用者の動作ベクトルである使用者動作ベクトルを変化させて、ロボットの動作ベクトルであるロボット動作ベクトルを算出すること、
を特徴とするロボット動作制御装置。 In any one of the robot motion control apparatuses according to claims 1 to 3,
The robot motion trajectory calculating means includes
Changing a user motion vector that is a user motion vector in the user motion trajectory to calculate a robot motion vector that is a robot motion vector;
A robot motion control device characterized by the above.
前記ロボット動作制御プログラムは、
前記コンピュータを、
前記ロボットにおける前記ロボット動作の方向の画像を示すロボット画像情報から、前記ロボット動作の対象となり得る動作対象候補物体を判断する動作対象候補物体判断手段、
前記動作対象候補物体から、前記ロボットの動作の対象物体となる動作対象物体を決定するロボット動作対象物体決定手段、
前記使用者動作情報を用いて、前記使用者動作情報に対応する前記動作の軌道である使用者動作軌道を算出する使用者動作軌道算出手段、
前記使用者動作軌道を用いて、前記ロボット動作の軌道であるロボット動作軌道を算出するロボット動作軌道算出手段、
前記ロボット動作軌道を用いて、前記ロボットの動作を制御するロボット動作制御情報を生成するロボット動作制御情報生成手段、
として機能させること、
を特徴とするロボット動作制御プログラム。 A robot operation control program that causes a computer to function as a robot operation control device that causes a robot to execute a robot operation that is an operation corresponding to user operation information indicating a user operation that is a user operation,
The robot motion control program is
The computer,
Action target candidate object judging means for judging an action target candidate object that can be a target of the robot action from robot image information indicating an image of the direction of the robot action in the robot;
A robot motion target object determining means for determining a motion target object to be a motion target object of the robot from the motion target candidate object;
A user motion trajectory calculating means for calculating a user motion trajectory that is a trajectory of the motion corresponding to the user motion information using the user motion information;
Robot motion trajectory calculating means for calculating a robot motion trajectory that is the trajectory of the robot motion using the user motion trajectory,
Robot operation control information generating means for generating robot operation control information for controlling the operation of the robot using the robot operation trajectory,
To function as a
A robot motion control program characterized by
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016087583A JP2017196678A (en) | 2016-04-25 | 2016-04-25 | Robot motion control device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016087583A JP2017196678A (en) | 2016-04-25 | 2016-04-25 | Robot motion control device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017196678A true JP2017196678A (en) | 2017-11-02 |
Family
ID=60238773
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016087583A Pending JP2017196678A (en) | 2016-04-25 | 2016-04-25 | Robot motion control device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017196678A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022209924A1 (en) * | 2021-03-31 | 2022-10-06 | 本田技研工業株式会社 | Robot remote operation control device, robot remote operation control system, robot remote operation control method, and program |
JP2023507241A (en) * | 2019-12-31 | 2023-02-21 | ヒューマン モード、エルエルシー | A proxy controller suit with arbitrary dual-range kinematics |
WO2024013895A1 (en) * | 2022-07-13 | 2024-01-18 | 日本電信電話株式会社 | Remote control system, remote control method, and remote control program |
JP7535968B2 (en) | 2021-03-31 | 2024-08-19 | 本田技研工業株式会社 | ROBOT REMOTE OPERATION CONTROL DEVICE, ROBOT REMOTE OPERATION CONTROL SYSTEM, ROBOT REMOTE OPERATION CONTROL METHOD, AND PROGRAM |
US12109706B2 (en) | 2021-03-22 | 2024-10-08 | Honda Motor Co., Ltd. | Control device, robot system, control method, and non-transitory computer-readable medium |
JP7565848B2 (en) | 2021-03-31 | 2024-10-11 | 本田技研工業株式会社 | ROBOT REMOTE OPERATION CONTROL DEVICE, ROBOT REMOTE OPERATION CONTROL SYSTEM, ROBOT REMOTE OPERATION CONTROL METHOD, AND PROGRAM |
JP7565849B2 (en) | 2021-03-31 | 2024-10-11 | 本田技研工業株式会社 | ROBOT REMOTE OPERATION CONTROL DEVICE, ROBOT REMOTE OPERATION CONTROL SYSTEM, ROBOT REMOTE OPERATION CONTROL METHOD, AND PROGRAM |
JP7569742B2 (en) | 2021-04-15 | 2024-10-18 | 本田技研工業株式会社 | SERVER, REMOTE CONTROL SYSTEM, REMOTE CONTROL METHOD, AND PROGRAM |
JP7577003B2 (en) | 2021-03-22 | 2024-11-01 | 本田技研工業株式会社 | CONTROL DEVICE, ROBOT SYSTEM, CONTROL METHOD, AND PROGRAM |
-
2016
- 2016-04-25 JP JP2016087583A patent/JP2017196678A/en active Pending
Non-Patent Citations (1)
Title |
---|
根岸健多、松本庸佑、高橋史泰、並木明夫: "マスタ・スレーブ制御における操縦者の意思を考慮した視覚フィードバックによる操作補助", 第20回ロボティクスシンポジア, JPN6020011615, 14 March 2015 (2015-03-14), pages 512 - 519, ISSN: 0004363208 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023507241A (en) * | 2019-12-31 | 2023-02-21 | ヒューマン モード、エルエルシー | A proxy controller suit with arbitrary dual-range kinematics |
JP7428436B2 (en) | 2019-12-31 | 2024-02-06 | ヒューマン モード、エルエルシー | Proxy controller suit with arbitrary dual range kinematics |
US12109706B2 (en) | 2021-03-22 | 2024-10-08 | Honda Motor Co., Ltd. | Control device, robot system, control method, and non-transitory computer-readable medium |
JP7577003B2 (en) | 2021-03-22 | 2024-11-01 | 本田技研工業株式会社 | CONTROL DEVICE, ROBOT SYSTEM, CONTROL METHOD, AND PROGRAM |
WO2022209924A1 (en) * | 2021-03-31 | 2022-10-06 | 本田技研工業株式会社 | Robot remote operation control device, robot remote operation control system, robot remote operation control method, and program |
JP7535968B2 (en) | 2021-03-31 | 2024-08-19 | 本田技研工業株式会社 | ROBOT REMOTE OPERATION CONTROL DEVICE, ROBOT REMOTE OPERATION CONTROL SYSTEM, ROBOT REMOTE OPERATION CONTROL METHOD, AND PROGRAM |
JP7565848B2 (en) | 2021-03-31 | 2024-10-11 | 本田技研工業株式会社 | ROBOT REMOTE OPERATION CONTROL DEVICE, ROBOT REMOTE OPERATION CONTROL SYSTEM, ROBOT REMOTE OPERATION CONTROL METHOD, AND PROGRAM |
JP7565849B2 (en) | 2021-03-31 | 2024-10-11 | 本田技研工業株式会社 | ROBOT REMOTE OPERATION CONTROL DEVICE, ROBOT REMOTE OPERATION CONTROL SYSTEM, ROBOT REMOTE OPERATION CONTROL METHOD, AND PROGRAM |
JP7577017B2 (en) | 2021-03-31 | 2024-11-01 | 本田技研工業株式会社 | CONTROL DEVICE, ROBOT SYSTEM, CONTROL METHOD, AND PROGRAM |
JP7569742B2 (en) | 2021-04-15 | 2024-10-18 | 本田技研工業株式会社 | SERVER, REMOTE CONTROL SYSTEM, REMOTE CONTROL METHOD, AND PROGRAM |
WO2024013895A1 (en) * | 2022-07-13 | 2024-01-18 | 日本電信電話株式会社 | Remote control system, remote control method, and remote control program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017196678A (en) | Robot motion control device | |
US11344374B2 (en) | Detection of unintentional movement of a user interface device | |
US11379287B2 (en) | System and method for error detection and correction in virtual reality and augmented reality environments | |
CN110647237B (en) | Gesture-based content sharing in an artificial reality environment | |
US11573641B2 (en) | Gesture recognition system and method of using same | |
CN107428004B (en) | Automatic collection and tagging of object data | |
US20220253133A1 (en) | Deep predictor recurrent neural network for head pose prediction | |
US11169601B2 (en) | Methods and systems for determining teleoperating user intent via eye tracking | |
US20200286302A1 (en) | Method And Apparatus For Manipulating Object In Virtual Or Augmented Reality Based On Hand Motion Capture Apparatus | |
US10976863B1 (en) | Calibration of inertial measurement units in alignment with a skeleton model to control a computer system based on determination of orientation of an inertial measurement unit from an image of a portion of a user | |
JP2010108500A (en) | User interface device for wearable computing environmental base, and method therefor | |
CN104254816A (en) | A data input device | |
US11237632B2 (en) | Ring device having an antenna, a touch pad, and/or a charging pad to control a computing device based on user motions | |
CN104298340A (en) | Control method and electronic equipment | |
KR102046706B1 (en) | Techniques of performing neural network-based gesture recognition using wearable device | |
CN109202864B (en) | Evaluation information output device, evaluation information output method, and storage medium | |
Fukuoka et al. | FaceDrive: Facial expression driven operation to control virtual supernumerary robotic arms | |
WO2021207033A1 (en) | Input device to control a computing device with a touch pad having a curved surface configured to sense touch input | |
Zhang et al. | Hand Pose Estimation with Mems-Ultrasonic Sensors | |
KR20220164376A (en) | Lightweight hand joint prediction method and apparatus for real-time hand motion interface implementation of ar glasses device | |
Patel et al. | Human-system interaction interface utilizing 3D gesture recognition techniques based on wearable technology | |
KR102316389B1 (en) | Method for estimating coordinates of virtual object | |
US20240281072A1 (en) | Information processing apparatus, information processing method, and program | |
Saini | Real-Time Teleoperation Using Monocular 3D Human Pose Estimation | |
TW202430967A (en) | Head-mounted display, controlling method and non-transitory computer readable storage medium thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190402 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200407 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20201013 |