JP2017196678A - Robot motion control device - Google Patents

Robot motion control device Download PDF

Info

Publication number
JP2017196678A
JP2017196678A JP2016087583A JP2016087583A JP2017196678A JP 2017196678 A JP2017196678 A JP 2017196678A JP 2016087583 A JP2016087583 A JP 2016087583A JP 2016087583 A JP2016087583 A JP 2016087583A JP 2017196678 A JP2017196678 A JP 2017196678A
Authority
JP
Japan
Prior art keywords
robot
motion
user
trajectory
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016087583A
Other languages
Japanese (ja)
Inventor
明夫 並木
Akio Namiki
明夫 並木
和田 貴志
Takashi Wada
貴志 和田
田中 徹
Toru Tanaka
徹 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chiba University NUC
KYOKKO ELECTRIC CO Ltd
Original Assignee
Chiba University NUC
KYOKKO ELECTRIC CO Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chiba University NUC, KYOKKO ELECTRIC CO Ltd filed Critical Chiba University NUC
Priority to JP2016087583A priority Critical patent/JP2017196678A/en
Publication of JP2017196678A publication Critical patent/JP2017196678A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a robot motion control device which makes a robot execute motion of a user without making the user executing the motion feel uncomfortable.SOLUTION: A robot motion control system RS includes a robot RT, a robot motion input device TM, and a robot motion control device 100. A CPU of the robot motion control device 100 executes determination processing of a candidate object of a robot motion target, decision processing of an object of the robot motion target, calculation processing of user motion track, calculation processing of robot motion track, and generation processing of robot motion control information. Thereby, the motion of the user can be securely executed by the robot without making the user executing the motion feel uncomfortable.SELECTED DRAWING: Figure 1

Description

本発明は、ロボットの動作を制御するロボット動作制御装置に関し、特に、使用者の動作をロボットの動作として実行させるものに関する。   The present invention relates to a robot operation control apparatus that controls the operation of a robot, and more particularly to an apparatus that causes a user's operation to be executed as a robot operation.

従来の2次元CCD撮像装置の動作について、図13に示すインタラクション操作システムを用いて説明する。インタラクション操作システムでは、操作者の動作とロボット100の検知する感覚情報が互いに影響しあう非拘束、かつ、直観的連動的なロボット操作システムの提供を目的として、ロボット100側には感覚情報を検出する感覚情報検出部121と、感覚情報を伝送する感覚情報出力部130と、ロボットを駆動させるロボット駆動装置140を備え、操作者は、ロボット100から伝送された前記感覚情報を操作者に付与する感覚情報付与部300と、多関節構造体410、制御部420及び教示情報出力部430より成るロボット教示装置400と、を装着し、多関節構造体410は、可動部412にポテンショメータ413を有する関節を含む複数の関節体411と、ポテンショメータ413のセンサ信号を処理するCPU414と、処理されたセンサ信号を伝送する教示装置出力部430と、により構成されることにより、操作者の動作を拘束せず、かつ、操作者の身体的条件を問わずにロボットの操作を行うことができるシステムが実現している(以上、特許文献1参照)。   The operation of the conventional two-dimensional CCD image pickup apparatus will be described using the interaction operation system shown in FIG. In the interaction operation system, sensor information is detected on the robot 100 side in order to provide an unconstrained and intuitively interlocking robot operation system in which the action of the operator and sensory information detected by the robot 100 influence each other. A sensory information detection unit 121 that transmits sensory information, a sensory information output unit 130 that transmits sensory information, and a robot drive device 140 that drives the robot. The operator gives the sensory information transmitted from the robot 100 to the operator. The sensory information imparting unit 300 and the robot teaching device 400 including the multi-joint structure 410, the control unit 420, and the teaching information output unit 430 are mounted. The multi-joint structure 410 has a potentiometer 413 in the movable unit 412. And a CPU 414 that processes the sensor signal of the potentiometer 413. And the teaching device output unit 430 that transmits the processed sensor signal, so that the operation of the robot can be performed regardless of the physical condition of the operator without restricting the operation of the operator. (See Patent Document 1 above).

特開2013−91114号公報JP 2013-91114 A

前述のインタラクション操作システムには、以下に示すような改善すべき点がある。インタラクション装置では、ロボット100とロボット教示装置400との間での通信に要する時間による制御遅れが生じ、操作者が操作時に違和感を感じるとともに、操作者の操作速度が遅くなる、という改善すべき点がある。また、ロボット100とロボット教示装置400との間に機構学的構造な違いが存在するため、動作位置や動作姿勢に誤差が生じてしまい、ロボット100に使用者が意図する動作を実行させることができない、という改善すべき点がある。さらに、ロボット100から使用者に提供する感覚提示が不十分出るため、操作者がロボット100の動作環境、例えば動作対象とロボット100との間の距離や位置を正確に把握できず、ロボット100に使用者が意図する動作を実行させることができない、という改善すべき点がある。つまり、これらの問題は、操作者がロボット100に直感的に操作することを妨げ、結果として、作業効率を低下させる、という改善すべき点がある。   The above interaction operation system has the following points to be improved. In the interaction device, a control delay due to the time required for communication between the robot 100 and the robot teaching device 400 occurs, the operator feels uncomfortable during the operation, and the operation speed of the operator becomes slow. There is. Further, since there is a difference in mechanical structure between the robot 100 and the robot teaching device 400, an error occurs in the operation position and the operation posture, and the robot 100 can execute the operation intended by the user. There is a point that should be improved. Furthermore, since the sensory presentation provided to the user from the robot 100 is insufficient, the operator cannot accurately grasp the operation environment of the robot 100, for example, the distance and position between the operation target and the robot 100, and the robot 100 There is a point to be improved that an operation intended by the user cannot be executed. That is, these problems have a point that should be improved, which prevents the operator from intuitively operating the robot 100 and, as a result, reduces work efficiency.

そこで、本発明は、動作を実行する使用者に違和感なく、使用者の動作を確実にロボットに実行させるロボット動作制御装置を提供することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide a robot operation control device that allows a user who performs an operation to perform the operation of the user without causing any uncomfortable feeling.

本発明における課題を解決するための手段及び発明の効果を以下に示す。   Means for solving the problems in the present invention and the effects of the invention will be described below.

本発明に係るロボット動作制御装置は、使用者の動作である使用者動作を示す使用者動作情報に対応する動作であるロボット動作をロボットに実行させるロボット動作制御装置であって、前記ロボットにおける前記ロボット動作の方向の画像を示すロボット画像情報から、前記ロボット動作の対象となり得る動作対象候補物体を判断する動作対象候補物体判断手段、前記動作対象候補物体から、前記ロボットの動作の対象物体となる動作対象物体を決定するロボット動作対象物体決定手段、前記使用者動作情報を用いて、前記使用者動作情報に対応する前記動作の軌道である使用者動作軌道を算出する使用者動作軌道算出手段、前記使用者動作軌道を用いて、前記ロボット動作の軌道であるロボット動作軌道を算出するロボット動作軌道算出手段、前記ロボット動作軌道を用いて、前記ロボットの動作を制御するロボット動作制御情報を生成するロボット動作制御情報生成手段、を有する。   A robot motion control device according to the present invention is a robot motion control device that causes a robot to perform a robot motion that is a motion corresponding to user motion information indicating a user motion that is a user motion, the robot in the robot An operation target candidate object determining unit that determines an operation target candidate object that can be a target of the robot operation from robot image information indicating an image of the direction of the robot operation, and a target object of the robot operation from the operation target candidate object A robot motion target object determining means for determining a motion target object, a user motion trajectory calculating means for calculating a user motion trajectory corresponding to the user motion information using the user motion information, Robot motion trajectory calculation that calculates a robot motion trajectory that is the trajectory of the robot motion using the user motion trajectory Stage, using the robot operation track, having a robot operation control information generating means for generating a robot motion control information for controlling the operation of the robot.

これにより、動作を実行する使用者に違和感なく、使用者の動作を確実にロボットに実行させることができる。   Thereby, the user's operation can be surely executed by the robot without a sense of incongruity to the user who executes the operation.

本発明に係るロボット動作制御装置では、前記ロボット動作対象物体決定手段は、前記ロボット画像情報の前記画像に対する使用者の視線を示す視線情報をもちいて、前記画像から前記動作対象物体を決定すること、を特徴とする。   In the robot motion control device according to the present invention, the robot motion target object determining means determines the motion target object from the image using line-of-sight information indicating a user's line of sight with respect to the image of the robot image information. It is characterized by.

これにより、使用者は視線を動作対象物体に向けるだけで、容易に動作対象物体を決定できる。よって、使用者の作業効率が高くなる。   Thus, the user can easily determine the motion target object simply by directing his / her line of sight toward the motion target object. Therefore, the user's work efficiency is increased.

本発明に係るロボット動作制御装置では、前記ロボット動作対象物体決定手段は、前記動作対象候補物体に対する前記使用者の動作の方向を、確率フィルタを用いて確率分布として算出することによって、前記画像から前記動作対象物体を決定すること、を特徴とする。   In the robot motion control device according to the present invention, the robot motion target object determining means calculates the direction of the user's motion with respect to the motion target candidate object as a probability distribution using a probability filter. The operation target object is determined.

これにより、使用者の動作方向を見ながら、動作対象物体を決定することができる。つまり、間違って動作対象物体を決定したとしても、短時間で、正しい動作対象物体を判断できる。   As a result, it is possible to determine the movement target object while looking at the movement direction of the user. That is, even if the motion target object is determined by mistake, the correct motion target object can be determined in a short time.

本発明に係るロボット動作制御装置では、前記ロボット動作軌道算出手段は、前記使用者動作軌道における使用者の動作ベクトルである使用者動作ベクトルを変化させて、ロボットの動作ベクトルであるロボット動作ベクトルを算出すること、を特徴とする。   In the robot motion control apparatus according to the present invention, the robot motion trajectory calculating means changes a user motion vector that is a user motion vector in the user motion trajectory to obtain a robot motion vector that is a robot motion vector. It is characterized by calculating.

これにより、動作を実行する使用者に違和感なく、使用者の動作を確実にロボットに実行させることができる。   Thereby, the user's operation can be surely executed by the robot without a sense of incongruity to the user who executes the operation.

本発明に係るロボット動作制御プログラムは、コンピュータを、使用者の動作である使用者動作を示す使用者動作情報に対応する動作であるロボット動作をロボットに実行させるロボット動作制御装置として機能させるロボット動作制御プログラムであって、前記ロボット動作制御プログラムは、前記コンピュータを、前記ロボットにおける前記ロボット動作の方向の画像を示すロボット画像情報から、前記ロボット動作の対象となり得る動作対象候補物体を判断する動作対象候補物体判断手段、前記動作対象候補物体から、前記ロボットの動作の対象物体となる動作対象物体を決定するロボット動作対象物体決定手段、前記使用者動作情報を用いて、前記使用者動作情報に対応する前記動作の軌道である使用者動作軌道を算出する使用者動作軌道算出手段、前記使用者動作軌道を用いて、前記ロボット動作の軌道であるロボット動作軌道を算出するロボット動作軌道算出手段、前記ロボット動作軌道を用いて、前記ロボットの動作を制御するロボット動作制御情報を生成するロボット動作制御情報生成手段、として機能させること、を特徴とする。   The robot operation control program according to the present invention is a robot operation that causes a computer to function as a robot operation control device that causes a robot to execute a robot operation that is an operation corresponding to user operation information indicating a user operation that is a user operation. An operation target for determining an operation target candidate object that can be a target of the robot operation from robot image information indicating an image of a direction of the robot operation in the robot. Candidate object determining means, robot action target object determining means for determining an action target object to be the action object of the robot from the action target candidate object, and corresponding to the user action information using the user action information User motion to calculate a user motion trajectory that is the trajectory of the motion Trajectory calculating means, robot motion trajectory calculating means for calculating a robot motion trajectory that is the trajectory of the robot motion using the user motion trajectory, and robot motion control for controlling the motion of the robot using the robot motion trajectory It functions as a robot motion control information generating means for generating information.

これにより、動作を実行する使用者に違和感なく、使用者の動作を確実にロボットに実行させることができる。
Thereby, the user's operation can be surely executed by the robot without a sense of incongruity to the user who executes the operation.

本発明に係るロボット動作制御装置の一実施例であるロボット動作制御装置100を示す図である。1 is a diagram showing a robot motion control apparatus 100 that is an embodiment of a robot motion control apparatus according to the present invention. FIG. ロボットRTのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of robot RT. ロボット動作入力装置TMのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the robot motion input apparatus TM. 多関節構造体TM10のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the multi joint structure TM10. 視線情報取得装置TM30のハードウェア構成を示すである。It is a hardware configuration of the line-of-sight information acquisition device TM30. ロボット動作制御装置100のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the robot operation control apparatus. ロボット動作制御処理を示すフローチャートである。It is a flowchart which shows a robot operation | movement control process. ロボット動作制御処理を示すフローチャートである。It is a flowchart which shows a robot operation | movement control process. ロボット動作制御処理を示すフローチャートである。It is a flowchart which shows a robot operation | movement control process. ロボット動作制御処理を示すフローチャートである。It is a flowchart which shows a robot operation | movement control process. ロボット動作制御処理を示すフローチャートである。It is a flowchart which shows a robot operation | movement control process. ロボット動作制御処理を示すフローチャートである。It is a flowchart which shows a robot operation | movement control process. 従来のロボット動作制御装置を示す図である。It is a figure which shows the conventional robot operation control apparatus.

以下、本発明の実施例について、図面を参照しながら詳細に説明していく。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

本発明に係るロボット動作制御装置について、図1に示すロボット動作制御装置100を例に説明する。   A robot motion control apparatus according to the present invention will be described using the robot motion control apparatus 100 shown in FIG. 1 as an example.

第1 ハードウェア構成
ロボット動作制御装置100は、ロボット動作制御システムRSの一部として機能する。ロボット動作制御システムRSは、ロボットRT、ロボット動作入力装置TM、および、ロボット動作制御装置100を有している。ロボット動作制御システムRSは、使用者がロボット動作入力装置TMを介して、ロボットRTに動作させようとする動作を入力すると、ロボット動作制御装置100は、ロボット動作入力装置TMを介して入力された動作を、ロボットRTが動作できるように調整し、ロボットRTに出力し、ロボットRTは、調整された動作を実行するものである。これにより、ロボット動作入力装置TMを用いて動作を実行する使用者に違和感なく、使用者の動作を確実にロボットRTに実行させることができる。
First Hardware Configuration The robot motion control device 100 functions as a part of the robot motion control system RS. The robot motion control system RS includes a robot RT, a robot motion input device TM, and a robot motion control device 100. When the user inputs an operation to be performed by the robot RT via the robot motion input device TM, the robot motion control system RS receives the robot motion control device 100 via the robot motion input device TM. The operation is adjusted so that the robot RT can operate, and is output to the robot RT. The robot RT executes the adjusted operation. Thereby, it is possible to cause the robot RT to surely execute the user's operation without feeling uncomfortable for the user who performs the operation using the robot operation input device TM.

1. ロボットRTのハードウェア構成
ロボットRTのハードウェア構成について、図2を用いて説明する。ロボットRTは、ロボット本体RT10、及び、ロボット視認画像取得装置RT30を有している。ロボット本体RT10は、胴部RT11、頭部RT12、首部RT13、肩部RT14、腕部RT15、肘部RT16、手首部RT17、手指部RT18、ベース部RT19を有している。なお、ロボット本体RT10は、頭部RT12を上下方向に回転させる駆動部、首部RT13を左右方向に回転させる駆動部等、各部を所定方向に動作させる駆動部を有している。ロボット本体RT10は、ベース部RT19をかいして、所定位置に固定される。なお、ロボット本体RT10には、多関節構造体TM10の動作基準点PT1(後述)に対応した動作基準点PT0が設定されている。ロボット本体RT10は、ロボット動作制御情報(後述)を取得すると、胴部RT11〜手指部RT18を動作させて、ロボット動作制御情報に対応する動作を実行する。
1. Hardware Configuration of Robot RT A hardware configuration of the robot RT will be described with reference to FIG. The robot RT includes a robot body RT10 and a robot visual image acquisition device RT30. The robot main body RT10 has a trunk portion RT11, a head portion RT12, a neck portion RT13, a shoulder portion RT14, an arm portion RT15, an elbow portion RT16, a wrist portion RT17, a finger portion RT18, and a base portion RT19. The robot body RT10 has a drive unit that moves each part in a predetermined direction, such as a drive unit that rotates the head RT12 in the vertical direction and a drive unit that rotates the neck part RT13 in the left-right direction. The robot body RT10 is fixed at a predetermined position through the base portion RT19. In the robot body RT10, an operation reference point PT0 corresponding to an operation reference point PT1 (described later) of the multi-joint structure TM10 is set. When the robot main body RT10 acquires the robot operation control information (described later), the robot main body RT10 operates the torso RT11 to the finger RT18 to execute an operation corresponding to the robot operation control information.

ロボット視認画像取得装置RT30は、ステレオカメラを有しており、人間の目に対する視認画像を取得する。なお、ロボット視認画像取得装置RT30は、ロボット本体RT10の頭部RT12において、人間の目に対応する位置に配置される。ロボット視認画像取得装置RT30は、ロボット本体RT10の動作の方向の画像を取得する。ロボット視認画像取得装置RT30は、取得した視認画像をロボット視認画像情報として送信する。   The robot visual image acquisition device RT30 has a stereo camera and acquires a visual image with respect to human eyes. The robot visual image acquisition device RT30 is disposed at a position corresponding to the human eye in the head RT12 of the robot main body RT10. The robot visual image acquisition device RT30 acquires an image in the direction of operation of the robot body RT10. The robot visual image acquisition device RT30 transmits the acquired visual image as robot visual image information.

2. ロボット動作入力装置TMのハードウェア構成
ロボット動作入力装置TMのハードウェア構成について、図3を用いて説明する。ロボット動作入力装置TMは、多関節構造体TM10、及び、ロボット視線情報取得装置TM30を有している。多関節構造体TM10は操作者の背中、後頭部、腕、手指に密着して装着されていて、操作者の動作に連動して形状を変化させることによって、ロボット本体RT10に動作を入力するための装置である。
2. Hardware Configuration of Robot Motion Input Device TM The hardware configuration of the robot motion input device TM will be described with reference to FIG. The robot motion input device TM includes a multi-joint structure TM10 and a robot line-of-sight information acquisition device TM30. The multi-joint structure TM10 is mounted in close contact with the back, back of the head, arms, and fingers of the operator, and is used to input an operation to the robot body RT10 by changing the shape in conjunction with the operation of the operator. Device.

多関節構造体TM10について、図4を用いて説明する。多関節構造体TM10は、多数の関節体TM11により構成される。関節体TM11は、円筒状の筐体を有している。関節体TM11は、筐体内部に、可動部TM12、及び、ポテンショメータTM13を有している。可動部TM12は、関節体TM11の両端部、つまり、隣接する関節体TM11との接続部分に配置される。可動部TM12は、X軸方向、Y軸方向、又は、Z軸方向のいずれかを中心軸として回転する。ポテンショメータTM13は、可動部TM12に対応して配置される。ポテンショメータTM13は、可動部TM12の角度の変化量(回転量)を計測する。また、多関節構造体TM10を構成する関節体TM11の一部は、CAN通信機能付きCPUTM14を有している。多関節構造体TM10には、関節体TM11の位置の基準となる動作基準点PT1が設定されている。   The multi-joint structure TM10 will be described with reference to FIG. The multi-joint structure TM10 includes a large number of joint bodies TM11. The joint body TM11 has a cylindrical casing. The joint body TM11 has a movable part TM12 and a potentiometer TM13 inside the housing. Movable part TM12 is arrange | positioned at the both ends of joint body TM11, ie, a connection part with adjacent joint body TM11. The movable part TM12 rotates about any one of the X-axis direction, the Y-axis direction, and the Z-axis direction as a central axis. The potentiometer TM13 is arranged corresponding to the movable part TM12. The potentiometer TM13 measures the amount of change (rotation amount) of the angle of the movable part TM12. Further, a part of the joint body TM11 constituting the multi-joint structure TM10 has a CPUTM 14 with a CAN communication function. In the multi-joint structure TM10, an operation reference point PT1 that is a reference for the position of the joint body TM11 is set.

多関節構造体TM10は、操作者の動作に連動して多関節構造体TM10の形状が変化し、可動部TM12の角度が変化する。関節体TM11毎に、動作基準点PT1に対する初期位置と形状変化後の位置とをポテンショメータTM13の角度変化値として検出する。各関節体TM11において検出されたポテンショメータTM13の角度変化値は、近接するCPUTM14に送信・集積される。CPUTM14は、送信されてきたポテンショメータTM13の角度変化値を、使用者動作情報としての多関節構造体状態情報としてロボット動作制御装置100へ送信する。   In the multi-joint structure TM10, the shape of the multi-joint structure TM10 changes in conjunction with the operation of the operator, and the angle of the movable part TM12 changes. For each joint body TM11, the initial position with respect to the motion reference point PT1 and the position after the shape change are detected as an angle change value of the potentiometer TM13. The angle change value of the potentiometer TM13 detected in each joint body TM11 is transmitted and accumulated in the adjacent CPU TM14. The CPU TM 14 transmits the transmitted angle change value of the potentiometer TM 13 to the robot motion control apparatus 100 as multi-joint structure state information as user motion information.

視線情報取得装置TM30について、図5を用いて説明する。図5において、Aは、視線情報取得装置TM30を側面から見た状態を、Bは視線情報取得装置TM30を側面から見た状態を、それぞれ示している。図5Aに示すように、視線情報取得装置TM30は、いわゆるヘッドマウント・ディスプレイとして、使用者の頭部に装着される。図5Bに示すように、視線情報取得装置TM30は、ディスプレイTM31、及び、視線検知部TM33を有している。ディスプレイTM31は、所定の画像を表示する。視線検知部TM33は、ディスプレイTM31に表示された画像に対する使用者の視線を検知し、視線情報として取得する。なお、視線情報取得装置TM30は、ロボットRTのロボット視認画像取得装置RT30から、ロボット動作制御装置100を介してロボット視認画像情報を取得すると、取得したロボット視認画像情報に対応する画像をディスプレイに表示する。   The line-of-sight information acquisition device TM30 will be described with reference to FIG. In FIG. 5, A shows a state when the line-of-sight information acquisition device TM30 is viewed from the side surface, and B shows a state when the line-of-sight information acquisition device TM30 is viewed from the side surface. As shown in FIG. 5A, the line-of-sight information acquisition device TM30 is mounted on the user's head as a so-called head-mounted display. As illustrated in FIG. 5B, the line-of-sight information acquisition device TM30 includes a display TM31 and a line-of-sight detection unit TM33. The display TM31 displays a predetermined image. The line-of-sight detection unit TM33 detects the line of sight of the user with respect to the image displayed on the display TM31 and acquires the line-of-sight information. The line-of-sight information acquisition device TM30, when acquiring the robot visual recognition image information from the robot visual recognition image acquisition device RT30 of the robot RT via the robot motion control device 100, displays an image corresponding to the acquired robot visual recognition image information on the display. To do.

3.ロボット動作制御装置100のハードウェア構成
ロボット動作制御装置100のハードウェア構成について図6を用いて説明する。ロボット動作制御装置100は、CPU100a、メモリ100b、ハードディスクドライブ100c(以下、HDD100cとする)、キーボード100d、マウス100e、ディスプレイ100f、光学式ドライブ100g、及び、通信回路100hを有している。
3. Hardware Configuration of Robot Motion Control Device 100 A hardware configuration of the robot motion control device 100 will be described with reference to FIG. The robot operation control device 100 includes a CPU 100a, a memory 100b, a hard disk drive 100c (hereinafter referred to as HDD 100c), a keyboard 100d, a mouse 100e, a display 100f, an optical drive 100g, and a communication circuit 100h.

CPU100aは、HDD100cに記録されているオペレーティング・システム(OS)、ロボット動作制御プログラム等その他のアプリケーションに基づいた処理を行う。メモリ100bは、CPU100aに対して作業領域を提供する。HDD100cは、オペレーティング・システム(OS)、ロボット動作制御プログラム等その他のアプリケーションのプログラム、及び、各種データを記録保持する。   The CPU 100a performs processing based on other applications such as an operating system (OS) and a robot operation control program recorded in the HDD 100c. The memory 100b provides a work area for the CPU 100a. The HDD 100c records and holds programs of other applications such as an operating system (OS) and a robot operation control program, and various data.

キーボード100d、マウス100eは、外部からの命令を受け付ける。ディスプレイ100fは、ユーザーインターフェイス等の画像を表示する。光学式ドライブ100gは、ロボット動作制御プログラムが記録されている光学式メディア100pからロボット動作制御プログラムを読み取り、また、他の光学式メディアからその他のアプリケーションのプログラムを読み取る等、光学式メディアからのデータの読み取りを行う。通信回路100hは、ロボットRT、ロボット動作入力装置TM等の外部の通信機器との情報の送受信を行う。
The keyboard 100d and the mouse 100e accept external commands. The display 100f displays an image such as a user interface. The optical drive 100g reads data from the optical medium, such as reading the robot movement control program from the optical medium 100p in which the robot movement control program is recorded, and reading other application programs from other optical media. Read. The communication circuit 100h transmits / receives information to / from an external communication device such as the robot RT or the robot motion input device TM.

第2 ロボット動作制御装置100の動作
ロボット動作制御装置100の動作について、図7に示すフローチャートを用いて説明する。ロボット動作制御装置100のCPU100aは、ロボット動作対象候補物体判断処理(S701)、ロボット動作対象物体決定処理(S703)、使用者動作軌道算出処理(S705)、ロボット動作軌道算出処理(S707)、及び、ロボット動作制御情報生成処理(S709)を実行する。以下において、各処理について説明する。
Operation of Second Robot Operation Control Device 100 The operation of the robot operation control device 100 will be described with reference to the flowchart shown in FIG. The CPU 100a of the robot motion control apparatus 100 includes a robot motion target candidate object determination process (S701), a robot motion target object determination process (S703), a user motion trajectory calculation process (S705), a robot motion trajectory calculation process (S707), and Then, the robot operation control information generation process (S709) is executed. Each process will be described below.

1.ロボット動作対象候補物体判断処理
ロボット動作対象候補物体判断処理について、図8に示すフローチャートを用いて説明する。ロボット動作対象候補物体判断処理とは、ロボット視認画像取得装置RT30から取得するロボット視認画像情報から、ロボット本体RT10の動作の対象となり得る動作対象候補物体(後述)を判断する処理をいう。
1. Robot Motion Target Candidate Object Determination Process The robot motion target candidate object determination process will be described with reference to the flowchart shown in FIG. The robot operation target candidate object determination process refers to a process of determining an operation target candidate object (described later) that can be an operation target of the robot body RT10 from the robot visual image information acquired from the robot visual image acquisition device RT30.

まず、ロボットRTのロボット視認画像取得装置RT30は、取得したロボット視認画像情報をロボット動作制御装置100に送信する。   First, the robot visual image acquisition device RT30 of the robot RT transmits the acquired robot visual image information to the robot motion control device 100.

ロボット動作制御装置100のCPU100aは、通信回路100hを介してロボット視認画像情報を取得すると(S801)、ロボット視認画像に表示されている物体の位置、及び、形状を、画像処理技術を用いて判断する(S803)。CPU100aは、位置、及び、形状を判断した物体を動作対象候補物体とした動作対象候補物体情報を生成し、メモリ100bに記憶保持する(S805)。CPU100aは、取得したロボット視認画像情報を、使用者が装着している視線情報取得装置TM30に、通信回路100hを介して送信する(S807)。   When the CPU 100a of the robot motion control apparatus 100 obtains the robot viewing image information via the communication circuit 100h (S801), the CPU 100a determines the position and shape of the object displayed in the robot viewing image using an image processing technique. (S803). The CPU 100a generates motion target candidate object information using the object whose position and shape have been determined as motion target candidate objects, and stores and holds the information in the memory 100b (S805). The CPU 100a transmits the acquired robot visual image information to the line-of-sight information acquisition device TM30 worn by the user via the communication circuit 100h (S807).

2.ロボット動作対象物体決定処理
動作対象物体決定処理について、図9を用いて説明する。動作対象物体決定処理とは、動作対象候補物体から動作対象物体を決定する処理をいう。
2. Robot Motion Target Object Determination Process The motion target object determination process will be described with reference to FIG. The motion target object determination process is a process of determining a motion target object from motion target candidate objects.

視線情報取得装置TM30は、ロボット視認画像情報を取得すると、ロボット視認画像を生成し、ディスプレイに表示する。使用者は、ディスプレイに表示されているロボット視認画像から、動作対象とする物体(以下、動作対象物体)を決定し、動作対象物体に視線を移動させる。使用者の視線の移動にともない、使用者の頭部が移動すると、連動して多関節構造体TM10の形状が変化する。多関節構造体TM10は、各関節体TM11における可動部TM12の位置変化を示すポテンショメータTM13の角度変化値を多関節構造体状態情報としてCPUTM14を介して、ロボット動作制御装置100に送信する。同時に、視線情報取得装置TM30は、取得した使用者の視線情報をロボット動作制御装置100に送信する。   When the line-of-sight information acquisition device TM30 acquires the robot visual recognition image information, the visual line information acquisition device TM30 generates a robot visual recognition image and displays it on the display. The user determines an object to be operated (hereinafter referred to as an operation target object) from the robot visual image displayed on the display, and moves the line of sight to the operation target object. When the user's head moves as the user's line of sight moves, the shape of the multi-joint structure TM10 changes in conjunction. The multi-joint structure TM10 transmits the angle change value of the potentiometer TM13 indicating the change in position of the movable portion TM12 in each joint body TM11 to the robot motion control apparatus 100 via the CPU TM14 as multi-joint structure state information. At the same time, the line-of-sight information acquisition apparatus TM30 transmits the acquired line-of-sight information of the user to the robot motion control apparatus 100.

ロボット動作制御装置100のCPU100aは、多関節構造体状態情報及び視線情報を、通信回路100hを介して取得すると(S901)、使用者が動作し始めたか否か、例えば使用者の手が動作し始めたか否かを判断する(S903)。なお、使用者が動作し始めたか否かの判断は、これまでに取得した多関節構造体状態情報から多関節構造体TM10の状態が変化したか否かにより判断する。CPU100aは、使用者が動作し始めたと判断すると、等加速度運動に加速度補正項を付加した動きとして近似して、使用者の動作を算出する(S905)。具体的には、次の式を用いて、使用者の手の動きを算出する。

Figure 2017196678
When the CPU 100a of the robot motion control apparatus 100 acquires the multi-joint structure state information and the line-of-sight information via the communication circuit 100h (S901), whether or not the user starts to operate, for example, the user's hand operates. It is determined whether or not it has started (S903). Note that whether or not the user has started to operate is determined based on whether or not the state of the multi-joint structure TM10 has changed from the multi-joint structure state information acquired so far. When the CPU 100a determines that the user has started to move, the CPU 100a approximates it as a motion obtained by adding an acceleration correction term to the uniform acceleration motion, and calculates the motion of the user (S905). Specifically, the movement of the user's hand is calculated using the following equation.
Figure 2017196678

次に、CPU100aは、算出した使用者の動作を用いて、今後の使用者の動作方向を予測し、動作方向予測の確率分布を算出する(S907)。動作方向予測の確率分布を算出する際には、一般的に使用される確率フィルタである粒子フィルタを用いる。   Next, the CPU 100a predicts a future user's motion direction using the calculated user's motion, and calculates a motion direction prediction probability distribution (S907). When calculating the probability distribution of the motion direction prediction, a particle filter which is a generally used probability filter is used.

CPU100aは、視線情報が示す操作者の視線方向を考慮して、動作対象候補物体毎の動作対象可能性指標を算出する(S909)。ここで、動作対象可能性指標とは、動作対象候補物体情報に含まれる動作対象候補物体について、使用者が動作対象とする可能性を示す指標である。CPU100aは、具体的には、次の式を用いて、動作対象候補物体毎の動作対象可能性指標を算出する。

Figure 2017196678
The CPU 100a calculates the motion target possibility index for each motion target candidate object in consideration of the visual line direction of the operator indicated by the visual line information (S909). Here, the motion target possibility index is an index indicating the possibility that the user will be the motion target for the motion target candidate object included in the motion target candidate object information. Specifically, the CPU 100a calculates a motion target possibility index for each motion target candidate object using the following equation.
Figure 2017196678

動作対象候補物体毎の動作対象可能性指標を算出するにあたり、CPU100aは、メモリ100bに記憶している視線情報、動作対象候補物体情報、多関節構造体状態情報等を使用する。   In calculating the motion target possibility index for each motion target candidate object, the CPU 100a uses line-of-sight information, motion target candidate object information, multi-joint structure state information, and the like stored in the memory 100b.

CPU100aは、最も大きい動作対象可能性指標に対応する動作対象候補物体を、動作対象物体と判断する(S911)。なお、CPU100aは、ステップS903において、使用者が動作していないと判断すると、ステップS1203へ進み、現在取得している多関節構造体状態情報に基づき、ロボット動作制御情報を生成する(図12参照)。   The CPU 100a determines that the motion target candidate object corresponding to the largest motion target possibility index is the motion target object (S911). If the CPU 100a determines in step S903 that the user is not operating, the CPU 100a proceeds to step S1203, and generates robot motion control information based on the currently acquired multi-joint structure state information (see FIG. 12). ).

3.使用者動作軌道算出処理
使用者動作軌道算出処理について、図10を用いて説明する。使用者動作軌道算出処理とは、多関節構造体状態情報を用いて、多関節構造体状態情報に対応する動作の軌道である使用者動作軌道を算出する処理をいう。
3. User Motion Trajectory Calculation Process The user motion trajectory calculation process will be described with reference to FIG. The user motion trajectory calculation processing refers to processing for calculating a user motion trajectory that is a motion trajectory corresponding to the multi-joint structure state information using the multi-joint structure state information.

CPU100aは、メモリ100bから多関節構造体状態情報を取得する(S1001)。CPU100aは、取得した多関節構造体状態情報を用いて、ステップS911で判断した動作対象物体に対する使用者の動作軌道を算出する(S1003)。使用者の動作軌道を算出する際には、人の動作モデルと知られる躍度最小モデル(次式参照)を用いて、計測された実際の使用者の動作軌道を、躍度最小モデルに基づいて、フィッティングし、使用者の未来の動作軌道を予測する。

Figure 2017196678
The CPU 100a acquires multi-joint structure state information from the memory 100b (S1001). The CPU 100a calculates the motion trajectory of the user with respect to the motion target object determined in step S911 using the acquired multi-joint structure state information (S1003). When calculating the user's motion trajectory, the measured human user's motion trajectory is based on the minimum jerk model using the minimum jerk model known as the human motion model (see the following equation). To fit and predict the user's future motion trajectory.
Figure 2017196678

具体的には、次の式を用いて、評価値Eを最小化するx0、t0、xf、tfを算出する。

Figure 2017196678
Specifically, x0, t0, xf, and tf that minimize the evaluation value E are calculated using the following equation.
Figure 2017196678

4.ロボット動作軌道算出処理
ロボット動作軌道算出処理について、図11を用いて説明する。ロボット動作軌道算出処理とは、使用者動作軌道で表される使用者の動作を、ロボット本体RT10における動作を表すロボット動作軌道に変換する処理をいう。
4). Robot Motion Trajectory Calculation Processing Robot motion trajectory calculation processing will be described with reference to FIG. The robot motion trajectory calculation processing refers to processing for converting a user motion represented by the user motion trajectory into a robot motion trajectory representing motion in the robot body RT10.

CPU100aは、使用者動作軌道における使用者の動作ベクトル(操作速度と動作方向)である使用者動作ベクトルを微小に変化させたロボットの動作ベクトルであるロボット動作ベクトルを算出する(S1101)。具体的には、次の式を用いて、ロボット動作ベクトルを算出する

Figure 2017196678
The CPU 100a calculates a robot motion vector that is a motion vector of the robot in which the user motion vector (operation speed and motion direction) in the user motion trajectory is slightly changed (S1101). Specifically, the robot motion vector is calculated using the following formula:
Figure 2017196678

さらに、CPU100aは、使用者動作ベクトルとロボット動作ベクトルとの差を最小とするように次式の評価値Jを実時間で最適化する(S1103)。なお、CPU100aは、モデル予測制御の計算手法を用いて最適化し、最適化の結果として得られたu(t)を、毎制御サイクルで用いる。

Figure 2017196678
Further, the CPU 100a optimizes the evaluation value J of the following equation in real time so as to minimize the difference between the user motion vector and the robot motion vector (S1103). Note that the CPU 100a optimizes using a calculation method of model predictive control, and uses u (t) obtained as a result of the optimization in each control cycle.
Figure 2017196678

これにより、使用者動作ベクトルとロボット動作ベクトルとの差による生ずる使用者の動作とロボット本体RT10の動作との間の違和感を最小にする。   This minimizes the uncomfortable feeling between the user motion and the motion of the robot body RT10 caused by the difference between the user motion vector and the robot motion vector.

5.ロボット動作制御情報生成処理
ロボット動作制御情報生成処理について、図12を用いて説明する。ロボット動作制御情報生成処理とは、ロボット動作軌道で表される動作を、ロボット本体RT10で実行させるための情報を生成する処理をいう。
5. Robot Operation Control Information Generation Processing Robot operation control information generation processing will be described with reference to FIG. The robot operation control information generation process is a process for generating information for causing the robot body RT10 to execute an operation represented by a robot operation trajectory.

CPU100aは、ステップS1101で算出したロボット動作ベクトルを用いて、ロボット本体RT10を実際に動作させるためのロボット動作制御情報を生成する(S1201)。CPU100aは、生成したロボット制御情報を、通信回路100hを介してロボット本体RT10に送信する(S1203)。   The CPU 100a generates robot motion control information for actually operating the robot body RT10 using the robot motion vector calculated in step S1101 (S1201). The CPU 100a transmits the generated robot control information to the robot body RT10 via the communication circuit 100h (S1203).

ロボット本体RT10は、ロボット動作制御情報を取得すると、取得したロボット動作制御情報にしたがって、各部を動作させる。
When the robot body RT10 acquires the robot operation control information, the robot body RT10 operates each unit in accordance with the acquired robot operation control information.

[その他の実施形態]
(1)ロボット視認画像情報:前述の実施例1においては、ロボット本体RT10が動作する方向の画像としてのロボット視認画像情報を、ロボット本体RT10の頭部RT12に配置されるロボット視認画像取得装置RT30を用いて取得するとしたが、例示のものに限定されない。例えば、ロボット本体RT10とは別体として、所定位置に配置されるカメラを用いてロボット本体RT10が動作する方向の画像を取得するようにしてもよい。
[Other Embodiments]
(1) Robot visual recognition image information: In the above-described first embodiment, the robot visual recognition image acquisition device RT30 arranged on the head RT12 of the robot main body RT10 is used as robot visual recognition image information as an image in the direction in which the robot main body RT10 operates. However, the present invention is not limited to the example. For example, a separate image from the robot body RT10 may be used to acquire an image in the direction in which the robot body RT10 operates using a camera arranged at a predetermined position.

(2)視線情報の取得:前述の実施例1においては、視線情報取得装置TM30を用いて取得した使用者の視線に関する視線情報を用いて、動作対象候補物体から動作対象物体を決定するとしたが、詳細な多関節構造体状態情報等、動作対象物体を特定できる情報が使用者動作情報として取得できる場合であれば、視線情報を用いずに、動作対象物体を決定するようにしてもよい。   (2) Acquisition of line-of-sight information: In the above-described first embodiment, the movement target object is determined from the movement target candidate objects using the line-of-sight information regarding the user's line of sight acquired using the line-of-sight information acquisition device TM30. If information that can identify the motion target object such as detailed multi-joint structure state information can be acquired as user motion information, the motion target object may be determined without using the line-of-sight information.

(3)使用者の動作の入力:前述の実施例1においては、多関節構造体TM10を用いて使用者の動作を入力するとしたが、使用者の動作を取得し、ロボット本体RT10に動作を入力できるものであれば、例示のものに限定されない。例えば、モーションセンサを用いて使用者の動作を検出したり、使用者の動作を画像により取得し、画像解析を用いて使用者の動作を検出するようにしてもよい。   (3) Input of user's motion: In the above-described first embodiment, the user's motion is input using the multi-joint structure TM10. However, the user's motion is acquired and the robot body RT10 is operated. Anything that can be input is not limited to the example. For example, the motion of the user may be detected using a motion sensor, or the motion of the user may be acquired from an image, and the motion of the user may be detected using image analysis.

(4)多関節構造体TM10のハードウェア構成:前述の実施例1においては、多関節構造体TM10の関節体TM11は、1つの可動部TM12、つまり、1つの自由度を有するとしたが、2つ以上の可動部TM12を有し、2つ以上の自由度を有するようにしてもよい。また、X軸、Y軸、Z軸の各軸を中心に可動部を順番に配置せずに、任意の可動部を配置するようにしてもよい。さらに、全ての関節体TM11が可動部TM12を有するとせずに、一部の関節体TM11が、可動部TM12を有するようにしてもよい。   (4) Hardware configuration of the multi-joint structure TM10: In the above-described first embodiment, the joint body TM11 of the multi-joint structure TM10 is assumed to have one movable part TM12, that is, one degree of freedom. Two or more movable parts TM12 may be included and two or more degrees of freedom may be provided. Moreover, you may make it arrange | position arbitrary movable parts, without arrange | positioning a movable part in order centering on each axis | shaft of an X-axis, a Y-axis, and Z-axis. Furthermore, not all the joint bodies TM11 have the movable part TM12, and some joint bodies TM11 may have the movable part TM12.

(5)ロボット動作制御装置100のハードウェア構成:前述の実施例1においては、CPU100a等を用いてロボット動作制御装置100を形成するとしたが、所定のプログラムを実行できるものであれば、例示のものに限定されない。例えば、専用のロジック回路を用いてロボット動作制御装置100に所定のプログラムを実行させるようにしてもよい。   (5) Hardware configuration of the robot motion control apparatus 100: In the above-described first embodiment, the robot motion control apparatus 100 is formed using the CPU 100a or the like. It is not limited to things. For example, a predetermined program may be executed by the robot motion control apparatus 100 using a dedicated logic circuit.

(6)ロボット動作制御プログラム:前述の実施例1においては、ロボット動作制御プログラムは、図7に示す機能を、図8〜図12に示すフローチャートに沿った処理により実現するとしたが、図7に示す機能を実現するものであれば、例示のものに限定されない。
(6) Robot operation control program: In the first embodiment, the robot operation control program realizes the function shown in FIG. 7 by the processing according to the flowcharts shown in FIGS. The present invention is not limited to the examples as long as the functions shown are realized.

本発明に係るロボット動作制御装置は、例えば、人型ロボットの動作を、人間の動作によって制御するロボット動作制御システムに使用できる。   The robot motion control device according to the present invention can be used, for example, in a robot motion control system that controls the motion of a humanoid robot by human motion.

100 ロボット動作制御装置
100a CPU
100b メモリ
100c ハードディスクドライブ
100d キーボード
100e マウス
100f ディスプレイ
100g 光学式ドライブ
100h 通信回路
100p 光学式メディア
RT ロボット
RT10 ロボット本体
RT11 胴部
RT12 頭部
RT13 首部
RT14 肩部
RT15 腕部
RT16 肘部
RT17 手首部
RT18 手指部
RT19 ベース部
RT30 ロボット視認画像取得装置
TM ロボット動作入力装置
TM10 多関節構造体
TM11 関節体
TM12 可動部
TM13 ポテンショメータ
TM14 CPU
TM30 ロボット視線情報取得装置
TM30 視線情報取得装置
TM31 ディスプレイ
TM33 視線検知部
RS ロボット動作制御システム
100 Robot motion control device 100a CPU
100b Memory 100c Hard disk drive 100d Keyboard 100e Mouse 100f Display 100g Optical drive 100h Communication circuit 100p Optical media RT Robot RT10 Robot main body RT11 Body RT12 Head RT13 Neck RT14 Shoulder RT15 Arm RT16 Elbow RT17 Wrist RT18 RT19 Base part RT30 Robot visual image acquisition device TM Robot motion input device TM10 Multi-joint structure TM11 Joint body TM12 Movable part TM13 Potentiometer TM14 CPU
TM30 Robot Gaze Information Acquisition Device TM30 Gaze Information Acquisition Device TM31 Display TM33 Gaze Detection Unit RS Robot Motion Control System

Claims (5)

使用者の動作である使用者動作を示す使用者動作情報に対応する動作であるロボット動作をロボットに実行させるロボット動作制御装置であって、
前記ロボットにおける前記ロボット動作の方向の画像を示すロボット画像情報から、前記ロボット動作の対象となり得る動作対象候補物体を判断する動作対象候補物体判断手段、
前記動作対象候補物体から、前記ロボットの動作の対象物体となる動作対象物体を決定するロボット動作対象物体決定手段、
前記使用者動作情報を用いて、前記使用者動作情報に対応する前記動作の軌道である使用者動作軌道を算出する使用者動作軌道算出手段、
前記使用者動作軌道を用いて、前記ロボット動作の軌道であるロボット動作軌道を算出するロボット動作軌道算出手段、
前記ロボット動作軌道を用いて、前記ロボットの動作を制御するロボット動作制御情報を生成するロボット動作制御情報生成手段、
を有するロボット動作制御装置。
A robot motion control device that causes a robot to execute a robot motion that is a motion corresponding to user motion information indicating a user motion that is a user motion,
Action target candidate object judging means for judging an action target candidate object that can be a target of the robot action from robot image information indicating an image of the direction of the robot action in the robot;
A robot motion target object determining means for determining a motion target object to be a motion target object of the robot from the motion target candidate object;
A user motion trajectory calculating means for calculating a user motion trajectory that is a trajectory of the motion corresponding to the user motion information using the user motion information;
Robot motion trajectory calculating means for calculating a robot motion trajectory that is the trajectory of the robot motion using the user motion trajectory,
Robot operation control information generating means for generating robot operation control information for controlling the operation of the robot using the robot operation trajectory,
A robot motion control device having
請求項1に係るロボット動作制御装置において、
前記ロボット動作対象物体決定手段は、
前記ロボット画像情報の前記画像に対する使用者の視線を示す視線情報をもちいて、前記画像から前記動作対象物体を決定すること、
を特徴とするロボット動作制御装置。
In the robot motion control device according to claim 1,
The robot motion target object determining means includes
Using the line-of-sight information indicating the line of sight of the user with respect to the image of the robot image information, determining the operation target object from the image;
A robot motion control device characterized by the above.
請求項1または請求項2に係るロボット動作制御装置において、
前記ロボット動作対象物体決定手段は、
前記動作対象候補物体に対する前記使用者の動作の方向を、確率フィルタを用いて確率分布として算出することによって、前記画像から前記動作対象物体を決定すること、
を特徴とするロボット動作制御装置。
In the robot motion control device according to claim 1 or 2,
The robot motion target object determining means includes
Determining the motion target object from the image by calculating a direction of the motion of the user with respect to the motion target candidate object as a probability distribution using a probability filter;
A robot motion control device characterized by the above.
請求項1〜請求項3に係るロボット動作制御装置のいずれかにおいて、
前記ロボット動作軌道算出手段は、
前記使用者動作軌道における使用者の動作ベクトルである使用者動作ベクトルを変化させて、ロボットの動作ベクトルであるロボット動作ベクトルを算出すること、
を特徴とするロボット動作制御装置。
In any one of the robot motion control apparatuses according to claims 1 to 3,
The robot motion trajectory calculating means includes
Changing a user motion vector that is a user motion vector in the user motion trajectory to calculate a robot motion vector that is a robot motion vector;
A robot motion control device characterized by the above.
コンピュータを、使用者の動作である使用者動作を示す使用者動作情報に対応する動作であるロボット動作をロボットに実行させるロボット動作制御装置として機能させるロボット動作制御プログラムであって、
前記ロボット動作制御プログラムは、
前記コンピュータを、
前記ロボットにおける前記ロボット動作の方向の画像を示すロボット画像情報から、前記ロボット動作の対象となり得る動作対象候補物体を判断する動作対象候補物体判断手段、
前記動作対象候補物体から、前記ロボットの動作の対象物体となる動作対象物体を決定するロボット動作対象物体決定手段、
前記使用者動作情報を用いて、前記使用者動作情報に対応する前記動作の軌道である使用者動作軌道を算出する使用者動作軌道算出手段、
前記使用者動作軌道を用いて、前記ロボット動作の軌道であるロボット動作軌道を算出するロボット動作軌道算出手段、
前記ロボット動作軌道を用いて、前記ロボットの動作を制御するロボット動作制御情報を生成するロボット動作制御情報生成手段、
として機能させること、
を特徴とするロボット動作制御プログラム。
A robot operation control program that causes a computer to function as a robot operation control device that causes a robot to execute a robot operation that is an operation corresponding to user operation information indicating a user operation that is a user operation,
The robot motion control program is
The computer,
Action target candidate object judging means for judging an action target candidate object that can be a target of the robot action from robot image information indicating an image of the direction of the robot action in the robot;
A robot motion target object determining means for determining a motion target object to be a motion target object of the robot from the motion target candidate object;
A user motion trajectory calculating means for calculating a user motion trajectory that is a trajectory of the motion corresponding to the user motion information using the user motion information;
Robot motion trajectory calculating means for calculating a robot motion trajectory that is the trajectory of the robot motion using the user motion trajectory,
Robot operation control information generating means for generating robot operation control information for controlling the operation of the robot using the robot operation trajectory,
To function as a
A robot motion control program characterized by
JP2016087583A 2016-04-25 2016-04-25 Robot motion control device Pending JP2017196678A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016087583A JP2017196678A (en) 2016-04-25 2016-04-25 Robot motion control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016087583A JP2017196678A (en) 2016-04-25 2016-04-25 Robot motion control device

Publications (1)

Publication Number Publication Date
JP2017196678A true JP2017196678A (en) 2017-11-02

Family

ID=60238773

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016087583A Pending JP2017196678A (en) 2016-04-25 2016-04-25 Robot motion control device

Country Status (1)

Country Link
JP (1) JP2017196678A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022209924A1 (en) * 2021-03-31 2022-10-06 本田技研工業株式会社 Robot remote operation control device, robot remote operation control system, robot remote operation control method, and program
JP2023507241A (en) * 2019-12-31 2023-02-21 ヒューマン モード、エルエルシー A proxy controller suit with arbitrary dual-range kinematics
WO2024013895A1 (en) * 2022-07-13 2024-01-18 日本電信電話株式会社 Remote control system, remote control method, and remote control program
JP7535968B2 (en) 2021-03-31 2024-08-19 本田技研工業株式会社 ROBOT REMOTE OPERATION CONTROL DEVICE, ROBOT REMOTE OPERATION CONTROL SYSTEM, ROBOT REMOTE OPERATION CONTROL METHOD, AND PROGRAM
US12109706B2 (en) 2021-03-22 2024-10-08 Honda Motor Co., Ltd. Control device, robot system, control method, and non-transitory computer-readable medium
JP7565848B2 (en) 2021-03-31 2024-10-11 本田技研工業株式会社 ROBOT REMOTE OPERATION CONTROL DEVICE, ROBOT REMOTE OPERATION CONTROL SYSTEM, ROBOT REMOTE OPERATION CONTROL METHOD, AND PROGRAM
JP7565849B2 (en) 2021-03-31 2024-10-11 本田技研工業株式会社 ROBOT REMOTE OPERATION CONTROL DEVICE, ROBOT REMOTE OPERATION CONTROL SYSTEM, ROBOT REMOTE OPERATION CONTROL METHOD, AND PROGRAM
JP7569742B2 (en) 2021-04-15 2024-10-18 本田技研工業株式会社 SERVER, REMOTE CONTROL SYSTEM, REMOTE CONTROL METHOD, AND PROGRAM
JP7577003B2 (en) 2021-03-22 2024-11-01 本田技研工業株式会社 CONTROL DEVICE, ROBOT SYSTEM, CONTROL METHOD, AND PROGRAM

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
根岸健多、松本庸佑、高橋史泰、並木明夫: "マスタ・スレーブ制御における操縦者の意思を考慮した視覚フィードバックによる操作補助", 第20回ロボティクスシンポジア, JPN6020011615, 14 March 2015 (2015-03-14), pages 512 - 519, ISSN: 0004363208 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023507241A (en) * 2019-12-31 2023-02-21 ヒューマン モード、エルエルシー A proxy controller suit with arbitrary dual-range kinematics
JP7428436B2 (en) 2019-12-31 2024-02-06 ヒューマン モード、エルエルシー Proxy controller suit with arbitrary dual range kinematics
US12109706B2 (en) 2021-03-22 2024-10-08 Honda Motor Co., Ltd. Control device, robot system, control method, and non-transitory computer-readable medium
JP7577003B2 (en) 2021-03-22 2024-11-01 本田技研工業株式会社 CONTROL DEVICE, ROBOT SYSTEM, CONTROL METHOD, AND PROGRAM
WO2022209924A1 (en) * 2021-03-31 2022-10-06 本田技研工業株式会社 Robot remote operation control device, robot remote operation control system, robot remote operation control method, and program
JP7535968B2 (en) 2021-03-31 2024-08-19 本田技研工業株式会社 ROBOT REMOTE OPERATION CONTROL DEVICE, ROBOT REMOTE OPERATION CONTROL SYSTEM, ROBOT REMOTE OPERATION CONTROL METHOD, AND PROGRAM
JP7565848B2 (en) 2021-03-31 2024-10-11 本田技研工業株式会社 ROBOT REMOTE OPERATION CONTROL DEVICE, ROBOT REMOTE OPERATION CONTROL SYSTEM, ROBOT REMOTE OPERATION CONTROL METHOD, AND PROGRAM
JP7565849B2 (en) 2021-03-31 2024-10-11 本田技研工業株式会社 ROBOT REMOTE OPERATION CONTROL DEVICE, ROBOT REMOTE OPERATION CONTROL SYSTEM, ROBOT REMOTE OPERATION CONTROL METHOD, AND PROGRAM
JP7577017B2 (en) 2021-03-31 2024-11-01 本田技研工業株式会社 CONTROL DEVICE, ROBOT SYSTEM, CONTROL METHOD, AND PROGRAM
JP7569742B2 (en) 2021-04-15 2024-10-18 本田技研工業株式会社 SERVER, REMOTE CONTROL SYSTEM, REMOTE CONTROL METHOD, AND PROGRAM
WO2024013895A1 (en) * 2022-07-13 2024-01-18 日本電信電話株式会社 Remote control system, remote control method, and remote control program

Similar Documents

Publication Publication Date Title
JP2017196678A (en) Robot motion control device
US11344374B2 (en) Detection of unintentional movement of a user interface device
US11379287B2 (en) System and method for error detection and correction in virtual reality and augmented reality environments
CN110647237B (en) Gesture-based content sharing in an artificial reality environment
US11573641B2 (en) Gesture recognition system and method of using same
CN107428004B (en) Automatic collection and tagging of object data
US20220253133A1 (en) Deep predictor recurrent neural network for head pose prediction
US11169601B2 (en) Methods and systems for determining teleoperating user intent via eye tracking
US20200286302A1 (en) Method And Apparatus For Manipulating Object In Virtual Or Augmented Reality Based On Hand Motion Capture Apparatus
US10976863B1 (en) Calibration of inertial measurement units in alignment with a skeleton model to control a computer system based on determination of orientation of an inertial measurement unit from an image of a portion of a user
JP2010108500A (en) User interface device for wearable computing environmental base, and method therefor
CN104254816A (en) A data input device
US11237632B2 (en) Ring device having an antenna, a touch pad, and/or a charging pad to control a computing device based on user motions
CN104298340A (en) Control method and electronic equipment
KR102046706B1 (en) Techniques of performing neural network-based gesture recognition using wearable device
CN109202864B (en) Evaluation information output device, evaluation information output method, and storage medium
Fukuoka et al. FaceDrive: Facial expression driven operation to control virtual supernumerary robotic arms
WO2021207033A1 (en) Input device to control a computing device with a touch pad having a curved surface configured to sense touch input
Zhang et al. Hand Pose Estimation with Mems-Ultrasonic Sensors
KR20220164376A (en) Lightweight hand joint prediction method and apparatus for real-time hand motion interface implementation of ar glasses device
Patel et al. Human-system interaction interface utilizing 3D gesture recognition techniques based on wearable technology
KR102316389B1 (en) Method for estimating coordinates of virtual object
US20240281072A1 (en) Information processing apparatus, information processing method, and program
Saini Real-Time Teleoperation Using Monocular 3D Human Pose Estimation
TW202430967A (en) Head-mounted display, controlling method and non-transitory computer readable storage medium thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190402

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200407

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201013