JP7569742B2 - SERVER, REMOTE CONTROL SYSTEM, REMOTE CONTROL METHOD, AND PROGRAM - Google Patents

SERVER, REMOTE CONTROL SYSTEM, REMOTE CONTROL METHOD, AND PROGRAM Download PDF

Info

Publication number
JP7569742B2
JP7569742B2 JP2021069233A JP2021069233A JP7569742B2 JP 7569742 B2 JP7569742 B2 JP 7569742B2 JP 2021069233 A JP2021069233 A JP 2021069233A JP 2021069233 A JP2021069233 A JP 2021069233A JP 7569742 B2 JP7569742 B2 JP 7569742B2
Authority
JP
Japan
Prior art keywords
robot
unit
information
robot device
intention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021069233A
Other languages
Japanese (ja)
Other versions
JP2022164027A (en
Inventor
裕太 木村
智弘 川上
孝英 吉池
謙一郎 杉山
維昭 室町
洋一 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2021069233A priority Critical patent/JP7569742B2/en
Priority to CN202210195963.6A priority patent/CN115225682B/en
Priority to CN202311388284.1A priority patent/CN117336337A/en
Priority to US17/720,271 priority patent/US20220331967A1/en
Publication of JP2022164027A publication Critical patent/JP2022164027A/en
Priority to US18/655,333 priority patent/US20240286290A1/en
Application granted granted Critical
Publication of JP7569742B2 publication Critical patent/JP7569742B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、サーバ、遠隔操作システム、遠隔操作方法、およびプログラムに関する。 The present invention relates to a server, a remote control system, a remote control method, and a program.

従来、モニタ用端末または別の端末から送信されたデータにより、ロボットを遠隔操作して実験器具または実験装置を操作する技術が知られている(例えば、特許文献1参照)。 Conventionally, there is known technology for remotely controlling a robot to operate experimental equipment or devices using data transmitted from a monitor terminal or another terminal (see, for example, Patent Document 1).

特開2003-092749号公報JP 2003-092749 A

しかしながら、従来の技術では、端末装置から指示できる内容に制限があるため、特定の作業しかロボットに行わせることができず、ロボットを適切に動作させることができない場合があった。 However, with conventional technology, there were limitations to the instructions that could be given from a terminal device, so the robot could only be made to perform specific tasks, and there were cases where the robot could not be made to operate appropriately.

本発明の態様は、このような事情を考慮してなされたものであり、ロボットをより適切に動作させることができるサーバ、遠隔操作システム、遠隔操作方法、およびプログラムを提供することを目的の一つとする。 The aspects of the present invention have been made in consideration of these circumstances, and one of the objectives is to provide a server, a remote control system, a remote control method, and a program that can operate a robot more appropriately.

この発明に係るサーバ、遠隔操作システム、遠隔操作方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係るサーバは、一以上のロボット装置および前記一以上のロボット装置のうち少なくとも一つを遠隔操作する一以上の操作端末とネットワークを介して通信する通信部と、前記操作端末によって入力された操作内容を取得する取得部と、前記取得部により取得された操作内容に基づいて前記操作端末の操作者の意図を推定する意図推定部と、前記意図推定部により推定された意図結果に基づいて前記ロボット装置の動作を制御する動作制御部と、を備える、サーバである。
The server, the remote control system, the remote control method, and the program according to the present invention employ the following configuration.
(1): A server according to one embodiment of the present invention is a server including: a communication unit that communicates via a network with one or more robotic devices and one or more operation terminals that remotely operate at least one of the one or more robotic devices; an acquisition unit that acquires operation content input by the operation terminal; an intention estimation unit that estimates the intention of an operator of the operation terminal based on the operation content acquired by the acquisition unit; and an operation control unit that controls operation of the robotic device based on the intention result estimated by the intention estimation unit.

(2):上記(1)の態様において、前記取得部は、前記ロボット装置の動作に関するロボット制御情報と、前記ロボット装置に設けられたセンサにより検出されたセンサ情報とを取得し、前記取得部により取得された前記ロボット制御情報と前記センサ情報とに、それぞれ異なるアクセス権を設定し、設定されたアクセス権が確認されたときに前記ロボット制御情報と前記センサ情報の何れかを取得可能とする管理部を更に備えるものである。 (2): In the above aspect (1), the acquisition unit acquires robot control information related to the operation of the robot device and sensor information detected by a sensor provided in the robot device, and further includes a management unit that sets different access rights to the robot control information and the sensor information acquired by the acquisition unit, and enables acquisition of either the robot control information or the sensor information when the set access rights are confirmed.

(3):上記(2)の態様において、前記管理部は、前記センサ情報のアクセス権の強度を、前記ロボット制御情報よりも大きくするものである。 (3): In the aspect of (2) above, the management unit sets the strength of the access rights for the sensor information to be greater than that for the robot control information.

(4):上記(1)から(3)のうち何れか1つの態様において、前記動作制御部は、複数の操作端末から取得した操作内容に基づいて一つのロボット装置の動作を制御する場合に、前記操作端末を操作する操作者の優先度に基づいて、前記ロボット装置の動作制御情報を生成するものである。 (4): In any one of the above aspects (1) to (3), when the operation control unit controls the operation of one robot device based on operation contents acquired from multiple operation terminals, the operation control unit generates operation control information for the robot device based on the priority of the operator who operates the operation terminal.

(5):上記(4)の態様において、前記動作制御部は、前記取得部により前記複数の操作端末から同一または類似の操作内容が取得された場合に、前記優先度の高い操作者からの操作内容を優先させて前記ロボット装置の動作を制御するものである。 (5): In the aspect of (4) above, when the acquisition unit acquires the same or similar operation content from the multiple operation terminals, the operation control unit controls the operation of the robot device by prioritizing the operation content from the operator with the highest priority.

(6):上記(4)または(5)の態様において、前記意図推定部は、前記一つのロボット装置を操作する複数の操作端末のそれぞれの操作者の意図を推定し、前記意図推定部により推定された前記それぞれの操作者の意図推定結果を前記複数の前記操作端末のそれぞれに出力させる出力制御部を更に備えるものである。 (6): In the above aspect (4) or (5), the intention estimation unit further includes an output control unit that estimates the intention of each of the operators of a plurality of operation terminals that operate the single robot device, and outputs the intention estimation results of each of the operators estimated by the intention estimation unit to each of the plurality of operation terminals.

(7):本発明の他の態様は、上記(1)~(6)の何れかに記載されたサーバと、前記一以上のロボット装置と、前記一以上の操作端末と、を備える、遠隔操作システムである。 (7): Another aspect of the present invention is a remote control system comprising a server as described in any one of (1) to (6) above, the one or more robot devices, and the one or more operation terminals.

(8):本発明の他の態様は、コンピュータが、一以上のロボット装置および前記一以上のロボット装置のうち少なくとも一つを遠隔操作する一以上の操作端末とネットワークを介して通信し、前記操作端末によって入力された操作内容を取得し、取得した操作内容に基づいて前記操作端末の操作者の意図を推定し、推定した意図結果に基づいて前記ロボット装置の動作を制御する、遠隔操作方法である。 (8): Another aspect of the present invention is a remote operation method in which a computer communicates via a network with one or more robotic devices and one or more operation terminals that remotely operate at least one of the one or more robotic devices, acquires operation content input by the operation terminal, estimates the intention of the operator of the operation terminal based on the acquired operation content, and controls the operation of the robotic device based on the estimated intention result.

(9):本発明の他の態様は、コンピュータに、一以上のロボット装置および前記一以上のロボット装置のうち少なくとも一つを遠隔操作する一以上の操作端末とネットワークを介して通信させ、前記操作端末によって入力された操作内容を取得させ、取得された操作内容に基づいて前記操作端末の操作者の意図を推定させ、推定された意図結果に基づいて前記ロボット装置の動作を制御させる、プログラムである。 (9): Another aspect of the present invention is a program that causes a computer to communicate via a network with one or more robotic devices and one or more operation terminals that remotely operate at least one of the one or more robotic devices, acquire operation content input by the operation terminal, estimate the intention of the operator of the operation terminal based on the acquired operation content, and control the operation of the robotic device based on the estimated intention result.

上記(1)~(9)の態様によれば、ロボットをより適切に動作させることができる。 According to the above aspects (1) to (9), the robot can be operated more appropriately.

上記(2)~(3)の態様によれば、データの機密性が守られる。したがって、例えば、アクセス権を持たない企業にセンサ情報を盗まれたり、改ざんされたりすることを防止することができ、システム全体のセキュリティを向上させることができる。また、アクセス権によって提供する情報を管理することで、様々な企業等に安心してサービスを利用させることができる。 According to the above aspects (2) to (3), the confidentiality of data is protected. Therefore, for example, it is possible to prevent sensor information from being stolen or tampered with by companies that do not have the access rights, thereby improving the security of the entire system. In addition, by managing the information provided based on the access rights, various companies can use the service with peace of mind.

上記(4)~(5)の態様によれば、複数の操作者によって操作された場合であっても、適切にロボットを操作させることができる。 According to the above aspects (4) to (5), the robot can be operated appropriately even when operated by multiple operators.

上記(5)の態様によれば、複数の操作者に他の操作者によって操作されている状況を、より正確に把握することができる。したがって、より適切な操作内容を入力してロボット装置を動作させることができる。 According to the above aspect (5), multiple operators can more accurately grasp the situation in which the robot device is being operated by other operators. Therefore, the robot device can be operated by inputting more appropriate operation content.

実施形態に係る遠隔操作システム1の構成の一例を示す図である。1 is a diagram illustrating an example of a configuration of a remote control system 1 according to an embodiment. 実施形態に係る管理サーバ100の構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a configuration of a management server 100 according to the embodiment. 意図推定情報172Bの内容について説明するための図である。FIG. 13 is a diagram for explaining the contents of intention estimation information 172B. 企業別利用者情報174Aの内容について説明するための図である。FIG. 13 is a diagram for explaining the contents of company-specific user information 174A. 企業別センサ情報174Bの内容について説明するための図である。FIG. 13 is a diagram for explaining the contents of company-specific sensor information 174B. 実施形態に係るロボット装置200の構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a configuration of a robot device 200 according to an embodiment. 実施形態に係る操作端末300の構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a configuration of an operation terminal 300 according to the embodiment. 本実施形態に係るロボット装置200の遠隔操作について説明するための図である。FIG. 2 is a diagram for explaining remote control of the robot device 200 according to the present embodiment. 操作端末300が表示する画像IM10の一例を示す図である。FIG. 2 is a diagram showing an example of an image IM10 displayed by an operation terminal 300. 優先度に基づく作業が実行された場合に操作端末300に表示される画像IM20の一例を示す図である。FIG. 13 is a diagram showing an example of an image IM20 displayed on the operation terminal 300 when a task based on a priority is executed. ロボット装置に実行される動作を操作者に問い合わせる画像IM30の一例を示す図である。FIG. 13 is a diagram showing an example of an image IM30 for inquiring of an operator about an operation to be executed by the robot device. ロボット装置200のモニタ214に表示される画像IM40の一例を示す図である。FIG. 2 is a diagram showing an example of an image IM40 displayed on a monitor 214 of the robot device 200. 実施形態における遠隔操作システム1によって実行される処理について説明するためのシーケンス図である。FIG. 2 is a sequence diagram for explaining a process executed by the remote control system 1 in the embodiment.

以下、図面を参照し、本発明のサーバ、遠隔操作システム、遠隔操作方法、およびプログラムの実施形態について説明する。 Below, we will explain the embodiments of the server, remote control system, remote control method, and program of the present invention with reference to the drawings.

[システム構成]
図1は、実施形態に係る遠隔操作システム1の構成の一例を示す図である。図1に示す遠隔操作システム1は、例えば、管理サーバ100と、ロボット装置200と、操作端末300と、を備える。また、管理サーバ100は、上記構成に加えて、ロボットメーカ端末400と、通信企業端末500とを備えていてもよい。管理サーバ100は、ロボット装置200、操作端末300、ロボットメーカ端末400、および通信企業端末500と、ネットワークNWを介して通信可能に接続されている。ネットワークNWは、例えば、インターネット、セルラー網、Wi-Fi(登録商標)網、WAN(Wide Area Network)、LAN(Local Area Network)、プロバイダ装置、無線基地局等を含む。遠隔操作システム1において、ロボット装置200および操作端末300は、それぞれが一以上備えていてもよい。図1の例では、ロボット装置200A、200B、および200Cが示されているが、ロボット装置の数や種類についてはこれに限定されない。また、図1の例では、複数の企業A,Bごとに管理された操作端末300A-1~300A-n(nは2以上の自然数)、300B-1~300B-nが示されているが、数等については、これに限定されない。以下、ロボット装置および操作端末のそれぞれを特に識別しない場合は、単に「ロボット装置200」、「操作端末300」と称して説明する。管理サーバ100は、「サーバ」の一例である。
[System configuration]
FIG. 1 is a diagram showing an example of the configuration of a remote operation system 1 according to an embodiment. The remote operation system 1 shown in FIG. 1 includes, for example, a management server 100, a robot device 200, and an operation terminal 300. In addition to the above configuration, the management server 100 may also include a robot manufacturer terminal 400 and a telecommunications company terminal 500. The management server 100 is communicatively connected to the robot device 200, the operation terminal 300, the robot manufacturer terminal 400, and the telecommunications company terminal 500 via a network NW. The network NW includes, for example, the Internet, a cellular network, a Wi-Fi (registered trademark) network, a WAN (Wide Area Network), a LAN (Local Area Network), a provider device, a wireless base station, and the like. In the remote operation system 1, the robot device 200 and the operation terminal 300 may each include one or more. In the example of FIG. 1, robot devices 200A, 200B, and 200C are shown, but the number and types of the robot devices are not limited to this. 1 shows operation terminals 300A-1 to 300A-n (n is a natural number of 2 or more) and 300B-1 to 300B-n managed by each of a plurality of companies A and B, but the numbers are not limited to this. In the following description, when the robot device and the operation terminal are not particularly identified, they will be simply referred to as "robot device 200" and "operation terminal 300". The management server 100 is an example of a "server".

管理サーバ100は、一以上の操作端末300と、操作対象の一以上のロボット装置200とを対応付けて管理する。この場合、管理サーバ100は、操作端末300ごとに1台のロボット装置200を対応付けてもよく、複数の操作端末300に1台のロボット装置200を対応付けてもよく、1つの操作端末300に複数のロボット装置200を対応付けてもよい。また、管理サーバ100は、操作端末300から入力された操作内容を取得し、操作内容に対応する動作制御情報をロボット装置200に送信することで、ロボット装置200の遠隔操作を実行させる。また、管理サーバ100は、ロボット装置200によって取得した情報を操作端末300に送信する。 The management server 100 manages one or more operation terminals 300 in association with one or more robotic devices 200 to be operated. In this case, the management server 100 may associate one robotic device 200 with each operation terminal 300, may associate one robotic device 200 with multiple operation terminals 300, or may associate multiple robotic devices 200 with one operation terminal 300. The management server 100 also acquires operation content input from the operation terminal 300 and transmits operation control information corresponding to the operation content to the robotic device 200, thereby remotely operating the robotic device 200. The management server 100 also transmits information acquired by the robotic device 200 to the operation terminal 300.

ロボット装置200は、ネットワークNWを介して管理サーバ100から送信された制御情報に基づいて、所定の動作を実行する。ロボット装置200は、例えば、車輪や台車、クローラー、クレーン等を駆動させることによって移動することができる移動機構を備える。図1の例において、ロボット装置200Aは、少なくともクレーンによって移動可能な両腕を備えるロボットである。ロボット装置200Bは、下部に設けられた車輪によって移動可能な両腕を備えるロボットである。ロボット装置200Cは、二足歩行動作よって移動可能な両腕を備えるロボットである。また、ロボット装置200は、物体に対して、把持や移動、操作等の作業を実行するアーム部を備える。また、ロボット装置200には、振動や温度、圧力、触覚センサ等の各種のセンサが複数設けられ、各センサによって検出されたデータを所定周期または要求を受け付けたタイミングで管理サーバ100に送信する。また、ロボット装置200は、周辺を撮像するカメラや、画像を表示するモニタ、音声を出力するスピーカ、周辺の音を取得するマイク等を備えていてもよい。 The robot device 200 executes a predetermined operation based on control information transmitted from the management server 100 via the network NW. The robot device 200 is equipped with a moving mechanism that can move by driving wheels, a cart, a crawler, a crane, or the like. In the example of FIG. 1, the robot device 200A is a robot equipped with both arms that can move by at least a crane. The robot device 200B is a robot equipped with both arms that can move by wheels provided at the bottom. The robot device 200C is a robot equipped with both arms that can move by bipedal walking. The robot device 200 is also equipped with an arm unit that performs tasks such as grasping, moving, and operating an object. The robot device 200 is also equipped with multiple various sensors such as vibration, temperature, pressure, and tactile sensors, and transmits data detected by each sensor to the management server 100 at a predetermined cycle or at the timing when a request is received. The robot device 200 may also be equipped with a camera that captures images of the surroundings, a monitor that displays images, a speaker that outputs sound, a microphone that captures surrounding sounds, and the like.

操作端末300は、例えば、ロボット装置200を利用する企業ごとに一以上設けられている。操作端末300は、ロボット装置200の操作内容を入力したり、ロボット装置200により取得された情報を、操作者に通知する。操作端末300は、1台または複数のロボット装置200を操作可能である。また、操作端末300は、ロボット装置200の一部のパーツ(例えば、右手アームまたは左手アーム等)を操作してもよい。また、操作端末300は、例えば、HMD(ヘッドマウントディスプレイ)や操作装置、操作者の動きを検出する環境センサが設けられていてもよい。なお、操作端末300は、企業内施設に設けられているものに限定されず、操作者の自宅に設けられた端末でもよく、駅やデパート、公共施設、ネットカフェ等に設置されたテレワークステーションに設けられた端末でもよい。 For example, one or more operation terminals 300 are provided for each company that uses the robot device 200. The operation terminal 300 inputs the operation contents of the robot device 200 and notifies the operator of information acquired by the robot device 200. The operation terminal 300 can operate one or more robot devices 200. The operation terminal 300 may also operate some parts of the robot device 200 (e.g., the right arm or the left arm, etc.). The operation terminal 300 may also be provided with, for example, an HMD (head mounted display), an operation device, and an environmental sensor that detects the movement of the operator. Note that the operation terminal 300 is not limited to being provided in a facility within the company, and may be a terminal provided in the operator's home, or a terminal provided in a telework station installed in a station, department store, public facility, internet cafe, etc.

ロボットメーカ端末400は、例えば、ロボット装置200の製造業者や管理会社が利用する端末である。ロボットメーカ端末400は、例えば、各ロボット装置200に搭載されたソフトウェア(プログラム)のバージョンを更新したり、ロボット装置200からのエラー情報を取得し、取得したエラー情報に基づいて、ロボット装置200の遠隔操作や停止制御等を行う。 The robot manufacturer terminal 400 is a terminal used, for example, by the manufacturer or management company of the robot device 200. The robot manufacturer terminal 400, for example, updates the version of the software (program) installed in each robot device 200, acquires error information from the robot device 200, and performs remote operation or stop control of the robot device 200 based on the acquired error information.

通信企業端末500は、例えば、ネットワークNW上の通信を管理する通信事業者等が利用する端末である。通信企業端末500は、遠隔操作システム1に対し、遠隔操作のために通信されるデータ量を管理したり、通信の遅延等を管理し、システム内の通信環境のメンテナンス等を行う。また、通信企業端末500は、ネットワークNW上に障害が発生した場合の対応等を行ってもよい。 The telecommunications company terminal 500 is, for example, a terminal used by a telecommunications company that manages communications on the network NW. The telecommunications company terminal 500 manages the amount of data communicated for remote operation of the remote control system 1, manages communication delays, etc., and performs maintenance of the communication environment within the system. The telecommunications company terminal 500 may also respond when a failure occurs on the network NW.

次に、管理サーバ100、ロボット装置200、および操作端末300の機能について具体的に説明する。
[管理サーバ]
図2は、実施形態に係る管理サーバ100の構成の一例を示す図である。管理サーバ100は、例えば、通信部110と、通信制御部120と、取得部130と、管理部140と、制御部150と、記憶部170とを備える。通信制御部120と、取得部130と、管理部140と、制御部150とは、それぞれ、例えばCPU(Central Processing Unit)等のハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)等のハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。これらの構成要素の機能のうち一部または全部は、専用のLSIによって実現されてもよい。プログラムは、予め管理サーバ100が備えるHDD(Hard Disk Drive)やフラッシュメモリ等の記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROM等の着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体が、管理サーバ100が備えるドライブ装置に装着されることで管理サーバ100が備えるHDDやフラッシュメモリにインストールされてもよい。管理サーバ100は、クラウドコンピューティングシステムに組み込まれたサーバ装置や記憶装置に実現されてもよい。この場合、クラウドコンピューティングシステムにおける複数のサーバ装置や記憶装置によって、管理サーバ100の機能が実現されてもよい。
Next, the functions of the management server 100, the robot device 200, and the operation terminal 300 will be specifically described.
[Administration Server]
FIG. 2 is a diagram showing an example of the configuration of the management server 100 according to the embodiment. The management server 100 includes, for example, a communication unit 110, a communication control unit 120, an acquisition unit 130, a management unit 140, a control unit 150, and a storage unit 170. The communication control unit 120, the acquisition unit 130, the management unit 140, and the control unit 150 are each realized by a hardware processor such as a CPU (Central Processing Unit) executing a program (software). Some or all of these components may be realized by hardware (including circuitry) such as an LSI (Large Scale Integration), an ASIC (Application Specific Integrated Circuit), an FPGA (Field-Programmable Gate Array), or a GPU (Graphics Processing Unit), or may be realized by cooperation between software and hardware. Some or all of the functions of these components may be realized by a dedicated LSI. The program may be stored in advance in a storage device (storage device with a non-transient storage medium) such as a hard disk drive (HDD) or flash memory provided in the management server 100, or may be stored in a removable storage medium (non-transient storage medium) such as a DVD or CD-ROM, and the storage medium may be installed in the HDD or flash memory provided in the management server 100 by being attached to a drive device provided in the management server 100. The management server 100 may be realized in a server device or storage device incorporated in a cloud computing system. In this case, the functions of the management server 100 may be realized by a plurality of server devices and storage devices in the cloud computing system.

通信部110は、通信制御部120の制御により、ネットワークNWを介して、一以上のロボット装置200、一以上のロボット装置200を遠隔操作する操作端末300、その他の外部装置と通信する。通信制御部120は、通信部110における通信を制御する。 Under the control of the communication control unit 120, the communication unit 110 communicates with one or more robot devices 200, an operation terminal 300 that remotely operates one or more robot devices 200, and other external devices via the network NW. The communication control unit 120 controls the communication in the communication unit 110.

通信制御部120は、通信部110における通信を制御する。通信制御部120は、例えば、操作端末300から入力されたロボット装置200の操作内容を受信したり、操作内容に応じた動作制御情報を、ロボット装置200に送信する。また、通信制御部120は、ロボット装置200から送信されたセンサ等の検出結果やカメラ画像等の情報を受信したり、受信した情報に基づく提供情報を、操作端末に送信する。 The communication control unit 120 controls the communication in the communication unit 110. For example, the communication control unit 120 receives the operation content of the robot device 200 input from the operation terminal 300, and transmits operation control information corresponding to the operation content to the robot device 200. The communication control unit 120 also receives information such as the detection results of sensors and camera images transmitted from the robot device 200, and transmits information to be provided based on the received information to the operation terminal.

取得部130は、ロボット装置200または操作端末300から各種情報を取得する。例えば、取得部130は、操作端末300からロボット装置200を操作するための操作情報を取得する。また、取得部130は、ロボット装置200に設けられたセンサやカメラからの情報を取得する。また、取得部130は、ネットワークNWに接続された外部装置から情報を取得してもよい。 The acquisition unit 130 acquires various types of information from the robot device 200 or the operation terminal 300. For example, the acquisition unit 130 acquires operation information for operating the robot device 200 from the operation terminal 300. The acquisition unit 130 also acquires information from sensors and cameras provided in the robot device 200. The acquisition unit 130 may also acquire information from external devices connected to the network NW.

管理部140は、例えば、認証管理部142と、情報管理部144とを備える。認証管理部142は、ロボット装置200を操作する操作者(システム利用者)の認証や利用権限等を管理する。また、認証管理部142は、認証結果に基づいて、操作端末300が操作するロボット装置200を対応付けて管理する。 The management unit 140 includes, for example, an authentication management unit 142 and an information management unit 144. The authentication management unit 142 manages the authentication and usage authority of the operator (system user) who operates the robot device 200. Furthermore, the authentication management unit 142 associates and manages the robot device 200 operated by the operation terminal 300 based on the authentication result.

情報管理部144は、利用者ごとに利用可能な情報を管理する。例えば、情報管理部144は、ロボットを制御するためのロボット制御情報や、ロボット装置200に設けられたセンサから取得された情報(センサ情報)を記憶部に170に記憶させると共に、例えば、それぞれ異なるアクセス権を設定し、設定されたアクセス権が確認されたときに、対応する提供可能な権限を有する操作端末300に情報を送信する。また、情報管理部144は、例えば、センサ情報のアクセス権の強度を、ロボット制御情報よりも大きくしてもよい。アクセス権の強度を大きくするとは、例えば、所定の認証が許可されないとアクセスできないような記憶領域に記憶させることや、データそのものを暗号化して管理したり、データを取得するためのパスワード等の認証条件の数や種類を多くすること等である。これにより、データの機密性が守られる。したがって、例えば、アクセス権を持たない企業にセンサ情報を盗まれたり、改ざんされたりすることを防止することができ、システム全体のセキュリティを向上させることができる。また、アクセス権によって提供する情報を管理することで、様々な企業等に安心して遠隔操作システム1を利用させることができる。 The information management unit 144 manages information available for each user. For example, the information management unit 144 stores robot control information for controlling the robot and information (sensor information) acquired from a sensor provided in the robot device 200 in the storage unit 170, and, for example, sets different access rights for each, and transmits information to the operation terminal 300 that has the corresponding authority to provide when the set access rights are confirmed. In addition, the information management unit 144 may, for example, increase the strength of the access rights for the sensor information compared to the robot control information. Increasing the strength of the access rights means, for example, storing the data in a storage area that cannot be accessed unless a specific authentication is permitted, encrypting and managing the data itself, increasing the number and types of authentication conditions such as passwords for acquiring data, etc. This protects the confidentiality of the data. Therefore, for example, it is possible to prevent the sensor information from being stolen or tampered with by a company that does not have the access rights, and the security of the entire system can be improved. In addition, by managing the information provided by the access rights, various companies and the like can use the remote operation system 1 with peace of mind.

制御部150は、例えば、ロボット情報制御部151と、カスタマイズデータ制御部と、意図推定部153と、動作制御部154と、動作キャンセル部155と、出力制御部156とを備える。ロボット情報制御部151は、例えば、動作制御部154により生成されたロボット装置200に対する動作制御情報に対して、実際にロボット装置200がどのような操作を行ったのか等を管理する。また、ロボット情報制御部151は、記憶部170に記憶されたロボット制御情報172Aに基づいて、ロボット装置200に基本的な動作を実行させる。基本的な動作とは、例えば、ロボット装置200を移動させたり、姿勢を変えたり、物体を持ったり置いたりする動作である。 The control unit 150 includes, for example, a robot information control unit 151, a customized data control unit, an intention estimation unit 153, an operation control unit 154, an operation cancellation unit 155, and an output control unit 156. The robot information control unit 151 manages, for example, what operations the robot device 200 actually performed in response to the operation control information for the robot device 200 generated by the operation control unit 154. The robot information control unit 151 also causes the robot device 200 to perform basic operations based on the robot control information 172A stored in the storage unit 170. The basic operations are, for example, operations to move the robot device 200, change its posture, and pick up or place an object.

カスタマイズデータ制御部152は、例えば、企業ごとに特定の動作(例えば、物を組み立てる作業や半田付け作業、ネジ止めしたり、料理における各種工程作業等)をロボット装置200に実行させるためのカスタマイズデータを生成する。 The customization data control unit 152 generates customization data for the robot device 200 to execute specific operations for each company (e.g., assembling objects, soldering, screwing, various cooking processes, etc.).

意図推定部153は、操作端末300により入力される操作内容の少なくとも一部の情報から操作者の意図を推定する。操作者の意図には、例えば、操作者がロボット装置200に行わせたい行動(動作)の意図だけでなく、行動等を予測することや、ロボット装置200の駆動をアシストさせることも含まれる。例えば、遠隔操作では通信等によって操作者が指示している感じとロボット装置200の動作にズレが生じる。そのため、意図推定部153は、操作者からの操作内容をそのままロボット装置200に実行させるのではなく、操作内容に基づいて操作者の意図を推定し、推定結果に基づいてロボット装置200の動作制御情報を生成することで、ロボット装置200の動きをより適切にアシストし、違和感の少ない遠隔操作を実現することができる。意図推定部153は、例えば、教師データを用いて学習させた学習モデル(意図推定情報172B)を参照し、操作内容に対応する意図を推定する。なお、学習の際には、例えば、操作内容を入力し、その操作内容に対する作業者等が設定した正解の意図情報を出力するための教師データを用いて学習を行う。 The intention estimation unit 153 estimates the intention of the operator from at least a part of the information of the operation contents input by the operation terminal 300. The intention of the operator includes, for example, not only the intention of the action (motion) that the operator wants the robot device 200 to perform, but also prediction of the action, etc., and assisting the driving of the robot device 200. For example, in remote operation, a discrepancy occurs between the feeling that the operator is instructing through communication, etc. and the motion of the robot device 200. Therefore, the intention estimation unit 153 does not directly execute the operation contents from the operator to the robot device 200, but estimates the intention of the operator based on the operation contents, and generates motion control information for the robot device 200 based on the estimation result, thereby more appropriately assisting the movement of the robot device 200 and realizing remote operation with less discomfort. For example, the intention estimation unit 153 refers to a learning model (intention estimation information 172B) learned using teacher data, and estimates the intention corresponding to the operation contents. During learning, for example, the operation content is input, and training data is used to output correct intention information for that operation content set by the operator or the like.

また、意図推定部153は、操作者から入力された操作内容およびロボット装置200の実際の動作内容を示す履歴情報に基づいて、意図推定情報172Bを更新してもよい。これにより、より適切な意図推定を実現できる。 The intention estimation unit 153 may also update the intention estimation information 172B based on history information indicating the operation content input by the operator and the actual operation content of the robot device 200. This allows for more appropriate intention estimation.

また、意図推定部153は、例えば、グラスプタクソノミー(GRASP Taxonomy)手法(例えば、参考文献1参照)によって、操作者の動作意図を推定してもよい。実施形態では、例えばグラスプタクソノミー手法によって操作者あるいはロボット装置200の姿勢すなわち把持姿勢を分類することで操作者状態を分類して、操作者の動作意図を推定する。
参考文献1;Thomas Feix, Javier Romero,他,“The GRASP Taxonomy of Human GraspTypes” IEEE Transactions on Human-Machine Systems ( Volume: 46, Issue: 1, Feb.2016),IEEE,p66-77.
Furthermore, the intention estimation unit 153 may estimate the intention of the operator by, for example, a GRASP Taxonomy method (see, for example, Reference 1). In the embodiment, the intention of the operator is estimated by classifying the operator state by classifying the posture, i.e., the gripping posture, of the operator or the robot device 200 by, for example, the GRASP Taxonomy method.
Reference 1: Thomas Feix, Javier Romero, et al., “The GRASP Taxonomy of Human GraspTypes” IEEE Transactions on Human-Machine Systems (Volume: 46, Issue: 1, Feb.2016), IEEE, p66-77.

動作制御部154は、意図推定部153により推定された操作者の意図に基づいて対象のロボット装置200を動作させるための動作制御情報を生成し、生成した動作制御情報を操作対象のロボット装置200に送信し、ロボット装置200の動作を制御する。また、動作制御部154は、操作者の意図に加えて(または代えて)、ロボット情報制御部151やカスタマイズデータ制御部152等により得られるロボット装置200の動作に関する情報を取得し、取得した情報に基づいて、動作制御情報を生成してもよい。また、動作制御部154は、例えば、複数の操作者が、同時に2つのアームを操作する場合に、触覚等のセンサ情報等に基づいて、力の足し算や引き算等の合成処理を行い、協調して作業するための動作制御を行ってもよい。これにより、複数の操作者により1台のロボット装置200が操作された場合であってもバランスの良い動作を実現することができる。 The operation control unit 154 generates operation control information for operating the target robot device 200 based on the intention of the operator estimated by the intention estimation unit 153, transmits the generated operation control information to the target robot device 200, and controls the operation of the robot device 200. The operation control unit 154 may also acquire information on the operation of the robot device 200 obtained by the robot information control unit 151, the customized data control unit 152, etc. in addition to (or instead of) the intention of the operator, and generate operation control information based on the acquired information. For example, when multiple operators operate two arms simultaneously, the operation control unit 154 may perform synthesis processing such as addition or subtraction of forces based on sensor information such as tactile sense, and perform operation control for working in cooperation. This makes it possible to achieve well-balanced operations even when one robot device 200 is operated by multiple operators.

動作キャンセル部155は、動作制御部154によりロボット装置200に実行させる動作のうち、操作者の意図と異なる動作を選択し、選択した動作の実行をキャンセルする。この場合、動作キャンセル部155は、操作者から入力された操作内容が、ロボット装置200に動作させる内容であるか否かを操作者に問い合わせ、問い合わせ結果に基づいて、動作制御部154に動作制御情報を生成させたり、意図推定情報172Bを更新させたりする。 The action cancellation unit 155 selects an action that is different from the operator's intention from among the actions that the action control unit 154 causes the robot device 200 to execute, and cancels the execution of the selected action. In this case, the action cancellation unit 155 inquires of the operator whether or not the operation content input by the operator is the content to be executed by the robot device 200, and based on the inquiry result, causes the action control unit 154 to generate action control information and update the intention estimation information 172B.

出力制御部156は、ロボット装置200から取得した音声や画像に基づいて、操作端末300を操作する操作者に提供する情報を生成する。提供する情報には、画像や音声が含まれる。また、出力制御部156は、認証管理部142による認証処理の結果に基づいて、センサ情報等を出力する。 The output control unit 156 generates information to be provided to the operator operating the operation terminal 300 based on the sound and images acquired from the robot device 200. The information to be provided includes images and sound. The output control unit 156 also outputs sensor information, etc., based on the result of the authentication process performed by the authentication management unit 142.

記憶部170は、上記の各種記憶装置、或いはSSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read Only Memory)、ROM(Read Only Memory)、またはRAM(Random Access Memory)等により実現されてもよい。記憶部170は、例えば、第1記憶部172と、第2記憶部174とを備える。第1記憶部172および第2記憶部174は、それぞれアクセス権の強度が異なる記憶領域である。第1記憶部172は、例えば、遠隔操作システム1の利用者の全てが使用できる情報が格納される。また、第2記憶部174は、例えば、予め設定されたアクセス権が確認された企業または利用者のみが取得可能な情報が格納される。また、第2記憶部174は、例えば、企業ごとに暗号化されたデータが格納され、企業ごとに割り当てられた鍵等による復号化を実行しないと閲覧できないような領域であってもよい。第1記憶部172および第2記憶部174によるアクセス権の設定については、認証管理部142で管理される。また、第1記憶部172および第2記憶部174は、それぞれ異なる記憶部でもよく、一方または双方が、データサーバ等の外部装置によって管理されてもよい。 The storage unit 170 may be realized by the above-mentioned various storage devices, or a solid state drive (SSD), an electrically erasable programmable read only memory (EEPROM), a read only memory (ROM), or a random access memory (RAM). The storage unit 170 includes, for example, a first storage unit 172 and a second storage unit 174. The first storage unit 172 and the second storage unit 174 are storage areas with different strengths of access rights. The first storage unit 172 stores, for example, information that can be used by all users of the remote control system 1. The second storage unit 174 stores, for example, information that can be acquired only by companies or users whose access rights have been confirmed in advance. The second storage unit 174 may be, for example, an area in which data encrypted for each company is stored and cannot be viewed unless decryption is performed using a key or the like assigned to each company. The setting of the access rights by the first storage unit 172 and the second storage unit 174 is managed by the authentication management unit 142. Additionally, the first storage unit 172 and the second storage unit 174 may be different storage units, and one or both may be managed by an external device such as a data server.

例えば、第1記憶部172には、例えば、ロボット制御情報172Aや意図推定情報172Bが格納される。ロボット制御情報172Aとは、ロボット装置200に所定の動作を実行させるための基本的な制御情報である。所定の動作とは、例えば、移動する、向きを変える、腕を動かす、物と持つ(把持する)、物を置くといった動作である。これらは、例えば、ロボット装置200の種別ごとに設定されてもよい。 For example, the first storage unit 172 stores robot control information 172A and intention estimation information 172B. The robot control information 172A is basic control information for causing the robot device 200 to execute a predetermined operation. The predetermined operation is, for example, an operation such as moving, changing direction, moving an arm, holding (grasping) an object, or placing an object. These may be set for each type of the robot device 200, for example.

意図推定情報172Bは、例えば、意図推定部153により推定された意図推定結果に関する情報である。図3は、意図推定情報172Bの内容について説明するための図である。意図推定情報172Bは、例えば、操作端末300から取得した操作内容に、推定意図に関する情報が対応付けられている。これらの情報は、操作者ごとに管理されてよく、複数の操作者の意図推定情報172Bを統合して、頻度の高い意図推定に関する情報のみが格納されてもよく、履歴情報等に基づいて更新されてもよい。 The intention estimation information 172B is, for example, information on the intention estimation result estimated by the intention estimation unit 153. FIG. 3 is a diagram for explaining the contents of the intention estimation information 172B. In the intention estimation information 172B, for example, information on the estimated intention is associated with the operation content acquired from the operation terminal 300. This information may be managed for each operator, or the intention estimation information 172B of multiple operators may be integrated to store only information on frequently occurring intention estimations, or may be updated based on history information, etc.

第2記憶部174は、所定のアクセス権が確認された利用者がアクセス可能な情報が格納される。第2記憶部174には、例えば、企業別利用者情報174Aや、企業別センサ情報174B等が格納される。 The second storage unit 174 stores information that can be accessed by a user whose access rights have been confirmed. For example, the second storage unit 174 stores company-specific user information 174A and company-specific sensor information 174B.

図4は、企業別利用者情報174Aの内容について説明するための図である。図4の例では、企業ごとの利用者情報が格納されており、それぞれの情報は、各企業のアクセス権が確認されないとアクセスできないように管理されている。企業別利用者情報174Aは、例えば、遠隔操作システム1によるサービス利用時等に利用者を認証する認証情報に、氏名、権限、優先度、画像情報等の情報が対応付けられたものである。認証情報には、例えば、利用者を識別する識別情報である利用者IDやパスワード等が含まれる。また、認証情報には、指紋情報や虹彩情報等の生体認証情報が含まれてもよい。権限には、例えば、利用者に割り当てられたアクセス権等の権限情報が含まれる。この権限情報に基づいて、ロボット装置200により取得されたセンサ情報等を取得することができる。情報管理部144は、権限に格納された情報を参照することで、誰がどのデータにアクセス可能であるか、どのデータにアクセスできないのか等を管理することができる。優先度情報は、例えば、複数の操作者がロボット装置200を遠隔操作している場合であって、それぞれの操作内容が同一または類似する場合の優先度が格納されている。画像情報とは、利用者を認識するための画像であり、例えば、利用者の顔画像や利用者に似せて作成されたアバター画像やイラスト画像等が含まれる。 Figure 4 is a diagram for explaining the contents of the company-specific user information 174A. In the example of Figure 4, user information for each company is stored, and each piece of information is managed so that it cannot be accessed unless the access right of each company is confirmed. The company-specific user information 174A is, for example, information such as name, authority, priority, and image information associated with authentication information that authenticates a user when using a service by the remote control system 1. The authentication information includes, for example, a user ID and a password that are identification information that identify a user. The authentication information may also include biometric authentication information such as fingerprint information and iris information. The authority includes, for example, authority information such as access rights assigned to a user. Based on this authority information, sensor information acquired by the robot device 200 can be acquired. The information management unit 144 can manage who can access which data, which data cannot be accessed, etc. by referring to the information stored in the authority. The priority information stores, for example, the priority when multiple operators remotely operate the robot device 200 and the operation contents of each are the same or similar. Image information is an image used to recognize a user, and includes, for example, an image of the user's face, an avatar image created to resemble the user, or an illustrated image.

図5は、企業別センサ情報174Bの内容について説明するための図である。図5の例では、企業ごとのセンサ情報が格納されており、それぞれの情報は、各企業のアクセス権が確認されないとアクセスできないように管理されている、企業別センサ情報174Bには、ロボット装置200を識別する識別情報であるロボットIDに、日時、操作者ID、操作パーツ、センサ情報等が格納されている。操作者IDには、操作した操作者の利用者IDが格納される。操作パーツには、操作者が操作したロボットIDのパーツが格納される。これにより、1台のロボット装置200が複数の操作者によって操作される場合であっても、それぞれの操作履歴を管理することができる。 Figure 5 is a diagram for explaining the contents of the company-specific sensor information 174B. In the example of Figure 5, sensor information for each company is stored, and each piece of information is managed so that it cannot be accessed unless the access rights of each company are confirmed. In the company-specific sensor information 174B, the robot ID, which is identification information for identifying the robot device 200, stores the date and time, operator ID, operation parts, sensor information, etc. The operator ID stores the user ID of the operator who performed the operation. The operation parts store the parts of the robot ID operated by the operator. This makes it possible to manage the operation history of each operator even when one robot device 200 is operated by multiple operators.

[ロボット装置]
図6は、実施形態に係るロボット装置200の構成の一例を示す図である。ロボット装置200は、例えば、例えば、通信部202と、センサ204と、カメラ(撮像部の一例)206と、マイク208と、駆動部210と、モニタ214と、スピーカ216と、制御装置240と、記憶部260とを備える。駆動部210は、例えば、アーム部210Aと、移動用駆動部210Bとを備える。制御装置240は、例えば、通信制御部242と、取得部244と、駆動制御部246と、出力制御部248とを備える。通信制御部242と、取得部244と、駆動制御部246と、出力制御部248とは、それぞれ、例えばCPU等のハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPU等のハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。これらの構成要素の機能のうち一部または全部は、専用のLSIによって実現されてもよい。プログラムは、予めロボット装置200が備えるHDDやフラッシュメモリ等の記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROM等の着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体が、ロボット装置200が備えるドライブ装置に装着されることでロボット装置200が備えるHDDやフラッシュメモリにインストールされてもよい。
[Robot device]
6 is a diagram showing an example of the configuration of the robot device 200 according to the embodiment. The robot device 200 includes, for example, a communication unit 202, a sensor 204, a camera (an example of an imaging unit) 206, a microphone 208, a driving unit 210, a monitor 214, a speaker 216, a control device 240, and a storage unit 260. The driving unit 210 includes, for example, an arm unit 210A and a moving driving unit 210B. The control device 240 includes, for example, a communication control unit 242, an acquisition unit 244, a drive control unit 246, and an output control unit 248. The communication control unit 242, the acquisition unit 244, the drive control unit 246, and the output control unit 248 are each realized by a hardware processor such as a CPU executing a program (software). Some or all of these components may be realized by hardware (including circuitry) such as an LSI, ASIC, FPGA, or GPU, or may be realized by a combination of software and hardware. Some or all of the functions of these components may be realized by a dedicated LSI. The program may be stored in advance in a storage device (storage device having a non-transient storage medium) such as an HDD or flash memory provided in the robot device 200, or may be stored in a removable storage medium (non-transient storage medium) such as a DVD or CD-ROM, and the storage medium may be installed in the HDD or flash memory provided in the robot device 200 by being attached to a drive device provided in the robot device 200.

通信部202は、後述する。通信制御部242の制御により、ネットワークNWを介して、管理サーバ100、その他の外部装置と通信する。また、通信部202は、他のロボット装置200と通信してもよく、操作端末300と通信を行ってもよい。 The communication unit 202 will be described later. Under the control of the communication control unit 242, the communication unit 202 communicates with the management server 100 and other external devices via the network NW. The communication unit 202 may also communicate with other robot devices 200, or with the operation terminal 300.

センサ204は、ロボット装置200の位置を検出する位置センサ、速度を検出する速度センサ、ロボット装置200の周辺またはアーム部210Aの先端部等の特定の位置の温度を検出する温度センサ等を含む。位置センサは、例えば、GPS(Global Positioning System)受信装置から情報を受信して、受信した情報に基づいて位置情報(経度・緯度情報)を求める。また、センサ204は、周囲の湿度を検出する湿度センサや、ロボット装置200によって操作される物体の振動を検出する振動センサを含んでいてもよい。また、センサ204は、周辺の物体を検知する物体検知センサを含んでいてもよい。周辺の物体とは、例えば、他のロボット装置200や人物、障害物等である。 The sensor 204 includes a position sensor that detects the position of the robot device 200, a speed sensor that detects the speed, and a temperature sensor that detects the temperature of a specific position such as the periphery of the robot device 200 or the tip of the arm unit 210A. The position sensor receives information from, for example, a GPS (Global Positioning System) receiving device, and obtains position information (longitude and latitude information) based on the received information. The sensor 204 may also include a humidity sensor that detects the surrounding humidity, and a vibration sensor that detects vibrations of an object operated by the robot device 200. The sensor 204 may also include an object detection sensor that detects surrounding objects. Examples of surrounding objects include other robot devices 200, people, and obstacles.

カメラ206は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ206は、例えば、所定のタイミングでロボット装置200の周辺を撮像する。カメラ206は、一台に限らず、複数台がロボット装置200に設けられてもよい。例えば、カメラ206は、ロボット装置200の頭部に設けられる。また、カメラ206は、アーム部210Aの先端付近に設けられてもよい。これにより、作業対象の物体を近い距離で撮影することができるため、より細かい作業を行い易くすることができる。 The camera 206 is, for example, a digital camera using a solid-state imaging element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The camera 206 captures an image of the periphery of the robot device 200 at a predetermined timing, for example. The number of cameras 206 is not limited to one, and multiple cameras may be provided on the robot device 200. For example, the camera 206 is provided on the head of the robot device 200. The camera 206 may also be provided near the tip of the arm unit 210A. This allows the object to be worked on to be photographed at a close distance, making it easier to perform more detailed work.

マイク208には、ロボット装置200の周辺の音が入力される。マイク208は、入力された音声に基づく情報を制御装置240に出力する。 Sounds around the robot device 200 are input to the microphone 208. The microphone 208 outputs information based on the input sound to the control device 240.

アーム部210Aは、対象物体を把持したり、対象物体に対して所定の作業を行う。アーム部210Aは、例えば、多関節ロボットアームであり、例えば、アクチュエータ、ギア、人工筋等を備える。例えば、アーム部210Aは、多関節ロボットアームの一端がロボット装置本体の右側付近に接続された第1アーム部と、他の多関節ロボットアームの一端がロボット装置本体の左側付近に接続された第2アーム部とを備える。また、アーム部210Aには、第1アーム部および第2アーム部に加えて他のアーム部を備えていてもよい。以下、それぞれのアームを区別しない場合は、単に「アーム部210A」と称する。アーム部の他端は、所定の物を把持可能な把持部が構成されている。アーム部210Aは、制御装置220の制御に基づいて駆動する。また、アーム部は、人の腕の動きと同等の動きが可能である。 The arm unit 210A grasps a target object and performs a predetermined task on the target object. The arm unit 210A is, for example, a multi-joint robot arm, and includes, for example, an actuator, a gear, an artificial muscle, and the like. For example, the arm unit 210A includes a first arm unit in which one end of the multi-joint robot arm is connected near the right side of the robot device main body, and a second arm unit in which one end of the other multi-joint robot arm is connected near the left side of the robot device main body. The arm unit 210A may also include other arm units in addition to the first arm unit and the second arm unit. Hereinafter, when there is no need to distinguish between the respective arms, they will simply be referred to as "arm unit 210A". The other end of the arm unit is configured with a gripping unit capable of gripping a predetermined object. The arm unit 210A is driven based on the control of the control device 220. The arm unit is capable of movement equivalent to that of a human arm.

移動用駆動部210Bは、ロボット装置200が床面や地面を移動するための駆動部である。移動用駆動部210Bは、例えば、2つの脚部であってもよいし、車輪、台車、クローラー等の移動機構が設けられていてもよい。例えば、移動用駆動部210Bが脚部の場合、脚部は、制御装置220の制御に基づいて、ロボット装置200を歩行させるように動作する。また、移動用駆動部210Bは、クレーン等を駆動させることによって天井またはレールに沿って移動可能な構造であってもよい。これらの構成によりロボット装置200は、所望の方向に移動することができる。なお、駆動部210は、アーム部210Aまたは移動用駆動部210B以外にも腰や頭等の他の関節等を駆動させる機構が設けられてもよい。駆動部210は、駆動制御部246よる制御に基づいて駆動が実行される。 The moving drive unit 210B is a drive unit for moving the robot device 200 on the floor or ground. The moving drive unit 210B may be, for example, two legs, or may be provided with a moving mechanism such as wheels, a dolly, or a crawler. For example, when the moving drive unit 210B is a leg, the leg operates to make the robot device 200 walk based on the control of the control device 220. The moving drive unit 210B may also be structured to be movable along a ceiling or rail by driving a crane or the like. With these configurations, the robot device 200 can move in a desired direction. Note that the drive unit 210 may be provided with a mechanism for driving other joints such as the waist and head in addition to the arm unit 210A or the moving drive unit 210B. The drive unit 210 is driven based on the control of the drive control unit 246.

モニタ214は、例えば、LCD(Liquid Crystal Display)や有機EL(Electro Luminescence)表示装置等である。モニタ214は、出力制御部248によって出力された情報を画像として表示する。モニタ214は、ロボット装置200に複数設けられてよい。モニタ214は、例えば、頭部に設けられていてもよく、腹部や背面に設けられていてもよい。スピーカ216は、出力制御部248によって出力された情報を音声として出力する。 The monitor 214 is, for example, an LCD (Liquid Crystal Display) or an organic EL (Electro Luminescence) display device. The monitor 214 displays the information output by the output control unit 248 as an image. A plurality of monitors 214 may be provided in the robot device 200. The monitor 214 may be provided, for example, in the head, abdomen, or back. The speaker 216 outputs the information output by the output control unit 248 as sound.

制御装置240は、例えば、通信制御部242と、取得部244と、駆動制御部246と、出力制御部248とを備える。通信制御部242と、取得部244と、駆動制御部246と、出力制御部248とは、例えば、CPU等のハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPU等のハードウェア(回路部)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDDやフラッシュメモリ等の記憶装置(非一過性記憶媒体)に格納さいてもよいし、DVDやCD-ROM等の着脱可能な記憶媒体(非一過性記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。 The control device 240 includes, for example, a communication control unit 242, an acquisition unit 244, a drive control unit 246, and an output control unit 248. The communication control unit 242, the acquisition unit 244, the drive control unit 246, and the output control unit 248 are realized, for example, by a hardware processor such as a CPU executing a program (software). Some or all of these components may be realized by hardware (circuitry) such as an LSI, ASIC, FPGA, or GPU, or may be realized by a combination of software and hardware. The program may be stored in advance in a storage device (non-transient storage medium) such as an HDD or flash memory, or may be stored in a removable storage medium (non-transient storage medium) such as a DVD or CD-ROM, and installed by inserting the storage medium into the drive device.

通信制御部242は、例えば、通信部202を介して無線通信によって、管理サーバ100と通信し、情報の送受信を行う。また、通信制御部242は、通信部202を介して他のロボット装置200と通信を行ってもよい。 The communication control unit 242 communicates with the management server 100, for example, by wireless communication via the communication unit 202, to send and receive information. The communication control unit 242 may also communicate with other robotic devices 200 via the communication unit 202.

取得部244は、ロボット装置200に設けられたセンサ204の検出結果(センサ情報)を取得する。また、取得部244は、カメラ206により撮像された画像を取得する。また、取得部244は、マイク208から入力された音に基づく情報を取得する。 The acquisition unit 244 acquires the detection results (sensor information) of the sensor 204 provided in the robot device 200. The acquisition unit 244 also acquires images captured by the camera 206. The acquisition unit 244 also acquires information based on sounds input from the microphone 208.

駆動制御部246は、管理サーバ100から取得した動作制御情報に基づいて、アーム部210Aおよび移動用駆動部210Bを動作させる。また、駆動制御部246は、動作制御情報に基づいて、ロボット装置200の他のパーツ(例えば、頭、胴、腰等)を駆動させて、姿勢等を変更させる。また、駆動制御部246は、記憶部260に記憶された基本動作情報262およびカスタマイズ動作情報264に基づいて、ロボット装置200を駆動させてもよい。基本動作情報262は、ロボット装置200の種類等に応じて基本的な動作を実行させるための駆動制御情報である。カスタマイズ動作情報264とは、例えば、操作者ごとに予め登録された特定の動作をロボット装置200に実行させるための駆動制御情報である。 The drive control unit 246 operates the arm unit 210A and the movement drive unit 210B based on the operation control information acquired from the management server 100. The drive control unit 246 also drives other parts of the robot device 200 (e.g., the head, torso, waist, etc.) based on the operation control information to change the posture, etc. The drive control unit 246 may also drive the robot device 200 based on the basic operation information 262 and customized operation information 264 stored in the storage unit 260. The basic operation information 262 is drive control information for executing basic operations according to the type, etc. of the robot device 200. The customized operation information 264 is, for example, drive control information for causing the robot device 200 to execute a specific operation registered in advance for each operator.

出力制御部248は、管理サーバ100から取得した情報に基づく画像をモニタ214に出力させる。また、出力制御部248は、管理サーバ100から取得した情報に基づく音声や警告音等をスピーカ216に出力させる。 The output control unit 248 causes the monitor 214 to output an image based on the information acquired from the management server 100. The output control unit 248 also causes the speaker 216 to output voice, warning sounds, etc. based on the information acquired from the management server 100.

記憶部260は、例えば、HDD、フラッシュメモリ、EEPROM、ROM、またはRAM等により実現される。記憶部260には、例えば、基本動作情報262、カスタマイズ動作情報264、プログラム、その他の情報が格納されている。 The storage unit 260 is realized by, for example, a HDD, a flash memory, an EEPROM, a ROM, or a RAM. The storage unit 260 stores, for example, basic operation information 262, customized operation information 264, programs, and other information.

[操作端末]
図7は、実施形態に係る操作端末300の構成の一例を示す図である。操作端末300は、例えば、通信部310と、HMD320と、操作装置330と、環境センサ340と、制御装置360と、記憶部380とを備える。HMD320と、操作装置330と、環境センサ340は、「HMI(Human Machine Interface)」の一例である。
[Operation terminal]
7 is a diagram showing an example of the configuration of the operation terminal 300 according to the embodiment. The operation terminal 300 includes, for example, a communication unit 310, an HMD 320, an operation device 330, an environmental sensor 340, a control device 360, and a storage unit 380. The HMD 320, the operation device 330, and the environmental sensor 340 are examples of an "HMI (Human Machine Interface)."

通信部310は、制御装置360による制御によりネットワークNWを介して管理サーバ100と通信を行う。また、通信部310は、他の操作端末300やロボット装置200と通信を行ってもよい。 The communication unit 310 communicates with the management server 100 via the network NW under the control of the control device 360. The communication unit 310 may also communicate with other operation terminals 300 and robot devices 200.

HMD320は、例えば、画像表示部322と、視線検出部324と、センサ326と、スピーカ328と、制御部329とを備える。HMD320は、制御装置360が管理サーバ100から受信したロボット装置200の状態画像や音声等を出力示したり、操作者の視線の動き等を検出する。 The HMD 320 includes, for example, an image display unit 322, a gaze detection unit 324, a sensor 326, a speaker 328, and a control unit 329. The HMD 320 outputs and displays the state image and sound of the robot device 200 that the control device 360 receives from the management server 100, and detects the movement of the operator's gaze, etc.

画像表示部322は、例えば、LCDや有機ELディスプレイ等である。画像表示部は、制御部329の制御に応じて、後述する出力制御部368により出力された画像を表示する。 The image display unit 322 is, for example, an LCD or an organic EL display. The image display unit displays an image output by the output control unit 368 (described later) in accordance with the control of the control unit 329.

視線検出部324は、制御部329の制御によりHMD320を装着した操作者の視線を検出し、検出した視線情報(操作者センサ値)を制御装置360に出力する。視線情報とは、例えば、視線ベクトルを含む情報である。 The gaze detection unit 324 detects the gaze of the operator wearing the HMD 320 under the control of the control unit 329, and outputs the detected gaze information (operator sensor value) to the control device 360. The gaze information is, for example, information including a gaze vector.

センサ326は、例えば、加速度センサ、ジャイロスコープセンサ、磁力センサ等である。センサ326は、HMD320を装着した操作者の頭部の傾き、頭部の回転を検出し、検出した頭部動作情報(操作者センサ値)を制御装置360に出力する。 The sensor 326 is, for example, an acceleration sensor, a gyroscope sensor, a magnetic sensor, etc. The sensor 326 detects the tilt and rotation of the head of the operator wearing the HMD 320, and outputs the detected head movement information (operator sensor value) to the control device 360.

スピーカ328は、出力制御部368により出力された音声や警告音等を出力する。 The speaker 328 outputs voice, warning sounds, etc. output by the output control unit 368.

制御部329は、制御装置360からの制御情報に基づいて視線検出部324による視線検出の実行を制御したり、センサ326による検出を制御したり、画像表示部322への画像表示を制御したり、HMD320を介した操作者からの情報の入力を受け付けたりする。 The control unit 329 controls the execution of gaze detection by the gaze detection unit 324 based on control information from the control device 360, controls detection by the sensor 326, controls the image display on the image display unit 322, and accepts information input from the operator via the HMD 320.

操作装置330は、例えば、センサ(操作者センサ)332と、制御部334と、フィードバック部336と、入力部338とを備える。操作装置330には、例えば、操作者の手に装着される触覚データグローブが含まれる。 The operation device 330 includes, for example, a sensor (operator sensor) 332, a control unit 334, a feedback unit 336, and an input unit 338. The operation device 330 includes, for example, a tactile data glove that is worn on the operator's hand.

センサ332は、例えば、加速度センサ、ジャイロスコープセンサ、磁力センサ等である。なお、センサ332は、複数のセンサを備える。センサ332は、例えば2つのセンサによって各指の動きをトラッキングする。センサ332は、例えば、制御部334の制御により、操作者の各指の方位や動き、手の動き等の操作者の腕部の姿勢や位置に関する情報である操作者腕部情報(操作者センサ値)を検出する。なお、操作者腕部情報(操作者センサ値)には、手先位置・姿勢情報、各指の角度情報、肘の位置・姿勢情報、各部の動きをトラッキングした情報等のヒトの腕部全般におよぶ情報が含まれる。 The sensor 332 is, for example, an acceleration sensor, a gyroscope sensor, a magnetic sensor, etc. The sensor 332 includes a plurality of sensors. The sensor 332 tracks the movement of each finger using, for example, two sensors. The sensor 332 detects operator arm information (operator sensor value) which is information on the orientation and movement of each finger of the operator, the posture and position of the operator's arm, such as the movement of the hand, under the control of the control unit 334, for example. The operator arm information (operator sensor value) includes information covering the entire human arm, such as hand position and posture information, angle information of each finger, elbow position and posture information, and information tracking the movement of each part.

制御部334は、センサ332が検出した操作者腕部情報を、制御装置360に出力する。また、制御部334は、制御装置360から取得したフィードバック情報に基づいて、フィードバック部336を制御する。 The control unit 334 outputs the operator's arm information detected by the sensor 332 to the control device 360. The control unit 334 also controls the feedback unit 336 based on the feedback information obtained from the control device 360.

フィードバック部336は、制御部334の制御に応じて、操作者にフィードバック情報をフィードバックする。フィードバック部336は、フィードバック情報に応じて、例えば、ロボット装置200のアーム部210Aに取り付けられている振動を与える手段(不図示)や空気圧を与える手段(不図示)や手の動きを拘束する手段(不図示)や温度を感じさせる手段(不図示)や堅さや柔らかさを感じさせる手段(不図示)、振動を感じさせる手段(不図示)等によって操作者に感覚をフィードバックする。 The feedback unit 336 feeds back feedback information to the operator in response to the control of the control unit 334. In response to the feedback information, the feedback unit 336 feeds back sensations to the operator, for example, by means of vibration (not shown), air pressure (not shown), hand movement restriction (not shown), temperature sensation (not shown), hardness or softness sensation (not shown), vibration sensation (not shown), etc., attached to the arm unit 210A of the robot device 200.

入力部338は、例えば、触覚データグローブ以外のキーボードやマウス、レバー、タッチパネル、マイク等の各入力装置である。入力部338は、各入力装置によってロボット装置200に対する操作内容の入力を受け付ける。 The input unit 338 is, for example, an input device other than the tactile data glove, such as a keyboard, a mouse, a lever, a touch panel, a microphone, etc. The input unit 338 accepts input of operation details for the robot device 200 via each input device.

環境センサ340は、例えば、操作者の動作を検出する。環境センサ340は、例えば、カメラ(撮像部の一例)342と、センサ344と、物体位置検出部346とを備える。カメラ342は、操作者を含む画像を撮像する。カメラ342は、例えば、RGBカメラである。カメラ342は、撮影した画像を物体位置検出部346に出力する。なお、環境センサ340において、カメラ342とセンサ344の位置関係が既知である。 The environmental sensor 340 detects, for example, the movement of the operator. The environmental sensor 340 includes, for example, a camera (an example of an imaging unit) 342, a sensor 344, and an object position detection unit 346. The camera 342 captures an image including the operator. The camera 342 is, for example, an RGB camera. The camera 342 outputs the captured image to the object position detection unit 346. Note that the positional relationship between the camera 342 and the sensor 344 is known in the environmental sensor 340.

センサ344は、例えば深度センサである。センサ344は、検出結果を物体位置検出部346に出力する。なお、カメラ342とセンサ344は、距離センサであってもよい。 Sensor 344 is, for example, a depth sensor. Sensor 344 outputs the detection result to object position detection unit 346. Note that camera 342 and sensor 344 may be distance sensors.

物体位置検出部346は、カメラ342によって撮影された画像とセンサ344によって検出された検出結果とに基づいて、撮影された画像における対象物体の三次元位置と大きさ形状等を周知の手法で検出する。物体位置検出部346は、物体位置検出部346が記憶するパターンマッチングのモデル等を参照して、カメラ342が撮影した画像に対して画像処理(エッジ検出、二値化処理、特徴量抽出、画像強調処理、画像抽出、パターンマッチング処理等)を行って物体の位置を推定する。なお、物体位置検出部346は、撮影された画像から複数の物体が検出された場合、物体毎に位置を検出する。物体位置検出部346は、検出した物体位置情報を、制御装置360に送信する。なお、環境センサ340が送信するデータは、例えば位置情報を有する点群であってもよい。 Based on the image captured by the camera 342 and the detection result detected by the sensor 344, the object position detection unit 346 detects the three-dimensional position, size, shape, etc. of the target object in the captured image using a known method. The object position detection unit 346 estimates the position of the object by performing image processing (edge detection, binarization processing, feature extraction, image enhancement processing, image extraction, pattern matching processing, etc.) on the image captured by the camera 342 with reference to a pattern matching model stored in the object position detection unit 346. Note that, when multiple objects are detected from the captured image, the object position detection unit 346 detects the position of each object. The object position detection unit 346 transmits the detected object position information to the control device 360. Note that the data transmitted by the environmental sensor 340 may be, for example, a point cloud having position information.

制御装置360は、例えば、通信制御部362と、取得部364と、操作内容生成部366と、出力制御部368とを備える。通信制御部362と、取得部364と、操作内容生成部366と、出力制御部368とは、例えば、CPU等のハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPU等のハードウェア(回路部)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDDやフラッシュメモリ等の記憶装置(非一過性記憶媒体)に格納さいてもよいし、DVDやCD-ROM等の着脱可能な記憶媒体(非一過性記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。 The control device 360 includes, for example, a communication control unit 362, an acquisition unit 364, an operation content generation unit 366, and an output control unit 368. The communication control unit 362, the acquisition unit 364, the operation content generation unit 366, and the output control unit 368 are realized, for example, by a hardware processor such as a CPU executing a program (software). Some or all of these components may be realized by hardware (circuitry) such as an LSI, ASIC, FPGA, or GPU, or may be realized by a combination of software and hardware. The program may be stored in advance in a storage device (non-transient storage medium) such as an HDD or flash memory, or may be stored in a removable storage medium (non-transient storage medium) such as a DVD or CD-ROM, and installed by inserting the storage medium into a drive device.

通信制御部362は、例えば、通信部310を介して無線通信によって、管理サーバ100と通信し、情報の送受信を行う。また、通信制御部362は、通信部310を介して他の操作端末300と通信を行ってもよい。また、通信制御部362は、HMD320や操作装置330、環境センサ340との通信を行う。 The communication control unit 362 communicates with the management server 100, for example, by wireless communication via the communication unit 310, to send and receive information. The communication control unit 362 may also communicate with other operation terminals 300 via the communication unit 310. The communication control unit 362 also communicates with the HMD 320, the operation device 330, and the environmental sensor 340.

取得部364は、HMD320、操作装置330、環境センサ340から得られた情報を取得する。操作内容生成部366は、取得部364により取得された情報に基づいて、ロボット装置200に対する操作内容を生成する。例えば、操作内容生成部366は、HMD320から取得された情報に基づいて視線情報や頭の向きに関する操作内容を生成する。また、操作内容生成部366は、操作装置330から取得された情報に基づいて、ロボット装置200のアーム部210Aの動作に関する操作内容を生成する。また、操作内容生成部366は、環境センサ340から取得された情報に基づいて、ロボット装置200の姿勢や移動方向、移動量に関する操作内容を生成する。操作内容生成部366により生成された情報は、通信部310を介して、管理サーバ100に送信される。 The acquisition unit 364 acquires information obtained from the HMD 320, the operation device 330, and the environmental sensor 340. The operation content generation unit 366 generates operation content for the robot device 200 based on the information acquired by the acquisition unit 364. For example, the operation content generation unit 366 generates operation content related to gaze information and head direction based on information acquired from the HMD 320. The operation content generation unit 366 also generates operation content related to the movement of the arm unit 210A of the robot device 200 based on information acquired from the operation device 330. The operation content generation unit 366 also generates operation content related to the posture, movement direction, and movement amount of the robot device 200 based on information acquired from the environmental sensor 340. The information generated by the operation content generation unit 366 is transmitted to the management server 100 via the communication unit 310.

出力制御部368は、管理サーバ100から取得した提供情報を、HMD320や操作装置330に出力する。例えば、管理サーバ100から取得した画像やHMD320の画像表示部322に出力させる。また、出力制御部368は、管理サーバ100から取得した情報に基づく音声や警告音等をスピーカ328に出力させる。また、出力制御部368は、管理サーバ100から取得した触覚に関する情報を操作者に伝えるためのフィードバック情報を操作装置330に出力させる。 The output control unit 368 outputs the provided information acquired from the management server 100 to the HMD 320 and the operation device 330. For example, the output control unit 368 causes the image acquired from the management server 100 to be output to the image display unit 322 of the HMD 320. The output control unit 368 also causes the speaker 328 to output voice, warning sound, etc. based on the information acquired from the management server 100. The output control unit 368 also causes the operation device 330 to output feedback information for conveying tactile information acquired from the management server 100 to the operator.

記憶部380は、例えば、HDD、フラッシュメモリ、EEPROM、ROM、またはRAM等により実現される。記憶部380には、例えば、プログラム、その他の情報が格納されている。 The storage unit 380 is realized, for example, by a HDD, a flash memory, an EEPROM, a ROM, or a RAM. The storage unit 380 stores, for example, programs and other information.

[実施形態に係るロボット装置の遠隔操作について]
次に、実施形態に係る遠隔操作システム1によるロボット装置200の遠隔操作について具体的に説明する。図8は、本実施形態に係るロボット装置200の遠隔操作について説明するための図である。図8では、2人の操作者U1、U2の操作内容に基づいて、1台のロボット装置200を操作する例を示している。操作者U1およびU2は、それぞれ、図8に示すように、HMD320と操作装置330とを装着している。操作端末300A-1、300A-2は、同一の企業(例えば、企業A)の端末であるが、異なる場所に設置されてもよい。
[Regarding remote control of the robot device according to the embodiment]
Next, the remote operation of the robot device 200 by the remote operation system 1 according to the embodiment will be specifically described. FIG. 8 is a diagram for explaining the remote operation of the robot device 200 according to the embodiment. FIG. 8 shows an example in which one robot device 200 is operated based on the operation contents of two operators U1 and U2. As shown in FIG. 8, the operators U1 and U2 each wear an HMD 320 and an operation device 330. The operation terminals 300A-1 and 300A-2 are terminals of the same company (for example, company A), but may be installed in different places.

また、操作者U1とU2には、操作者の動作や周辺環境を測定する環境センサ340が設置されている。なお、環境センサ340と同様の構成は、例えば、ロボット装置200に取り付けられていてもよい。また、操作装置330は、例えば、操作者の左手に装着される操作装置330aと、右手に装着される操作装置330bとを含む。操作装置330a、330bのそれぞれから入力される操作内容は、ロボット装置200の左手LHおよび右手RHの動作制御に用いられる。操作者の腕の位置や顔の向き等は、環境センサ340により検出される。それぞれの検出したデータは、ネットワークを介して管理サーバ100に送信される。 In addition, the operators U1 and U2 are provided with environmental sensors 340 that measure the movements of the operators and the surrounding environment. Note that a configuration similar to the environmental sensor 340 may be attached to the robot device 200, for example. The operation device 330 includes, for example, an operation device 330a worn on the left hand of the operator and an operation device 330b worn on the right hand. The operation contents input from each of the operation devices 330a and 330b are used to control the movements of the left hand LH and right hand RH of the robot device 200. The position of the operator's arms, the direction of the face, etc. are detected by the environmental sensor 340. Each detected data is transmitted to the management server 100 via a network.

管理サーバ100は、操作端末300A-1、300A-2から得られる操作内容に基づいてそれぞれのユーザの意図を推定する。ここで、意図推定部153が推定する情報例について、具体的に説明する。意図推定部153は、取得した操作者からの操作内容に基づいて、操作者の動作意図を推定する。意図推定部153は、操作端末300の操作者センサ値に基づいて、操作者の腕部の姿勢を分類することで、ロボット装置の把持部を含むアームの姿勢を分類する。また、意図推定部153は、分類結果に基づいて、操作者がロボット装置200に行わせたい動作意図を推定する。意図推定部153は、例えば、時刻毎の手や指の動き、ロボット装置200に行わせたい作業目的、作業内容、時刻毎の手や指の動き等を操作者の動作意図として推定する。作業目的は、例えば、物体の把持、物体の移動等である。作業内容は、例えば、物体を把持して持ち上げる、物体を把持して移動させる等である。 The management server 100 estimates the intention of each user based on the operation contents obtained from the operation terminals 300A-1 and 300A-2. Here, an example of information estimated by the intention estimation unit 153 will be specifically described. The intention estimation unit 153 estimates the operator's intention of operation based on the acquired operation contents from the operator. The intention estimation unit 153 classifies the posture of the arm including the gripping part of the robot device by classifying the posture of the operator's arm based on the operator sensor value of the operation terminal 300. In addition, the intention estimation unit 153 estimates the intention of the operation that the operator wants the robot device 200 to perform based on the classification result. The intention estimation unit 153 estimates, for example, the movement of hands and fingers at each time, the purpose of the work that the robot device 200 wants to perform, the work content, the movement of hands and fingers at each time, etc. as the operator's intention of operation. The purpose of the work is, for example, grasping an object, moving an object, etc. Examples of tasks include grasping and lifting an object, grasping and moving an object, etc.

また、意図推定部153は、例えば、記憶部170に記憶された学習済みモデルや意図推定情報172Bに操作内容を入力して、操作者の動作意図を推定してもよい。実施形態では、把持姿勢の分類によって意図推定を行うことで、精度良く操作者の動作意図を推定することができる。なお、把持姿勢の分類には、他の手法を用いてもよい。 The intention estimation unit 153 may also estimate the operator's intention to operate by, for example, inputting the operation content into a learned model or intention estimation information 172B stored in the storage unit 170. In the embodiment, the intention estimation is performed by classifying the grip posture, so that the operator's intention to operate can be estimated with high accuracy. Note that other methods may be used to classify the grip posture.

また、意図推定部153は、視線と腕部の動きを用いて統合的に推定してもよい。この場合、意図推定部153は、視線情報と、手の動き情報とテーブルTB上の物体OBの位置情報とを学習済みのモデルに入力して、操作者の動作意図を推定するようにしてもよい。 The intention estimation unit 153 may also perform an integrated estimation using the gaze and arm movement. In this case, the intention estimation unit 153 may input gaze information, hand movement information, and position information of the object OB on the table TB to a trained model to estimate the operator's intention to operate.

図8の例において、意図推定部153は、例えば、視線情報に基づいて把持させた物体を推定する。次に、意図推定部153は、推定した把持させたい物体に基づいて、操作者の手の姿勢を推定する。また、意図推定部153は、例えば、操作内容に基づいて、まず操作者の手の姿勢を推定し、次に推定した操作者の手の姿勢から、把持したい物体を推定してもよい。なお、操作者U1、U2から同じまたは類似の操作内容が入力された場合、優先度が高い操作者からの操作内容に基づいて、意図推定が行われる。また、操作者U1、U2ごとに異なる部位の操作が割り当てられている場合には、意図推定部153は、それぞれの操作内容に基づく意図を推定する。以下では、操作者U1が右手のアーム部210Aを操作し、操作者U2が左手のアーム部210Aを操作するものとして説明する。 8, the intention estimation unit 153 estimates the object to be grasped based on, for example, line of sight information. Next, the intention estimation unit 153 estimates the posture of the operator's hand based on the estimated object to be grasped. In addition, the intention estimation unit 153 may, for example, first estimate the posture of the operator's hand based on the operation content, and then estimate the object to be grasped from the estimated posture of the operator's hand. Note that, when the same or similar operation content is input from the operators U1 and U2, the intention estimation is performed based on the operation content from the operator with the higher priority. In addition, when the operation of different parts is assigned to each of the operators U1 and U2, the intention estimation unit 153 estimates the intention based on the operation content of each. In the following, it is assumed that the operator U1 operates the arm unit 210A with his right hand, and the operator U2 operates the arm unit 210A with his left hand.

例えば、図8に示すテーブルTB上に物体OBが置かれている場合、意図推定部153は、手の姿勢に基づいて、物体OBを把持すると推定する。また、意図推定部153は、操作内容と、ロボット装置200の状態情報とに基づいて、操作者が意図する手先の将来軌道を、事前に推定してもよい。なお、意図推定部153は、センサにより検出された検出結果、環境センサ340が撮影した画像を画像処理した結果等も用いて、把持したい物体と、物体の位置を推定するようにしてもよい。 For example, when an object OB is placed on the table TB shown in FIG. 8, the intention estimation unit 153 estimates that the object OB will be grasped based on the posture of the hand. The intention estimation unit 153 may also estimate in advance the future trajectory of the hand that the operator intends to grasp based on the operation content and state information of the robot device 200. The intention estimation unit 153 may also estimate the object to be grasped and the position of the object by using the detection results detected by the sensor, the results of image processing of the image captured by the environmental sensor 340, etc.

また、操作者が操作する環境とロボット動作環境では座標系が異なるため、例えば、ロボット装置200の起動時に、操作者の操作環境とロボット動作環境とのキャリブレーションを行ってもよい。また、把持の際、管理サーバ100は、ロボット装置の把持力と、物体と把持部との摩擦力等に基づいて、把持時の把持位置の誤差を考慮して、把持位置を決定してもよい。 In addition, since the coordinate system is different between the environment in which the operator operates and the robot operating environment, for example, calibration between the operator's operating environment and the robot operating environment may be performed when the robot device 200 is started. In addition, when grasping, the management server 100 may determine the grasping position based on the grasping force of the robot device and the frictional force between the object and the grasping part, etc., taking into account the error in the grasping position at the time of grasping.

ロボット装置200は、遠隔操作されていない場合は、制御装置240の制御に応じて動作が制御され、遠隔操作されている場合、管理サーバ100が推定された意図等に基づいて生成した動作制御情報に応じて動作が制御される。 When the robot device 200 is not remotely operated, its operation is controlled according to the control of the control device 240, and when it is remotely operated, its operation is controlled according to operation control information generated by the management server 100 based on the estimated intention, etc.

ロボット装置200の制御装置240は、管理サーバ100からの動作制御情報に基づいて駆動部210を制御する。また、ロボット装置200は、センサ204により検出されたセンサ情報や、カメラ206で撮像された画像、マイク208により出力された音声等の情報を管理サーバ100に出力する。管理サーバ100は、取得したセンサ情報、画像、音声等に基づいて操作端末300A-1、300A-2に提供する提供情報を生成する。この場合、管理サーバ100は、画像にセンサ情報の少なくとも一部を重畳した画像を生成してもよい。管理サーバ100は、触覚により伝達させるための情報も含めた提供情報を生成する。また、ロボット装置200は、複数の操作者により操作することが可能であるため、ロボット装置200の各部位の操作者を特定するための情報をカメラ画像に重畳した画像を生成してもよい。操作端末300は、管理サーバ100から出力された画像を表示させる。 The control device 240 of the robot device 200 controls the driving unit 210 based on the operation control information from the management server 100. The robot device 200 also outputs to the management server 100 information such as sensor information detected by the sensor 204, images captured by the camera 206, and audio output by the microphone 208. The management server 100 generates information to be provided to the operation terminals 300A-1 and 300A-2 based on the acquired sensor information, images, audio, and the like. In this case, the management server 100 may generate an image in which at least a part of the sensor information is superimposed on the image. The management server 100 generates information to be provided that also includes information to be transmitted by touch. In addition, since the robot device 200 can be operated by multiple operators, an image in which information for identifying the operator of each part of the robot device 200 is superimposed on the camera image may be generated. The operation terminal 300 displays the image output from the management server 100.

図9は、操作端末300が表示する画像IM10の一例を示す図である。なお、画像IM10のレイアウトや表示内容等の表示態様については、図9の例に限定されるものではない。以降に説明する他の画像の表示態様についても同様とする。図9に示す画像IM10には、カメラ206により撮像されたロボット装置200のアーム部(左手LH、右手RH)を含む画像IM10にセンサ情報表示領域A11と、操作者情報表示領域A12と、作業状況表示領域A13とが重畳して表示されている。また、図9の例では、ロボット装置200の正面にあるテーブルTB上に物体OB1が置かれている。また、ロボット装置200の左手LHは、物体OB2を把持した状態で持ち上げ、ロボット装置200の右手RHは、物体OB3を把持した状態で持ち上げているものとする。センサ情報表示領域A11、操作者情報表示領域A12、および作業状況表示領域A13は、実空間上の物体が遮蔽されることがないように、所定の透過率で表示されてよい。 Figure 9 is a diagram showing an example of an image IM10 displayed by the operation terminal 300. The display mode of the image IM10, such as the layout and display contents, is not limited to the example of Figure 9. The same applies to the display modes of other images described below. In the image IM10 shown in Figure 9, a sensor information display area A11, an operator information display area A12, and a work status display area A13 are superimposed on the image IM10 including the arm part (left hand LH, right hand RH) of the robot device 200 captured by the camera 206. In the example of Figure 9, an object OB1 is placed on a table TB in front of the robot device 200. The left hand LH of the robot device 200 is held up while holding an object OB2, and the right hand RH of the robot device 200 is held up while holding an object OB3. The sensor information display area A11, the operator information display area A12, and the work status display area A13 may be displayed with a predetermined transmittance so that objects in real space are not obstructed.

図9の例において、センサ情報表示領域A11Lには、ロボット装置200の左手に関するセンサ情報が表示されている。また、センサ情報表示領域A11Rには、ロボット装置200の右手に関するセンサ情報(例えば、位置、圧力、温度等)が表示されている。また、図9の例において、操作者情報表示領域A12Lには、ロボット装置200の左手の操作者に関する情報が表示されている。操作者情報表示領域A12Rには、ロボット装置200の左手の操作者に関する情報が表示されている。これにより、例えば、ロボット装置200を複数人で操作する場合に、ロボット装置200の各パーツの操作者を他の操作者に正確に把握させることができる。また、自分が操作している部分のセンサ情報だけでなく、他の操作者の操作に関する情報を把握することができるため、より正確な処理を実行することができる。 9, the sensor information display area A11L displays sensor information related to the left hand of the robot device 200. The sensor information display area A11R displays sensor information related to the right hand of the robot device 200 (e.g., position, pressure, temperature, etc.). In the example of FIG. 9, the operator information display area A12L displays information related to the operator of the left hand of the robot device 200. The operator information display area A12R displays information related to the operator of the left hand of the robot device 200. This allows, for example, when the robot device 200 is operated by multiple people, the other operators to accurately know who is operating each part of the robot device 200. In addition, since it is possible to know not only the sensor information of the part being operated by oneself but also information related to the operation of other operators, more accurate processing can be performed.

作業状況表示領域A13には、それぞれの意図推定の結果等が表示される。図9の例では、操作者U1、U2のそれぞれの操作内容から推定された意図に関する情報が表示される。また、管理サーバ100は、意図推定によって、それぞれの操作者が同一または類似の処理を行うことを推定した場合に、優先度情報に基づいて一方の意図を優先して実行する。また、この場合、他の操作者に、作業状況表示領域A13に表示させると共に、音声または表示態様を変化させることで警告等の提示を行ってもよい。図9の例では、操作者U1とU2が共に、把持した物体を物体OB1の上に置こうとしているため、警告情報が提示される。警告態様は、危険度合に応じて、異ならせてもよい。 The work status display area A13 displays the results of each intention estimation. In the example of FIG. 9, information on the intentions estimated from the operation contents of each of the operators U1 and U2 is displayed. Furthermore, when the management server 100 estimates through intention estimation that each operator will perform the same or similar processing, it executes one intention with priority based on priority information. Furthermore, in this case, a warning may be presented to the other operator by displaying the information in the work status display area A13 and changing the audio or display mode. In the example of FIG. 9, warning information is presented because both operators U1 and U2 are trying to place the object they are holding on the object OB1. The warning mode may be different depending on the degree of danger.

この場合、動作制御部154は、例えば、操作者ごとの優先度を参照し、優先度の高い操作者の意図に基づいて動作をロボット装置200に実行させる。また、管理サーバ100は、優先度に基づいて処理が実行された場合に、操作端末300の表示部に処理内容を含む画像を表示させる。 In this case, the operation control unit 154, for example, refers to the priority of each operator and causes the robot device 200 to execute an operation based on the intention of the operator with the highest priority. Furthermore, when a process is executed based on the priority, the management server 100 causes the display unit of the operation terminal 300 to display an image including the process content.

図10は、優先度に基づく作業が実行された場合に操作端末300に表示される画像IM20の一例を示す図である。図10の例では、図9に示す画像IM10と比較すると、作業状況表示領域A13に表示される内容が異なっている。したがって、以下では、主に、作業状況表示領域A13について説明する。図10の例において、作業状況表示領域A13には、優先度に基づいて操作者祖U2の指示が優先して実行されたことを示す情報が表示されている。これにより、操作者U1、U2は、それぞれの操作指示に対する意図推定結果と、実際の作業状況を、より正確に把握することができる。 Figure 10 is a diagram showing an example of an image IM20 displayed on the operation terminal 300 when a task based on priority is performed. In the example of Figure 10, the content displayed in the work status display area A13 is different from that of the image IM10 shown in Figure 9. Therefore, the following mainly describes the work status display area A13. In the example of Figure 10, the work status display area A13 displays information indicating that the instructions of the first operator U2 have been executed with priority based on the priority. This allows the operators U1 and U2 to more accurately grasp the intention estimation results for their respective operation instructions and the actual work status.

また、意図推定部153は、推定した結果を記憶部に記憶し、次回以降の意図推定の際に利用してもよい。また、意図推定部153は、不明な動作を検出した場合に、その動作をロボット装置200に実行させるかを操作者に問い合わせてもよい。 The intention estimation unit 153 may also store the estimation result in a memory unit and use it the next time or later when estimating intentions. When an unknown action is detected, the intention estimation unit 153 may inquire of the operator as to whether to cause the robot device 200 to execute the action.

図11は、ロボット装置に実行される動作を操作者に問い合わせる画像IM30の一例を示す図である。画像IM30は、例えば、動作問合せ情報表示領域A31と、スイッチ表示領域A32とが含まれる。動作問合せ情報表示領域A31には、操作装置330により入力された操作内容のうち、ロボット装置200に実行させる必要があるか否かを問い合わせるための情報が表示される。例えば、頭を触る動作が検出されたが、この動作の意図が推定できなかった場合、意図推定部153は、図11の動作問合せ情報表示領域A31に示すように、「頭を触る動作が検出されました。この動作をロボットに動作させますか?」等の文字情報を示す画像を操作端末300に表示させる。 11 is a diagram showing an example of an image IM30 that inquires of the operator about the operation to be performed by the robot device. Image IM30 includes, for example, an operation inquiry information display area A31 and a switch display area A32. In the operation inquiry information display area A31, information is displayed for inquiring whether or not the robot device 200 needs to execute an operation content input by the operation device 330. For example, if an operation of touching the head is detected but the intention of this operation cannot be estimated, the intention estimation unit 153 displays an image showing text information such as "An operation of touching the head has been detected. Do you want the robot to perform this operation?" on the operation terminal 300, as shown in the operation inquiry information display area A31 in FIG. 11.

スイッチ表示領域A32には、例えば、アイコンIC31およびIC32が表示されている。アイコンIC31およびIC32は、例えばGUI(Graphical User Interface)スイッチである。アイコンIC31が選択された場合、管理サーバ100は、指示された操作内容をロボット装置200に実行させるための動作制御情報を生成する。また、アイコンIC12が選択された場合には、HMI制御部180は、指示された操作内容をロボット装置200に実行させない。また、管理サーバ100は、今後同一の操作が入力された場合であってもロボット装置に入力させないような処理を実行してもよい。これにより、操作者の癖等によって無意識に実行される動作等をロボットに実行させることを抑制することができ、余計な動作を行わせないようにすることができる。 In the switch display area A32, for example, icons IC31 and IC32 are displayed. Icons IC31 and IC32 are, for example, GUI (Graphical User Interface) switches. When icon IC31 is selected, the management server 100 generates operation control information for causing the robot device 200 to execute the instructed operation content. When icon IC12 is selected, the HMI control unit 180 does not cause the robot device 200 to execute the instructed operation content. Furthermore, the management server 100 may execute a process to prevent the robot device from inputting the same operation even if it is input in the future. This makes it possible to suppress the robot from executing operations that are unconsciously performed due to the operator's habits, etc., and to prevent unnecessary operations.

また、ロボット装置200の周囲に存在する操作者は、ロボット装置200が誰によって操作されているかが分からないため、不安に感じることがあり得る。そこで、管理サーバ100は、ロボット装置200の操作者に関する情報を、ロボット装置200のモニタに表示させてもよい。この場合、ロボット装置200が複数の操作者によって操作されている場合に、それぞれのパーツごとの操作者を提示してもよい。 In addition, operators around the robot device 200 may feel uneasy because they do not know who is operating the robot device 200. Therefore, the management server 100 may display information about the operator of the robot device 200 on the monitor of the robot device 200. In this case, if the robot device 200 is operated by multiple operators, the operator of each part may be presented.

図12は、ロボット装置200のモニタ214に表示される画像IM40の一例を示す図である。画像IM40には、例えば、操作者情報表示領域A41、A42の一方または双方が含まれる。操作者情報表示領域A41には、ロボット装置200を操作する操作者に関する文字情報が表示される。また、操作者情報表示領域A41には、操作者が操作するロボット装置200のパーツに関する情報が含まれてもよい。図12の例において、操作者情報表示領域A41には、「このロボットは、操作者U2が右手を、操作者U1が左手を、それぞれ操作しています。」という文字情報が表示されている。また、操作者情報表示領域A42には、利用者DBに登録されたアバター画像が表示されている。これにより、周囲の操作者は、ロボットを遠隔操作している人物や、担当しているパーツをより正確に認識することができる。 12 is a diagram showing an example of an image IM40 displayed on the monitor 214 of the robot device 200. The image IM40 includes, for example, one or both of the operator information display areas A41 and A42. The operator information display area A41 displays text information related to the operator who operates the robot device 200. The operator information display area A41 may also include information related to the parts of the robot device 200 operated by the operator. In the example of FIG. 12, the operator information display area A41 displays text information such as "The right hand of the operator U2 and the left hand of the operator U1 are operating this robot." The operator information display area A42 displays an avatar image registered in the user DB. This allows surrounding operators to more accurately recognize the person remotely operating the robot and the parts they are responsible for.

[処理シーケンス]
次に、実施形態における遠隔操作システムによって実行される処理について、シーケンス図を用いて説明する。図13は、実施形態における遠隔操作システム1によって実行される処理について説明するためのシーケンス図である。図13の例では、管理サーバ100と、ロボット装置200と、操作端末300-1、300-2を用いて説明するものとする。また、図13では、2つの操作端末300-1、300-2によって、ロボット装置200を操作する例について説明するものとする。
[Processing sequence]
Next, the processing executed by the remote operation system in the embodiment will be described with reference to a sequence diagram. Fig. 13 is a sequence diagram for explaining the processing executed by the remote operation system 1 in the embodiment. In the example of Fig. 13, the explanation will be given using the management server 100, the robot device 200, and the operation terminals 300-1 and 300-2. Also, in Fig. 13, an example will be explained in which the robot device 200 is operated by the two operation terminals 300-1 and 300-2.

操作端末300-1および操作端末300-2は、ロボット装置200を遠隔操作するために、それぞれ管理サーバ100にアクセスする(ステップS100、S102)。管理サーバ100は、操作端末300-1および300-2から入力される認証情報等に基づいて遠隔操作システム1を利用可能であるか否かの認証処理を行う(ステップS104)。以下では、認証により利用が許可された場合について説明する。利用が許可された場合、管理サーバ100の管理部は、操作端末300-1および300-2によって操作されるロボット装置200を割り当て(ステップS106)、割り当てたロボット装置に対して起動制御の要求を行う(ステップS108)。 The operation terminal 300-1 and the operation terminal 300-2 each access the management server 100 to remotely operate the robot device 200 (steps S100, S102). The management server 100 performs authentication processing to determine whether or not the remote operation system 1 can be used based on authentication information and the like input from the operation terminals 300-1 and 300-2 (step S104). The following describes a case where use is permitted by authentication. If use is permitted, the management section of the management server 100 assigns the robot device 200 to be operated by the operation terminals 300-1 and 300-2 (step S106) and requests startup control of the assigned robot device (step S108).

ロボット装置200は、管理サーバ100からの起動要求に基づいて機器を起動し(ステップS110)、ロボット装置200のセンサの検出結果や、カメラにより撮像された画像等の管理サーバ100に出力する(ステップS112)。 The robot device 200 starts up the device based on a start-up request from the management server 100 (step S110) and outputs the detection results of the robot device 200's sensor, images captured by the camera, etc. to the management server 100 (step S112).

管理サーバ100は、ロボット装置200から送信された情報を取得し、取得した情報に基づいて、操作端末300-1、300-2に提供する情報(提供情報)を生成する(ステップS114)。そして、管理サーバ100は、生成した提供情報を、操作端末300-1、300-2にそれぞれ送信する(ステップS116、S118)。 The management server 100 acquires the information transmitted from the robot device 200, and generates information (provided information) to be provided to the operation terminals 300-1 and 300-2 based on the acquired information (step S114). The management server 100 then transmits the generated provided information to the operation terminals 300-1 and 300-2, respectively (steps S116 and S118).

操作端末300-1、300-2のそれぞれは、管理サーバ100から送信された提供情報を受信し、受信した情報をHMDおよび操作装置等から出力して、情報を提供する(ステップS120、S122)。 Each of the operation terminals 300-1 and 300-2 receives the provided information sent from the management server 100, and provides the information by outputting the received information from the HMD and the operation device, etc. (steps S120 and S122).

次に、操作端末300-1、300-2は、ロボット装置200に関する操作内容を管理サーバ100に送信する(ステップS124、S126)。管理サーバ100は、操作端末300-1、300-2のそれぞれから得られる操作内容に基づいて意図推定を行い(ステップS128)、それぞれの意図推定結果に基づく動作制御情報を生成し(ステップS130)、生成した動作制御情報をロボット装置200に送信する(ステップS132)。 Next, the operation terminals 300-1 and 300-2 transmit the operation details related to the robot device 200 to the management server 100 (steps S124 and S126). The management server 100 performs intention estimation based on the operation details obtained from each of the operation terminals 300-1 and 300-2 (step S128), generates operation control information based on the respective intention estimation results (step S130), and transmits the generated operation control information to the robot device 200 (step S132).

ロボット装置200は、動作制御情報に基づいて動作を行い(ステップS134)、動作中または動作結果で、センサ等から得られる情報(センサ情報)やカメラ画像等を管理サーバ100に送信する(ステップS136)。 The robot device 200 performs an operation based on the operation control information (step S134), and transmits information obtained from sensors, etc. (sensor information) and camera images, etc. during or as a result of the operation, to the management server 100 (step S136).

管理サーバ100は、受信した情報を記憶部170に記憶させ(ステップS138)、取得した情報を操作端末300-1,300-2に送信するための提供情報を生成し(ステップS140)、生成した提供情報を、操作端末300-1、300-2に送信する(ステップS142、S144)。操作端末300-1、300-2のそれぞれは、得られた情報出力して、操作者に情報提供を行う(ステップS146、S148)。以降、ステップS124~S148の処理が、ロボット装置200への操作が完了するまで継続して行われる。 The management server 100 stores the received information in the storage unit 170 (step S138), generates information to be provided for transmitting the acquired information to the operation terminals 300-1 and 300-2 (step S140), and transmits the generated information to be provided to the operation terminals 300-1 and 300-2 (steps S142 and S144). Each of the operation terminals 300-1 and 300-2 outputs the acquired information and provides the information to the operator (steps S146 and S148). Thereafter, the processing of steps S124 to S148 is continued until the operation of the robot device 200 is completed.

<変形例>
実施形態における管理サーバ100、ロボット装置200、および操作端末300の処理の一部または全部は、AI(Artificial Intelligence)技術によって実現されてもよい。また、管理サーバ100、ロボット装置200、および操作端末300に含まれる機能部または記憶部に記憶される情報のうち、一部または全部の機能部または情報は、他の装置に含まれてもよい。
<Modification>
In the embodiments, a part or all of the processes of the management server 100, the robot device 200, and the operation terminal 300 may be realized by AI (Artificial Intelligence) technology. In addition, a part or all of the functional units or information stored in the functional units or storage units included in the management server 100, the robot device 200, and the operation terminal 300 may be included in other devices.

また、上述の実施形態では、主に複数の操作者が1台のロボット装置200を操作することについて説明したが、1人の操作者が複数のロボット装置200を操作してもよい。この場合、複数のロボット装置200のそれぞれで検出されたセンサ情報等がHMD320の画像表示部322に表示される。また、管理サーバ100は、操作に関する履歴情報や意図推定情報等をロボットメーカ端末400に送信してもよい。これにより、ロボットメーカ端末400や商品の開発や、プログラムのアップデート等に利用することができる。この場合、ロボット装置200のエコ運転(例えば、低電力運転や低負荷運転、低通信量運転)を行った企業、または、操作者若しくはテレワーク特性に適したロボット制御の方法を提供した企業等に対して、システム利用の割引や減額サービスを行ってもよい。これにより、利用者からの情報提供を推進することができるため、サービスの向上に役立てることができる。 In the above embodiment, the case where a single robot device 200 is operated by multiple operators has been described, but a single operator may operate multiple robot devices 200. In this case, sensor information detected by each of the multiple robot devices 200 is displayed on the image display unit 322 of the HMD 320. The management server 100 may also transmit operation history information, intent estimation information, and the like to the robot manufacturer terminal 400. This can be used for developing the robot manufacturer terminal 400 and products, updating programs, and the like. In this case, a discount or reduction service for system usage may be provided to a company that has performed eco-driving of the robot device 200 (for example, low-power driving, low-load driving, low-communication driving), or a company that has provided a robot control method suitable for an operator or telework characteristics. This can promote the provision of information from users, which can be useful for improving services.

また、上述の実施形態では、1台のロボット装置200を複数の操作者で操作する場合に、それぞれの操作意図や作業状況を表示させる例を示したが、例えば、所定距離以内に存在する複数のロボット装置200や、共同作業を行っているロボット装置間で、上述した意図推定結果や、作業状況、操作者に関する情報を提供してもよい。これにより、ロボット同士の意図推定機能を用いることで、人間同士で行うよりもより意識の共有が可能となる。また、周辺のロボット装置200の状況まで取得することができるため、グループワーク等も円滑に行うことができる。 In addition, in the above embodiment, when multiple operators operate one robot device 200, an example was shown in which each operator's operating intention and work status were displayed. However, for example, the above-mentioned intention estimation results, work status, and information about the operator may be provided between multiple robot devices 200 that exist within a specified distance, or between robot devices performing collaborative work. In this way, by using the intention estimation function between robots, it becomes possible to share awareness more effectively than between humans. In addition, since it is possible to obtain the status of surrounding robot devices 200, group work, etc. can be performed smoothly.

以上説明した実施形態は、例えば、サーバにおいて、一以上のロボット装置200および一以上のロボット装置200のうち少なくとも一つを遠隔操作する一以上の操作端末300とネットワークNWを介して通信する通信部と、操作端末300によって入力された操作内容を取得する取得部と、取得部により取得された操作内容に基づいて操作端末300の操作者の意図を推定する意図推定部と、意図推定部により推定された意図結果に基づいてロボット装置200の動作を制御する動作制御部と、を備えることにより、ロボットをより適切に動作させることができる。 The embodiment described above can operate the robot more appropriately by, for example, providing a server with a communication unit that communicates via a network NW with one or more robotic devices 200 and one or more operation terminals 300 that remotely operate at least one of the one or more robotic devices 200, an acquisition unit that acquires operation content input by the operation terminal 300, an intention estimation unit that estimates the intention of the operator of the operation terminal 300 based on the operation content acquired by the acquisition unit, and an operation control unit that controls the operation of the robotic device 200 based on the intention result estimated by the intention estimation unit.

また、上述した実施形態によれば、ロボットを遠隔操作することによってテレワークを行うにあたり、より汎用的に様々な装置を使用したり、それをチームで運用することができる。また、従来は遠隔操作を行うにしても限られた専用ロボットでの限られた作業しかできなかったが、本実施形態によれば、汎用性の高いロボットで誰もが簡単にテレワークを行うことが可能になる。 In addition, according to the above-described embodiment, when performing teleworking by remotely controlling a robot, various devices can be used more generally and can be operated by a team. Furthermore, in the past, only limited tasks could be performed with a limited number of dedicated robots even when remotely controlled, but according to this embodiment, anyone can easily perform teleworking with a highly versatile robot.

また、実施形態によれば、ロボットの情報とセンサの情報(企業の機密を含みうる情報)分けて管理することができ、機密対応可能なサーバを提供することができる。また、遠隔操作する操作者は同一サーバにアクセス可能であり、同一ロボット、あるいは別ロボットの操縦権やセンサ情報を共有することができる。例えば、同一ロボット装置を操作する場合には、複数の操作者が違う腕を操作することで、同一ロボットの同一腕を先輩と後輩が同時に操作し、触覚などのセンサ情報も共有した上で力の足し算、引き算ができる。また、別ロボット操縦の場合に、意図推定機能を共有し、他者の意図を開示することにより以心伝心が可能となる。また、意図推定機能を利用することで同じ方向に進んでしまったり、同じものを取ろうと思った時にぶつからないように警告を出すことができる。また、実施形態によれば、1人の操縦者が2台のロボットを操縦することが可能である。この場合、例えば大きい机を2台のロボットで運ぼうとした場合、予め一台のロボットを机の端に連れていき、別ロボットと同期処理をする。また、別ロボットをもう一端に連れていき、持ち上げる動作をしようとすると同期処理により一緒に持ち上げる。更に、実施形態では、人間同士で掛け声をかけて動作させるよりも正確な作業が可能となる。また、実施形態では、一人の操縦者が同じ作業をたくさんのロボットにさせる場合に、サポーティッドテレオペレーション機能によって、ロボット個体差と作業対象物の個体差を吸収することができる。 According to the embodiment, the robot information and the sensor information (information that may include corporate secrets) can be managed separately, and a server capable of handling confidential information can be provided. Remote operators can access the same server and can share the control rights and sensor information of the same robot or different robots. For example, when operating the same robot device, multiple operators can operate different arms, so that a senior and a junior can simultaneously operate the same arm of the same robot, and can add and subtract forces while sharing sensor information such as tactile sense. When operating different robots, telepathy is possible by sharing the intention estimation function and disclosing the intentions of others. Furthermore, by using the intention estimation function, a warning can be issued to prevent the robots from moving in the same direction or colliding when trying to pick up the same thing. According to the embodiment, one operator can operate two robots. In this case, for example, if two robots are to carry a large desk, one robot is brought to the edge of the desk in advance and synchronized with the other robot. Also, when the other robot is brought to the other end and an action is attempted to lift it, the robots are lifted together by synchronization processing. Furthermore, in the embodiment, more accurate work is possible than if humans were to call out to each other to perform the operation. Also, in the embodiment, when one operator has multiple robots perform the same work, the supported teleoperation function can absorb individual differences between the robots and the individual differences between the objects being worked on.

上記説明した実施形態は、以下のように表現することができる。
移動体と、前記移動体の利用者の携帯端末との通信を行うサーバのコンピュータが、
プログラムを記憶した記憶装置と、
ハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサが前記記憶装置に記憶されたプログラムを実行することにより、
一以上のロボット装置および前記一以上のロボット装置のうち少なくとも一つを遠隔操作する一以上の操作端末とネットワークを介して通信し、
前記操作端末によって入力された操作内容を取得し、
取得した操作内容に基づいて前記操作端末の操作者の意図を推定し、
推定した意図結果に基づいて前記ロボット装置の動作を制御する、
ように構成されている、サーバ。
The above-described embodiment can be expressed as follows.
A server computer that communicates with a mobile object and a mobile terminal of a user of the mobile object,
A storage device storing a program;
a hardware processor;
The hardware processor executes the program stored in the storage device,
communicating with one or more robot devices and one or more operation terminals that remotely operate at least one of the one or more robot devices via a network;
Acquire operation contents inputted by the operation terminal;
Estimating the intention of the operator of the operation terminal based on the acquired operation content;
Controlling the operation of the robot device based on the estimated intention result.
The server is configured as follows:

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 The above describes the form for carrying out the present invention using an embodiment, but the present invention is not limited to such an embodiment, and various modifications and substitutions can be made without departing from the spirit of the present invention.

1…遠隔操作システム、100…管理サーバ、110,202、310…通信部、120…通信制御部、130…取得部、140…管理部、150…制御部、170…記憶部、200…ロボット装置、204…センサ、206…カメラ、208…マイク、210…駆動部、214…モニタ、216…スピーカ、240…制御装置、260…記憶部、300…操作端末、320…HMD、330…操作装置、340…環境センサ、360…制御装置、380…記憶部 1...Remote operation system, 100...Management server, 110, 202, 310...Communication unit, 120...Communication control unit, 130...Acquisition unit, 140...Management unit, 150...Control unit, 170...Memory unit, 200...Robot device, 204...Sensor, 206...Camera, 208...Microphone, 210...Drive unit, 214...Monitor, 216...Speaker, 240...Control device, 260...Memory unit, 300...Operation terminal, 320...HMD, 330...Operation device, 340...Environment sensor, 360...Control device, 380...Memory unit

Claims (11)

一以上のロボット装置および前記一以上のロボット装置のうち少なくとも一つを遠隔操作する一以上の操作端末とネットワークを介して通信する通信部と、
前記操作端末によって入力された操作内容を取得する取得部と、
前記取得部により取得された操作内容に基づいて前記操作端末の操作者の意図を推定する意図推定部と、
前記意図推定部により推定された意図結果に基づいて前記ロボット装置の動作を制御する動作制御部と、を備え、
前記取得部は、前記ロボット装置の動作に関するロボット制御情報と、前記ロボット装置に設けられたセンサにより検出されたセンサ情報とを取得し、
前記取得部により取得された前記ロボット制御情報と前記センサ情報とに、それぞれ異なるアクセス権を設定し、設定されたアクセス権が確認されたときに前記ロボット制御情報と前記センサ情報の何れかを取得可能とする管理部を更に備える、
ーバ。
a communication unit that communicates with one or more robot devices and one or more operation terminals that remotely operate at least one of the one or more robot devices via a network;
an acquisition unit that acquires operation content inputted by the operation terminal;
an intention estimation unit that estimates an intention of an operator of the operation terminal based on the operation content acquired by the acquisition unit;
an operation control unit that controls an operation of the robot apparatus based on the intention result estimated by the intention estimation unit ,
the acquiring unit acquires robot control information relating to an operation of the robot device and sensor information detected by a sensor provided in the robot device;
a management unit that sets different access rights to the robot control information and the sensor information acquired by the acquisition unit, and enables acquisition of either the robot control information or the sensor information when the set access rights are confirmed,
server .
一以上のロボット装置および前記一以上のロボット装置のうち少なくとも一つを遠隔操作する一以上の操作端末とネットワークを介して通信する通信部と、
前記操作端末によって入力された操作内容を取得する取得部と、
前記取得部により取得された操作内容に基づいて前記操作端末の操作者の意図を推定する意図推定部と、
前記意図推定部により推定された意図結果に基づいて前記ロボット装置の動作を制御する動作制御部と、を備え、
前記動作制御部は、複数の操作端末から取得した操作内容に基づいて一つのロボット装置の動作を制御する場合に、前記操作端末を操作する操作者の優先度に基づいて、前記ロボット装置の動作制御情報を生成し、
前記意図推定部は、前記一つのロボット装置を操作する複数の操作端末のそれぞれの操作者の意図を推定し、
前記意図推定部により推定された前記それぞれの操作者の意図推定結果を前記複数の操作端末のそれぞれに出力させる出力制御部を更に備える、
ーバ。
a communication unit that communicates with one or more robot devices and one or more operation terminals that remotely operate at least one of the one or more robot devices via a network;
an acquisition unit that acquires operation content inputted by the operation terminal;
an intention estimation unit that estimates an intention of an operator of the operation terminal based on the operation content acquired by the acquisition unit;
an operation control unit that controls an operation of the robot apparatus based on the intention result estimated by the intention estimation unit ,
when controlling an operation of one robot device based on operation contents acquired from a plurality of operation terminals, the operation control unit generates operation control information for the robot device based on a priority of operators who operate the operation terminals;
the intention estimation unit estimates an intention of each of operators of a plurality of operation terminals that operate the one robot device,
an output control unit that outputs an intention estimation result of each of the operators estimated by the intention estimation unit to each of the multiple operation terminals;
server .
前記取得部は、前記ロボット装置の動作に関するロボット制御情報と、前記ロボット装置に設けられたセンサにより検出されたセンサ情報とを取得し、
前記取得部により取得された前記ロボット制御情報と前記センサ情報とに、それぞれ異なるアクセス権を設定し、設定されたアクセス権が確認されたときに前記ロボット制御情報と前記センサ情報の何れかを取得可能とする管理部を更に備える、
請求項に記載のサーバ。
the acquiring unit acquires robot control information relating to an operation of the robot device and sensor information detected by a sensor provided in the robot device;
a management unit that sets different access rights to the robot control information and the sensor information acquired by the acquisition unit, and enables acquisition of either the robot control information or the sensor information when the set access rights are confirmed,
The server according to claim 2 .
前記管理部は、前記センサ情報のアクセス権の強度を、前記ロボット制御情報よりも大きくする、
請求項に記載のサーバ。
The management unit sets a strength of the access right for the sensor information to be greater than that for the robot control information.
The server of claim 1 .
前記動作制御部は、複数の操作端末から取得した操作内容に基づいて一つのロボット装置の動作を制御する場合に、前記操作端末を操作する操作者の優先度に基づいて、前記ロボット装置の動作制御情報を生成する、
請求項に記載のサーバ。
the operation control unit, when controlling an operation of one robot device based on operation contents acquired from a plurality of operation terminals, generates operation control information for the robot device based on priorities of operators who operate the operation terminals.
The server of claim 1 .
前記動作制御部は、前記取得部により前記複数の操作端末から同一または類似の操作内容が取得された場合に、前記優先度の高い操作者からの操作内容を優先させて前記ロボット装置の動作を制御する、
請求項に記載のサーバ。
when the acquiring unit acquires the same or similar operation content from the plurality of operation terminals, the operation control unit controls the operation of the robot device by giving priority to the operation content from the operator with a high priority.
The server according to claim 5 .
請求項1から請求項6の何れかに記載されたサーバと、
前記一以上のロボット装置と、
前記一以上の操作端末と、
を備える、遠隔操作システム。
A server according to any one of claims 1 to 6;
the one or more robotic devices;
The one or more operation terminals;
A remote control system comprising:
コンピュータが、
一以上のロボット装置および前記一以上のロボット装置のうち少なくとも一つを遠隔操作する一以上の操作端末とネットワークを介して通信し、
前記操作端末によって入力された操作内容を取得し、
取得した操作内容に基づいて前記操作端末の操作者の意図を推定し、
推定した意図結果に基づいて前記ロボット装置の動作を制御し、
前記ロボット装置の動作に関するロボット制御情報と、前記ロボット装置に設けられたセンサにより検出されたセンサ情報とを取得し、
取得した前記ロボット制御情報と前記センサ情報とに、それぞれ異なるアクセス権を設定し、設定されたアクセス権が確認されたときに前記ロボット制御情報と前記センサ情報の何れかを取得可能とする、
遠隔操作方法。
The computer
communicating with one or more robot devices and one or more operation terminals that remotely operate at least one of the one or more robot devices via a network;
Acquire operation contents inputted by the operation terminal;
Estimating the intention of the operator of the operation terminal based on the acquired operation content;
Controlling the operation of the robot device based on the estimated intention result ;
acquiring robot control information relating to an operation of the robot device and sensor information detected by a sensor provided in the robot device;
a different access right is set for each of the acquired robot control information and the acquired sensor information, and when the set access right is confirmed, either the robot control information or the sensor information can be acquired;
Remote operation method.
コンピュータが、
一以上のロボット装置および前記一以上のロボット装置のうち少なくとも一つを遠隔操作する一以上の操作端末とネットワークを介して通信し、
前記操作端末によって入力された操作内容を取得し、
取得した操作内容に基づいて前記操作端末の操作者の意図を推定し、
推定した意図結果に基づいて前記ロボット装置の動作を制御し、
複数の操作端末から取得した操作内容に基づいて一つのロボット装置の動作を制御する場合に、前記操作端末を操作する操作者の優先度に基づいて、前記ロボット装置の動作制御情報を生成し、
前記一つのロボット装置を操作する複数の操作端末のそれぞれの操作者の意図を推定し、
推定した前記それぞれの操作者の意図推定結果を前記複数の操作端末のそれぞれに出力させる、
遠隔操作方法。
The computer
communicating with one or more robot devices and one or more operation terminals that remotely operate at least one of the one or more robot devices via a network;
Acquire operation contents inputted by the operation terminal;
Estimating the intention of the operator of the operation terminal based on the acquired operation content;
Controlling the operation of the robot device based on the estimated intention result ;
generating operation control information for the robot device based on priorities of operators who operate the operation terminals when controlling the operation of one robot device based on operation contents acquired from a plurality of operation terminals;
Estimating the intention of each of the operators of a plurality of operation terminals that operate the one robot device;
outputting the estimated intention estimation result of each of the operators to each of the plurality of operation terminals;
Remote operation method.
コンピュータに、
一以上のロボット装置および前記一以上のロボット装置のうち少なくとも一つを遠隔操作する一以上の操作端末とネットワークを介して通信させ、
前記操作端末によって入力された操作内容を取得させ、
取得された操作内容に基づいて前記操作端末の操作者の意図を推定させ、
推定された意図結果に基づいて前記ロボット装置の動作を制御させ、
前記ロボット装置の動作に関するロボット制御情報と、前記ロボット装置に設けられたセンサにより検出されたセンサ情報とを取得させ、
取得された前記ロボット制御情報と前記センサ情報とに、それぞれ異なるアクセス権を設定させ、設定されたアクセス権が確認されたときに前記ロボット制御情報と前記センサ情報の何れかを取得可能とさせる、
プログラム。
On the computer,
communicating with one or more robot devices and one or more operation terminals for remotely operating at least one of the one or more robot devices via a network;
Acquiring operation details inputted by the operation terminal;
Inferring the intention of the operator of the operation terminal based on the acquired operation content;
Controlling the operation of the robot device based on the estimated intention result ;
acquiring robot control information relating to an operation of the robot device and sensor information detected by a sensor provided in the robot device;
A different access right is set for each of the acquired robot control information and the acquired sensor information, and when the set access right is confirmed, either the robot control information or the sensor information can be acquired.
program.
コンピュータに、
一以上のロボット装置および前記一以上のロボット装置のうち少なくとも一つを遠隔操作する一以上の操作端末とネットワークを介して通信させ、
前記操作端末によって入力された操作内容を取得させ、
取得された操作内容に基づいて前記操作端末の操作者の意図を推定させ、
推定された意図結果に基づいて前記ロボット装置の動作を制御させ、
複数の操作端末から取得した操作内容に基づいて一つのロボット装置の動作を制御する場合に、前記操作端末を操作する操作者の優先度に基づいて、前記ロボット装置の動作制御情報を生成させ、
前記一つのロボット装置を操作する複数の操作端末のそれぞれの操作者の意図を推定させ、
推定された前記それぞれの操作者の意図推定結果を前記複数の操作端末のそれぞれに出力させる、
プログラム。
On the computer,
communicating with one or more robot devices and one or more operation terminals for remotely operating at least one of the one or more robot devices via a network;
Acquiring operation details inputted by the operation terminal;
Inferring the intention of the operator of the operation terminal based on the acquired operation content;
Controlling the operation of the robot device based on the estimated intention result ;
When controlling the operation of one robot device based on operation contents acquired from a plurality of operation terminals, generating operation control information for the robot device based on the priority of operators who operate the operation terminals;
Inferring the intentions of the respective operators of a plurality of operation terminals which operate the one robot device;
outputting the estimated intention estimation result of each of the operators to each of the plurality of operation terminals;
program.
JP2021069233A 2021-04-15 2021-04-15 SERVER, REMOTE CONTROL SYSTEM, REMOTE CONTROL METHOD, AND PROGRAM Active JP7569742B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2021069233A JP7569742B2 (en) 2021-04-15 2021-04-15 SERVER, REMOTE CONTROL SYSTEM, REMOTE CONTROL METHOD, AND PROGRAM
CN202210195963.6A CN115225682B (en) 2021-04-15 2022-03-01 Management server, remote operation system, remote operation method, and storage medium
CN202311388284.1A CN117336337A (en) 2021-04-15 2022-03-01 Remote operation system and method and storage medium
US17/720,271 US20220331967A1 (en) 2021-04-15 2022-04-13 Management server, remote operation system, remote operation method, and storage medium
US18/655,333 US20240286290A1 (en) 2021-04-15 2024-05-06 Remote operation control system, remote operation control method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021069233A JP7569742B2 (en) 2021-04-15 2021-04-15 SERVER, REMOTE CONTROL SYSTEM, REMOTE CONTROL METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2022164027A JP2022164027A (en) 2022-10-27
JP7569742B2 true JP7569742B2 (en) 2024-10-18

Family

ID=83742764

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021069233A Active JP7569742B2 (en) 2021-04-15 2021-04-15 SERVER, REMOTE CONTROL SYSTEM, REMOTE CONTROL METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP7569742B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003092749A (en) 2001-09-19 2003-03-28 Yutaka Electronics Industry Co Ltd Experiment management system
JP2017196678A (en) 2016-04-25 2017-11-02 国立大学法人 千葉大学 Robot motion control device
JP2018075713A (en) 2008-07-11 2018-05-17 インタッチ・テクノロジーズ・インコーポレーテッド Remote control robot system
WO2018212225A1 (en) 2017-05-17 2018-11-22 Telexistence株式会社 Sensation imparting device, robot control system, and robot control method and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003092749A (en) 2001-09-19 2003-03-28 Yutaka Electronics Industry Co Ltd Experiment management system
JP2018075713A (en) 2008-07-11 2018-05-17 インタッチ・テクノロジーズ・インコーポレーテッド Remote control robot system
JP2017196678A (en) 2016-04-25 2017-11-02 国立大学法人 千葉大学 Robot motion control device
WO2018212225A1 (en) 2017-05-17 2018-11-22 Telexistence株式会社 Sensation imparting device, robot control system, and robot control method and program

Also Published As

Publication number Publication date
JP2022164027A (en) 2022-10-27

Similar Documents

Publication Publication Date Title
Delmerico et al. Spatial computing and intuitive interaction: Bringing mixed reality and robotics together
Du et al. Markerless kinect-based hand tracking for robot teleoperation
US9457468B1 (en) Human and robotic distributed operating system (HaRD-OS)
CN110096131B (en) Touch interaction method and device and touch wearable equipment
US9360944B2 (en) System and method for enhanced gesture-based interaction
JP2015103250A (en) Method and apparatus of body-mediated digital content transfer and haptic feedback
US9753539B2 (en) Method, device, system and non-transitory computer-readable recording medium for providing user interface
CN109153122A (en) The robot control system of view-based access control model
WO2020116233A1 (en) Information processing device, information processing method, and program
Ben Abdallah et al. Kinect‐Based Sliding Mode Control for Lynxmotion Robotic Arm
JP2013037454A (en) Posture determination method, program, device, and system
JP2018176386A (en) Information processing device and program
JP7091880B2 (en) Information processing equipment, mobiles, remote control systems, information processing methods and programs
Chen et al. A human–robot interface for mobile manipulator
Marques et al. Commodity telepresence with the AvaTRINA nursebot in the ANA Avatar XPRIZE semifinals
CN110543234B (en) Information processing apparatus and non-transitory computer readable medium
JP7569742B2 (en) SERVER, REMOTE CONTROL SYSTEM, REMOTE CONTROL METHOD, AND PROGRAM
JP2002120184A (en) Robot operation control system on network
Renner et al. Facilitating HRI by mixed reality techniques
JP5659787B2 (en) Operation environment model construction system and operation environment model construction method
US11262842B2 (en) Input device for a computing device
US20240286290A1 (en) Remote operation control system, remote operation control method, and storage medium
JP2022164029A (en) Information providing server, information providing system, information providing method, and program
Mao et al. Eliminating drift of the head gesture reference to enhance Google Glass-based control of an NAO humanoid robot
EP4141592A1 (en) Controlling industrial machines by tracking movements of their operators

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241007

R150 Certificate of patent or registration of utility model

Ref document number: 7569742

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150