JP2007152443A - Clearing-away robot - Google Patents

Clearing-away robot Download PDF

Info

Publication number
JP2007152443A
JP2007152443A JP2005347322A JP2005347322A JP2007152443A JP 2007152443 A JP2007152443 A JP 2007152443A JP 2005347322 A JP2005347322 A JP 2005347322A JP 2005347322 A JP2005347322 A JP 2005347322A JP 2007152443 A JP2007152443 A JP 2007152443A
Authority
JP
Japan
Prior art keywords
robot
article
user
tidying
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005347322A
Other languages
Japanese (ja)
Inventor
Shigetoshi Shiotani
成敏 塩谷
Tetsuya Tomonaka
哲也 塘中
Ken Onishi
献 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2005347322A priority Critical patent/JP2007152443A/en
Publication of JP2007152443A publication Critical patent/JP2007152443A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a clearing-away robot, keeping optional daily goods in an optional position and clearing away the same in an optional vacant space according to a person's instruction or spontaneously . <P>SOLUTION: The voice, name and position of a person are input from a person condition measuring part 51 to a standby position determination part 54. On the other hand, the position of the clearing-away robot is input from a clearing-away robot is input from a clearing-away robot condition measuring part 25 to the standby position determination part 54. The traveling path of the clearing-away robot is input from an environment map 53 to the standby position determination part 54. According to these inputs, the standby position determination part 54 determines the standby position, and the clearing-away robot itself moves to that place. An instruction confirming part 55 interprets person's voice instruction to confirm the working instruction from the person, and inputs a clearing-away command (a clearing-away instruction) or fetching command (a return instruction) to an execution part 56. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、片付けロボットに関し、特に、一般家庭で日常品などの小物を持ち運んで片付け、片付けた場所を記録し、その場所を尋ねられたときに応答することなどが可能な片付けロボットに関する。   The present invention relates to a tidying robot, and more particularly, to a tidying robot that can carry small items such as daily items in a general household, record the place where the item is tidied up, and respond when asked about the place.

上述した片付けロボットに近い技術として、例えば、特許文献1に開示された「搬送支援片付けロボット」がある。この搬送支援片付けロボットは、まず、遠隔監視操作部から被介護者のID、部屋番号を受け取り、配送ワゴン中の食事トレイを認識ラベルで認識し、搬送ワゴンに格納し、被介護者のベッドサイドまで運ぶ。そして、被介護者と簡単な会話を行い、食事を載せたトレイをテーブルに設置する。食事終了後の下膳時には、食事トレイを配送ワゴンまで戻し、配送ワゴンの空き場所を検知し、食事トレイを配送ワゴンに戻す。ひとつの部屋で、数人分の下膳作業が全て終了すれば、片付けロボットは、次の部屋に移動する。なお、片付けロボットは、旋回自在な4つの駆動輪により、走行路上の障害物の認識と回避を行いつつ、経路計画に基づいて移動する。
特開平9−267276号公報(図1、段落0011)
As a technique close to the above-described cleanup robot, for example, there is a “conveyance support cleanup robot” disclosed in Patent Document 1. This transport assisting tidying robot first receives the ID and room number of the cared person from the remote monitoring operation unit, recognizes the meal tray in the delivery wagon with the recognition label, stores it in the transport wagon, Carry on. Then, a simple conversation with the care recipient is performed, and a tray with meals is placed on the table. When the meal is finished, the meal tray is returned to the delivery wagon, the empty space of the delivery wagon is detected, and the meal tray is returned to the delivery wagon. When all the lower arm work for several people is completed in one room, the tidying robot moves to the next room. Note that the tidying robot moves based on the route plan while recognizing and avoiding obstacles on the traveling path by means of four freely rotatable drive wheels.
JP-A-9-267276 (FIG. 1, paragraph 0011)

しかし、特許文献1に開示された「搬送支援片付けロボット」は、特定の位置で特定の物を受け渡す片付けロボットである。ところが、一般家庭で片付けサービスを受けようとする人は、特定の位置にいるわけではない。また、食器などの特定の物だけでなく、種々の日常品を片付けるサービスが望まれている。また、沢山の日用品にいちいちタグをつけるのは煩わしい。   However, the “conveyance support cleanup robot” disclosed in Patent Document 1 is a cleanup robot that delivers a specific object at a specific position. However, the person who wants to receive the clean-up service in a general household is not in a specific position. In addition, there is a demand for a service for clearing not only specific items such as tableware but also various daily items. Also, it is troublesome to tag many daily necessities.

さらに、ユーザが自ら片付けた物や片付けた場所を忘れた場合に、片付けロボットが記憶支援してくれるサービスが望まれている。   Furthermore, there is a demand for a service that provides a memory support by a tidying robot when a user forgets things that have been tidied up or tidied up.

そこで、本発明の課題は、片付けロボットが、人の指示に応じて、任意の位置で、任意の日常用物品を預かり、任意の空きスペースに片付けることを可能とすることである。   Therefore, an object of the present invention is to enable a clearing robot to deposit an arbitrary everyday article at an arbitrary position in accordance with a person's instruction and clear it into an arbitrary empty space.

また、本発明の課題は、片付けロボットが、自ら行った生活支援サービスの経験に基づいて、自発的に、片付・返却などを行うことを可能とすることである。   Another object of the present invention is to enable a tidying-up robot to perform tidying-up / returning, etc., voluntarily based on the experience of a life support service performed by itself.

また、本発明の課題は、人が物の収納場所を思い出せないときでも、片付けロボットの支援により、思い出すことを可能とすることである。   Further, an object of the present invention is to make it possible to remember with the assistance of a tidying-up robot even when a person cannot remember the storage location of an object.

上述した課題を解決するための第1の手段は、ユーザから物品を受け取り保管場所に保管する片付けロボットにおいて、物品を撮影するカメラと、物品を把持する手先と、ユーザの発話を検知するマイクロフォンと、ユーザの発話内容を認識する音声認識装置と、片付けロボットがユーザに発話するスピーカと、ユーザ名、物品の受取場所及び保管場所、受取及び保管日時、物品の画像及び物品名を記憶する物品管理データベースとを備え、ユーザの位置を検出し傍に移動して待機し、ユーザの発話内容を認識し手先を出して物品を受取り、
物品を撮影し、ユーザによるユーザ名及び物品名の発話を認識し、直近の保管場所に物品を保管することである。
A first means for solving the above-described problem is a tidying robot that receives an article from a user and stores it in a storage place, a camera that photographs the article, a hand that grips the article, and a microphone that detects the user's speech. , Speech recognition device for recognizing user's utterance contents, speaker for tidying robot uttering to user, article management for storing user name, article receiving place and storage place, receipt and storage date, article image and article name With a database, detecting the user's position, moving to the side, waiting, recognizing the user's utterance contents, taking out the hand and receiving the article,
Taking an article, recognizing the user name and the utterance of the article name by the user, and storing the article in the nearest storage location.

第2手段は、第1手段において、ユーザによる物品返却依頼の発話を認識し、物品管理データベースを検索して返却すべき物品の候補の画像をユーザに表示し、ユーザが特定した物品をユーザに返却することである。   The second means, in the first means, recognizes the utterance of the article return request by the user, searches the article management database, displays the candidate article image to be returned to the user, and displays the article specified by the user to the user. It is to return.

第3手段は、第2手段において、物品返却要求はユーザの曖昧な記憶に基づけことである。   The third means is that in the second means, the article return request is based on the ambiguous memory of the user.

第4手段は、第1手段において、保管又は返却に係る物品、日時及び場所の頻度を記憶する履歴データベースをさらに設け、前記頻度がそれぞれ所定閾値を越える物品、日時及び場所について、自主的に物品に係るサービスの提供の申し出を前記スピーカにより発話することを特徴とする片付けロボット。   The fourth means further includes a history database for storing the frequency of goods, date / time, and place related to storage or return in the first means, and for the goods, date / time and place where the frequency exceeds a predetermined threshold value, A tidying-up robot characterized by uttering an offer for providing a service according to the speaker.

第5手段は、第4手段において、サービスの申出を時間順序に記憶する片付けロボットスケジュール表をさらに備えることである。   A fifth means is the fourth means further comprising a tidying-up robot schedule table for storing service offers in time order.

第6手段は、第1手段において、ユーザが保管した物品の保管日時及び保管場所についてのユーザのメッセージを録音するメッセージデータベースをさらに備え、ユーザの発話によるメッセージ再生要求に基づいて、物品の候補の画像を提示することである。   The sixth means further comprises a message database for recording the user's message about the storage date and location of the article stored by the user in the first means, and based on the message reproduction request by the user's utterance, the candidate article It is to present an image.

第7手段は、第6手段において、メッセージ再生要求は、曖昧な内容であることである。   A seventh means is that in the sixth means, the message reproduction request is ambiguous.

第1手段によれば、片付けロボットに依頼して任意の物品を直近の保管場所に片付けることができる。   According to the first means, an arbitrary article can be cleared to the nearest storage place by requesting the cleaning robot.

第2手段によれば、人の音声による要求に基づいて、片付けた物品を、返却してもらうことができる。   According to the second means, the cleared article can be returned based on a request by a human voice.

第3手段によれば、片付けロボットに物品を預けた場所や日時が不明確であっても、片付けロボットが物品管理DBを検索して物品の候補を表示するため、片付けた物品を、返却してもらうことができる。   According to the third means, even if it is unclear where or when the article was stored in the tidying robot, the tidying robot searches the article management DB and displays the candidate for the article. I can have you.

第4手段によれば、利用頻度が高い片付サービスについては、片付けロボットが自主的に利用頻度が高い日時、場所でサービスを提供し、利用頻度が高い物品をユーザのために自主的に容易することができる。   According to the fourth means, for a clean-up service that is frequently used, the clean-up robot voluntarily provides the service at a date and place where the use frequency is high, and it is easy for the user to easily use the high-use goods for the user. can do.

第5手段によれば、スケジュールに従って、自主的に生活支援サービスを行うことができる。   According to the fifth means, the life support service can be voluntarily performed according to the schedule.

第6手段によれば、ユーザが自ら片付けた物品の保管場所を忘れた場合でも、片付けロボットが思い出させてくれる。   According to the sixth means, even when the user forgets the storage place of the articles that he / she has cleaned up, the cleaning-up robot reminds us.

第7手段によれば、ユーザのメッセージ再生要求が曖昧であっても、ユーザが自ら片付けた物品の保管場所を忘れた場合でも、片付けロボットが思い出させてくれる。   According to the seventh means, even if the user's message reproduction request is ambiguous or the user forgets the storage location of the article that the user has cleaned up, the cleaning-up robot reminds the user.

本発明によれば、片付けロボットは、人の指示に応じ、任意の位置で、任意の日常用物品を預かり、任意の空きスペースに片付けることができる。また、片付けロボットは、人の記憶が定かでなく曖昧な内容で片付けた物品の返却を要求されたときでも、データベース検索により、該当物品の候補の画像を人に提示し、物品を特定して人に返却することができる。   According to the present invention, according to a person's instruction, the tidying-up robot can keep any daily goods at any position and put it in any empty space. Also, even when a clean-up robot is requested to return an article that has been unclear with human memory and is ambiguous, a search for a database presents a candidate image of the relevant article to a person and identifies the article. It can be returned to a person.

また、本発明によれば、片付けロボットは、スケジュールに従って自主的に、提供頻度が高い生活支援サービスの提供を申し出ることができる。   Further, according to the present invention, the tidying-up robot can voluntarily offer the provision of a life support service with high provision frequency according to the schedule.

また、本発明によれば、人が自ら片付けた物の収納場所を思い出せないときでも、片付けロボットの支援により、思い出すことができる。   In addition, according to the present invention, even when a person cannot remember the storage location of things that have been cleaned up by himself / herself, it can be remembered with the help of a cleaning robot.

以下、図面を参照して本発明の実施形態について説明する。但し、本実施形態に記載されている構成部品の寸法、材質、形状、その相対的配置等に特定的な記載があっても、本発明をそれに限定する趣旨ではない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, even if there is a specific description in the dimensions, materials, shapes, relative arrangements, and the like of the component parts described in the present embodiment, the present invention is not limited thereto.

[片付けロボットの概略]
図1は、本発明に使用する片付けロボットの1例の正面図である。この片付けロボットの頭部2には、頭頂カメラ3と左右1対の正面カメラ5と、額下部の人間の眉の位置に1対のマイクロフォン4が配置される。胸部6には、縦中心線から離れて左右1対のスピーカ7が配置される。両腕9の肘や肩は、関節構造をとり、手先10で物を把持する。また、首も関節構造をとる。この片付けロボットは、下肢はスカート12状のカバーであり電気回路などを収め、下肢最下部の左右2つの車輪14により、移動することができる。また、下肢上部には左右1対の障害物センサ(赤外線検知又は超音波検知)13により、障害物を自動的に回避して目的地へ自律的に移動する。
[Outline of clean-up robot]
FIG. 1 is a front view of an example of a tidying robot used in the present invention. In the head 2 of the tidying-up robot, a top camera 3, a pair of left and right front cameras 5, and a pair of microphones 4 are arranged at the position of a human eyebrow at the lower part of the forehead. A pair of left and right speakers 7 are arranged on the chest 6 away from the vertical center line. The elbows and shoulders of both arms 9 have a joint structure, and a hand 10 holds an object. The neck also has a joint structure. In this tidying robot, the lower limb is a cover having a skirt 12 shape and houses an electric circuit or the like, and can be moved by the left and right wheels 14 at the lowermost part of the lower limb. In addition, the pair of left and right obstacle sensors (infrared detection or ultrasonic detection) 13 automatically avoids obstacles and moves autonomously to the destination on the upper leg.

図2は、片付けロボットのブロック図である。CPU21へ入力されるのは、頭頂カメラ3、正面カメラ5、マイクロフォン4、障害物センサ13、データ入出力20からの出力である。CPU21は、事故位置認識部22、指示点認識部23、音声認識部24、首・腕・手動認識部25、体方向認識部26、過去動作・位置データベースを有し、上述した入力に基づいて、首関節用駆動部28、スピーカ7、手関節用駆動部29、胸関節用駆動部30、車両用駆動部31を駆動する。コンピュータ制御により、この片付けロボットが備えるコミュニケーション能力は、移動する人を検知したり、顔を検出する人検知能力;顔特徴を検出し、オーナー1人を含む所定数のユーザを識別する個人識別能;ワードスポッティング方式・会話シナリオに必要な連続単語認識や、アコースティックエコーキャンセラーによる人の声の認識などの音声認識能力;テキスト読み上げ方式・声の大きさなどの設定変更が可能な音声合成能力などである。また、移動能力は、生活支援を行うために、人を探し、人に寄って行く能力が与えられる。また、通信能力に関しては、片付けロボット専用のホームページを有し、家族の名前の登録や行動パターンの変更、遠隔操作、映像閲覧が可能である。例えば、遠隔操作により、指定の時間にお出迎えに来てもらったり、留守宅を巡回して映像を閲覧するなどが可能である。映像は、コンピュータ21のメモリを利用して、現在のみならず過去の映像も閲覧できる。映像は、正面カメラ5によるカラー画像と、頭頂カメラ3による全方位カメラをパノラマ化した白黒映像がある。また、片付けロボット自身がインターネット上のホームページなどの検索を実行し、情報を家族などに届けることができる。   FIG. 2 is a block diagram of the tidying robot. Input to the CPU 21 is output from the top camera 3, front camera 5, microphone 4, obstacle sensor 13, and data input / output 20. The CPU 21 includes an accident position recognizing unit 22, a pointing point recognizing unit 23, a voice recognizing unit 24, a neck / arm / manual recognizing unit 25, a body direction recognizing unit 26, and a past motion / position database. The neck joint drive unit 28, the speaker 7, the wrist joint drive unit 29, the chest joint drive unit 30, and the vehicle drive unit 31 are driven. The communication ability of this tidying robot by computer control is the ability to detect a person who moves or detect a face; personal identification ability to detect a face feature and identify a predetermined number of users including one owner ; Speech recognition ability such as word recognition, continuous word recognition required for conversation scenarios, and recognition of human voice by acoustic echo canceller; speech synthesis ability that can change settings such as text-to-speech method and loudness is there. In addition, the moving ability is given the ability to search for and approach a person in order to support life. As for communication capability, it has a homepage dedicated to a clean-up robot, and it is possible to register family names, change behavior patterns, perform remote operations, and view images. For example, it is possible to have a person come to meet you at a specified time by remote control, or to visit a home away from home and view the video. As for the video, not only the current video but also the past video can be browsed using the memory of the computer 21. The images include a color image obtained by the front camera 5 and a monochrome image obtained by panoramicizing the omnidirectional camera obtained by the top camera 3. Also, the tidying robot itself can search the homepage on the Internet and deliver the information to the family.

片付けロボットによるサービスには、片付けロボットが人(ユーザ)から物(物品)を預かって片付けるサービスと、片付けロボットが片付けた物を人に返却するサービスなどがある。   Services provided by a tidying robot include a service in which a tidying robot deposits an article (article) from a person (user) and cleans up, and a service in which a tidying robot clears an article to a person.

[片付けサービスの概略]
図3は、片付けサービスの概要のフローチャートである。まず、S30において、片付けを依頼するユーザの位置を検出する。片付け要求は、例えばユーザの発話による。発話を認識した片付けロボットは、例えば「何を片付けましょうか?」などと応答し、ユーザからの回答を受け取って、物品名を確認する。また正面のカメラで顔を検出し、ユーザの位置を検出する。複数の顔画像が検出されるときは、声の方向検知の結果やユーザに服装を確認するなどしてユーザを特定すればよい。
[Outline of clean-up service]
FIG. 3 is a flowchart of an overview of the cleanup service. First, in S30, the position of the user who requests the cleanup is detected. The cleanup request is based on, for example, a user's utterance. The clean-up robot that has recognized the utterance responds, for example, “What should be cleaned up?”, Receives an answer from the user, and confirms the article name. Further, the face is detected by the front camera, and the position of the user is detected. When a plurality of face images are detected, the user may be specified by checking the direction of the voice or confirming the clothes of the user.

次に、S32において、特定したユーザのそばに移動して待機する。待機場所は、物品の受け渡しが可能な範囲でなるべくユーザに近く、特定したユーザや他のユーザの通行の妨げにならず、物品を容易に受け取れる場所とする。   Next, in S32, it moves to the specified user and waits. The waiting place is as close to the user as possible within the range in which the goods can be delivered, and is a place where the goods can be easily received without obstructing the passage of the specified user or other users.

次に、S34において、人が発話により片づけを依頼すると、片付けロボットは音声認識により、手を出して物品を受け取った後、物品を撮影する。受取と撮影は逆順でも同時でもよい。   Next, in S34, when a person requests to clean up by utterance, the cleanup robot picks up the hand and receives the article by voice recognition, and then photographs the article. Receipt and shooting may be in reverse order or simultaneously.

次に、S36において、受け取った物品を最も近くの保管場所(棚など)に保管する。最も近くの保管場所が空いていないときは次に近い場所に保管する。   Next, in S36, the received article is stored in the nearest storage location (such as a shelf). If the nearest storage location is not empty, store it in the next closest location.

次に、S38において、預かった物品の画像、日時、ユーザから受け渡しを行った場所などを片付けロボット内蔵の物品管理DBに記憶する。これにより、片付けロボットによる片付けが終了する。   Next, in S38, the image of the deposited article, the date and time, the location where the delivery was performed from the user, and the like are stored in the article management DB with a tidying-up robot. Thereby, the cleaning by the cleaning robot is completed.

[返却サービスの概略]
図4は、返却サービスの概要のフローチャートである。まず、S40において、人からの呼びかけに応答して、人の位置を検出する。
[Outline of return service]
FIG. 4 is a flowchart of an overview of the return service. First, in S40, in response to a call from a person, the position of the person is detected.

次に、S42において、片付けロボットは人のそばに移動する。   Next, in S42, the tidying-up robot moves near the person.

次に、S44において、人が「この前預けた物とってきて」などの曖昧な表現で依頼すると、片付けロボットは複数の候補の物品画像を物品管理DBから取り出して表示する。具体的には、現在の人の一夜時刻と、物品管理DBに記憶した預かり日時・場所とを照合し、候補物品を表示する。人は返却してもらいたい物品を選択する。   Next, in S44, when a person makes a request with an ambiguous expression such as “Come with this pre-deposited item”, the tidying robot extracts a plurality of candidate article images from the article management DB and displays them. More specifically, the current person's overnight time is collated with the storage date / time stored in the article management DB, and the candidate article is displayed. The person selects the item he wants to return.

次に、S46において、片付けロボットは、保管場所に移動し、預かった物品を取ってきて人に渡す。   Next, in S46, the tidying-up robot moves to the storage location, picks up the stored item, and gives it to the person.

最後に、S48において、片付けロボットは、物品管理DBを更新して返却サービスを終了する。   Finally, in S48, the tidying-up robot updates the article management DB and ends the return service.

[実施形態1(人の指示に基づく片付けロボットの片付け・返却サービス)]
図5は、人の指示に基づき、片付け・返却サービスを実行する片付けロボットのブロック図である。人の状態計測部51からは、人の位置、人の名前、人の音声が待機位置決定部54に入力される。また、片付けロボット状態計測部52からは、片付けロボットの位置が待機位置決定部54に入力される。また、環境地図53からは、片付けロボットの走行経路が待機位置決定部54に入力される。これらの入力に基づいて、待機位置決定部54は待機位置を決定し、片付けロボット自らその場所に移動する。指示確認部55は、人の音声命令を解釈して人からの作業指示を確認し、片付ける命令(片付指示)、又は取ってくる命令(返却指示)を実行部56に入力する。
[Embodiment 1 (cleaning-up / returning service for a clean-up robot based on human instructions)]
FIG. 5 is a block diagram of a tidying robot that executes a tidying / returning service based on a human instruction. From the person state measurement unit 51, the person's position, the person's name, and the person's voice are input to the standby position determination unit 54. Further, the position of the tidying robot is input from the tidying robot state measuring unit 52 to the standby position determining unit 54. Further, from the environment map 53, the travel route of the tidying robot is input to the standby position determination unit 54. Based on these inputs, the standby position determination unit 54 determines the standby position, and the tidying robot itself moves to that location. The instruction confirmation unit 55 interprets a person's voice command to confirm a work instruction from the person, and inputs a clearing command (cleaning command) or a fetching command (return command) to the execution unit 56.

片付指示を受けた実行部56は、物を預かり、預かり情報を記憶し、空いている保管スペースを物品管理DBで検索し、環境地図53中の走行経路に基づいて保管場所に移動し、物を保管スペースに収納する。   The execution unit 56 that has received the clean-up instruction stores the items, stores the storage information, searches the storage management database for available storage spaces, moves to the storage location based on the travel route in the environmental map 53, Store things in storage space.

図6は、環境地図53の一例であり、図示されたフロアには、いくつかの区画(ベランダ、リビングルーム、和室など)に区分されている。その中に予め定めた片付けロボット走行経路及び物品の保管場所が記憶される。なお、片付けロボットの待機場所は、片付けロボット走行経路上にあり、人の現在位置と向き合い物品を受け渡せるエリアを設定し、人との距離がもっとも近い場所とする。また、人の通行の邪魔になる範囲を除外するとよい。   FIG. 6 is an example of the environment map 53, and the illustrated floor is divided into several sections (a veranda, a living room, a Japanese-style room, etc.). The predetermined cleaning robot travel route and the storage location of the article are stored therein. It should be noted that the stand-by location of the tidying robot is on the tidying robot travel route, and an area where the person's current position is faced and the article can be delivered is set as the place where the distance from the person is closest. Moreover, it is good to exclude the range which obstructs a person's passage.

一方、返却指示を受けたときは、預かり物を物品管理DBで検索し、物品の画像を表示し、人に選択させる。次に、物の所在場所を物品管理DBで検索し、環境地図53中の走行経路に基づいてその場所に移動して物を取ってくる。そして、待機場所に戻り、物を人に手渡す。   On the other hand, when a return instruction is received, the custody is searched in the article management DB, an image of the article is displayed, and a person is selected. Next, the location of the object is searched in the article management DB, and the object is moved to the location based on the travel route in the environmental map 53 and the object is picked up. Then, return to the waiting place and hand the thing to the person.

片付又は返却が終了すると、DB更新部57は、預かり情報を更新し、又は、返却情報・保管情報を更新する。ここに、預かり情報は、片付けロボットに物を預けた人の名前、物の画像、物の名前片付けロボットが物を預かった場所・日時からなる。なお、人の名前は顔認識により確認する。顔認識できない場合は片付けロボットが人に尋ねて記憶する。また、返却情報は、片付けロボットが物を返却した人の名前、返却日時である。また、保管情報は、保管スペースに物が有るか無いかの情報である。   When the sorting or returning is completed, the DB update unit 57 updates the custody information or updates the return information / storage information. Here, the custody information includes the name of the person who deposited the item with the tidying robot, the image of the item, and the location / date and time when the item name tidying robot deposited the item. The person's name is confirmed by face recognition. If the face cannot be recognized, the tidying robot asks and memorizes the person. The return information is the name of the person who returned the item and the date and time of return. The storage information is information indicating whether or not there is an object in the storage space.

図6には、実行部56における返却サービス実行時の物の確認処理(複数の候補から返却してほしいものをユーザ(人)に確認させる処理)の具体例を示す。指示確認部55は、人の発話により、預けた物の名前61、預けた場所62(「この付近で預けた」)、預けた日時63(「1年ほど前」預けた)を認識したものとする。取ってくる物の候補は、物品管理DBで名前61に対応する物を検索する。次に、預けた人で物を絞込み、さらに、預かった場所62と現在の片付けロボット位置を比較し、距離の近い位置に保管されているものを候補とする。また、預けた人で物を絞込み、さらに、預かった場所62と現在の片付けロボット位置を比較し、距離の近い位置に保管されており、預かった日時63に近い日時での預かり物品を検索する。そして、これらの検索結果である物品の画像に数字を付け、人に選択してもらう。選択結果は人が音声で所望の数字を指定して行う。   FIG. 6 shows a specific example of an object confirmation process (a process for allowing a user (person) to confirm what is desired to be returned from a plurality of candidates) in the execution unit 56 when executing a return service. The instruction confirmation unit 55 recognizes the name 61 of the deposited item, the deposited location 62 (“deposited here”), and the date and time 63 (deposited “about one year ago”) by the person's utterance. And The candidate of the thing to retrieve is searched for the thing corresponding to the name 61 in the article management DB. Next, the person who checked in narrowed down the objects, and further compared the position 62 where the deposit was made with the current clean-up robot position, and the one stored at a short distance is set as a candidate. Further, narrowing down the items by the person who checked in, and comparing the stored position 62 with the current tidying robot position, the items stored in a close distance are searched, and the items stored at the date and time close to the date and time 63 when the item was stored are searched. . Then, a number is attached to the image of the article as the search result, and the person selects it. The selection result is made by a person specifying a desired number by voice.

以上説明した実施形態1によれば、人の音声による指示に基づいて、片付けロボットに人のそばに来てもらって物を預け、予め登録した保管場所の中から近い場所に片付けてもらうことが可能である。また、預けた物・日時・場所などについての人の記憶が曖昧でも、曖昧な指示に基づいて返却すべきものを決定し取ってきてもらうことが可能である。   According to the first embodiment described above, it is possible to have a clean-up robot come near a person based on a voice instruction of the person and deposit an object, and have a pre-registered storage location clean up. It is. Moreover, even if the person's memory about the deposit, date, place, etc. is ambiguous, it is possible to determine what should be returned based on an ambiguous instruction.

[実施形態2(片付けロボットによる自発的片付・返却サービス)]
図8は、片付・返却サービスを自発的に実行する片付けロボットのブロック図である。図5と完全に重複するブロックには図5に付した符号もカッコ内に付記する。人の状態計測部71(51)からは、人の位置、人の名前、人の音声が待機位置決定部74(54)に入力される。また、片付けロボット状態計測部72(52)からは、片付けロボットの位置が待機位置決定部74(54)に入力される。また、環境地図73(53)からは、片付けロボットの走行経路が待機位置決定部74(54)に入力される。これらの入力に基づいて、待機位置決定部74(54)は待機位置を決定し、片付けロボット自らその場所に移動する。申出部75(図5には存在しない)は、片付けロボットが自発的に申し入れるサービス内容を実行部76(図5の実行部56とは一部異なる)に入力する。
[Embodiment 2 (Spontaneous cleanup / return service by cleanup robot)]
FIG. 8 is a block diagram of a tidying robot that voluntarily executes a tidying / returning service. Blocks that completely overlap with FIG. 5 are also indicated in parentheses with the reference numerals given in FIG. From the person state measuring unit 71 (51), the position of the person, the name of the person, and the voice of the person are input to the standby position determining unit 74 (54). Further, the position of the tidying robot is input from the tidying robot state measuring unit 72 (52) to the standby position determining unit 74 (54). Further, from the environment map 73 (53), the traveling route of the tidying robot is input to the standby position determination unit 74 (54). Based on these inputs, the standby position determination unit 74 (54) determines the standby position, and the tidying robot itself moves to that location. The offer unit 75 (not present in FIG. 5) inputs the service content that the tidying robot voluntarily offers to the execution unit 76 (partially different from the execution unit 56 in FIG. 5).

また、実施形態2では、片付けロボットが自発的サービスを実行することができるよう、物品管理DB78(58)に加えて履歴DB79を備える点が、実施形態1とは異なる。   The second embodiment is different from the first embodiment in that a history DB 79 is provided in addition to the article management DB 78 (58) so that the tidying-up robot can execute a voluntary service.

履歴DB79には、片付けた物品ごとに実行回数と保管場所、実行時刻、ユーザの名前を記憶する。具体的には、時刻ごととの支援実行頻度を履歴情報とする。例えば、10時に物品Aをa回、物品Bをb回預かったなどである。また、1週間ごと、又は曜日ごとに、物品Aをa回、物品Bをb回預かったなどである。さらに、リビングルーム、寝室など部屋ごとに、物品Aをa回、物品Bをb回預かったなどである。   The history DB 79 stores the number of executions, the storage location, the execution time, and the name of the user for each article that has been cleared. Specifically, the support execution frequency for each time is used as history information. For example, the article A is deposited a times and the article B is b times. In addition, the article A is stored a times and the article B is stored b times every week or every day of the week. Further, for each room such as a living room and a bedroom, the article A is deposited a times and the article B is deposited b times.

申出部75は、履歴DB79を参照し、サービス頻度の高い物品、場所については、例えば、サービス頻度の高い時刻での片付けの申出、サービス頻度の高い場所での片付けの申出、サービス頻度の高い物品の準備の申出などを実行部76に入力する。実行部では、これらの申出を片付けロボット活動スケジュールに記憶しておき、所定の時刻・場所で、物品の片付、返却、準備などのサービスを行う。具体的には、履歴DBを使用し、所定期間のサービス頻度の集計により、頻度が予め設定した閾値を越えた場合、例えば、片付頻度が高い物品・時刻などとして登録することにより、気の利いた自発動作を行う。自発動作は、例えば、頻度の高い保管場所付近にユーザが来ると、「いつも使っている物を取ってきましょうか?」と尋ね、物品画像を表示し、ユーザが承諾すれば、その物品をとってくる。また、例えば、頻度が高い時刻になると、「何か片付け物がないでしょうか?」と尋ね、片付ける。また、例えば、頻度の高い特定の曜日になると、「いつも使っているものを準備しておきましょうか?」と尋ね、その物を準備する。   The offer unit 75 refers to the history DB 79, and for articles and places with high service frequency, for example, offer for clean up at times with high service frequency, offer for clean up at places with high service frequency, and articles with high service frequency. And the like are input to the execution unit 76. The execution unit stores these offers in a tidying robot activity schedule, and performs services such as cleaning up, returning, and preparing items at a predetermined time and place. Specifically, when the frequency exceeds a preset threshold by using the history DB and totaling the service frequency for a predetermined period, for example, by registering as an article / time having a high frequency of cleaning, Performs spontaneous action. For example, when a user comes near a frequently stored place, the voluntary action asks, “Would you like to take what you always use?”, Displays the article image, and if the user accepts, takes the article. Come. Also, for example, when the frequency is high, it asks "Is there any tidy thing?" Also, for example, when it comes to a specific day with a high frequency, it asks "Do you have something you always use?"

以上説明した実施形態2によれば、サービス頻度の高いものについては、片付けロボットが自発的に物を片付けるようになるなど、その人の生活習慣に合わせて、気の利いたサービスを行うことが可能である。   According to the second embodiment described above, it is possible to provide a nifty service in accordance with a person's lifestyle, such as a clean-up robot willingly clean up things with high service frequency. Is possible.

[実施形態3(片付けロボットによる記憶支援サービス)]
図8は、記憶支援サービスを行う片付けロボットのブロック図である。図5と完全に重複するブロックには図5に付した符号もカッコ内に付記する。人の状態計測部81(51)からは、人の位置、人の名前、人の音声が待機位置決定部84(54)に入力される。また、片付けロボット状態計測部82(52)からは、片付けロボットの位置が待機位置決定部84(54)に入力される。また、環境地図83(53)からは、片付けロボットの走行経路が待機位置決定部84(54)に入力される。これらの入力に基づいて、待機位置決定部84(54)は待機位置を決定し、片付けロボット自らその場所に移動する。伝言再生部85(図5には存在しない)は、人が以前の伝言の再生指示又は新たな伝言の追加指示を行い、これらの指示に基づいて伝言検索部86(図5には存在しない)は、伝言の検索又は追加を行う。
[Embodiment 3 (memory support service by tidying robot)]
FIG. 8 is a block diagram of a tidying-up robot that performs a memory support service. Blocks that completely overlap with FIG. 5 are also indicated in parentheses with the reference numerals given in FIG. From the person state measurement unit 81 (51), the position of the person, the name of the person, and the voice of the person are input to the standby position determination unit 84 (54). Further, the position of the tidying robot is input from the tidying robot state measuring unit 82 (52) to the standby position determining unit 84 (54). Further, from the environment map 83 (53), the traveling route of the tidying robot is input to the standby position determination unit 84 (54). Based on these inputs, the standby position determination unit 84 (54) determines the standby position, and the tidying robot itself moves to that location. A message playback unit 85 (not present in FIG. 5) gives an instruction to reproduce the previous message or adds a new message, and based on these instructions, a message search unit 86 (not present in FIG. 5). Searches or adds messages.

また、実施形態3では、片付けロボットが記憶支援を実行することができるよう、伝言(メッセージ)DB79を備える点が実施形態1、実施形態2とは異なる。ここに、伝言DB87は、伝言内容の音声情報、伝言の日時、伝言を受けた片付けロボットの場所、伝言を発した人の場所、伝言のとき人が片付けロボットに提示したものの画像などからなる。   Further, the third embodiment is different from the first and second embodiments in that a message (message) DB 79 is provided so that the tidying-up robot can perform memory support. Here, the message DB 87 includes voice information of the message content, the date and time of the message, the location of the tidying robot that received the message, the location of the person who issued the message, and an image of what the person presented to the tidying robot at the time of the message.

伝言再生部85における伝言再生指示は、人による発話により、例えば、「この辺で覚えてねといったことない?」、「1年ほど前に覚えてねといったことない?」などである。また、伝言追加とは、新たな伝言を伝言DB87に録音することである。   The message reproduction instruction in the message reproduction unit 85 is, for example, “Do not remember this area?”, “Do not remember about one year ago” or the like, depending on the utterance by a person. Moreover, adding a message means recording a new message in the message DB 87.

伝言検索部86は、伝言再生部85から伝言再生指示を受けたときは、伝言DB87を検索して伝言を再生するとともに、物の画像も表示する。一方、伝言追加指示を受けたときは、伝言DBに伝言を追加する(言い換えると伝言DBを更新する)。   When the message retrieval unit 86 receives a message reproduction instruction from the message reproduction unit 85, the message retrieval unit 86 retrieves the message DB 87 and reproduces the message, and also displays an object image. On the other hand, when a message addition instruction is received, a message is added to the message DB (in other words, the message DB is updated).

図10は、記憶支援のフローチャートである。まず、S1において、片付けロボットは人を識別し、その位置を計測する。次に、S2において、人の傍らに待機する。次に、S3において、音声又はリモートコントローラによる人の指示を待つ。   FIG. 10 is a flowchart of memory support. First, in S1, the tidying robot identifies a person and measures its position. Next, in S2, it waits beside a person. Next, in S3, it waits for a voice or an instruction from a remote controller.

人の指示を認識したときは、指示内容に応じて記憶モード(新たな伝言の追加)又は情報提示モード(過去の伝言の再生)に進む。   When a human instruction is recognized, the process proceeds to a storage mode (adding a new message) or an information presentation mode (reproduction of a past message) according to the content of the instruction.

記憶モードS40に進むと、S41において、収納すべき物を撮影し伝言DB87に記憶する。次に、S42において、片付けロボットが人にその物を収納させた後、人に収納場所を音声でこたえさせる。最後に、S43において、収納物画像の記憶、伝言音声(マフラーを箪笥の上から3番目の引き出しに片付けた)の録音、伝言を受けた片付けロボットの位置と場所、伝言をした人の名前を伝言DBに記憶させる。   When the process proceeds to the storage mode S40, an object to be stored is photographed and stored in the message DB 87 in S41. Next, in S42, after the tidying robot stores the thing in the person, the person answers the storage location by voice. Finally, in S43, the storage of the stored image, the recording of the message voice (the muffler was put away in the third drawer from the top of the bag), the position and location of the tidying robot that received the message, and the name of the person who made the message Store in the message DB.

情報提供モードS50に進むと、S51において、片付けロボットは、人に、この辺での伝言、1ヶ月前の伝言、1年前の伝言などの中でどれを聞きたいか尋ねる。人が位置情報での検索を希望すると、片付けロボットは、S52において伝言を受けた片付けロボット位置と現在の片付けロボット位置を照合し、「距離」の近い伝言を候補として抽出し、S54に進む。一方、人が日時情報での検索を希望すると、片付けロボットは、S53において、ユーザの指定した「日時」に近い伝言を抽出してS54に進む。   When proceeding to the information providing mode S50, in S51, the tidying-up robot asks the person which message he / she wants to listen to, such as a message in this neighborhood, a message one month ago, a message one year ago. If a person wishes to search using position information, the tidying robot collates the tidying robot position received in S52 with the current tidying robot position, extracts a message having a “distance” near, and proceeds to step S54. On the other hand, if a person wishes to search by date information, the tidying-up robot extracts a message close to the “date and time” designated by the user in S53, and proceeds to S54.

S54では、抽出した伝言に物画像をつけて表示する。次に、S55において、どこに収納したか知りたい物の画像を、人が音声又はリモートコントローラにより選択する。最後に、片付けロボットは、S56において、物画像に対応する伝言を再生する。   In S54, an object image is added to the extracted message and displayed. Next, in S55, the person selects an image of an object he wants to know where he / she stored it by voice or a remote controller. Finally, the clean-up robot reproduces the message corresponding to the object image in S56.

実施形態3によれば、人が自ら片付けた物の収納場所を思い出せないときでも、片付けロボットの支援により、思い出すことができる。   According to the third embodiment, even when a person cannot remember the storage location of the items that he / she has cleaned up, he / she can remember them with the assistance of the cleaning robot.

本発明は、人の生活を支援する片付けロボットに利用可能であり、特に、人の指示に応じて、又は自発的に、日用品を片付けたり返却する片付けロボットや、日用品の収納場所を忘れた人に記憶支援を行う片付けロボットに利用可能である。   INDUSTRIAL APPLICABILITY The present invention can be used for a tidying robot that supports a person's life, and in particular, a tidying robot for tidying up or returning daily necessities or a person who forgets a storage location for daily necessities according to a person's instruction or voluntarily. It can be used for a tidying-up robot that provides memory support.

片付けロボットの正面図である。It is a front view of a tidying-up robot. 片付けロボットのブロック図である。It is a block diagram of a tidying-up robot. 片付処理の概略のフローチャートである。It is a general | schematic flowchart of a tidying-up process. 返却処理の概略のフローチャートである。It is a general | schematic flowchart of a return process. 人の指示で作業する片付けロボットのブロック図である。It is a block diagram of the tidying-up robot which works by a human instruction. 片付けロボットの走行経路・待機場所などを記憶した環境地図である。It is an environmental map which memorize | stored the driving | running route of a tidying-up robot, a waiting place, etc. 返却する物品を人に選択させる方法を示す表である。It is a table | surface which shows the method of making a person select the articles | goods to return. 自発的に作業する片付けロボットのブロック図である。It is a block diagram of the tidying-up robot which works spontaneously. 記憶支援片付けロボットのブロック図である。It is a block diagram of a memory assistance tidying-up robot. 記憶支援処理のフローチャートである。It is a flowchart of a memory | storage assistance process.

符号の説明Explanation of symbols

2 頭部
3 頭頂カメラ
4 マイクロフォン
5 正面カメラ
6 胸部
7 スピーカ
9 腕
10 手先
12 スカート
13 障害物センサ
14 車輪
20 データ入出力
21 CPU
22 自己位置認識部
23 指示点認識部
24 音声認識部
25 首・腕・手動作認識部
26 体方方向認識部
27 過去動作・位置データベース
28 首関節用駆動部
29 手関節用駆動部
30 腕関節用駆動部
31 車両用駆動部
51 人の状態計測部
52 片付けロボット状態計測部
53 環境地図
54 待機位置決定部
55 指示確認部
56 実行部
57 DB更新部
58 物品管理DB
2 Head 3 Head Camera 4 Microphone 5 Front Camera 6 Chest 7 Speaker 9 Arm 10 Hand 12 Skirt 13 Obstacle Sensor 14 Wheel 20 Data Input / Output 21 CPU
22 Self-position recognition unit 23 Instruction point recognition unit 24 Voice recognition unit 25 Neck / arm / hand motion recognition unit 26 Body direction recognition unit 27 Past motion / position database 28 Neck joint drive unit 29 Wrist joint drive unit 30 Arm joint Drive unit 31 vehicle drive unit 51 human state measurement unit 52 tidying robot state measurement unit 53 environmental map 54 standby position determination unit 55 instruction confirmation unit 56 execution unit 57 DB update unit 58 article management DB

Claims (7)

ユーザから物品を受け取り保管場所に保管する片付けロボットにおいて、
前記物品を撮影するカメラと、
前記物品を把持する手先と、
ユーザの発話を検知するマイクロフォンと、
前記ユーザの発話内容を認識する音声認識装置と、
前記片付けロボットがユーザに発話するスピーカと、
ユーザ名、前記物品の受取場所及び保管場所、受取及び保管日時、前記物品の画像及び物品名を記憶する物品管理データベースとを備え、
前記ユーザの位置を検出し傍に移動して待機し、
前記ユーザの発話内容を認識し前記手先を出して前記物品を受取り、
前記物品を撮影し、
前記ユーザによるユーザ名及び物品名の発話を認識し、
直近の前記保管場所に前記物品を保管することを特徴とする片付けロボット。
In a tidying-up robot that receives items from users and stores them in a storage location,
A camera for photographing the article;
A hand for gripping the article;
A microphone that detects user utterances;
A speech recognition device for recognizing the user's utterance content;
A speaker that the tidying robot speaks to a user;
An article management database that stores a user name, a receiving place and a storage place of the article, a reception and storage date, an image of the article, and an article name;
Detect the user's location, move to the side and wait,
Recognizing the user's utterance content and taking out the hand to receive the article,
Photograph the article,
Recognizing the user name and article name utterance by the user,
A tidying robot that stores the article in the nearest storage location.
請求項1において、
前記ユーザによる物品返却要求の発話を認識し、
前記物品管理データベースを検索して返却すべき前記物品の候補の画像を前記ユーザに表示し、
前記ユーザが特定した前記物品を前記ユーザに返却することを特徴とする片付けロボット。
In claim 1,
Recognizing the utterance of the item return request by the user,
Search the article management database and display images of candidate articles to be returned to the user;
A tidying robot, wherein the article specified by the user is returned to the user.
請求項2において、
前記物品返却要求は前記ユーザの曖昧な記憶に基づくことを特徴とする片付けロボット。
In claim 2,
The tidying-up robot, wherein the article return request is based on ambiguous memory of the user.
請求項1において、
前記保管又は返却に係る物品、日時及び場所の頻度を記憶する履歴データベースをさらに設け、
前記頻度がそれぞれ所定閾値を越える物品、日時及び場所について、自主的に前記物品に係るサービスの提供の申し出を前記スピーカにより発話することを特徴とする片付けロボット。
In claim 1,
Further providing a history database for storing the frequency of goods, date and place related to the storage or return,
A tidying robot characterized by voluntarily uttering an offer for providing a service related to an article, date and place, each of which has a frequency exceeding a predetermined threshold.
請求項4において、
前記サービスの申出を時間順序に記憶する片付けロボットスケジュール表をさらに備えることを特徴とする片付けロボット。
In claim 4,
A tidying robot further comprising a tidying robot schedule table for storing the service offer in time order.
請求項1において、
前記ユーザが保管した前記物品の前記保管日時及び前記保管場所についてのユーザのメッセージを録音するメッセージデータベースをさらに備え、
前記ユーザの発話による前記メッセージ再生要求に基づいて、前記物品の候補の画像を提示することを特徴とする片付けロボット。
In claim 1,
A message database for recording the user's message about the storage date and time and the storage location of the article stored by the user;
A tidying robot that presents an image of a candidate for the article based on the message reproduction request by the user's utterance.
請求項6において、
前記メッセージ再生要求は、曖昧な内容であることを特徴とする片付けロボット。
In claim 6,
A tidying-up robot, wherein the message reproduction request has ambiguous content.
JP2005347322A 2005-11-30 2005-11-30 Clearing-away robot Withdrawn JP2007152443A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005347322A JP2007152443A (en) 2005-11-30 2005-11-30 Clearing-away robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005347322A JP2007152443A (en) 2005-11-30 2005-11-30 Clearing-away robot

Publications (1)

Publication Number Publication Date
JP2007152443A true JP2007152443A (en) 2007-06-21

Family

ID=38237439

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005347322A Withdrawn JP2007152443A (en) 2005-11-30 2005-11-30 Clearing-away robot

Country Status (1)

Country Link
JP (1) JP2007152443A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009297880A (en) * 2008-06-17 2009-12-24 Panasonic Corp Article management system, article management method, and article management program
US8751048B2 (en) 2011-07-25 2014-06-10 Sony Corporation Robot device, method of controlling the same, computer program, and robot system
JP2014168824A (en) * 2013-03-01 2014-09-18 Advanced Telecommunication Research Institute International Robot control system and robot control method
JP2015196600A (en) * 2014-03-31 2015-11-09 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Object management system and transport robot
JP2017010518A (en) * 2015-06-24 2017-01-12 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Control system, method, and device for intelligent robot based on artificial intelligence
WO2019187834A1 (en) * 2018-03-30 2019-10-03 ソニー株式会社 Information processing device, information processing method, and program
WO2020105778A1 (en) * 2018-11-23 2020-05-28 전자부품연구원 Personalized organizing robot and object organizing method using same
CN113116229A (en) * 2020-01-16 2021-07-16 深圳绿米联创科技有限公司 Robot control method and device, sweeping robot and storage medium
JP2021166106A (en) * 2019-12-24 2021-10-14 ソニーグループ株式会社 Mobile body, control method, and program
WO2022158655A1 (en) * 2021-01-19 2022-07-28 고려대학교 산학협력단 Tidy-up system using tidy-up robot

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009297880A (en) * 2008-06-17 2009-12-24 Panasonic Corp Article management system, article management method, and article management program
US10293487B2 (en) 2011-07-25 2019-05-21 Sony Corporation Robot device, method of controlling the same, computer program, and robot system
US11345041B2 (en) 2011-07-25 2022-05-31 Sony Corporation Robot device, method of controlling the same, computer program, and robot system
US9463575B2 (en) 2011-07-25 2016-10-11 Sony Corporation Robot device, method of controlling the same, computer program, and robot system
US8751048B2 (en) 2011-07-25 2014-06-10 Sony Corporation Robot device, method of controlling the same, computer program, and robot system
US9908241B2 (en) 2011-07-25 2018-03-06 Sony Corporation Robot device, method of controlling the same, computer program, and robot system
JP2014168824A (en) * 2013-03-01 2014-09-18 Advanced Telecommunication Research Institute International Robot control system and robot control method
JP2015196600A (en) * 2014-03-31 2015-11-09 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Object management system and transport robot
US10223638B2 (en) 2015-06-24 2019-03-05 Baidu Online Network Technology (Beijing) Co., Ltd. Control system, method and device of intelligent robot based on artificial intelligence
JP2017010518A (en) * 2015-06-24 2017-01-12 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Control system, method, and device for intelligent robot based on artificial intelligence
US11468891B2 (en) 2018-03-30 2022-10-11 Sony Corporation Information processor, information processing method, and program
JPWO2019187834A1 (en) * 2018-03-30 2021-07-15 ソニーグループ株式会社 Information processing equipment, information processing methods, and programs
WO2019187834A1 (en) * 2018-03-30 2019-10-03 ソニー株式会社 Information processing device, information processing method, and program
JP7259843B2 (en) 2018-03-30 2023-04-18 ソニーグループ株式会社 Information processing device, information processing method, and program
WO2020105778A1 (en) * 2018-11-23 2020-05-28 전자부품연구원 Personalized organizing robot and object organizing method using same
JP7338662B2 (en) 2019-12-24 2023-09-05 ソニーグループ株式会社 Mobile object, control method and program
JP2021166106A (en) * 2019-12-24 2021-10-14 ソニーグループ株式会社 Mobile body, control method, and program
CN113116229A (en) * 2020-01-16 2021-07-16 深圳绿米联创科技有限公司 Robot control method and device, sweeping robot and storage medium
WO2022158655A1 (en) * 2021-01-19 2022-07-28 고려대학교 산학협력단 Tidy-up system using tidy-up robot

Similar Documents

Publication Publication Date Title
US20210192599A1 (en) Agent robot control system, agent robot system, agent robot control method, and storage medium
JP4786519B2 (en) Method for acquiring information necessary for service for moving object by robot, and object movement service system by robot using the method
JP4595436B2 (en) Robot, control method thereof and control program
Bajones et al. Hobbit: providing fall detection and prevention for the elderly in the real world
Mann Smart technology for aging, disability, and independence
US7983794B2 (en) Interface apparatus and mobile robot equipped with the interface apparatus
CN106682418B (en) Intelligent access system based on robot and access method thereof
US8340816B2 (en) User preference inferring apparatus, user profile inferring apparatus, and robot
JP2007152443A (en) Clearing-away robot
US20170282373A1 (en) Reception system and reception method
JP2003050559A (en) Autonomously movable robot
JP2004299026A (en) Reception guide system
JP2007156577A (en) Method of gaining color information using life support robot
JP2004042148A (en) Mobile robot
KR102350966B1 (en) Transport system, information processing device configured to manage information about user who uses any one of plurality of mobile units, and information processing method
JP2004017200A (en) Information service robot system
JP4178846B2 (en) Autonomous driving support device and program
WO2008104912A2 (en) Method of locating objects using an autonomously moveable device
JP2019053650A (en) Self-propelled apparatus
JP2007226634A (en) Person status recognition device, method, program, robot and life support system
JP2004029908A (en) Support system and program
JP2007260864A (en) Communication robot
JP2004017185A (en) Robot control device
JP2007156578A (en) Method for deciding robot standby position
JP2004045591A (en) Method for recognizing voice and method for providing specific speaker&#39;s voice dictionary

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090203