JP2012115311A - Walking device and walking program - Google Patents
Walking device and walking program Download PDFInfo
- Publication number
- JP2012115311A JP2012115311A JP2010265190A JP2010265190A JP2012115311A JP 2012115311 A JP2012115311 A JP 2012115311A JP 2010265190 A JP2010265190 A JP 2010265190A JP 2010265190 A JP2010265190 A JP 2010265190A JP 2012115311 A JP2012115311 A JP 2012115311A
- Authority
- JP
- Japan
- Prior art keywords
- walking
- reference plane
- board
- foot
- tread
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Rehabilitation Tools (AREA)
Abstract
Description
本発明は、歩行装置、及び歩行プログラムに関し、例えば、歩行をアシストするものに関する。 The present invention relates to a walking device and a walking program, for example, to a device that assists walking.
近年、装着者の動作をアシストする装着型ロボットが注目を集めている。
装着型ロボットは、装着者の体に設置したセンサや装着者の体の動きを検知するなどして装着者の身体動作を支援するものであり、例えば、重量物を持ち上げるなどの筋肉労働を補助する場面での利用が期待されている。
In recent years, wearable robots that assist the wearer's movement have attracted attention.
Wearable robots support the wearer's body movements by detecting the movement of the wearer's body and sensors installed on the wearer's body, for example, assisting muscle work such as lifting heavy objects It is expected to be used in situations where
このような技術に、特許文献1の「装着式動作補助装置、装着式動作補助装置の制御方法および制御用プログラム」がある。
この技術は、装着者に設置したセンサによって生体信号を検出し、これを用いて装着者の意思に従った動力をアクチュエータに発生させるものである。
また、通信技術の分野では、特許文献2の「通信機能を有する照明器具」がある。
この技術は、電力線によって照明体に信号を送信し、照明体から無線や光の変調により信号を送出するものである。
As such a technique, there is “a wearable movement assist device, a control method of a wearable movement assist device, and a control program” in Patent Document 1.
In this technique, a biological signal is detected by a sensor installed on the wearer, and the actuator is used to generate power according to the wearer's intention.
Further, in the field of communication technology, there is “Lighting fixture having communication function” of
In this technique, a signal is transmitted to an illuminating body through a power line, and the signal is transmitted from the illuminating body by radio or light modulation.
ところで、従来の装着型ロボットは、筋肉労働などをアシストするものであり、高齢者や身体障害者など、身体機能や判断能力が十分でない装着者の動作を支援する用途には適していなかった。
特に歩行アシストの場合、前進方向に存在する段差に対して如何に適切な歩行動作を行わせるかは、重要な課題であった。
By the way, the conventional wearable robot assists muscular labor and the like, and is not suitable for an application for assisting the operation of a wearer who does not have sufficient physical function or judgment ability, such as an elderly person or a physically handicapped person.
Particularly in the case of walking assist, how to perform an appropriate walking motion with respect to a step existing in the forward direction has been an important issue.
本発明は、適切な歩行動作をアシストすることを目的とする。 An object of the present invention is to assist an appropriate walking motion.
請求項1に記載の発明では、少なくとも2本の足部を制御して歩行基準面を歩行する歩行制御手段と、光源から所定パターンの光を前進方向の前記歩行基準面に照射する照射手段と、前記照射した光によって前記歩行基準面に投影された像を撮像する撮像手段と、前記撮像した像の前記所定パターンからの歪みを用いて前記歩行基準面に対する段差を検出する段差検出手段と、を具備し、前記歩行制御手段は、前記検出した段差の手前側から向こう側に歩行する際に、前記検出した段差を基準にして前記足部を制御することを特徴とする歩行装置を提供する。
請求項2に記載の発明では、前記向こう側の歩行基準面は、前記段差において前記前進方向に沿って動いており、前記歩行制御手段は、前記向こう側の歩行基準面の動きに同期して前記足部を前記向こう側の歩行基準面に置くように前記足部を制御することを特徴とする請求項1に記載の歩行装置を提供する。
請求項3に記載の発明では、前記足部を前記向こう側の歩行基準面の動きに同期させるための同期情報を受信する同期情報受信手段を具備し、前記歩行制御手段は、前記受信した同期情報を用いて前記足部を前記向こう側の歩行基準面の動きに同期させることを特徴とする請求項1、又は請求項2に記載の歩行装置を提供する。
請求項4に記載の発明では、前記段差検出手段は、前記足部から前記段差までの距離を検出することを特徴とする請求項1、請求項2、又は請求項3に記載の歩行装置を提供する。
請求項5に記載の発明では、前記段差は、エスカレータ、又は、動く歩道の開始位置、又は終了位置における可動部分と静止部分の間に生じる段差であることを特徴とする請求項1から請求項4までのうちの何れか1の請求項に記載の歩行装置を提供する。
請求項6に記載の発明では、前記同期情報受信手段は、照明器具が発する光によって同期情報を受信することを特徴とする請求項3に記載の歩行装置を提供する。
請求項7に記載の発明では、少なくとも2本の足部を制御して歩行基準面を歩行する歩行制御機能と、光源から所定パターンの光を前進方向の前記歩行基準面に照射する照射機能と、前記照射した光によって前記歩行基準面に投影された像を撮像する撮像機能と、前記撮像した像の前記所定パターンからの歪みを用いて前記歩行基準面に対する段差を検出する段差検出機能と、をコンピュータで実現する歩行プログラムであって、前記歩行制御機能は、前記検出した段差の手前側から向こう側に歩行する際に、前記検出した段差を基準にして前記足部を制御することを特徴とする歩行プログラムを提供する。
In the first aspect of the present invention, a walking control means for controlling at least two feet to walk on the walking reference plane, and an irradiating means for irradiating the walking reference plane in a forward direction with light of a predetermined pattern from a light source; Imaging means for capturing an image projected on the walking reference plane by the irradiated light; step detection means for detecting a step with respect to the walking reference plane using distortion from the predetermined pattern of the captured image; And the walking control means controls the foot part based on the detected step when walking from the near side of the detected step to the other side. .
In the invention according to
According to a third aspect of the present invention, there is provided synchronization information receiving means for receiving synchronization information for synchronizing the foot portion with the movement of the walking reference plane on the far side, and the walking control means comprises the received synchronization 3. The walking device according to claim 1, wherein information is used to synchronize the foot with a movement of the walking reference plane on the far side.
According to a fourth aspect of the present invention, in the walking device according to the first, second, or third aspect, the step detecting means detects a distance from the foot to the step. provide.
The invention according to
The invention according to
In the invention according to
本発明によれば、歩行基準面に投影した像を用いることにより、適切な歩行動作をアシストすることができる。 According to the present invention, an appropriate walking motion can be assisted by using an image projected on the walking reference plane.
(1)実施形態の概要
図1は、本実施の形態の概要を説明するための図である。
装着者は、装着型ロボット1を着用し、エスカレータ300に乗降して移動する。
エスカレータ300の乗口には、照明100が設置してあり、乗口に照明光を発光している。照明100の照明光には、エスカレータ300の踏板の速度、及び踏板の繰出ピッチが含まれた踏板情報が照明光を変調することにより重畳されている。
装着型ロボット1は、照明100の照明光を照明領域内の位置200にて検知し、これに含まれる踏板情報を受信する。
(1) Outline of Embodiment FIG. 1 is a diagram for explaining the outline of the present embodiment.
The wearer wears the wearable robot 1 and gets on and off the
A
The wearable robot 1 detects the illumination light of the
装着型ロボット1は、踏板情報を受信すると、所定形状パターンの光を前進方向斜め下の歩行面に照射して像を投影すると共に撮像し、その像の歪みから乗口の櫛板(コムプレート)と踏板の段差を検出して櫛板から繰り出される踏板までの距離を算出する。
そして、装着型ロボット1は、踏板までの距離、及び踏板情報を用いて、装着者の足が適切に踏板に着地するように駆動する。
When receiving the tread board information, the wearable robot 1 projects and captures an image by irradiating a predetermined shape pattern of light onto the walking surface diagonally downward in the forward direction, and from the distortion of the image, the comb plate (com plate of the entrance) ) And the step difference between the treads and the distance from the comb plate to the tread is calculated.
The wearable robot 1 is driven using the distance to the tread and the tread information so that the wearer's feet appropriately land on the tread.
また、エスカレータ300の降口手前の照明101が発光する光にも踏板情報が含まれており、装着型ロボット1は、照明101の照明領域内の位置201にて踏板情報を受信する。
そして、装着型ロボット1は、前方斜め下に像を投影し、その歪みから櫛板と踏板の段差を検出して櫛板までの距離を算出する。なお、この像の投影は、常に投影しておいてもよいし、あるいは、節電のために踏板情報を受信してから投影してもよい。
次に、装着型ロボット1は、位置202で、櫛板までの距離、及び踏板情報を用いて装着者の足が適切に櫛板に着地するように駆動する。
Moreover, the tread information is also included in the light emitted by the
Then, the wearable robot 1 projects an image forward and obliquely downward, detects a step between the comb plate and the tread plate from the distortion, and calculates a distance to the comb plate. The image may be projected at all times, or may be projected after receiving tread information for power saving.
Next, the wearable robot 1 drives the wearer's foot to appropriately land on the comb plate at the
降口の照明102が発光する光には、周辺情報地図情報が含まれており、装着型ロボット1は、照明102の照明領域の位置203で周辺地図情報を受信する。
その後、装着型ロボット1は、周辺地図情報を用いて装着者の歩行を支援する。
図1のエスカレータ300は、一例として、下りとなっているが、上りのエスカレータも同様である。また、乗口と降口の構造が同じため、エスカレータ300を動く歩道としてもよい。
The light emitted from the
Thereafter, the wearable robot 1 supports walking of the wearer using the surrounding map information.
The
(2)実施形態の詳細
図2(a)は、装着型ロボット1の装着状態を示した図である。
装着型ロボット1は、装着者の腰部及び下肢に装着し、装着者の歩行を支援(アシスト)するものである。なお、例えば、上半身、下半身に装着して全身の動作をアシストするものであってもよい。
(2) Details of Embodiment FIG. 2A is a diagram showing a mounting state of the mounting robot 1.
The wearable robot 1 is worn on the waist and lower limbs of the wearer to assist (assist) the wearer's walking. In addition, for example, it may be attached to the upper body and the lower body to assist the movement of the whole body.
装着型ロボット1は、腰部装着部7、歩行アシスト部2、連結部8、3軸センサ3、3軸アクチュエータ6、撮像カメラ5、光源装置4、撮像カメラ5と光源装置4を保持する撮像ユニット9、及び無線通信装置10などを備えている。
腰部装着部7は、装着型ロボット1を装着者の腰部に固定する固定装置である。腰部装着部7は、装着者の腰部と一体となって移動する。
また、腰部装着部7は、歩行アクチュエータ17(図2(b))を備えており、装着者の歩行動作に従って連結部8を前後方向などに駆動する。
The wearable robot 1 includes a
The
The
連結部8は、腰部装着部7と歩行アシスト部2を連結している。
歩行アシスト部2は、装着者の下肢に装着され、歩行アクチュエータ17により前後方向などに駆動されて装着者の歩行運動を支援する。
なお、腰部装着部7、連結部8、歩行アシスト部2による歩行支援は、一例であって、更に多関節の駆動機構によって歩行支援するなど、各種の形態が可能である。
The connecting
The
The walking support by the
3軸センサ3は、腰部装着部7に設置され、腰部装着部7の姿勢などを検知する。3軸センサ3は、例えば、3次元ジャイロによる3軸角速度検出機能や3軸角加速度検出機能などを備えており、前進方向、鉛直方向、体側方向の軸の周りの回転角度、角速度、角加速度などを検知することができる。
なお、前進方向の軸の周りの角度をロール角、鉛直方向の軸の周りの角度をヨー角、体側方向の軸の周りの角度をピッチ角とする。
The triaxial sensor 3 is installed in the
The angle around the forward axis is the roll angle, the angle around the vertical axis is the yaw angle, and the angle around the body-side axis is the pitch angle.
3軸アクチュエータ6は、例えば、球体モータで構成されており、撮像カメラ5と光源装置4が設置された撮像ユニット9のロール角、ヨー角、ピッチ角を変化させる。
撮像ユニット9には、光源装置4と撮像カメラ5が固定されており、3軸アクチュエータ6を駆動すると、光源装置4の照射方向(光源装置4の光軸の方向)と撮像カメラ5の撮像方向(撮像カメラ5の光軸の方向)は、相対角度を保ったまま、ロール角、ヨー角、ピッチ角を変化させる。
The
The light source device 4 and the
段差を検出するためには、撮像ユニット9を所定の角度で歩行基準面(地面や床面など、装着者が歩行する面)に向ける必要があるが、装着者が装着型ロボット1を装着した場合に、装着状態によって撮像ユニット9が傾くため、3軸アクチュエータ6によってこれを補正する。
In order to detect a level difference, it is necessary to point the imaging unit 9 at a predetermined angle toward a walking reference plane (a surface on which the wearer walks, such as the ground or floor), but the wearer wears the wearable robot 1. In this case, since the imaging unit 9 is inclined depending on the mounting state, the
光源装置4は、例えば、レーザ、赤外光、可視光などの光を所定の形状パターンで照射する。本実施の形態では、光源装置4は、照射方向に垂直な面に対して円形となる形状パターンで光を照射するものとするが、矩形形状、十字、点など各種の形状が可能である。また、用途に応じて、それらの形状を組み合わせたものを照射することも可能である。 The light source device 4 irradiates light such as laser, infrared light, and visible light in a predetermined shape pattern, for example. In the present embodiment, the light source device 4 emits light in a shape pattern that is circular with respect to a plane perpendicular to the irradiation direction, but various shapes such as a rectangular shape, a cross, and a dot are possible. Moreover, it is also possible to irradiate what combined those shapes according to a use.
撮像カメラ5は、被写体を結像するための光学系と、結像した被写体を電気信号に変換するCCD(Charge−Coupled Device)を備えた、赤外光カメラ、可視光カメラなどで構成され、光源装置4が歩行基準面に照射した投影像を撮像(撮影)する。
光源装置4が所定の形状パターンで照射した光による投影像は、照射方向と歩行基準面の成す角度や、歩行基準面に存在する障害物(段差など)により円形から変形した(歪んだ)形状となるが、この形状を解析することにより前方に存在する段差を検知することができる。
The
The projected image by the light emitted by the light source device 4 in a predetermined shape pattern is a shape deformed (distorted) from a circle due to the angle formed by the irradiation direction and the walking reference plane, or obstacles (steps, etc.) present on the walking reference plane. However, it is possible to detect a step existing ahead by analyzing this shape.
撮像ユニット9は、光源装置4と撮像カメラ5が固定されており、3軸アクチュエータ6によって腰部装着部7に対するロール角、ヨー角、ピッチ角が変化する。
即ち、撮像ユニット9を3軸アクチュエータ6で駆動することにより、光源装置4と撮像カメラ5の相対的な位置を固定したまま、光源装置4と3軸アクチュエータ6の腰部装着部7に対するロール角、ヨー角、ピッチ角を変化させることができる。
In the imaging unit 9, the light source device 4 and the
That is, by driving the imaging unit 9 with the
無線通信装置10は、照明100が発光する光に含まれる踏板情報などの各種情報を検出する。
ここで、無線通信に照明光を用いたのは、情報を受信する箇所を照明領域に限定することができるほか、通常、エスカレータの設置箇所には照明が設置されており、これを利用すると無線通信のための新たな設備投資を低減することができるためである。
なお、照明光を用いず、通常の電波を用いた無線通信とすることも可能である。
The
Here, the illumination light is used for wireless communication because the location where information is received can be limited to the illumination area, and the illumination is usually installed at the location where the escalator is installed. This is because new equipment investment for communication can be reduced.
Note that wireless communication using normal radio waves may be used without using illumination light.
図2(b)は、装着型ロボット1に設置された装着ロボットシステム15を説明するための図である。
装着ロボットシステム15は、歩行支援機能を発揮するように装着型ロボット1を制御する電子制御システムである。
FIG. 2B is a diagram for explaining the mounting
The wearing
ECU(Electronic Control Unit)16は、図示しないCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、記憶装置、各種インターフェースなどを備えた電子制御ユニットであり、装着型ロボット1の各部を電子制御する。 The ECU (Electronic Control Unit) 16 is an electronic control unit including a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a storage device, various interfaces, and the like (not shown). Each part of 1 is electronically controlled.
CPUは、記憶媒体に記憶された各種コンピュータプログラムを実行し、撮像カメラ5の高さを計算するほか、階段やエスカレータの段差を認識したり、歩行アクチュエータ17を駆動して歩行支援を行ったりする。
CPUは、光源装置4、撮像カメラ5、3軸アクチュエータ6、3軸センサ3、及び無線通信装置10とインターフェースを介して接続しており、光源装置4からの照射をオンオフしたり、撮像カメラ5から撮像データを取得したり、3軸アクチュエータ6を駆動したり、3軸センサ3から検出値を取得したり、無線通信装置10から踏板情報を取得したりする。
The CPU executes various computer programs stored in the storage medium, calculates the height of the
The CPU is connected to the light source device 4, the
ROMは、読み取り専用のメモリであって、CPUが使用する基本的なプログラムやパラメータなどを記憶している。
RAMは、読み書きが可能なメモリであって、CPUが演算処理などを行う際のワーキングメモリを提供する。本実施の形態では、受信した踏板情報を記憶したり、段差までの距離を計算したりするためのワーキングメモリを提供する。
The ROM is a read-only memory and stores basic programs and parameters used by the CPU.
The RAM is a readable / writable memory, and provides a working memory when the CPU performs arithmetic processing and the like. In the present embodiment, a working memory for storing received tread information and calculating a distance to a step is provided.
記憶装置は、例えば、ハードディスクやEEPROM(Electrically Erasable Programmable ROM)などで構成された大容量の記憶媒体を備えており、光源装置4の投影像を解析して階段やエスカレータなどの段差を認識するためのプログラム、歩行支援を行うためのプログラムなどの各種プログラムや、段差認識の画像認識などに使用する撮像カメラ5の高さなどのパラメータなどを記憶している。
The storage device includes a large-capacity storage medium configured by, for example, a hard disk or an EEPROM (Electrically Erasable Programmable ROM), and analyzes the projection image of the light source device 4 to recognize steps such as stairs and escalators. And various programs such as a program for performing walking support, parameters such as the height of the
歩行アクチュエータ17は、ECU16からの指令に基づいて歩行アシスト部2を駆動する。
装着型ロボット1が、股関節、膝関節、足首関節などを有する多関節の場合は、各関節に歩行アクチュエータ17が備えられており、ECU16は、これらを個別に制御することにより、装着型ロボット1に一体として歩行支援動作を行わせる。
The walking
When the wearable robot 1 is a multi-joint having a hip joint, a knee joint, an ankle joint, or the like, a walking
図3の各図は、エスカレータ300の乗降口における櫛板40と踏板50の段差を検出する方法を説明するための図である。
図3(a)は、エスカレータ300の乗口での光の照射状態を示した図である。
エスカレータ300の乗口は、櫛板40と、櫛板40の前方かつ櫛板40より低い位置に配設された踏板(ステップ)50を備えている。
櫛板40の先端部分は、平坦部41と、踏板50にかけて形成された傾斜部42を有しており、傾斜部42による段差が形成されている。そして、傾斜部42の先端からは、踏板50が所定速度で繰り出されている。
Each drawing in FIG. 3 is a diagram for explaining a method of detecting a step between the
FIG. 3A is a diagram showing a light irradiation state at the entrance of the
The entrance of the
The tip portion of the
図3(b)は、乗口で撮像カメラ5が撮像した光源装置4の投影像26の画像の一例である。
装着型ロボット1は、光源装置4によって所定形状パターンの光を段差に照射し、撮像カメラ5によって投影された像を撮像する。
本実施の形態では、光源装置4は円形断面の光を前進方向斜め下方に存在する歩行基準面に照射するため、歩行基準面が平面の場合、投影像26は、前進方向を長軸とする楕円形となる。
ところが、投影像26内に段差が存在すると、投影像26が本来あるべき楕円形から歪み、画像認識によって当該歪みを検出することによって段差を検知することができる。
FIG. 3B is an example of an image of the
The wearable robot 1 irradiates a step with light having a predetermined shape pattern by the light source device 4 and captures an image projected by the
In the present embodiment, the light source device 4 irradiates light with a circular cross-section onto a walking reference plane that exists obliquely downward in the forward direction. Therefore, when the walking reference plane is a plane, the
However, if there is a step in the
図3(b)の例では、傾斜部42による段差によって、櫛板40の傾斜部42の開始位置に対応する位置(画面フレーム31の下端からxピクセルの位置)、及び傾斜部42の先端、即ち、踏板50が繰り出される位置に対応する位置(画面フレーム31の下端からyピクセルの位置)に歪みが生じている。
なお、画面フレーム31において前進する側の端を上端、装着者に近い側の端を下端とし、下端から上端までの距離をzピクセルとする。
In the example of FIG. 3B, the position corresponding to the start position of the
In the
光源装置4の照射する光は、光源装置4から遠くに離れるに従って広がり、櫛板40の傾斜は、先端にかけて基準面から低くなる方に傾斜しており、踏板50は、櫛板40よりも低い位置に存在する。
そのため、櫛板40の傾斜では、櫛板40の平坦な箇所に比べて投影像26の幅が広がり、ステップは、櫛板40よりも低い位置にあるため、投影像26の幅は更に広がる。
The light emitted from the light source device 4 spreads away from the light source device 4, the inclination of the
Therefore, when the
このように、段差によって下に降りる場合は、画面フレーム31の上端側で投影像26の幅が広がる。逆に段差によって上に登る場合は、画面フレーム31の上端側で投影像26の幅が狭まる。
即ち、投影像26の輪郭の歪み(不連続な箇所)によって段差の存在を認識し、投影像26の幅によって、上りの段か下りの段かを判断することができる。
In this way, when descending due to a step, the width of the projected
That is, it is possible to recognize the presence of a step by the distortion (discontinuous portion) of the contour of the
図3(c)は、段差までの距離を求める方法を説明するための図である。
撮像カメラ5から、画面フレーム31の下端に対応する位置までの水平距離をC、上端に対応する位置までの水平距離をD、下端から櫛板40の傾斜部42の開始位置までの距離a、下端から櫛板40の先端部分までの距離をbとする。
すると、画面フレーム31のx、y、zは、a、b、(D−C)に対応するため、これらの比例式から、撮像カメラ5(即ち、装着者の位置)から櫛板40の傾斜部42の開始位置までの水平距離C+aは、次の式(1)で表される。
FIG. 3C is a diagram for explaining a method for obtaining the distance to the step.
The horizontal distance from the
Then, since x, y, and z of the
C+a=C+x(D−C)/z … (1) C + a = C + x (DC) / z (1)
また、撮像カメラ5(即ち、装着者の位置)から櫛板40の先端までの水平距離C+bは、次の式(2)で表される。
これら式(1)、(2)は、記憶装置に格納されており、計算の際にCPUによって読み出される。
Further, the horizontal distance C + b from the imaging camera 5 (that is, the position of the wearer) to the tip of the
These equations (1) and (2) are stored in the storage device and read out by the CPU at the time of calculation.
C+b=C+y(D−C)/z … (2) C + b = C + y (DC) / z (2)
一般に、エスカレータ300の乗降口の段差が小さいため、上記比例式を用いることができ、また、装着型ロボット1は、照明100によって前方にエスカレータ300の段差が存在することを認識するため、前方の段差に上記比例式を適用する。
なお、式(1)、(2)は、近似式の一例であって、これらと異なる式を用いてもよい。
In general, since the level difference at the entrance / exit of the
Expressions (1) and (2) are examples of approximate expressions, and expressions different from these may be used.
図3(d)は、エスカレータ300の降口での光の照射状態を示した図であり、図3(e)は、降口で撮像カメラ5が撮像した光源装置4の投影像26の画像の一例である。
装着型ロボット1は、降口でも同様にして段差までの距離を計算することができる。
FIG. 3D is a diagram showing a light irradiation state at the exit of the
The wearable robot 1 can calculate the distance to the step in the same way even at the exit.
以下に、装着型ロボット1がエスカレータ300に乗車する方法、及び降車する方法について説明する。
なお、エスカレータ300に乗車する方法には、踏板中央乗車方法と踏板櫛板境目乗車方法の2種類がある。
踏板中央乗車方法は、繰り出される踏板50の中央に足を乗せて体重を踏板50に移動させる方法である。
Hereinafter, a method for the wearable robot 1 to get on the
There are two types of methods for getting on the escalator 300: a step board center boarding method and a tread board comb board border boarding method.
The tread board center boarding method is a method of moving a weight to the
一方、踏板櫛板境目乗車方法は、櫛板40と踏板50の境に足をかけ、即ち、足裏の後端側を櫛板40に置きながら足裏のつま先側を繰り出される踏板50の上に置き、足裏のつま先側と踏板50の位置関係が適切となったときに体重を足裏の後端からつま先側に移動させて櫛板40から踏板50に乗り移る方法である。
On the other hand, in the step board comb board border boarding method, a foot is put on the boundary between the
また、エスカレータ300から降車する方法には、櫛板中央降車方法と踏板櫛板境目降車方法の2種類がある。
櫛板中央降車方法は、櫛板40の平坦部41に足裏全体を踏み出して体重を櫛板40に移動させる方法である。
一方、踏板櫛板境目降車方法は、足裏の後端側を踏板50に置きながら両足の足裏のつま先側を持ち上げてつま先下に空間を形成し、櫛板40に足が乗って引っかかりを検出したら体の重心を前に持って行く方法、即ち、櫛板40の傾斜部42がつま先下の空間に入り込んで足裏に当接すると歩行を開始する方法である。
装着者は、これらの乗車方法、降車方法のうち、好みの方法を選択する、または、過去のデータのアーカイブから自動で選択してECU16に登録しておく。
In addition, there are two types of methods of getting off from the escalator 300: a comb plate central drop method and a tread plate comb plate boundary drop method.
The comb board center dismounting method is a method in which the entire foot is stepped on the
On the other hand, the step board comb board border drop off method lifts the toe side of the sole of both feet while placing the rear end side of the sole on the
The wearer selects a favorite method from among these boarding methods and getting-off methods, or automatically selects from a past data archive and registers it in the
まず、踏板中央乗車方法について詳細に説明する。
図4(a)は、装着型ロボット1が踏板中央乗車方法によってエスカレータ300に乗車する手順を説明するためのフローチャートである。
以下の動作は、ECU16のCPUが所定のプログラムに従って行うものである。
まず、CPUは、無線通信装置10からの出力を監視し、無線通信装置10が設備側の通信範囲内(即ち、照明100の照明領域内)に入ったか否かを監視する(ステップ5)。
設備側の通信範囲に入っていない場合(ステップ5;N)、CPUは、ステップ5にて監視を継続する。
First, the step board center boarding method will be described in detail.
FIG. 4A is a flowchart for explaining a procedure for the wearable robot 1 to get on the
The following operations are performed by the CPU of the
First, the CPU monitors the output from the
When not in the communication range on the equipment side (
設備側の通信内に入った場合(ステップ5;Y)、無線通信装置10は、照明100から踏板情報を受信し、CPUは、踏板情報から、踏板50の速度と繰出ピッチを取得してRAMに記憶する(ステップ10)。
ここで、踏板50の繰出ピッチは、櫛板40から新たな踏板50が繰り出されるタイミングであり、踏板50の速度とは、踏板50が巡回している速度である。
なお、動く歩道の場合は、繰出ピッチが存在しないため、速度を受信すればよい。
When entering the equipment side communication (
Here, the feeding pitch of the
In the case of a moving sidewalk, since there is no feeding pitch, it is sufficient to receive the speed.
次に、CPUは、踏板距離算出処理において、櫛板40から踏板50が繰り出される位置までの距離、即ち、櫛板40と踏板50の段差の端部である櫛板40の先端までの距離を算出する(ステップ15)。
次に、CPUは、歩幅方向ピッチ算出処理にて、踏板50に乗るための最適な歩幅と歩行ピッチを算出する(ステップ20)。
ここで、最適な歩幅と歩行ピッチとは、装着者の足を踏板50の中央に乗せると共に、装着者の体に作用する負荷を最小限にする歩幅と歩行ピッチである。
Next, in the tread board distance calculation process, the CPU calculates the distance from the
Next, the CPU calculates an optimum stride and a walking pitch for riding on the
Here, the optimal stride and walking pitch are a stride and a walking pitch that puts the foot of the wearer on the center of the
次に、CPUは、算出した歩幅と歩行ピッチにて歩行アクチュエータ17を駆動する(ステップ25)。
装着者が踏板50に足を置くと、CPUは、歩行アクチュエータ17によって、残りの足を先に踏板50に乗せた足に揃えて踏板50に置く。
Next, the CPU drives the walking
When the wearer places his / her foot on the
図4(b)は、ステップ15の踏板距離算出処理を説明するためのフローチャートである。
まず、CPUは、光源装置4を駆動し、所定形状パターンの光を前方に照射する(ステップ30)。
次に、CPUは、撮像カメラ5で投影された投影像26を撮像し、その画像データをRAMに記憶する。
そして、CPUは、画像データにおいて、x、yの位置に該当する歪みを画像認識により検出し、x、yまでのピクセル数をカウントする(ステップ35)。
FIG. 4B is a flowchart for explaining the tread board distance calculating process in
First, the CPU drives the light source device 4 and irradiates light of a predetermined shape pattern forward (step 30).
Next, the CPU captures the
Then, the CPU detects distortion corresponding to the x and y positions in the image data by image recognition, and counts the number of pixels up to x and y (step 35).
次に、CPUは、式(2)を記憶装置から読み出して、RAMに記憶したyを代入し、踏板50までの距離、即ち、櫛板40の先端までの距離L1を算出してRAMに記憶する(ステップ40)。
なお、z、C、Dなどのパラメータは、予め記憶装置に記憶されている。
Next, the CPU reads equation (2) from the storage device, substitutes y stored in the RAM, calculates the distance to the
Note that parameters such as z, C, and D are stored in advance in a storage device.
図5は、ステップ20の歩幅歩行ピッチ算出処理を説明するためのフローチャートである。
まず、CPUは、乗車前の装着者の歩行速度v1を取得する(ステップ50)。
歩行速度は、歩行アクチュエータ17が駆動する装着者の足の運動から得ることができる。また、装着型ロボット1に速度センサを登載して当該速度センサから取得してもよいし、あるいは、装着型ロボット1にナビゲーションシステムを搭載して、これから取得してもよい。
FIG. 5 is a flowchart for explaining the stride walking pitch calculation process in step 20.
First, the CPU acquires the walking speed v1 of the wearer before boarding (step 50).
The walking speed can be obtained from the movement of the wearer's foot driven by the walking
次に、CPUは、RAMに記憶した踏板情報から踏板50の速度v2を読み出して取得する(ステップ55)。
次に、CPUは、v1とv2の差を比較し(ステップ60)、v1とv2の差が所定値(ここでは、10%とする)以内であれば(ステップ60;Y)、仮想歩行速度v3をv1に設定してRAMに記憶する(ステップ65)。
Next, the CPU reads and acquires the speed v2 of the
Next, the CPU compares the difference between v1 and v2 (step 60), and if the difference between v1 and v2 is within a predetermined value (here, 10%) (step 60; Y), the virtual walking speed v3 is set to v1 and stored in the RAM (step 65).
一方、v1とv2の差が10%以内でない場合(ステップ60;N)、CPUは、仮想歩行速度v3をv2に設定してRAMに記憶する(ステップ70)。
ここで、仮想歩行速度は、最終的な歩行速度を決定するための暫定的な歩行速度である。
On the other hand, when the difference between v1 and v2 is not within 10% (step 60; N), the CPU sets the virtual walking speed v3 to v2 and stores it in the RAM (step 70).
Here, the virtual walking speed is a provisional walking speed for determining the final walking speed.
次に、CPUは、櫛板40の先端までの距離L1をRAM(ステップ40の画像認識により計算済み)から読み出して取得する(ステップ75)。
次に、CPUは、仮想速度で歩行した場合に踏板50に到達するまでの時間T=L1/v3を算出してRAMに記憶する(ステップ80)。
Next, the CPU reads and acquires the distance L1 to the tip of the
Next, the CPU calculates time T = L1 / v3 until it reaches the
次に、RAMは、RAMに記憶した踏板情報を用いてT秒後の踏板50のサイクルを算出する(ステップ85)。
ここで、サイクルとは、櫛板40から踏板50が繰り出されている位置状態であり、例えば、ちょうど踏板50の全体が繰り出し終わったのか、あるいは、1/3だけ繰り出したところか、といった状態である。
Next, the RAM calculates the cycle of the
Here, the cycle is a position state in which the
次に、CPUは、T秒後に踏板50が櫛板40の前に存在するか否か、即ち、T秒後に踏板50の全体が櫛板40から繰り出されたところか否かを判断する(ステップ90)。
なお、踏板50の90%以上が繰り出されている場合に全体が繰り出されていると判断するなど、所定の許容幅を持たせることができる。
T秒後に踏板50が櫛板40の前に存在しない場合(ステップ90;N)、CPUは、仮想歩行速度を所定量(ここでは、10%)減じ(ステップ95)、ステップ75に戻る。
Next, the CPU determines whether or not the
In addition, it is possible to give a predetermined allowable width, for example, when 90% or more of the
When the
一方、T秒後に踏板50が櫛板40の前に存在する場合(ステップ90;Y)、CPUは、歩行速度をv3とするために現状からの最小限の変更で行えるような歩幅と歩行ピッチを算出してRAMに記憶する(ステップ100)。
次に、CPUは、RAMに記憶した歩幅と歩行ピッチを読み出して、これに基づくように歩行アクチュエータ17を制御する(ステップ105)。
On the other hand, when the
Next, the CPU reads out the stride and the walking pitch stored in the RAM, and controls the walking
以上のようにして、CPUは、装着者の歩行速度の変化量を最小限に抑えて、装着者に与える不自然感を軽減しつつ、装着者の歩行と踏板50への足乗せを連続動作とすることができる(即ち、装着者は、櫛板40で立ち止まって、足乗せのための時間調節をする必要がない)。
As described above, the CPU continuously operates the wearer's walking and stepping on the
次に、踏板櫛板境目乗車方法について詳細に説明する。
図6(a)は、装着型ロボット1が踏板櫛板境目乗車方法によってエスカレータ300に乗車する手順を説明するためのフローチャートである。
図4(a)と同じステップには、同じステップ番号を付し、説明を省略する。
CPUは、踏板情報の受信(ステップ5、10)や、踏板距離算出処理(ステップ15)を行った後、足位置算出処理を行って(ステップ21)、歩行アクチュエータの制御を行う(ステップ25)。
ここで、足位置算出処理は、踏板50への乗車にあたり速度変化を最小にするための足位置を算出するものである。
図6(b)は、踏板距離算出処理の手順を示したフローチャートであって、図4(b)と同じである。
Next, the step board comb board boundary boarding method will be described in detail.
FIG. 6A is a flowchart for explaining a procedure for the wearable robot 1 to get on the
The same steps as those in FIG. 4A are denoted by the same step numbers, and description thereof is omitted.
After receiving the tread information (
Here, the foot position calculation process is to calculate a foot position for minimizing a speed change when getting on the
FIG. 6B is a flowchart showing the steps of the tread board distance calculation process, which is the same as FIG. 4B.
図7は、ステップ21の足位置算出処理を説明するためのフローチャートである。
まず、CPUは、装着者の歩行速度v1を取得する(ステップ150)。
次に、CPUは、櫛板40の先端までの距離yをRAM(ステップ40の画像認識により計算済み)から読み出して取得する(ステップ155)。
FIG. 7 is a flowchart for explaining the foot position calculation processing in step 21.
First, the CPU acquires the wearer's walking speed v1 (step 150).
Next, the CPU reads and acquires the distance y to the tip of the
次に、CPUは、予め記憶装置に記憶してある装着者の足裏サイズy1を記憶装置から読み出して取得する(ステップ160)。
このように、踏板櫛板境目乗車方法では、予め装着者の足サイズをECU16に入力し、記憶媒体に記憶しておく。
Next, the CPU reads and obtains the footer size y1 of the wearer previously stored in the storage device from the storage device (step 160).
As described above, in the step board comb board boundary boarding method, the foot size of the wearer is previously input to the
次に、CPUは、乗車するまでの距離をL1=y+y1/2に補正してRAMに記憶する(ステップ165)。即ち、CPUは、踏板50までの距離を足裏サイズの半分だけ延長する。
次に、CPUは、踏板50までの到達時間T=L1/v1を計算し、RAMに記憶する(ステップ170)。
次に、CPUは、踏板情報に含まれる繰出ピッチにより、T秒後のエスカレータのサイクルを算出し、RAMに記憶する(ステップ175)。
Next, the CPU corrects the distance to the boarding to L1 = y + y1 / 2 and stores it in the RAM (step 165). That is, the CPU extends the distance to the
Next, the CPU calculates an arrival time T = L1 / v1 to the
Next, the CPU calculates the cycle of the escalator after T seconds based on the feeding pitch included in the tread board information, and stores it in the RAM (step 175).
次に、CPUは、T秒後に踏板50が櫛板40よりy1/2以上出ているかを判断する(ステップ180)。
即ち、CPUは、現在の歩行速度で踏板50に乗った場合に、踏板50が櫛板40から足サイズの半分以上出ているか否かをエレベータのサイクルにより計算する。
Next, the CPU determines whether or not the
That is, the CPU calculates whether or not the
踏板50がy1/2以上出ている場合(ステップ180;Y)、CPUは、姿勢維持時間T2をT2=0とし、これをRAMに記憶する(ステップ185)。姿勢維持時間T2は、装着者の足の位置と踏板50のサイクルの差分を調節するための時間である。
一方、踏板50がy1/2以上出ていない場合(ステップ180;N)、CPUは、踏板50が1/2以上出る姿勢維持時間T2を算出してRAMに記憶する(ステップ190)。
If the
On the other hand, when the
次に、CPUは、RAMに記憶した歩行速度v1と補正した距離L1を読み出し、v1を変更せずに櫛板40と踏板50に足が半分ずつ乗るような歩幅と歩行ピッチを計算し、RAMに記憶する(ステップ195)。
次に、CPUは、RAMに記憶した歩幅と歩行ピッチに従って歩行アクチュエータ17を制御する(ステップ200)。
Next, the CPU reads the walking speed v1 and the corrected distance L1 stored in the RAM, calculates the stride and the walking pitch such that the legs are half on the
Next, the CPU controls the walking
次に、CPUは、装着者の足が櫛板40と踏板50の上に存在するか否かを判断する(ステップ205)。
この判断は、RAMに記憶した到達時間Tの経過を確認し、かつ、足が接地していることを歩行アクチュエータ17の角度などから確認することにより行われる。
また、この他に、櫛板40の先端では段差があるため、かかとからつま先にかけて下方に傾いていることを検出して当該判断を行ってもよい。
Next, the CPU determines whether or not the wearer's feet are present on the
This determination is performed by confirming the passage of the arrival time T stored in the RAM and confirming that the foot is in contact with the ground from the angle of the walking
In addition to this, since there is a step at the tip of the
装着者の足がまだ踏板50の上に乗っていない場合(ステップ205;N)、ステップ200に戻って歩行アクチュエータ17の制御を続行する。
一方、装着者の足が踏板50の上に乗っている場合(ステップ205;Y)、RAMに記憶した姿勢維持時間T2を読み出し、姿勢維持時間T2秒の間姿勢を維持する(ステップ210)。
When the wearer's foot is not yet on the tread board 50 (step 205; N), the process returns to step 200 and the control of the walking
On the other hand, when the wearer's foot is on the tread board 50 (step 205; Y), the posture maintaining time T2 stored in the RAM is read, and the posture is maintained for the posture maintaining time T2 seconds (step 210).
これにより、装着者が踏板50に足の先半分を置いたとき、踏板50が半分以上出ている場合は、姿勢維持時間T2=0で姿勢を維持する時間が0となり、踏板50が半分以上出ていない場合は、踏板50が半分以上出てくるまで姿勢維持時間T2秒の間姿勢を維持することになる。
Thus, when the wearer places the toe half of the foot on the
次に、CPUは、装着者の体の重心をつま先側へ移動するように歩行アクチュエータ17を制御する(ステップ215)。
次に、CPUは、エスカレータ300の速度で他方の足を引きつけ、更に、一方の足と揃えて踏板50の上に直立するように歩行アクチュエータ17を制御する(ステップ220)。
Next, the CPU controls the walking
Next, the CPU attracts the other foot at the speed of the
以上では、踏板50が櫛板40から半分以上出ている場合に踏板50へ乗り移るように制御したが、更に細かく、例えば、踏板50が4分の1以上、5分の3以下出ている場合に乗り移るように制御することができる。
In the above, the control is performed so that the
次に、櫛板中央降車方法について詳細に説明する。
図8(a)は、装着型ロボット1が櫛板中央降車方法によってエスカレータ300から降車する手順を説明するためのフローチャートである。
図4(a)と同じステップには、同じステップ番号を付し、説明を省略する。
CPUは、踏板情報の受信(ステップ5、10)を行った後、画像処理によってエスカレータ300の終点に設置された櫛板40の先端までの距離を算出する(ステップ16)。
Next, the comb board center disembarkation method will be described in detail.
FIG. 8A is a flowchart for explaining a procedure for the wearable robot 1 to get off from the
The same steps as those in FIG. 4A are denoted by the same step numbers, and description thereof is omitted.
After receiving the tread board information (
次に、CPUは、歩幅歩行ピッチ算出処理にて、櫛板40に乗るための最適な歩幅と歩行ピッチを算出してRAMに記憶する(ステップ22)。
ここで、最適な歩幅と歩行ピッチとは、装着者の足を櫛板40に乗せると共に、装着者の体に作用する負荷を最小限にする歩幅と歩行ピッチであり、降車時に装着者が前後にぶれないように慣性分を相殺するような歩幅と歩行ピッチである。
次に、CPUは、当該歩幅と歩行ピッチにて歩行アクチュエータ17を制御する。
Next, the CPU calculates an optimum stride and a walking pitch for riding on the
Here, the optimal stride and walking pitch are the stride and the walking pitch that minimizes the load acting on the wearer's body while putting the wearer's foot on the
Next, the CPU controls the walking
図8(b)は、ステップ16の櫛距離算出処理の手順を示したフローチャートである。
ステップ30、35は、図4(b)と同じである。
その後、CPUは、櫛板40までの距離を算出する(ステップ41)。本方法では、装着型ロボット1は、装着者の足を櫛板40の平坦部41に着地させるため、櫛板40までの距離として、傾斜部42の開始位置までの距離(図3(e)のyに対応する位置までの距離)を計算する。
FIG. 8B is a flowchart showing the procedure of the comb distance calculation process in
Thereafter, the CPU calculates the distance to the comb plate 40 (step 41). In this method, the wearable robot 1 causes the wearer's foot to land on the
図9は、ステップ22の歩幅歩行ピッチ算出処理を説明するためのフローチャートである。
まず、CPUは、踏板情報から速度v1をRAMから読み出して取得する(ステップ250)。
次に、CPUは、ステップ41で算出した櫛板40までの距離L1をRAMから読み出して取得する(ステップ255)。
FIG. 9 is a flowchart for explaining the stride walking pitch calculation process in step 22.
First, the CPU reads and acquires the speed v1 from the RAM from the tread board information (step 250).
Next, the CPU reads and acquires the distance L1 to the
次に、CPUは、櫛板40の先端への到達時間T1=L1/v1を算出してRAMに記憶する(ステップ260)。
次に、CPUは、装着者の歩幅S1をRAMから読み出して取得する(ステップ265)。歩幅S1は、装着者が平地で歩行している際にCPUが計測して過去データとしてRAMに記憶しておいたものである。過去データの平均値を取得してもよい。
Next, the CPU calculates the arrival time T1 = L1 / v1 at the tip of the
Next, the CPU reads and acquires the wearer's stride S1 from the RAM (step 265). The stride S1 is measured by the CPU when the wearer is walking on a flat ground and stored in the RAM as past data. You may acquire the average value of past data.
次に、CPUは、装着者の足裏サイズS2を記憶装置から読み出して取得する(ステップ270)。足裏サイズS2は、予め記憶装置に登録してあるものとする。
次に、CPUは、歩幅S1より足裏サイズS2が大きいか否かを判断する(ステップ275)。
Next, the CPU reads and acquires the sole size S2 of the wearer from the storage device (step 270). The sole size S2 is assumed to be registered in the storage device in advance.
Next, the CPU determines whether or not the sole size S2 is larger than the stride S1 (step 275).
歩幅S1よりも足裏サイズS2が大きい場合(ステップ275;Y)、CPUは、歩幅をS2に設定し(ステップ280)、通常歩行時の速度v2が一定となるようにS2から歩行ピッチP1をP1=S2/v1にて設定してRAMに記憶する(ステップ285)。
When the sole size S2 is larger than the step S1 (
一方、歩幅S1が足裏サイズS2以上の場合(ステップ275;N)、CPUは、歩幅をS1に設定し(ステップ290)、通常歩行時の速度v2が一定となるようにS1から歩行ピッチP1をP1=S1/v1にて設定してRAMに記憶する(ステップ295)。
On the other hand, when the step S1 is larger than the sole size S2 (
このように設定したのは、以下の理由による。
高齢者などは、足の運動能力が低く、小さな歩幅で少しずつ歩く場合がある。装着者がこのような小さな歩幅で踏板50から櫛板40に乗り移ろうとすると転倒する可能性が考えられる。
そこで、装着型ロボット1は、このような歩幅の小さい歩き方を「歩幅S1よりも足裏サイズが大きい場合」として判断し、降車時に強制的に歩幅を足裏幅に広げることとしたものである。
このように装着型ロボット1は、装着者を強制的に前進させることにより、立ち止まりによる将棋倒しなどを防止することができる。
The reason for this setting is as follows.
Elderly people have low exercise ability of their feet and may walk little by little with a small stride. If the wearer tries to transfer from the
Therefore, the wearable robot 1 judges such a way of walking with a small stride as “when the sole size is larger than the stride S1”, and forcibly increases the stride to the sole width when getting off the vehicle. is there.
As described above, the wearable robot 1 can prevent the shogi from being defeated due to being stopped by forcibly moving the wearer forward.
このように歩幅、歩行ピッチを設定した後、CPUは、到達時間T1が経過したか否かを判断する(ステップ300)。
到達時間T1が経過していない場合(ステップ300;N)、CPUは、ステップ300で監視を継続する。
一方、到達時間T1が経過した場合(ステップ300;Y)、CPUは、RAMに記憶した歩幅と歩行ピッチにて歩行アクチュエータ17を制御する(ステップ305)。
以上のようにして、装着型ロボット1は、装着者の歩行能力が低い場合でも、これを補って適切に降車させることができる。
After setting the stride and the walking pitch in this way, the CPU determines whether or not the arrival time T1 has elapsed (step 300).
When the arrival time T1 has not elapsed (
On the other hand, when the arrival time T1 has elapsed (
As described above, even when the wearer's walking ability is low, the wearable robot 1 can compensate for this and get off the vehicle appropriately.
次に、踏板櫛板境目降車方法について詳細に説明する。
図10(a)は、装着型ロボット1が踏板櫛板境目降車方法によってエスカレータ300から降車する手順を説明するためのフローチャートである。
図4(a)と同じステップには、同じステップ番号を付し、説明を省略する。
CPUは、踏板情報の受信(ステップ5、10)を行った後、画像処理によってエスカレータ300の終点に設置された櫛板40の先端までの距離を算出する(ステップ17)。
Next, the step board comb board boundary getting off method will be described in detail.
FIG. 10A is a flowchart for explaining a procedure for the wearable robot 1 to get off from the
The same steps as those in FIG. 4A are denoted by the same step numbers, and description thereof is omitted.
After receiving the tread board information (
次に、CPUは、足位置算出処理にて、踏板50から降車するにあたり、エネルギーロスを最小限にするための足位置を算出してRAMに記憶する(ステップ23)。
次に、CPUは、歩行アクチュエータ17を駆動して降車動作を行う(ステップ25)。
Next, the CPU calculates a foot position for minimizing energy loss when getting off the
Next, the CPU drives the walking
図10(b)は、ステップ17の櫛板距離算出処理を説明するためのフローチャートである。
ステップ30、35は、図4(b)と同じである。
次に、CPUは、櫛板40までの距離を算出する(ステップ42)。本方法では、櫛板40の先端に達する前につま先を上げるため、櫛板40の先端までの距離(図3(e)のxに対応する位置までの距離)を計算する。
FIG. 10B is a flowchart for explaining the comb plate distance calculation processing in
Next, the CPU calculates the distance to the comb plate 40 (step 42). In this method, in order to raise the toe before reaching the tip of the
更に、CPUは、傾斜部42による段差の高さH(xの位置に対するyの位置の高さ)をxとyの差分より算出し、RAMに記憶する(ステップ45)。この値は、降車地点でつま先を上げる高さを制御するのに用いられる。 Further, the CPU calculates the height H of the step by the inclined portion 42 (the height of the y position with respect to the x position) from the difference between x and y, and stores it in the RAM (step 45). This value is used to control the height at which the toes are raised at the point of departure.
図11は、ステップ23の足位置算出処理を説明するためのフローチャートである。
まず、CPUは、踏板50の速度v1を踏板情報から取得する(ステップ350)。
次に、CPUは、櫛板40までの距離L1をRAMから読み出して取得する(ステップ355)。この距離L1は、装着者がつま先を上げておく必要から、櫛板40の先端までの距離である。
FIG. 11 is a flowchart for explaining the foot position calculation processing in step 23.
First, the CPU acquires the speed v1 of the
Next, the CPU reads and acquires the distance L1 to the
次に、CPUは、予め記憶装置に登録してある装着者の足裏サイズS2を記憶装置から読み出して取得する(ステップ360)。
次に、CPUは、つま先が櫛板40の先端に到達するつま先到達時間T1=L1/v1を算出してRAMに記憶する(ステップ365)。
Next, the CPU reads and acquires the sole size S2 of the wearer registered in advance in the storage device from the storage device (step 360).
Next, the CPU calculates a toe arrival time T1 = L1 / v1 for the toe to reach the tip of the
次に、CPUは、櫛板40までの距離L1の補正値としてL2=L1+S2/2を算出してRAMに記憶する(ステップ370)。即ち、櫛板40の先端までの距離に足裏サイズS2の半分を足した値をエスカレータ終点までの距離L2とする。
次に、CPUは、足裏が櫛板40の先端に到達する足裏到達時間T2=L2/v1を算出してRAMに記憶する(ステップ375)。到達時間T1は、装着者の足裏の前方半分が櫛板40に達するまでの時間である。
Next, the CPU calculates L2 = L1 + S2 / 2 as a correction value for the distance L1 to the
Next, the CPU calculates the sole arrival time T2 = L2 / v1 when the sole reaches the tip of the
次に、CPUは、装着者の歩幅S1をRAMから読み出して取得する(ステップ380)。
次に、CPUは、つま先到達時間T1が経過したか否か判断し(ステップ385)、つま先到達時間T1が経過していない場合は(ステップ385;N)、ステップ385でつま先到達時間T1が経過したか否かを監視する。
Next, the CPU reads and acquires the wearer's stride S1 from the RAM (step 380).
Next, the CPU determines whether or not the toe arrival time T1 has elapsed (step 385). If the toe arrival time T1 has not elapsed (
一方、つま先到達時間T1が経過した場合(ステップ385;Y)、CPUは、RAMから段差の高さHを読み出して取得し、歩行アクチュエータ17で足首関節を制御して両足のつま先をHだけ持ち上げる(ステップ390)。
なお、余裕を見て、つま先到達時間T1が経過する所定時間前(例えば、1秒前)につま先を持ち上げてもよい。
On the other hand, when the toe arrival time T1 has elapsed (
Note that the toes may be lifted up a predetermined time before the toe arrival time T1 elapses (for example, one second before) with a margin.
次に、CPUは、足裏到達時間T2が経過したか否かを判断し(ステップ395)、足裏到達時間T2が経過していない場合は(ステップ395;N)、ステップ395で足裏到達時間T2が経過したか否かを監視する。
Next, the CPU determines whether or not the sole arrival time T2 has elapsed (step 395). If the sole arrival time T2 has not elapsed (
一方、足裏到達時間T2が経過した場合(ステップ395;Y)、CPUは、歩行アクチュエータ17を駆動して、通常の歩幅S1で降車一歩目の動作を行う(ステップ400)。
なお、足裏が櫛板40の先端に到達したか否かの判断は、足裏到達時間T2で行うほか、例えば、3軸センサ3で前方方向の衝撃を検出することにより、足裏中央が櫛板40に当たったものと感知してもよい。
踏板櫛板境目降車方法は、歩幅が小さい場合でも歩幅を広げる必要がないため、歩幅が小さい装着者に適している。
On the other hand, when the sole arrival time T2 has elapsed (
Whether the sole has reached the tip of the
The step board comb board border drop-off method is suitable for a wearer with a small stride because there is no need to increase the stride even when the stride is small.
以上に説明した、踏板中央乗車方法、踏板櫛板境目乗車方法、櫛板中央降車方法、踏板櫛板境目降車方法は、エスカレータ300のみならず、動く歩道に適用することもできる。
また、階段の段を検知して上り下りするように装着型ロボット1を構成することもできる。
更に、本実施の形態は、一例として装着者の歩行をアシストする場合について説明したが、自動歩行ロボットであってもよい。また、足の本数は2本に限らず、更に多くてもよい。
The step board center boarding method, the tread board comb board boundary boarding method, the comb board center boarding method, and the tread board comb board boarding method described above can be applied not only to the
The wearable robot 1 can also be configured to detect the steps of the stairs and go up and down.
Furthermore, although this Embodiment demonstrated the case where the wearer's walk was assisted as an example, an automatic walking robot may be sufficient. Further, the number of legs is not limited to two and may be larger.
以上に説明した実施の形態により、次のような効果を得ることができる。
(1)装着型ロボット1は、エスカレータ300などの乗口、降口において、櫛板40と踏板50の間の段差を画像認識することができる。
(2)装着型ロボット1は、乗口では、踏板50までの距離、降口では櫛板40までの距離を画像認識によって計測し、また、踏板情報(踏板50の速さ、繰出ピッチ)を取得することにより、歩行アクチュエータ17で装着者の意図に関係なく強制的に制御介入してエスカレータ300に乗降することができる。
(3)装着型ロボット1は、装着者の歩行動作に強制的に制御介入するため、装着者の判断力や感覚が衰えている場合でも安全な移動を実現することができる。
(4)照明器具は、特別な事情がない限り固定された場所で使われることを利用し、装着型ロボット1は、エスカレータ300の乗降口に設置された照明設備より、踏板情報を受信して得ることができる。また、施設側は、既存の設備を用いて踏板情報を送信することができるため、設備投資を低減することができる。
(5)装着型ロボット1は、2種類の乗車方法、及び、2種類の降車方法に対応しており、装着者は、好みの方法を選択することができる。
According to the embodiment described above, the following effects can be obtained.
(1) The wearable robot 1 can recognize an image of a step between the
(2) The wearable robot 1 measures the distance to the
(3) Since the wearable robot 1 forcibly intervenes in the walking motion of the wearer, it is possible to realize safe movement even when the judgment and sense of the wearer are weakened.
(4) Utilizing that the lighting fixture is used in a fixed place unless there is a special circumstance, the wearable robot 1 receives the tread information from the lighting equipment installed at the entrance of the
(5) The wearable robot 1 supports two types of boarding methods and two types of getting off methods, and the wearer can select a favorite method.
また、以上に説明した実施の形態により、次の構成を得ることができる。
装着型ロボット1は、2本の歩行アシスト部2を用いて床や道路など、歩行の対象となる歩行基準面を歩行するため、少なくとも2本の足部を駆動して歩行基準面を歩行する歩行制御手段を備えている。
また、装着型ロボット1は、光源装置4によって前進方向の床面などに所定パターンの光を照射し、その像を撮像カメラ5で撮像するため、光源から所定パターンの光を前進方向の前記歩行基準面に照射する照射手段と、前記照射した光によって前記歩行基準面に投影された像を撮像する撮像手段を備えている。
更に、装着型ロボット1は、投影像26の歪みから画像認識を用いて櫛板40と踏板50の間に生じている段差を検出するため、前記撮像した像の前記所定パターンからの歪みを用いて前記歩行基準面に対する段差を検出する段差検出手段を備えている。
また、エスカレータ300に乗車する場合、櫛板40が手前側の歩行基準面、踏板50が向こう側の歩行基準面として機能し、降車する場合は、踏板50が手前側の歩行基準面、櫛板40が向こう側の歩行基準面として機能し、装着型ロボット1は、段差までの距離などを基準にして歩幅や歩行ピッチを制御して歩行するため、前記歩行制御手段は、前記検出した段差の手前側から向こう側に歩行する際に、前記検出した段差を基準にして前記足部を制御している。
Further, the following configuration can be obtained by the embodiment described above.
The wearable robot 1 walks on a walking reference plane by driving at least two feet, in order to walk on a walking reference plane, such as a floor or a road, using two walking
The wearable robot 1 irradiates a predetermined pattern of light onto the floor surface in the forward direction by the light source device 4 and captures an image thereof with the
Further, the wearable robot 1 uses the distortion from the predetermined pattern of the captured image in order to detect a step generated between the
Further, when getting on the
また、エスカレータ300に乗車する場合は、櫛板40と踏板50の段差において、踏板50が前進方向に動いており、降車する場合は、櫛板40が装着者に対して前進方向と逆の方向に相対運動しているため、前記向こう側の歩行基準面は、前記段差において前記前進方向に沿って動いている。
そして、装着型ロボット1は、乗車する場合は、踏板50までの距離、及び踏板50の速度と繰出ピッチに同期し、降車する場合は、櫛板40までの距離、及び装着者に対する櫛板40の相対運度による見かけの速度に同期して歩行アシスト部2を駆動するため、前記歩行制御手段は、前記向こう側の歩行基準面の動きに同期して前記足部を前記向こう側の歩行基準面に置くように前記足部を制御している。
Further, when getting on the
The wearable robot 1 synchronizes with the distance to the
また、装着型ロボット1は、照明100などから、踏板情報(同期情報として機能している)を受信するため、前記足部を前記向こう側の歩行基準面の動きに同期させるための同期情報を受信する同期情報受信手段を備えている。
そして、装着型ロボット1は、踏板情報に含まれる踏板50の速度や繰出ピッチを用いて踏板50に乗ったり、櫛板40へ降りたりするため、前記歩行制御手段は、前記受信した同期情報を用いて前記足部を前記向こう側の歩行基準面の動きに同期させている。
In addition, the wearable robot 1 receives tread information (functioning as synchronization information) from the
Since the wearable robot 1 gets on the
また、装着型ロボット1は、足部から段差(櫛板40の先端、あるいは、傾斜部42の開始位置)までの距離を検出するため、前記段差検出手段は、前記足部から前記段差までの距離を検出している。
In addition, the wearable robot 1 detects the distance from the foot to the step (the tip of the
また、装着型ロボット1は、エスカレータ300や動く歩道の開始位置と終了位置における櫛板40と踏板50の間の段差を検出するため、前記段差は、エスカレータ、又は、動く歩道の開始位置、又は終了位置における可動部分(踏板50)と静止部分(櫛板40)の間に生じる段差とすることができる。
In addition, the wearable robot 1 detects the step between the
また、装着型ロボット1は、照明100の光に含まれる踏板情報を受信するため、前記同期情報受信手段は、照明器具が発する光によって同期情報を受信している。
Further, since the wearable robot 1 receives the tread information included in the light of the
1 装着型ロボット
2 歩行アシスト部
3 3軸センサ
4 光源装置
5 撮像カメラ
6 3軸アクチュエータ
7 腰部装着部
8 連結部
9 撮像ユニット
10 無線通信装置
15 装着ロボットシステム
16 ECU
17 歩行アクチュエータ
26 投影像
31 画面フレーム
40 櫛板
41 平坦部
42 傾斜部
50 踏板
100〜102 照明
200〜203 位置
300 エスカレータ
DESCRIPTION OF SYMBOLS 1
17
Claims (7)
光源から所定パターンの光を前進方向の前記歩行基準面に照射する照射手段と、
前記照射した光によって前記歩行基準面に投影された像を撮像する撮像手段と、
前記撮像した像の前記所定パターンからの歪みを用いて前記歩行基準面に対する段差を検出する段差検出手段と、
を具備し、
前記歩行制御手段は、前記検出した段差の手前側から向こう側に歩行する際に、前記検出した段差を基準にして前記足部を制御することを特徴とする歩行装置。 Walking control means for controlling at least two feet and walking on a walking reference plane;
Irradiating means for irradiating the walking reference plane in a forward direction with light of a predetermined pattern from a light source;
Imaging means for capturing an image projected on the walking reference plane by the irradiated light;
A step detecting means for detecting a step with respect to the walking reference plane using distortion from the predetermined pattern of the captured image;
Comprising
The walking control means, when walking from the near side of the detected step to the far side, controls the foot part with reference to the detected step.
前記歩行制御手段は、前記受信した同期情報を用いて前記足部を前記向こう側の歩行基準面の動きに同期させることを特徴とする請求項1、又は請求項2に記載の歩行装置。 Synchronization information receiving means for receiving synchronization information for synchronizing the foot to the movement of the walking reference plane on the far side,
The walking device according to claim 1, wherein the walking control unit synchronizes the foot with the movement of the walking reference plane on the far side using the received synchronization information.
光源から所定パターンの光を前進方向の前記歩行基準面に照射する照射機能と、
前記照射した光によって前記歩行基準面に投影された像を撮像する撮像機能と、
前記撮像した像の前記所定パターンからの歪みを用いて前記歩行基準面に対する段差を検出する段差検出機能と、
をコンピュータで実現する歩行プログラムであって、
前記歩行制御機能は、前記検出した段差の手前側から向こう側に歩行する際に、前記検出した段差を基準にして前記足部を制御することを特徴とする歩行プログラム。 A walking control function for controlling at least two feet and walking on a walking reference plane;
An irradiation function for irradiating the walking reference plane in a forward direction with a predetermined pattern of light from a light source
An imaging function for capturing an image projected on the walking reference plane by the irradiated light;
A step detection function for detecting a step with respect to the walking reference plane using distortion from the predetermined pattern of the captured image;
Is a walking program that realizes
The walking control function, when walking from the near side of the detected step to the far side, controls the foot part based on the detected step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010265190A JP2012115311A (en) | 2010-11-29 | 2010-11-29 | Walking device and walking program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010265190A JP2012115311A (en) | 2010-11-29 | 2010-11-29 | Walking device and walking program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012115311A true JP2012115311A (en) | 2012-06-21 |
Family
ID=46498938
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010265190A Pending JP2012115311A (en) | 2010-11-29 | 2010-11-29 | Walking device and walking program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012115311A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10391016B2 (en) | 2013-03-14 | 2019-08-27 | Ekso Bionics, Inc. | Machine to human interfaces for communication from a lower extremity orthotic |
-
2010
- 2010-11-29 JP JP2010265190A patent/JP2012115311A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10391016B2 (en) | 2013-03-14 | 2019-08-27 | Ekso Bionics, Inc. | Machine to human interfaces for communication from a lower extremity orthotic |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10702442B2 (en) | Walking aid device | |
CN107224392B (en) | Electric walking aid based on man-machine position and control method thereof | |
KR20190029175A (en) | Rehabilitation training system and rehabilitation training method using the same | |
US10993871B2 (en) | Walking support robot and walking support method | |
CN106473493B (en) | Life assisting system, life assisting method and automatic lifting type chair | |
CN114845785A (en) | Intelligent running machine | |
KR20130073743A (en) | Active walking and stand-up frame and method for active walking and standing up thereof | |
KR101730909B1 (en) | Wearing robot and variable impedance controlling method thereof | |
JP2010142558A (en) | Walking aid | |
JP5610294B2 (en) | Walking support device and walking support program | |
Yang et al. | Automatic walking pattern transformation method of an assistive device during stair-ground transition | |
US12064390B2 (en) | Powered walking assistant and associated systems and methods | |
JP2012200318A (en) | Walking assist device and walking assist program | |
JP2012115311A (en) | Walking device and walking program | |
JP2012200319A (en) | Walking support device, and walking support program | |
JP2012115312A (en) | Walking support device, and walking support program | |
JP2013048701A (en) | Walking assistance device, and walking assistance program | |
JP2013075044A (en) | Stumble detector, walking aid, and stumble detection method | |
JP2012115314A (en) | Walking support device and walking support program | |
JP2013208294A (en) | Walking device and walking program | |
JP7428159B2 (en) | Gait training system, its control method, and control program | |
JP2012115313A (en) | Walking support device, and walking support program | |
KR102396507B1 (en) | Wheelchair apparatus with rehabilitation and pedestrian crossing safety function | |
CN115475348A (en) | Walking training system, control method thereof, and storage medium | |
US20220395726A1 (en) | Walking training system, control method of same, and non-transitory storage medium |