JP2012115311A - Walking device and walking program - Google Patents

Walking device and walking program Download PDF

Info

Publication number
JP2012115311A
JP2012115311A JP2010265190A JP2010265190A JP2012115311A JP 2012115311 A JP2012115311 A JP 2012115311A JP 2010265190 A JP2010265190 A JP 2010265190A JP 2010265190 A JP2010265190 A JP 2010265190A JP 2012115311 A JP2012115311 A JP 2012115311A
Authority
JP
Japan
Prior art keywords
walking
reference plane
board
foot
tread
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010265190A
Other languages
Japanese (ja)
Inventor
Atsushi Sato
敦 佐藤
Koji Inoue
浩司 井上
Saijiro Tanaka
斎二郎 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Equos Research Co Ltd
Original Assignee
Equos Research Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Equos Research Co Ltd filed Critical Equos Research Co Ltd
Priority to JP2010265190A priority Critical patent/JP2012115311A/en
Publication of JP2012115311A publication Critical patent/JP2012115311A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Rehabilitation Tools (AREA)

Abstract

PROBLEM TO BE SOLVED: To assist a user to properly walk by using an image projected on a walking reference surface.SOLUTION: A user wears a wearable robot 1 and gets on/off an escalator 300 to move. Step plate information including the speed of the step plates, and feed-out pitch of the step plates in the escalator 300 is superimposed on illumination light of a lighting unit 100 by modulating the illumination light. The wearable robot 1 detects the illumination light of the lighting unit 100 at a position 200 in an illumination area, and receives the step plate information included in the light. The wearable robot 1 emits light diagonally forward down in a predetermined shape pattern to project an image, photographs the image, detects a level difference between a comb plate at the end and the step plate, on the basis of the distortion of the image, and calculates a distance between the comb plate and the step plate to be fed. The wearable robot 1 drives to allow the user to appropriately put his/her feet on the step plate through the use of the distance to the step plate and the step plate information.

Description

本発明は、歩行装置、及び歩行プログラムに関し、例えば、歩行をアシストするものに関する。   The present invention relates to a walking device and a walking program, for example, to a device that assists walking.

近年、装着者の動作をアシストする装着型ロボットが注目を集めている。
装着型ロボットは、装着者の体に設置したセンサや装着者の体の動きを検知するなどして装着者の身体動作を支援するものであり、例えば、重量物を持ち上げるなどの筋肉労働を補助する場面での利用が期待されている。
In recent years, wearable robots that assist the wearer's movement have attracted attention.
Wearable robots support the wearer's body movements by detecting the movement of the wearer's body and sensors installed on the wearer's body, for example, assisting muscle work such as lifting heavy objects It is expected to be used in situations where

このような技術に、特許文献1の「装着式動作補助装置、装着式動作補助装置の制御方法および制御用プログラム」がある。
この技術は、装着者に設置したセンサによって生体信号を検出し、これを用いて装着者の意思に従った動力をアクチュエータに発生させるものである。
また、通信技術の分野では、特許文献2の「通信機能を有する照明器具」がある。
この技術は、電力線によって照明体に信号を送信し、照明体から無線や光の変調により信号を送出するものである。
As such a technique, there is “a wearable movement assist device, a control method of a wearable movement assist device, and a control program” in Patent Document 1.
In this technique, a biological signal is detected by a sensor installed on the wearer, and the actuator is used to generate power according to the wearer's intention.
Further, in the field of communication technology, there is “Lighting fixture having communication function” of Patent Document 2.
In this technique, a signal is transmitted to an illuminating body through a power line, and the signal is transmitted from the illuminating body by radio or light modulation.

ところで、従来の装着型ロボットは、筋肉労働などをアシストするものであり、高齢者や身体障害者など、身体機能や判断能力が十分でない装着者の動作を支援する用途には適していなかった。
特に歩行アシストの場合、前進方向に存在する段差に対して如何に適切な歩行動作を行わせるかは、重要な課題であった。
By the way, the conventional wearable robot assists muscular labor and the like, and is not suitable for an application for assisting the operation of a wearer who does not have sufficient physical function or judgment ability, such as an elderly person or a physically handicapped person.
Particularly in the case of walking assist, how to perform an appropriate walking motion with respect to a step existing in the forward direction has been an important issue.

特開2005−95561号公報JP 2005-95561 A 特開2009−141766号公報JP 2009-141766 A

本発明は、適切な歩行動作をアシストすることを目的とする。   An object of the present invention is to assist an appropriate walking motion.

請求項1に記載の発明では、少なくとも2本の足部を制御して歩行基準面を歩行する歩行制御手段と、光源から所定パターンの光を前進方向の前記歩行基準面に照射する照射手段と、前記照射した光によって前記歩行基準面に投影された像を撮像する撮像手段と、前記撮像した像の前記所定パターンからの歪みを用いて前記歩行基準面に対する段差を検出する段差検出手段と、を具備し、前記歩行制御手段は、前記検出した段差の手前側から向こう側に歩行する際に、前記検出した段差を基準にして前記足部を制御することを特徴とする歩行装置を提供する。
請求項2に記載の発明では、前記向こう側の歩行基準面は、前記段差において前記前進方向に沿って動いており、前記歩行制御手段は、前記向こう側の歩行基準面の動きに同期して前記足部を前記向こう側の歩行基準面に置くように前記足部を制御することを特徴とする請求項1に記載の歩行装置を提供する。
請求項3に記載の発明では、前記足部を前記向こう側の歩行基準面の動きに同期させるための同期情報を受信する同期情報受信手段を具備し、前記歩行制御手段は、前記受信した同期情報を用いて前記足部を前記向こう側の歩行基準面の動きに同期させることを特徴とする請求項1、又は請求項2に記載の歩行装置を提供する。
請求項4に記載の発明では、前記段差検出手段は、前記足部から前記段差までの距離を検出することを特徴とする請求項1、請求項2、又は請求項3に記載の歩行装置を提供する。
請求項5に記載の発明では、前記段差は、エスカレータ、又は、動く歩道の開始位置、又は終了位置における可動部分と静止部分の間に生じる段差であることを特徴とする請求項1から請求項4までのうちの何れか1の請求項に記載の歩行装置を提供する。
請求項6に記載の発明では、前記同期情報受信手段は、照明器具が発する光によって同期情報を受信することを特徴とする請求項3に記載の歩行装置を提供する。
請求項7に記載の発明では、少なくとも2本の足部を制御して歩行基準面を歩行する歩行制御機能と、光源から所定パターンの光を前進方向の前記歩行基準面に照射する照射機能と、前記照射した光によって前記歩行基準面に投影された像を撮像する撮像機能と、前記撮像した像の前記所定パターンからの歪みを用いて前記歩行基準面に対する段差を検出する段差検出機能と、をコンピュータで実現する歩行プログラムであって、前記歩行制御機能は、前記検出した段差の手前側から向こう側に歩行する際に、前記検出した段差を基準にして前記足部を制御することを特徴とする歩行プログラムを提供する。
In the first aspect of the present invention, a walking control means for controlling at least two feet to walk on the walking reference plane, and an irradiating means for irradiating the walking reference plane in a forward direction with light of a predetermined pattern from a light source; Imaging means for capturing an image projected on the walking reference plane by the irradiated light; step detection means for detecting a step with respect to the walking reference plane using distortion from the predetermined pattern of the captured image; And the walking control means controls the foot part based on the detected step when walking from the near side of the detected step to the other side. .
In the invention according to claim 2, the walking reference plane on the far side is moving along the forward direction at the step, and the walking control means is synchronized with the movement of the walking reference plane on the far side. The walking device according to claim 1, wherein the foot is controlled so that the foot is placed on the walking reference plane on the far side.
According to a third aspect of the present invention, there is provided synchronization information receiving means for receiving synchronization information for synchronizing the foot portion with the movement of the walking reference plane on the far side, and the walking control means comprises the received synchronization 3. The walking device according to claim 1, wherein information is used to synchronize the foot with a movement of the walking reference plane on the far side.
According to a fourth aspect of the present invention, in the walking device according to the first, second, or third aspect, the step detecting means detects a distance from the foot to the step. provide.
The invention according to claim 5 is characterized in that the step is a step generated between a movable part and a stationary part at the start position or end position of an escalator or a moving sidewalk. The walking device according to any one of claims 4 to 4 is provided.
The invention according to claim 6 provides the walking device according to claim 3, wherein the synchronization information receiving means receives the synchronization information by light emitted from the lighting fixture.
In the invention according to claim 7, a walking control function for controlling at least two feet to walk on the walking reference plane, and an irradiation function for irradiating the walking reference plane in a forward direction with light of a predetermined pattern from a light source; An imaging function for capturing an image projected on the walking reference plane by the irradiated light; and a step detection function for detecting a step with respect to the walking reference plane using distortion from the predetermined pattern of the captured image; The walking control function controls the foot portion based on the detected step when walking from the near side of the detected step to the far side. Provide a walking program.

本発明によれば、歩行基準面に投影した像を用いることにより、適切な歩行動作をアシストすることができる。   According to the present invention, an appropriate walking motion can be assisted by using an image projected on the walking reference plane.

本実施の形態の概要を説明するための図である。It is a figure for demonstrating the outline | summary of this Embodiment. 装着型ロボットの装着状態、及び装着ロボットシステムを示した図である。It is the figure which showed the mounting state of a mounting type robot, and a mounting robot system. エスカレータの乗降口における段差を検出する方法を説明するための図である。It is a figure for demonstrating the method to detect the level | step difference in the entrance / exit of an escalator. 踏板中央乗車方法によって乗車する手順を説明するためのフローチャートである。It is a flowchart for demonstrating the procedure boarded by the tread board center boarding method. 踏板中央乗車方法における歩幅歩行ピッチ算出処理を説明するためのフローチャートである。It is a flowchart for demonstrating the stride walk pitch calculation process in the step board center boarding method. 踏板櫛板境目乗車方法によって乗車する手順を説明するためのフローチャートである。It is a flowchart for demonstrating the procedure boarded by the step board comb board boundary boarding method. 踏板櫛板境目乗車方法における足位置算出処理を説明するためのフローチャートである。It is a flowchart for demonstrating the foot position calculation process in the step board comb board border boarding method. 櫛板中央降車方法によって降車する手順を説明するためのフローチャートである。It is a flowchart for demonstrating the procedure which gets off by the comb board center getting-off method. 櫛板中央降車方法における歩幅歩行ピッチ算出処理を説明するためのフローチャートである。It is a flowchart for demonstrating the stride walk pitch calculation process in the comb board center getting-off method. 踏板櫛板境目降車方法によって降車する手順を説明するためのフローチャートである。It is a flowchart for demonstrating the procedure to get off by the step board comb board boundary drop method. 踏板櫛板境目降車方法における足位置算出処理を説明するためのフローチャートである。It is a flowchart for demonstrating the foot position calculation process in the step board comb board boundary getting off method.

(1)実施形態の概要
図1は、本実施の形態の概要を説明するための図である。
装着者は、装着型ロボット1を着用し、エスカレータ300に乗降して移動する。
エスカレータ300の乗口には、照明100が設置してあり、乗口に照明光を発光している。照明100の照明光には、エスカレータ300の踏板の速度、及び踏板の繰出ピッチが含まれた踏板情報が照明光を変調することにより重畳されている。
装着型ロボット1は、照明100の照明光を照明領域内の位置200にて検知し、これに含まれる踏板情報を受信する。
(1) Outline of Embodiment FIG. 1 is a diagram for explaining the outline of the present embodiment.
The wearer wears the wearable robot 1 and gets on and off the escalator 300 to move.
A lighting 100 is installed at the entrance of the escalator 300, and illumination light is emitted to the entrance. On the illumination light of the illumination 100, tread information including the speed of the tread board of the escalator 300 and the feeding pitch of the tread board is superimposed by modulating the illumination light.
The wearable robot 1 detects the illumination light of the illumination 100 at a position 200 in the illumination area, and receives tread information included therein.

装着型ロボット1は、踏板情報を受信すると、所定形状パターンの光を前進方向斜め下の歩行面に照射して像を投影すると共に撮像し、その像の歪みから乗口の櫛板(コムプレート)と踏板の段差を検出して櫛板から繰り出される踏板までの距離を算出する。
そして、装着型ロボット1は、踏板までの距離、及び踏板情報を用いて、装着者の足が適切に踏板に着地するように駆動する。
When receiving the tread board information, the wearable robot 1 projects and captures an image by irradiating a predetermined shape pattern of light onto the walking surface diagonally downward in the forward direction, and from the distortion of the image, the comb plate (com plate of the entrance) ) And the step difference between the treads and the distance from the comb plate to the tread is calculated.
The wearable robot 1 is driven using the distance to the tread and the tread information so that the wearer's feet appropriately land on the tread.

また、エスカレータ300の降口手前の照明101が発光する光にも踏板情報が含まれており、装着型ロボット1は、照明101の照明領域内の位置201にて踏板情報を受信する。
そして、装着型ロボット1は、前方斜め下に像を投影し、その歪みから櫛板と踏板の段差を検出して櫛板までの距離を算出する。なお、この像の投影は、常に投影しておいてもよいし、あるいは、節電のために踏板情報を受信してから投影してもよい。
次に、装着型ロボット1は、位置202で、櫛板までの距離、及び踏板情報を用いて装着者の足が適切に櫛板に着地するように駆動する。
Moreover, the tread information is also included in the light emitted by the illumination 101 before exiting the escalator 300, and the wearable robot 1 receives the tread information at a position 201 in the illumination area of the illumination 101.
Then, the wearable robot 1 projects an image forward and obliquely downward, detects a step between the comb plate and the tread plate from the distortion, and calculates a distance to the comb plate. The image may be projected at all times, or may be projected after receiving tread information for power saving.
Next, the wearable robot 1 drives the wearer's foot to appropriately land on the comb plate at the position 202 using the distance to the comb plate and the tread board information.

降口の照明102が発光する光には、周辺情報地図情報が含まれており、装着型ロボット1は、照明102の照明領域の位置203で周辺地図情報を受信する。
その後、装着型ロボット1は、周辺地図情報を用いて装着者の歩行を支援する。
図1のエスカレータ300は、一例として、下りとなっているが、上りのエスカレータも同様である。また、乗口と降口の構造が同じため、エスカレータ300を動く歩道としてもよい。
The light emitted from the illumination 102 at the exit exit includes the peripheral information map information, and the wearable robot 1 receives the peripheral map information at the position 203 of the illumination area of the illumination 102.
Thereafter, the wearable robot 1 supports walking of the wearer using the surrounding map information.
The escalator 300 in FIG. 1 is down as an example, but the up escalator is the same. Further, since the structure of the entrance and exit is the same, the escalator 300 may be a moving sidewalk.

(2)実施形態の詳細
図2(a)は、装着型ロボット1の装着状態を示した図である。
装着型ロボット1は、装着者の腰部及び下肢に装着し、装着者の歩行を支援(アシスト)するものである。なお、例えば、上半身、下半身に装着して全身の動作をアシストするものであってもよい。
(2) Details of Embodiment FIG. 2A is a diagram showing a mounting state of the mounting robot 1.
The wearable robot 1 is worn on the waist and lower limbs of the wearer to assist (assist) the wearer's walking. In addition, for example, it may be attached to the upper body and the lower body to assist the movement of the whole body.

装着型ロボット1は、腰部装着部7、歩行アシスト部2、連結部8、3軸センサ3、3軸アクチュエータ6、撮像カメラ5、光源装置4、撮像カメラ5と光源装置4を保持する撮像ユニット9、及び無線通信装置10などを備えている。
腰部装着部7は、装着型ロボット1を装着者の腰部に固定する固定装置である。腰部装着部7は、装着者の腰部と一体となって移動する。
また、腰部装着部7は、歩行アクチュエータ17(図2(b))を備えており、装着者の歩行動作に従って連結部8を前後方向などに駆動する。
The wearable robot 1 includes a waist attachment unit 7, a walking assist unit 2, a connection unit 8, a 3-axis sensor 3, a 3-axis actuator 6, an imaging camera 5, a light source device 4, an imaging unit that holds the imaging camera 5 and the light source device 4. 9 and a wireless communication device 10.
The waist mounting portion 7 is a fixing device that fixes the wearable robot 1 to the waist of the wearer. The waist mounting portion 7 moves integrally with the wearer's waist.
The waist mounting portion 7 includes a walking actuator 17 (FIG. 2B), and drives the connecting portion 8 in the front-rear direction according to the walking motion of the wearer.

連結部8は、腰部装着部7と歩行アシスト部2を連結している。
歩行アシスト部2は、装着者の下肢に装着され、歩行アクチュエータ17により前後方向などに駆動されて装着者の歩行運動を支援する。
なお、腰部装着部7、連結部8、歩行アシスト部2による歩行支援は、一例であって、更に多関節の駆動機構によって歩行支援するなど、各種の形態が可能である。
The connecting part 8 connects the waist mounting part 7 and the walking assist part 2.
The walking assist unit 2 is mounted on the lower limb of the wearer and is driven in the front-rear direction by the walking actuator 17 to assist the wearer's walking motion.
The walking support by the waist mounting portion 7, the connecting portion 8, and the walking assist unit 2 is an example, and various forms such as walking support by a multi-joint drive mechanism are possible.

3軸センサ3は、腰部装着部7に設置され、腰部装着部7の姿勢などを検知する。3軸センサ3は、例えば、3次元ジャイロによる3軸角速度検出機能や3軸角加速度検出機能などを備えており、前進方向、鉛直方向、体側方向の軸の周りの回転角度、角速度、角加速度などを検知することができる。
なお、前進方向の軸の周りの角度をロール角、鉛直方向の軸の周りの角度をヨー角、体側方向の軸の周りの角度をピッチ角とする。
The triaxial sensor 3 is installed in the waist mounting portion 7 and detects the posture of the waist mounting portion 7 and the like. The triaxial sensor 3 includes, for example, a triaxial angular velocity detection function and a triaxial angular acceleration detection function using a three-dimensional gyro, and the rotation angle, angular velocity, and angular acceleration around the forward, vertical, and body-side axes. Can be detected.
The angle around the forward axis is the roll angle, the angle around the vertical axis is the yaw angle, and the angle around the body-side axis is the pitch angle.

3軸アクチュエータ6は、例えば、球体モータで構成されており、撮像カメラ5と光源装置4が設置された撮像ユニット9のロール角、ヨー角、ピッチ角を変化させる。
撮像ユニット9には、光源装置4と撮像カメラ5が固定されており、3軸アクチュエータ6を駆動すると、光源装置4の照射方向(光源装置4の光軸の方向)と撮像カメラ5の撮像方向(撮像カメラ5の光軸の方向)は、相対角度を保ったまま、ロール角、ヨー角、ピッチ角を変化させる。
The triaxial actuator 6 is configured by, for example, a spherical motor, and changes the roll angle, yaw angle, and pitch angle of the imaging unit 9 in which the imaging camera 5 and the light source device 4 are installed.
The light source device 4 and the imaging camera 5 are fixed to the imaging unit 9, and when the triaxial actuator 6 is driven, the irradiation direction of the light source device 4 (the direction of the optical axis of the light source device 4) and the imaging direction of the imaging camera 5. (The direction of the optical axis of the imaging camera 5) changes the roll angle, the yaw angle, and the pitch angle while maintaining the relative angle.

段差を検出するためには、撮像ユニット9を所定の角度で歩行基準面(地面や床面など、装着者が歩行する面)に向ける必要があるが、装着者が装着型ロボット1を装着した場合に、装着状態によって撮像ユニット9が傾くため、3軸アクチュエータ6によってこれを補正する。   In order to detect a level difference, it is necessary to point the imaging unit 9 at a predetermined angle toward a walking reference plane (a surface on which the wearer walks, such as the ground or floor), but the wearer wears the wearable robot 1. In this case, since the imaging unit 9 is inclined depending on the mounting state, the triaxial actuator 6 corrects this.

光源装置4は、例えば、レーザ、赤外光、可視光などの光を所定の形状パターンで照射する。本実施の形態では、光源装置4は、照射方向に垂直な面に対して円形となる形状パターンで光を照射するものとするが、矩形形状、十字、点など各種の形状が可能である。また、用途に応じて、それらの形状を組み合わせたものを照射することも可能である。   The light source device 4 irradiates light such as laser, infrared light, and visible light in a predetermined shape pattern, for example. In the present embodiment, the light source device 4 emits light in a shape pattern that is circular with respect to a plane perpendicular to the irradiation direction, but various shapes such as a rectangular shape, a cross, and a dot are possible. Moreover, it is also possible to irradiate what combined those shapes according to a use.

撮像カメラ5は、被写体を結像するための光学系と、結像した被写体を電気信号に変換するCCD(Charge−Coupled Device)を備えた、赤外光カメラ、可視光カメラなどで構成され、光源装置4が歩行基準面に照射した投影像を撮像(撮影)する。
光源装置4が所定の形状パターンで照射した光による投影像は、照射方向と歩行基準面の成す角度や、歩行基準面に存在する障害物(段差など)により円形から変形した(歪んだ)形状となるが、この形状を解析することにより前方に存在する段差を検知することができる。
The imaging camera 5 is configured by an infrared light camera, a visible light camera, or the like that includes an optical system for forming an image of a subject and a CCD (Charge-Coupled Device) that converts the imaged subject to an electrical signal. The light source device 4 captures (shoots) a projection image irradiated on the walking reference plane.
The projected image by the light emitted by the light source device 4 in a predetermined shape pattern is a shape deformed (distorted) from a circle due to the angle formed by the irradiation direction and the walking reference plane, or obstacles (steps, etc.) present on the walking reference plane. However, it is possible to detect a step existing ahead by analyzing this shape.

撮像ユニット9は、光源装置4と撮像カメラ5が固定されており、3軸アクチュエータ6によって腰部装着部7に対するロール角、ヨー角、ピッチ角が変化する。
即ち、撮像ユニット9を3軸アクチュエータ6で駆動することにより、光源装置4と撮像カメラ5の相対的な位置を固定したまま、光源装置4と3軸アクチュエータ6の腰部装着部7に対するロール角、ヨー角、ピッチ角を変化させることができる。
In the imaging unit 9, the light source device 4 and the imaging camera 5 are fixed, and the roll angle, the yaw angle, and the pitch angle with respect to the waist mounting portion 7 are changed by the triaxial actuator 6.
That is, by driving the imaging unit 9 with the triaxial actuator 6, the roll angle of the light source device 4 and the triaxial actuator 6 with respect to the waist mounting portion 7 while the relative positions of the light source device 4 and the imaging camera 5 are fixed, The yaw angle and pitch angle can be changed.

無線通信装置10は、照明100が発光する光に含まれる踏板情報などの各種情報を検出する。
ここで、無線通信に照明光を用いたのは、情報を受信する箇所を照明領域に限定することができるほか、通常、エスカレータの設置箇所には照明が設置されており、これを利用すると無線通信のための新たな設備投資を低減することができるためである。
なお、照明光を用いず、通常の電波を用いた無線通信とすることも可能である。
The wireless communication device 10 detects various types of information such as tread information included in the light emitted from the lighting 100.
Here, the illumination light is used for wireless communication because the location where information is received can be limited to the illumination area, and the illumination is usually installed at the location where the escalator is installed. This is because new equipment investment for communication can be reduced.
Note that wireless communication using normal radio waves may be used without using illumination light.

図2(b)は、装着型ロボット1に設置された装着ロボットシステム15を説明するための図である。
装着ロボットシステム15は、歩行支援機能を発揮するように装着型ロボット1を制御する電子制御システムである。
FIG. 2B is a diagram for explaining the mounting robot system 15 installed in the mounting robot 1.
The wearing robot system 15 is an electronic control system that controls the wearing robot 1 so as to exhibit a walking support function.

ECU(Electronic Control Unit)16は、図示しないCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、記憶装置、各種インターフェースなどを備えた電子制御ユニットであり、装着型ロボット1の各部を電子制御する。   The ECU (Electronic Control Unit) 16 is an electronic control unit including a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a storage device, various interfaces, and the like (not shown). Each part of 1 is electronically controlled.

CPUは、記憶媒体に記憶された各種コンピュータプログラムを実行し、撮像カメラ5の高さを計算するほか、階段やエスカレータの段差を認識したり、歩行アクチュエータ17を駆動して歩行支援を行ったりする。
CPUは、光源装置4、撮像カメラ5、3軸アクチュエータ6、3軸センサ3、及び無線通信装置10とインターフェースを介して接続しており、光源装置4からの照射をオンオフしたり、撮像カメラ5から撮像データを取得したり、3軸アクチュエータ6を駆動したり、3軸センサ3から検出値を取得したり、無線通信装置10から踏板情報を取得したりする。
The CPU executes various computer programs stored in the storage medium, calculates the height of the imaging camera 5, recognizes the steps of the stairs and the escalator, and drives the walking actuator 17 to provide walking support. .
The CPU is connected to the light source device 4, the imaging camera 5, the 3-axis actuator 6, the 3-axis sensor 3, and the wireless communication device 10 through an interface, and turns on / off irradiation from the light source device 4, or the imaging camera 5. Image data is acquired from the sensor, the triaxial actuator 6 is driven, the detection value is acquired from the triaxial sensor 3, and the tread board information is acquired from the wireless communication device 10.

ROMは、読み取り専用のメモリであって、CPUが使用する基本的なプログラムやパラメータなどを記憶している。
RAMは、読み書きが可能なメモリであって、CPUが演算処理などを行う際のワーキングメモリを提供する。本実施の形態では、受信した踏板情報を記憶したり、段差までの距離を計算したりするためのワーキングメモリを提供する。
The ROM is a read-only memory and stores basic programs and parameters used by the CPU.
The RAM is a readable / writable memory, and provides a working memory when the CPU performs arithmetic processing and the like. In the present embodiment, a working memory for storing received tread information and calculating a distance to a step is provided.

記憶装置は、例えば、ハードディスクやEEPROM(Electrically Erasable Programmable ROM)などで構成された大容量の記憶媒体を備えており、光源装置4の投影像を解析して階段やエスカレータなどの段差を認識するためのプログラム、歩行支援を行うためのプログラムなどの各種プログラムや、段差認識の画像認識などに使用する撮像カメラ5の高さなどのパラメータなどを記憶している。   The storage device includes a large-capacity storage medium configured by, for example, a hard disk or an EEPROM (Electrically Erasable Programmable ROM), and analyzes the projection image of the light source device 4 to recognize steps such as stairs and escalators. And various programs such as a program for performing walking support, parameters such as the height of the imaging camera 5 used for image recognition for level difference recognition, and the like are stored.

歩行アクチュエータ17は、ECU16からの指令に基づいて歩行アシスト部2を駆動する。
装着型ロボット1が、股関節、膝関節、足首関節などを有する多関節の場合は、各関節に歩行アクチュエータ17が備えられており、ECU16は、これらを個別に制御することにより、装着型ロボット1に一体として歩行支援動作を行わせる。
The walking actuator 17 drives the walking assist unit 2 based on a command from the ECU 16.
When the wearable robot 1 is a multi-joint having a hip joint, a knee joint, an ankle joint, or the like, a walking actuator 17 is provided in each joint, and the ECU 16 controls these individually so that the wearable robot 1 The walking support operation is performed as one.

図3の各図は、エスカレータ300の乗降口における櫛板40と踏板50の段差を検出する方法を説明するための図である。
図3(a)は、エスカレータ300の乗口での光の照射状態を示した図である。
エスカレータ300の乗口は、櫛板40と、櫛板40の前方かつ櫛板40より低い位置に配設された踏板(ステップ)50を備えている。
櫛板40の先端部分は、平坦部41と、踏板50にかけて形成された傾斜部42を有しており、傾斜部42による段差が形成されている。そして、傾斜部42の先端からは、踏板50が所定速度で繰り出されている。
Each drawing in FIG. 3 is a diagram for explaining a method of detecting a step between the comb board 40 and the tread board 50 at the entrance of the escalator 300.
FIG. 3A is a diagram showing a light irradiation state at the entrance of the escalator 300.
The entrance of the escalator 300 includes a comb plate 40 and a step plate (step) 50 disposed in front of the comb plate 40 and at a position lower than the comb plate 40.
The tip portion of the comb plate 40 has a flat portion 41 and an inclined portion 42 formed over the tread plate 50, and a step due to the inclined portion 42 is formed. And the tread board 50 is drawn out from the front-end | tip of the inclination part 42 at predetermined speed.

図3(b)は、乗口で撮像カメラ5が撮像した光源装置4の投影像26の画像の一例である。
装着型ロボット1は、光源装置4によって所定形状パターンの光を段差に照射し、撮像カメラ5によって投影された像を撮像する。
本実施の形態では、光源装置4は円形断面の光を前進方向斜め下方に存在する歩行基準面に照射するため、歩行基準面が平面の場合、投影像26は、前進方向を長軸とする楕円形となる。
ところが、投影像26内に段差が存在すると、投影像26が本来あるべき楕円形から歪み、画像認識によって当該歪みを検出することによって段差を検知することができる。
FIG. 3B is an example of an image of the projection image 26 of the light source device 4 captured by the imaging camera 5 at the entrance.
The wearable robot 1 irradiates a step with light having a predetermined shape pattern by the light source device 4 and captures an image projected by the imaging camera 5.
In the present embodiment, the light source device 4 irradiates light with a circular cross-section onto a walking reference plane that exists obliquely downward in the forward direction. Therefore, when the walking reference plane is a plane, the projection image 26 has the forward direction as the major axis. It becomes oval.
However, if there is a step in the projection image 26, the projection image 26 is distorted from an elliptical shape, and the step can be detected by detecting the distortion by image recognition.

図3(b)の例では、傾斜部42による段差によって、櫛板40の傾斜部42の開始位置に対応する位置(画面フレーム31の下端からxピクセルの位置)、及び傾斜部42の先端、即ち、踏板50が繰り出される位置に対応する位置(画面フレーム31の下端からyピクセルの位置)に歪みが生じている。
なお、画面フレーム31において前進する側の端を上端、装着者に近い側の端を下端とし、下端から上端までの距離をzピクセルとする。
In the example of FIG. 3B, the position corresponding to the start position of the inclined portion 42 of the comb plate 40 (the position of x pixels from the lower end of the screen frame 31) and the tip of the inclined portion 42 due to the level difference caused by the inclined portion 42, That is, distortion occurs at a position corresponding to the position where the tread board 50 is extended (position of y pixel from the lower end of the screen frame 31).
In the screen frame 31, the forward end is the upper end, the end closer to the wearer is the lower end, and the distance from the lower end to the upper end is z pixels.

光源装置4の照射する光は、光源装置4から遠くに離れるに従って広がり、櫛板40の傾斜は、先端にかけて基準面から低くなる方に傾斜しており、踏板50は、櫛板40よりも低い位置に存在する。
そのため、櫛板40の傾斜では、櫛板40の平坦な箇所に比べて投影像26の幅が広がり、ステップは、櫛板40よりも低い位置にあるため、投影像26の幅は更に広がる。
The light emitted from the light source device 4 spreads away from the light source device 4, the inclination of the comb plate 40 is inclined downward from the reference plane toward the tip, and the tread plate 50 is lower than the comb plate 40. Exists in position.
Therefore, when the comb plate 40 is inclined, the width of the projection image 26 is wider than that of the flat portion of the comb plate 40, and the width of the projection image 26 is further widened because the step is at a position lower than the comb plate 40.

このように、段差によって下に降りる場合は、画面フレーム31の上端側で投影像26の幅が広がる。逆に段差によって上に登る場合は、画面フレーム31の上端側で投影像26の幅が狭まる。
即ち、投影像26の輪郭の歪み(不連続な箇所)によって段差の存在を認識し、投影像26の幅によって、上りの段か下りの段かを判断することができる。
In this way, when descending due to a step, the width of the projected image 26 increases on the upper end side of the screen frame 31. Conversely, when climbing upward due to a step, the width of the projected image 26 is narrowed on the upper end side of the screen frame 31.
That is, it is possible to recognize the presence of a step by the distortion (discontinuous portion) of the contour of the projection image 26, and to determine whether it is an up or down step by the width of the projection image 26.

図3(c)は、段差までの距離を求める方法を説明するための図である。
撮像カメラ5から、画面フレーム31の下端に対応する位置までの水平距離をC、上端に対応する位置までの水平距離をD、下端から櫛板40の傾斜部42の開始位置までの距離a、下端から櫛板40の先端部分までの距離をbとする。
すると、画面フレーム31のx、y、zは、a、b、(D−C)に対応するため、これらの比例式から、撮像カメラ5(即ち、装着者の位置)から櫛板40の傾斜部42の開始位置までの水平距離C+aは、次の式(1)で表される。
FIG. 3C is a diagram for explaining a method for obtaining the distance to the step.
The horizontal distance from the imaging camera 5 to the position corresponding to the lower end of the screen frame 31 is C, the horizontal distance to the position corresponding to the upper end is D, the distance a from the lower end to the start position of the inclined portion 42 of the comb plate 40, The distance from the lower end to the tip of the comb plate 40 is b.
Then, since x, y, and z of the screen frame 31 correspond to a, b, and (D−C), the inclination of the comb plate 40 from the imaging camera 5 (that is, the position of the wearer) from these proportional expressions. The horizontal distance C + a to the start position of the part 42 is represented by the following formula (1).

C+a=C+x(D−C)/z … (1)   C + a = C + x (DC) / z (1)

また、撮像カメラ5(即ち、装着者の位置)から櫛板40の先端までの水平距離C+bは、次の式(2)で表される。
これら式(1)、(2)は、記憶装置に格納されており、計算の際にCPUによって読み出される。
Further, the horizontal distance C + b from the imaging camera 5 (that is, the position of the wearer) to the tip of the comb plate 40 is expressed by the following equation (2).
These equations (1) and (2) are stored in the storage device and read out by the CPU at the time of calculation.

C+b=C+y(D−C)/z … (2)   C + b = C + y (DC) / z (2)

一般に、エスカレータ300の乗降口の段差が小さいため、上記比例式を用いることができ、また、装着型ロボット1は、照明100によって前方にエスカレータ300の段差が存在することを認識するため、前方の段差に上記比例式を適用する。
なお、式(1)、(2)は、近似式の一例であって、これらと異なる式を用いてもよい。
In general, since the level difference at the entrance / exit of the escalator 300 is small, the above proportional expression can be used, and the wearable robot 1 recognizes that the level difference of the escalator 300 exists ahead by the illumination 100. The above proportional expression is applied to the step.
Expressions (1) and (2) are examples of approximate expressions, and expressions different from these may be used.

図3(d)は、エスカレータ300の降口での光の照射状態を示した図であり、図3(e)は、降口で撮像カメラ5が撮像した光源装置4の投影像26の画像の一例である。
装着型ロボット1は、降口でも同様にして段差までの距離を計算することができる。
FIG. 3D is a diagram showing a light irradiation state at the exit of the escalator 300, and FIG. 3E is an image of the projection image 26 of the light source device 4 captured by the imaging camera 5 at the exit. It is an example.
The wearable robot 1 can calculate the distance to the step in the same way even at the exit.

以下に、装着型ロボット1がエスカレータ300に乗車する方法、及び降車する方法について説明する。
なお、エスカレータ300に乗車する方法には、踏板中央乗車方法と踏板櫛板境目乗車方法の2種類がある。
踏板中央乗車方法は、繰り出される踏板50の中央に足を乗せて体重を踏板50に移動させる方法である。
Hereinafter, a method for the wearable robot 1 to get on the escalator 300 and a method for getting off the escalator 300 will be described.
There are two types of methods for getting on the escalator 300: a step board center boarding method and a tread board comb board border boarding method.
The tread board center boarding method is a method of moving a weight to the tread board 50 by putting a foot on the center of the tread board 50 to be fed out.

一方、踏板櫛板境目乗車方法は、櫛板40と踏板50の境に足をかけ、即ち、足裏の後端側を櫛板40に置きながら足裏のつま先側を繰り出される踏板50の上に置き、足裏のつま先側と踏板50の位置関係が適切となったときに体重を足裏の後端からつま先側に移動させて櫛板40から踏板50に乗り移る方法である。   On the other hand, in the step board comb board border boarding method, a foot is put on the boundary between the comb board 40 and the tread board 50, that is, the toe side of the sole is extended while the rear end side of the sole is placed on the comb board 40. The weight is moved from the rear end of the sole to the toe side when the positional relationship between the toe side of the sole and the tread board 50 becomes appropriate, and is transferred from the comb board 40 to the tread board 50.

また、エスカレータ300から降車する方法には、櫛板中央降車方法と踏板櫛板境目降車方法の2種類がある。
櫛板中央降車方法は、櫛板40の平坦部41に足裏全体を踏み出して体重を櫛板40に移動させる方法である。
一方、踏板櫛板境目降車方法は、足裏の後端側を踏板50に置きながら両足の足裏のつま先側を持ち上げてつま先下に空間を形成し、櫛板40に足が乗って引っかかりを検出したら体の重心を前に持って行く方法、即ち、櫛板40の傾斜部42がつま先下の空間に入り込んで足裏に当接すると歩行を開始する方法である。
装着者は、これらの乗車方法、降車方法のうち、好みの方法を選択する、または、過去のデータのアーカイブから自動で選択してECU16に登録しておく。
In addition, there are two types of methods of getting off from the escalator 300: a comb plate central drop method and a tread plate comb plate boundary drop method.
The comb board center dismounting method is a method in which the entire foot is stepped on the flat portion 41 of the comb board 40 and the weight is moved to the comb board 40.
On the other hand, the step board comb board border drop off method lifts the toe side of the sole of both feet while placing the rear end side of the sole on the tread board 50 to form a space under the toe, and the foot gets on the comb board 40 and gets caught. If detected, this is a method in which the center of gravity of the body is taken forward, that is, a method of starting walking when the inclined portion 42 of the comb plate 40 enters the space under the toes and comes into contact with the sole of the foot.
The wearer selects a favorite method from among these boarding methods and getting-off methods, or automatically selects from a past data archive and registers it in the ECU 16.

まず、踏板中央乗車方法について詳細に説明する。
図4(a)は、装着型ロボット1が踏板中央乗車方法によってエスカレータ300に乗車する手順を説明するためのフローチャートである。
以下の動作は、ECU16のCPUが所定のプログラムに従って行うものである。
まず、CPUは、無線通信装置10からの出力を監視し、無線通信装置10が設備側の通信範囲内(即ち、照明100の照明領域内)に入ったか否かを監視する(ステップ5)。
設備側の通信範囲に入っていない場合(ステップ5;N)、CPUは、ステップ5にて監視を継続する。
First, the step board center boarding method will be described in detail.
FIG. 4A is a flowchart for explaining a procedure for the wearable robot 1 to get on the escalator 300 by the step board center boarding method.
The following operations are performed by the CPU of the ECU 16 according to a predetermined program.
First, the CPU monitors the output from the wireless communication device 10 and monitors whether or not the wireless communication device 10 is within the facility-side communication range (that is, within the illumination area of the illumination 100) (step 5).
When not in the communication range on the equipment side (step 5; N), the CPU continues monitoring in step 5.

設備側の通信内に入った場合(ステップ5;Y)、無線通信装置10は、照明100から踏板情報を受信し、CPUは、踏板情報から、踏板50の速度と繰出ピッチを取得してRAMに記憶する(ステップ10)。
ここで、踏板50の繰出ピッチは、櫛板40から新たな踏板50が繰り出されるタイミングであり、踏板50の速度とは、踏板50が巡回している速度である。
なお、動く歩道の場合は、繰出ピッチが存在しないため、速度を受信すればよい。
When entering the equipment side communication (step 5; Y), the wireless communication device 10 receives the tread information from the lighting 100, and the CPU acquires the speed and the feeding pitch of the tread 50 from the tread information, and the RAM. (Step 10).
Here, the feeding pitch of the tread board 50 is a timing at which a new tread board 50 is fed out from the comb board 40, and the speed of the tread board 50 is a speed at which the tread board 50 is circulating.
In the case of a moving sidewalk, since there is no feeding pitch, it is sufficient to receive the speed.

次に、CPUは、踏板距離算出処理において、櫛板40から踏板50が繰り出される位置までの距離、即ち、櫛板40と踏板50の段差の端部である櫛板40の先端までの距離を算出する(ステップ15)。
次に、CPUは、歩幅方向ピッチ算出処理にて、踏板50に乗るための最適な歩幅と歩行ピッチを算出する(ステップ20)。
ここで、最適な歩幅と歩行ピッチとは、装着者の足を踏板50の中央に乗せると共に、装着者の体に作用する負荷を最小限にする歩幅と歩行ピッチである。
Next, in the tread board distance calculation process, the CPU calculates the distance from the comb board 40 to the position where the tread board 50 is drawn out, that is, the distance to the tip of the comb board 40 that is the end of the step between the comb board 40 and the tread board 50. Calculate (step 15).
Next, the CPU calculates an optimum stride and a walking pitch for riding on the tread board 50 in a stride direction pitch calculation process (step 20).
Here, the optimal stride and walking pitch are a stride and a walking pitch that puts the foot of the wearer on the center of the tread board 50 and minimizes the load acting on the wearer's body.

次に、CPUは、算出した歩幅と歩行ピッチにて歩行アクチュエータ17を駆動する(ステップ25)。
装着者が踏板50に足を置くと、CPUは、歩行アクチュエータ17によって、残りの足を先に踏板50に乗せた足に揃えて踏板50に置く。
Next, the CPU drives the walking actuator 17 with the calculated stride and walking pitch (step 25).
When the wearer places his / her foot on the tread 50, the CPU places the remaining foot on the tread 50 by aligning the remaining foot with the foot previously placed on the tread 50.

図4(b)は、ステップ15の踏板距離算出処理を説明するためのフローチャートである。
まず、CPUは、光源装置4を駆動し、所定形状パターンの光を前方に照射する(ステップ30)。
次に、CPUは、撮像カメラ5で投影された投影像26を撮像し、その画像データをRAMに記憶する。
そして、CPUは、画像データにおいて、x、yの位置に該当する歪みを画像認識により検出し、x、yまでのピクセル数をカウントする(ステップ35)。
FIG. 4B is a flowchart for explaining the tread board distance calculating process in step 15.
First, the CPU drives the light source device 4 and irradiates light of a predetermined shape pattern forward (step 30).
Next, the CPU captures the projection image 26 projected by the imaging camera 5 and stores the image data in the RAM.
Then, the CPU detects distortion corresponding to the x and y positions in the image data by image recognition, and counts the number of pixels up to x and y (step 35).

次に、CPUは、式(2)を記憶装置から読み出して、RAMに記憶したyを代入し、踏板50までの距離、即ち、櫛板40の先端までの距離L1を算出してRAMに記憶する(ステップ40)。
なお、z、C、Dなどのパラメータは、予め記憶装置に記憶されている。
Next, the CPU reads equation (2) from the storage device, substitutes y stored in the RAM, calculates the distance to the tread plate 50, that is, the distance L1 to the tip of the comb plate 40, and stores it in the RAM. (Step 40).
Note that parameters such as z, C, and D are stored in advance in a storage device.

図5は、ステップ20の歩幅歩行ピッチ算出処理を説明するためのフローチャートである。
まず、CPUは、乗車前の装着者の歩行速度v1を取得する(ステップ50)。
歩行速度は、歩行アクチュエータ17が駆動する装着者の足の運動から得ることができる。また、装着型ロボット1に速度センサを登載して当該速度センサから取得してもよいし、あるいは、装着型ロボット1にナビゲーションシステムを搭載して、これから取得してもよい。
FIG. 5 is a flowchart for explaining the stride walking pitch calculation process in step 20.
First, the CPU acquires the walking speed v1 of the wearer before boarding (step 50).
The walking speed can be obtained from the movement of the wearer's foot driven by the walking actuator 17. Further, a speed sensor may be mounted on the wearable robot 1 and acquired from the speed sensor, or a navigation system may be mounted on the wearable robot 1 and acquired.

次に、CPUは、RAMに記憶した踏板情報から踏板50の速度v2を読み出して取得する(ステップ55)。
次に、CPUは、v1とv2の差を比較し(ステップ60)、v1とv2の差が所定値(ここでは、10%とする)以内であれば(ステップ60;Y)、仮想歩行速度v3をv1に設定してRAMに記憶する(ステップ65)。
Next, the CPU reads and acquires the speed v2 of the tread 50 from the tread information stored in the RAM (step 55).
Next, the CPU compares the difference between v1 and v2 (step 60), and if the difference between v1 and v2 is within a predetermined value (here, 10%) (step 60; Y), the virtual walking speed v3 is set to v1 and stored in the RAM (step 65).

一方、v1とv2の差が10%以内でない場合(ステップ60;N)、CPUは、仮想歩行速度v3をv2に設定してRAMに記憶する(ステップ70)。
ここで、仮想歩行速度は、最終的な歩行速度を決定するための暫定的な歩行速度である。
On the other hand, when the difference between v1 and v2 is not within 10% (step 60; N), the CPU sets the virtual walking speed v3 to v2 and stores it in the RAM (step 70).
Here, the virtual walking speed is a provisional walking speed for determining the final walking speed.

次に、CPUは、櫛板40の先端までの距離L1をRAM(ステップ40の画像認識により計算済み)から読み出して取得する(ステップ75)。
次に、CPUは、仮想速度で歩行した場合に踏板50に到達するまでの時間T=L1/v3を算出してRAMに記憶する(ステップ80)。
Next, the CPU reads and acquires the distance L1 to the tip of the comb plate 40 from the RAM (calculated by the image recognition in step 40) (step 75).
Next, the CPU calculates time T = L1 / v3 until it reaches the tread board 50 when walking at a virtual speed, and stores it in the RAM (step 80).

次に、RAMは、RAMに記憶した踏板情報を用いてT秒後の踏板50のサイクルを算出する(ステップ85)。
ここで、サイクルとは、櫛板40から踏板50が繰り出されている位置状態であり、例えば、ちょうど踏板50の全体が繰り出し終わったのか、あるいは、1/3だけ繰り出したところか、といった状態である。
Next, the RAM calculates the cycle of the tread 50 after T seconds using the tread information stored in the RAM (step 85).
Here, the cycle is a position state in which the step board 50 is drawn out from the comb plate 40. For example, whether the entire step board 50 has been drawn out or has been drawn out by 1/3. is there.

次に、CPUは、T秒後に踏板50が櫛板40の前に存在するか否か、即ち、T秒後に踏板50の全体が櫛板40から繰り出されたところか否かを判断する(ステップ90)。
なお、踏板50の90%以上が繰り出されている場合に全体が繰り出されていると判断するなど、所定の許容幅を持たせることができる。
T秒後に踏板50が櫛板40の前に存在しない場合(ステップ90;N)、CPUは、仮想歩行速度を所定量(ここでは、10%)減じ(ステップ95)、ステップ75に戻る。
Next, the CPU determines whether or not the tread plate 50 exists in front of the comb plate 40 after T seconds, that is, whether or not the entire tread plate 50 has been fed out from the comb plate 40 after T seconds (step). 90).
In addition, it is possible to give a predetermined allowable width, for example, when 90% or more of the tread board 50 is extended, it is determined that the whole is extended.
When the tread board 50 does not exist in front of the comb board 40 after T seconds (step 90; N), the CPU reduces the virtual walking speed by a predetermined amount (here, 10%) (step 95) and returns to step 75.

一方、T秒後に踏板50が櫛板40の前に存在する場合(ステップ90;Y)、CPUは、歩行速度をv3とするために現状からの最小限の変更で行えるような歩幅と歩行ピッチを算出してRAMに記憶する(ステップ100)。
次に、CPUは、RAMに記憶した歩幅と歩行ピッチを読み出して、これに基づくように歩行アクチュエータ17を制御する(ステップ105)。
On the other hand, when the tread board 50 is present in front of the comb board 40 after T seconds (step 90; Y), the CPU can perform the stride and the walking pitch that can be performed with the minimum change from the current state in order to set the walking speed to v3. Is calculated and stored in the RAM (step 100).
Next, the CPU reads out the stride and the walking pitch stored in the RAM, and controls the walking actuator 17 based on the steps (step 105).

以上のようにして、CPUは、装着者の歩行速度の変化量を最小限に抑えて、装着者に与える不自然感を軽減しつつ、装着者の歩行と踏板50への足乗せを連続動作とすることができる(即ち、装着者は、櫛板40で立ち止まって、足乗せのための時間調節をする必要がない)。   As described above, the CPU continuously operates the wearer's walking and stepping on the tread 50 while minimizing the change in the walking speed of the wearer and reducing the unnatural feeling given to the wearer. (That is, the wearer does not need to stop at the comb plate 40 and adjust the time for the stepping on).

次に、踏板櫛板境目乗車方法について詳細に説明する。
図6(a)は、装着型ロボット1が踏板櫛板境目乗車方法によってエスカレータ300に乗車する手順を説明するためのフローチャートである。
図4(a)と同じステップには、同じステップ番号を付し、説明を省略する。
CPUは、踏板情報の受信(ステップ5、10)や、踏板距離算出処理(ステップ15)を行った後、足位置算出処理を行って(ステップ21)、歩行アクチュエータの制御を行う(ステップ25)。
ここで、足位置算出処理は、踏板50への乗車にあたり速度変化を最小にするための足位置を算出するものである。
図6(b)は、踏板距離算出処理の手順を示したフローチャートであって、図4(b)と同じである。
Next, the step board comb board boundary boarding method will be described in detail.
FIG. 6A is a flowchart for explaining a procedure for the wearable robot 1 to get on the escalator 300 by the step board comb board boundary boarding method.
The same steps as those in FIG. 4A are denoted by the same step numbers, and description thereof is omitted.
After receiving the tread information (steps 5 and 10) and the tread distance calculation process (step 15), the CPU performs the foot position calculation process (step 21) and controls the walking actuator (step 25). .
Here, the foot position calculation process is to calculate a foot position for minimizing a speed change when getting on the tread board 50.
FIG. 6B is a flowchart showing the steps of the tread board distance calculation process, which is the same as FIG. 4B.

図7は、ステップ21の足位置算出処理を説明するためのフローチャートである。
まず、CPUは、装着者の歩行速度v1を取得する(ステップ150)。
次に、CPUは、櫛板40の先端までの距離yをRAM(ステップ40の画像認識により計算済み)から読み出して取得する(ステップ155)。
FIG. 7 is a flowchart for explaining the foot position calculation processing in step 21.
First, the CPU acquires the wearer's walking speed v1 (step 150).
Next, the CPU reads and acquires the distance y to the tip of the comb plate 40 from the RAM (calculated by the image recognition in step 40) (step 155).

次に、CPUは、予め記憶装置に記憶してある装着者の足裏サイズy1を記憶装置から読み出して取得する(ステップ160)。
このように、踏板櫛板境目乗車方法では、予め装着者の足サイズをECU16に入力し、記憶媒体に記憶しておく。
Next, the CPU reads and obtains the footer size y1 of the wearer previously stored in the storage device from the storage device (step 160).
As described above, in the step board comb board boundary boarding method, the foot size of the wearer is previously input to the ECU 16 and stored in the storage medium.

次に、CPUは、乗車するまでの距離をL1=y+y1/2に補正してRAMに記憶する(ステップ165)。即ち、CPUは、踏板50までの距離を足裏サイズの半分だけ延長する。
次に、CPUは、踏板50までの到達時間T=L1/v1を計算し、RAMに記憶する(ステップ170)。
次に、CPUは、踏板情報に含まれる繰出ピッチにより、T秒後のエスカレータのサイクルを算出し、RAMに記憶する(ステップ175)。
Next, the CPU corrects the distance to the boarding to L1 = y + y1 / 2 and stores it in the RAM (step 165). That is, the CPU extends the distance to the tread board 50 by half of the sole size.
Next, the CPU calculates an arrival time T = L1 / v1 to the tread board 50 and stores it in the RAM (step 170).
Next, the CPU calculates the cycle of the escalator after T seconds based on the feeding pitch included in the tread board information, and stores it in the RAM (step 175).

次に、CPUは、T秒後に踏板50が櫛板40よりy1/2以上出ているかを判断する(ステップ180)。
即ち、CPUは、現在の歩行速度で踏板50に乗った場合に、踏板50が櫛板40から足サイズの半分以上出ているか否かをエレベータのサイクルにより計算する。
Next, the CPU determines whether or not the tread board 50 protrudes y1 / 2 or more from the comb board 40 after T seconds (step 180).
That is, the CPU calculates whether or not the step board 50 has come out from the comb board 40 by more than half the foot size when the user steps on the step board 50 at the current walking speed.

踏板50がy1/2以上出ている場合(ステップ180;Y)、CPUは、姿勢維持時間T2をT2=0とし、これをRAMに記憶する(ステップ185)。姿勢維持時間T2は、装着者の足の位置と踏板50のサイクルの差分を調節するための時間である。
一方、踏板50がy1/2以上出ていない場合(ステップ180;N)、CPUは、踏板50が1/2以上出る姿勢維持時間T2を算出してRAMに記憶する(ステップ190)。
If the tread board 50 is out of y1 / 2 or more (step 180; Y), the CPU sets the posture maintenance time T2 to T2 = 0 and stores it in the RAM (step 185). The posture maintaining time T2 is a time for adjusting the difference between the position of the wearer's foot and the cycle of the tread board 50.
On the other hand, when the step board 50 does not come out more than y1 / 2 (step 180; N), the CPU calculates the posture maintaining time T2 where the step board 50 comes out more than 1/2 and stores it in the RAM (step 190).

次に、CPUは、RAMに記憶した歩行速度v1と補正した距離L1を読み出し、v1を変更せずに櫛板40と踏板50に足が半分ずつ乗るような歩幅と歩行ピッチを計算し、RAMに記憶する(ステップ195)。
次に、CPUは、RAMに記憶した歩幅と歩行ピッチに従って歩行アクチュエータ17を制御する(ステップ200)。
Next, the CPU reads the walking speed v1 and the corrected distance L1 stored in the RAM, calculates the stride and the walking pitch such that the legs are half on the comb board 40 and the tread board 50 without changing v1, and the RAM (Step 195).
Next, the CPU controls the walking actuator 17 according to the stride and the walking pitch stored in the RAM (step 200).

次に、CPUは、装着者の足が櫛板40と踏板50の上に存在するか否かを判断する(ステップ205)。
この判断は、RAMに記憶した到達時間Tの経過を確認し、かつ、足が接地していることを歩行アクチュエータ17の角度などから確認することにより行われる。
また、この他に、櫛板40の先端では段差があるため、かかとからつま先にかけて下方に傾いていることを検出して当該判断を行ってもよい。
Next, the CPU determines whether or not the wearer's feet are present on the comb board 40 and the tread board 50 (step 205).
This determination is performed by confirming the passage of the arrival time T stored in the RAM and confirming that the foot is in contact with the ground from the angle of the walking actuator 17 or the like.
In addition to this, since there is a step at the tip of the comb plate 40, it may be determined by detecting that it is inclined downward from the heel to the toe.

装着者の足がまだ踏板50の上に乗っていない場合(ステップ205;N)、ステップ200に戻って歩行アクチュエータ17の制御を続行する。
一方、装着者の足が踏板50の上に乗っている場合(ステップ205;Y)、RAMに記憶した姿勢維持時間T2を読み出し、姿勢維持時間T2秒の間姿勢を維持する(ステップ210)。
When the wearer's foot is not yet on the tread board 50 (step 205; N), the process returns to step 200 and the control of the walking actuator 17 is continued.
On the other hand, when the wearer's foot is on the tread board 50 (step 205; Y), the posture maintaining time T2 stored in the RAM is read, and the posture is maintained for the posture maintaining time T2 seconds (step 210).

これにより、装着者が踏板50に足の先半分を置いたとき、踏板50が半分以上出ている場合は、姿勢維持時間T2=0で姿勢を維持する時間が0となり、踏板50が半分以上出ていない場合は、踏板50が半分以上出てくるまで姿勢維持時間T2秒の間姿勢を維持することになる。   Thus, when the wearer places the toe half of the foot on the tread 50, if the tread 50 is over half, the posture maintaining time T2 = 0 and the time for maintaining the posture becomes zero, and the tread 50 is more than half. If not, the posture is maintained for the posture maintaining time T2 seconds until the tread board 50 comes out more than half.

次に、CPUは、装着者の体の重心をつま先側へ移動するように歩行アクチュエータ17を制御する(ステップ215)。
次に、CPUは、エスカレータ300の速度で他方の足を引きつけ、更に、一方の足と揃えて踏板50の上に直立するように歩行アクチュエータ17を制御する(ステップ220)。
Next, the CPU controls the walking actuator 17 to move the center of gravity of the wearer's body to the toe side (step 215).
Next, the CPU attracts the other foot at the speed of the escalator 300, and further controls the walking actuator 17 so as to stand upright on the tread board 50 in alignment with the one foot (step 220).

以上では、踏板50が櫛板40から半分以上出ている場合に踏板50へ乗り移るように制御したが、更に細かく、例えば、踏板50が4分の1以上、5分の3以下出ている場合に乗り移るように制御することができる。   In the above, the control is performed so that the step board 50 is transferred to the tread board 50 when the tread board 50 protrudes from the comb board 40 or more. However, for example, when the tread board 50 protrudes from 1/4 to 3/5. It can be controlled to change to.

次に、櫛板中央降車方法について詳細に説明する。
図8(a)は、装着型ロボット1が櫛板中央降車方法によってエスカレータ300から降車する手順を説明するためのフローチャートである。
図4(a)と同じステップには、同じステップ番号を付し、説明を省略する。
CPUは、踏板情報の受信(ステップ5、10)を行った後、画像処理によってエスカレータ300の終点に設置された櫛板40の先端までの距離を算出する(ステップ16)。
Next, the comb board center disembarkation method will be described in detail.
FIG. 8A is a flowchart for explaining a procedure for the wearable robot 1 to get off from the escalator 300 by the comb plate central drop-off method.
The same steps as those in FIG. 4A are denoted by the same step numbers, and description thereof is omitted.
After receiving the tread board information (steps 5 and 10), the CPU calculates the distance to the tip of the comb board 40 installed at the end point of the escalator 300 by image processing (step 16).

次に、CPUは、歩幅歩行ピッチ算出処理にて、櫛板40に乗るための最適な歩幅と歩行ピッチを算出してRAMに記憶する(ステップ22)。
ここで、最適な歩幅と歩行ピッチとは、装着者の足を櫛板40に乗せると共に、装着者の体に作用する負荷を最小限にする歩幅と歩行ピッチであり、降車時に装着者が前後にぶれないように慣性分を相殺するような歩幅と歩行ピッチである。
次に、CPUは、当該歩幅と歩行ピッチにて歩行アクチュエータ17を制御する。
Next, the CPU calculates an optimum stride and a walking pitch for riding on the comb plate 40 in a stride walking pitch calculation process, and stores it in the RAM (step 22).
Here, the optimal stride and walking pitch are the stride and the walking pitch that minimizes the load acting on the wearer's body while putting the wearer's foot on the comb plate 40, and the wearer moves back and forth when getting off the vehicle. It is a stride and a walking pitch that cancels out the inertia so as not to shake.
Next, the CPU controls the walking actuator 17 with the stride and the walking pitch.

図8(b)は、ステップ16の櫛距離算出処理の手順を示したフローチャートである。
ステップ30、35は、図4(b)と同じである。
その後、CPUは、櫛板40までの距離を算出する(ステップ41)。本方法では、装着型ロボット1は、装着者の足を櫛板40の平坦部41に着地させるため、櫛板40までの距離として、傾斜部42の開始位置までの距離(図3(e)のyに対応する位置までの距離)を計算する。
FIG. 8B is a flowchart showing the procedure of the comb distance calculation process in step 16.
Steps 30 and 35 are the same as those in FIG.
Thereafter, the CPU calculates the distance to the comb plate 40 (step 41). In this method, the wearable robot 1 causes the wearer's foot to land on the flat portion 41 of the comb plate 40, so that the distance to the comb plate 40 is the distance to the start position of the inclined portion 42 (FIG. 3 (e)). To the position corresponding to y).

図9は、ステップ22の歩幅歩行ピッチ算出処理を説明するためのフローチャートである。
まず、CPUは、踏板情報から速度v1をRAMから読み出して取得する(ステップ250)。
次に、CPUは、ステップ41で算出した櫛板40までの距離L1をRAMから読み出して取得する(ステップ255)。
FIG. 9 is a flowchart for explaining the stride walking pitch calculation process in step 22.
First, the CPU reads and acquires the speed v1 from the RAM from the tread board information (step 250).
Next, the CPU reads and acquires the distance L1 to the comb plate 40 calculated in step 41 from the RAM (step 255).

次に、CPUは、櫛板40の先端への到達時間T1=L1/v1を算出してRAMに記憶する(ステップ260)。
次に、CPUは、装着者の歩幅S1をRAMから読み出して取得する(ステップ265)。歩幅S1は、装着者が平地で歩行している際にCPUが計測して過去データとしてRAMに記憶しておいたものである。過去データの平均値を取得してもよい。
Next, the CPU calculates the arrival time T1 = L1 / v1 at the tip of the comb plate 40 and stores it in the RAM (step 260).
Next, the CPU reads and acquires the wearer's stride S1 from the RAM (step 265). The stride S1 is measured by the CPU when the wearer is walking on a flat ground and stored in the RAM as past data. You may acquire the average value of past data.

次に、CPUは、装着者の足裏サイズS2を記憶装置から読み出して取得する(ステップ270)。足裏サイズS2は、予め記憶装置に登録してあるものとする。
次に、CPUは、歩幅S1より足裏サイズS2が大きいか否かを判断する(ステップ275)。
Next, the CPU reads and acquires the sole size S2 of the wearer from the storage device (step 270). The sole size S2 is assumed to be registered in the storage device in advance.
Next, the CPU determines whether or not the sole size S2 is larger than the stride S1 (step 275).

歩幅S1よりも足裏サイズS2が大きい場合(ステップ275;Y)、CPUは、歩幅をS2に設定し(ステップ280)、通常歩行時の速度v2が一定となるようにS2から歩行ピッチP1をP1=S2/v1にて設定してRAMに記憶する(ステップ285)。   When the sole size S2 is larger than the step S1 (step 275; Y), the CPU sets the step to S2 (step 280), and sets the walking pitch P1 from S2 so that the speed v2 during normal walking is constant. It is set by P1 = S2 / v1 and stored in the RAM (step 285).

一方、歩幅S1が足裏サイズS2以上の場合(ステップ275;N)、CPUは、歩幅をS1に設定し(ステップ290)、通常歩行時の速度v2が一定となるようにS1から歩行ピッチP1をP1=S1/v1にて設定してRAMに記憶する(ステップ295)。   On the other hand, when the step S1 is larger than the sole size S2 (step 275; N), the CPU sets the step to S1 (step 290), and the walking pitch P1 from S1 so that the speed v2 during normal walking is constant. Is set at P1 = S1 / v1 and stored in the RAM (step 295).

このように設定したのは、以下の理由による。
高齢者などは、足の運動能力が低く、小さな歩幅で少しずつ歩く場合がある。装着者がこのような小さな歩幅で踏板50から櫛板40に乗り移ろうとすると転倒する可能性が考えられる。
そこで、装着型ロボット1は、このような歩幅の小さい歩き方を「歩幅S1よりも足裏サイズが大きい場合」として判断し、降車時に強制的に歩幅を足裏幅に広げることとしたものである。
このように装着型ロボット1は、装着者を強制的に前進させることにより、立ち止まりによる将棋倒しなどを防止することができる。
The reason for this setting is as follows.
Elderly people have low exercise ability of their feet and may walk little by little with a small stride. If the wearer tries to transfer from the tread board 50 to the comb board 40 with such a small stride, there is a possibility that the wearer will fall.
Therefore, the wearable robot 1 judges such a way of walking with a small stride as “when the sole size is larger than the stride S1”, and forcibly increases the stride to the sole width when getting off the vehicle. is there.
As described above, the wearable robot 1 can prevent the shogi from being defeated due to being stopped by forcibly moving the wearer forward.

このように歩幅、歩行ピッチを設定した後、CPUは、到達時間T1が経過したか否かを判断する(ステップ300)。
到達時間T1が経過していない場合(ステップ300;N)、CPUは、ステップ300で監視を継続する。
一方、到達時間T1が経過した場合(ステップ300;Y)、CPUは、RAMに記憶した歩幅と歩行ピッチにて歩行アクチュエータ17を制御する(ステップ305)。
以上のようにして、装着型ロボット1は、装着者の歩行能力が低い場合でも、これを補って適切に降車させることができる。
After setting the stride and the walking pitch in this way, the CPU determines whether or not the arrival time T1 has elapsed (step 300).
When the arrival time T1 has not elapsed (step 300; N), the CPU continues monitoring in step 300.
On the other hand, when the arrival time T1 has elapsed (step 300; Y), the CPU controls the walking actuator 17 with the stride and the walking pitch stored in the RAM (step 305).
As described above, even when the wearer's walking ability is low, the wearable robot 1 can compensate for this and get off the vehicle appropriately.

次に、踏板櫛板境目降車方法について詳細に説明する。
図10(a)は、装着型ロボット1が踏板櫛板境目降車方法によってエスカレータ300から降車する手順を説明するためのフローチャートである。
図4(a)と同じステップには、同じステップ番号を付し、説明を省略する。
CPUは、踏板情報の受信(ステップ5、10)を行った後、画像処理によってエスカレータ300の終点に設置された櫛板40の先端までの距離を算出する(ステップ17)。
Next, the step board comb board boundary getting off method will be described in detail.
FIG. 10A is a flowchart for explaining a procedure for the wearable robot 1 to get off from the escalator 300 by the step board comb board boundary drop method.
The same steps as those in FIG. 4A are denoted by the same step numbers, and description thereof is omitted.
After receiving the tread board information (steps 5 and 10), the CPU calculates the distance to the tip of the comb board 40 installed at the end point of the escalator 300 by image processing (step 17).

次に、CPUは、足位置算出処理にて、踏板50から降車するにあたり、エネルギーロスを最小限にするための足位置を算出してRAMに記憶する(ステップ23)。
次に、CPUは、歩行アクチュエータ17を駆動して降車動作を行う(ステップ25)。
Next, the CPU calculates a foot position for minimizing energy loss when getting off the tread 50 in the foot position calculation process and stores it in the RAM (step 23).
Next, the CPU drives the walking actuator 17 to get off the vehicle (step 25).

図10(b)は、ステップ17の櫛板距離算出処理を説明するためのフローチャートである。
ステップ30、35は、図4(b)と同じである。
次に、CPUは、櫛板40までの距離を算出する(ステップ42)。本方法では、櫛板40の先端に達する前につま先を上げるため、櫛板40の先端までの距離(図3(e)のxに対応する位置までの距離)を計算する。
FIG. 10B is a flowchart for explaining the comb plate distance calculation processing in step 17.
Steps 30 and 35 are the same as those in FIG.
Next, the CPU calculates the distance to the comb plate 40 (step 42). In this method, in order to raise the toe before reaching the tip of the comb plate 40, the distance to the tip of the comb plate 40 (the distance to the position corresponding to x in FIG. 3E) is calculated.

更に、CPUは、傾斜部42による段差の高さH(xの位置に対するyの位置の高さ)をxとyの差分より算出し、RAMに記憶する(ステップ45)。この値は、降車地点でつま先を上げる高さを制御するのに用いられる。   Further, the CPU calculates the height H of the step by the inclined portion 42 (the height of the y position with respect to the x position) from the difference between x and y, and stores it in the RAM (step 45). This value is used to control the height at which the toes are raised at the point of departure.

図11は、ステップ23の足位置算出処理を説明するためのフローチャートである。
まず、CPUは、踏板50の速度v1を踏板情報から取得する(ステップ350)。
次に、CPUは、櫛板40までの距離L1をRAMから読み出して取得する(ステップ355)。この距離L1は、装着者がつま先を上げておく必要から、櫛板40の先端までの距離である。
FIG. 11 is a flowchart for explaining the foot position calculation processing in step 23.
First, the CPU acquires the speed v1 of the tread board 50 from the tread board information (step 350).
Next, the CPU reads and acquires the distance L1 to the comb plate 40 from the RAM (step 355). This distance L1 is the distance to the tip of the comb plate 40 because the wearer needs to raise his toes.

次に、CPUは、予め記憶装置に登録してある装着者の足裏サイズS2を記憶装置から読み出して取得する(ステップ360)。
次に、CPUは、つま先が櫛板40の先端に到達するつま先到達時間T1=L1/v1を算出してRAMに記憶する(ステップ365)。
Next, the CPU reads and acquires the sole size S2 of the wearer registered in advance in the storage device from the storage device (step 360).
Next, the CPU calculates a toe arrival time T1 = L1 / v1 for the toe to reach the tip of the comb plate 40 and stores it in the RAM (step 365).

次に、CPUは、櫛板40までの距離L1の補正値としてL2=L1+S2/2を算出してRAMに記憶する(ステップ370)。即ち、櫛板40の先端までの距離に足裏サイズS2の半分を足した値をエスカレータ終点までの距離L2とする。
次に、CPUは、足裏が櫛板40の先端に到達する足裏到達時間T2=L2/v1を算出してRAMに記憶する(ステップ375)。到達時間T1は、装着者の足裏の前方半分が櫛板40に達するまでの時間である。
Next, the CPU calculates L2 = L1 + S2 / 2 as a correction value for the distance L1 to the comb plate 40 and stores it in the RAM (step 370). That is, a value obtained by adding half of the sole size S2 to the distance to the tip of the comb plate 40 is set as the distance L2 to the escalator end point.
Next, the CPU calculates the sole arrival time T2 = L2 / v1 when the sole reaches the tip of the comb plate 40 and stores it in the RAM (step 375). The arrival time T1 is a time until the front half of the sole of the wearer reaches the comb plate 40.

次に、CPUは、装着者の歩幅S1をRAMから読み出して取得する(ステップ380)。
次に、CPUは、つま先到達時間T1が経過したか否か判断し(ステップ385)、つま先到達時間T1が経過していない場合は(ステップ385;N)、ステップ385でつま先到達時間T1が経過したか否かを監視する。
Next, the CPU reads and acquires the wearer's stride S1 from the RAM (step 380).
Next, the CPU determines whether or not the toe arrival time T1 has elapsed (step 385). If the toe arrival time T1 has not elapsed (step 385; N), the toe arrival time T1 has elapsed in step 385. Monitor whether or not

一方、つま先到達時間T1が経過した場合(ステップ385;Y)、CPUは、RAMから段差の高さHを読み出して取得し、歩行アクチュエータ17で足首関節を制御して両足のつま先をHだけ持ち上げる(ステップ390)。
なお、余裕を見て、つま先到達時間T1が経過する所定時間前(例えば、1秒前)につま先を持ち上げてもよい。
On the other hand, when the toe arrival time T1 has elapsed (step 385; Y), the CPU reads and obtains the height H of the step from the RAM, and controls the ankle joint with the walking actuator 17 to lift the toes of both feet by H. (Step 390).
Note that the toes may be lifted up a predetermined time before the toe arrival time T1 elapses (for example, one second before) with a margin.

次に、CPUは、足裏到達時間T2が経過したか否かを判断し(ステップ395)、足裏到達時間T2が経過していない場合は(ステップ395;N)、ステップ395で足裏到達時間T2が経過したか否かを監視する。   Next, the CPU determines whether or not the sole arrival time T2 has elapsed (step 395). If the sole arrival time T2 has not elapsed (step 395; N), the sole reaches in step 395. It is monitored whether time T2 has passed.

一方、足裏到達時間T2が経過した場合(ステップ395;Y)、CPUは、歩行アクチュエータ17を駆動して、通常の歩幅S1で降車一歩目の動作を行う(ステップ400)。
なお、足裏が櫛板40の先端に到達したか否かの判断は、足裏到達時間T2で行うほか、例えば、3軸センサ3で前方方向の衝撃を検出することにより、足裏中央が櫛板40に当たったものと感知してもよい。
踏板櫛板境目降車方法は、歩幅が小さい場合でも歩幅を広げる必要がないため、歩幅が小さい装着者に適している。
On the other hand, when the sole arrival time T2 has elapsed (step 395; Y), the CPU drives the walking actuator 17 to perform the first step of getting off at the normal step S1 (step 400).
Whether the sole has reached the tip of the comb plate 40 is determined based on the sole arrival time T2 and, for example, the center of the sole is detected by detecting a forward impact with the triaxial sensor 3. It may be sensed that it hits the comb plate 40.
The step board comb board border drop-off method is suitable for a wearer with a small stride because there is no need to increase the stride even when the stride is small.

以上に説明した、踏板中央乗車方法、踏板櫛板境目乗車方法、櫛板中央降車方法、踏板櫛板境目降車方法は、エスカレータ300のみならず、動く歩道に適用することもできる。
また、階段の段を検知して上り下りするように装着型ロボット1を構成することもできる。
更に、本実施の形態は、一例として装着者の歩行をアシストする場合について説明したが、自動歩行ロボットであってもよい。また、足の本数は2本に限らず、更に多くてもよい。
The step board center boarding method, the tread board comb board boundary boarding method, the comb board center boarding method, and the tread board comb board boarding method described above can be applied not only to the escalator 300 but also to a moving sidewalk.
The wearable robot 1 can also be configured to detect the steps of the stairs and go up and down.
Furthermore, although this Embodiment demonstrated the case where the wearer's walk was assisted as an example, an automatic walking robot may be sufficient. Further, the number of legs is not limited to two and may be larger.

以上に説明した実施の形態により、次のような効果を得ることができる。
(1)装着型ロボット1は、エスカレータ300などの乗口、降口において、櫛板40と踏板50の間の段差を画像認識することができる。
(2)装着型ロボット1は、乗口では、踏板50までの距離、降口では櫛板40までの距離を画像認識によって計測し、また、踏板情報(踏板50の速さ、繰出ピッチ)を取得することにより、歩行アクチュエータ17で装着者の意図に関係なく強制的に制御介入してエスカレータ300に乗降することができる。
(3)装着型ロボット1は、装着者の歩行動作に強制的に制御介入するため、装着者の判断力や感覚が衰えている場合でも安全な移動を実現することができる。
(4)照明器具は、特別な事情がない限り固定された場所で使われることを利用し、装着型ロボット1は、エスカレータ300の乗降口に設置された照明設備より、踏板情報を受信して得ることができる。また、施設側は、既存の設備を用いて踏板情報を送信することができるため、設備投資を低減することができる。
(5)装着型ロボット1は、2種類の乗車方法、及び、2種類の降車方法に対応しており、装着者は、好みの方法を選択することができる。
According to the embodiment described above, the following effects can be obtained.
(1) The wearable robot 1 can recognize an image of a step between the comb board 40 and the tread board 50 at the entrance and exit of the escalator 300 or the like.
(2) The wearable robot 1 measures the distance to the tread board 50 at the entrance and the distance to the comb board 40 at the exit and recognizes tread information (speed of the tread 50, feeding pitch). By acquiring, the walking actuator 17 can forcibly intervene and get on and off the escalator 300 regardless of the wearer's intention.
(3) Since the wearable robot 1 forcibly intervenes in the walking motion of the wearer, it is possible to realize safe movement even when the judgment and sense of the wearer are weakened.
(4) Utilizing that the lighting fixture is used in a fixed place unless there is a special circumstance, the wearable robot 1 receives the tread information from the lighting equipment installed at the entrance of the escalator 300. Obtainable. Moreover, since the facility side can transmit tread information using the existing equipment, capital investment can be reduced.
(5) The wearable robot 1 supports two types of boarding methods and two types of getting off methods, and the wearer can select a favorite method.

また、以上に説明した実施の形態により、次の構成を得ることができる。
装着型ロボット1は、2本の歩行アシスト部2を用いて床や道路など、歩行の対象となる歩行基準面を歩行するため、少なくとも2本の足部を駆動して歩行基準面を歩行する歩行制御手段を備えている。
また、装着型ロボット1は、光源装置4によって前進方向の床面などに所定パターンの光を照射し、その像を撮像カメラ5で撮像するため、光源から所定パターンの光を前進方向の前記歩行基準面に照射する照射手段と、前記照射した光によって前記歩行基準面に投影された像を撮像する撮像手段を備えている。
更に、装着型ロボット1は、投影像26の歪みから画像認識を用いて櫛板40と踏板50の間に生じている段差を検出するため、前記撮像した像の前記所定パターンからの歪みを用いて前記歩行基準面に対する段差を検出する段差検出手段を備えている。
また、エスカレータ300に乗車する場合、櫛板40が手前側の歩行基準面、踏板50が向こう側の歩行基準面として機能し、降車する場合は、踏板50が手前側の歩行基準面、櫛板40が向こう側の歩行基準面として機能し、装着型ロボット1は、段差までの距離などを基準にして歩幅や歩行ピッチを制御して歩行するため、前記歩行制御手段は、前記検出した段差の手前側から向こう側に歩行する際に、前記検出した段差を基準にして前記足部を制御している。
Further, the following configuration can be obtained by the embodiment described above.
The wearable robot 1 walks on a walking reference plane by driving at least two feet, in order to walk on a walking reference plane, such as a floor or a road, using two walking assist units 2. Control means are provided.
The wearable robot 1 irradiates a predetermined pattern of light onto the floor surface in the forward direction by the light source device 4 and captures an image thereof with the imaging camera 5. Irradiation means for irradiating the reference plane and imaging means for capturing an image projected on the walking reference plane by the irradiated light.
Further, the wearable robot 1 uses the distortion from the predetermined pattern of the captured image in order to detect a step generated between the comb board 40 and the tread board 50 using image recognition from the distortion of the projected image 26. Step detecting means for detecting a step with respect to the walking reference plane.
Further, when getting on the escalator 300, the comb plate 40 functions as a walking reference plane on the near side, and the tread board 50 functions as a walking reference plane on the far side. 40 functions as a walking reference plane on the far side, and the wearable robot 1 walks by controlling the stride and the walking pitch on the basis of the distance to the step or the like. When walking from the near side to the far side, the foot is controlled based on the detected step.

また、エスカレータ300に乗車する場合は、櫛板40と踏板50の段差において、踏板50が前進方向に動いており、降車する場合は、櫛板40が装着者に対して前進方向と逆の方向に相対運動しているため、前記向こう側の歩行基準面は、前記段差において前記前進方向に沿って動いている。
そして、装着型ロボット1は、乗車する場合は、踏板50までの距離、及び踏板50の速度と繰出ピッチに同期し、降車する場合は、櫛板40までの距離、及び装着者に対する櫛板40の相対運度による見かけの速度に同期して歩行アシスト部2を駆動するため、前記歩行制御手段は、前記向こう側の歩行基準面の動きに同期して前記足部を前記向こう側の歩行基準面に置くように前記足部を制御している。
Further, when getting on the escalator 300, the step board 50 moves in the forward direction at the step between the comb board 40 and the step board 50. Therefore, the other side of the walking reference plane moves along the forward direction at the step.
The wearable robot 1 synchronizes with the distance to the tread board 50 and the speed and feeding pitch of the tread board 50 when getting on, and the distance to the comb board 40 and the comb board 40 with respect to the wearer when getting off. In order to drive the walking assist unit 2 in synchronization with the apparent speed due to the relative mobility of the walking, the walking control means moves the foot to the walking reference on the far side in synchronization with the movement of the walking reference plane on the far side. The foot is controlled to be placed on the surface.

また、装着型ロボット1は、照明100などから、踏板情報(同期情報として機能している)を受信するため、前記足部を前記向こう側の歩行基準面の動きに同期させるための同期情報を受信する同期情報受信手段を備えている。
そして、装着型ロボット1は、踏板情報に含まれる踏板50の速度や繰出ピッチを用いて踏板50に乗ったり、櫛板40へ降りたりするため、前記歩行制御手段は、前記受信した同期情報を用いて前記足部を前記向こう側の歩行基準面の動きに同期させている。
In addition, the wearable robot 1 receives tread information (functioning as synchronization information) from the lighting 100 or the like, and therefore has synchronization information for synchronizing the foot with the movement of the walking reference plane on the far side. Synchronous information receiving means for receiving is provided.
Since the wearable robot 1 gets on the step board 50 or gets down to the comb board 40 using the speed or feeding pitch of the step board 50 included in the tread board information, the walking control means uses the received synchronization information. It is used to synchronize the foot with the movement of the walking reference plane on the far side.

また、装着型ロボット1は、足部から段差(櫛板40の先端、あるいは、傾斜部42の開始位置)までの距離を検出するため、前記段差検出手段は、前記足部から前記段差までの距離を検出している。   In addition, the wearable robot 1 detects the distance from the foot to the step (the tip of the comb plate 40 or the starting position of the inclined portion 42), so that the step detecting means detects the distance from the foot to the step. The distance is detected.

また、装着型ロボット1は、エスカレータ300や動く歩道の開始位置と終了位置における櫛板40と踏板50の間の段差を検出するため、前記段差は、エスカレータ、又は、動く歩道の開始位置、又は終了位置における可動部分(踏板50)と静止部分(櫛板40)の間に生じる段差とすることができる。   In addition, the wearable robot 1 detects the step between the comb board 40 and the tread board 50 at the start position and the end position of the escalator 300 or the moving sidewalk. It can be set as the level | step difference which arises between the movable part (step board 50) and stationary part (comb board 40) in an end position.

また、装着型ロボット1は、照明100の光に含まれる踏板情報を受信するため、前記同期情報受信手段は、照明器具が発する光によって同期情報を受信している。   Further, since the wearable robot 1 receives the tread information included in the light of the illumination 100, the synchronization information receiving means receives the synchronization information by the light emitted by the lighting fixture.

1 装着型ロボット
2 歩行アシスト部
3 3軸センサ
4 光源装置
5 撮像カメラ
6 3軸アクチュエータ
7 腰部装着部
8 連結部
9 撮像ユニット
10 無線通信装置
15 装着ロボットシステム
16 ECU
17 歩行アクチュエータ
26 投影像
31 画面フレーム
40 櫛板
41 平坦部
42 傾斜部
50 踏板
100〜102 照明
200〜203 位置
300 エスカレータ
DESCRIPTION OF SYMBOLS 1 Wearable robot 2 Walking assistance part 3 3-axis sensor 4 Light source device 5 Imaging camera 6 3-axis actuator 7 Waist mounting part 8 Connection part 9 Imaging unit 10 Wireless communication apparatus 15 Wearing robot system 16 ECU
17 Walking actuator 26 Projected image 31 Screen frame 40 Comb plate 41 Flat part 42 Inclined part 50 Step board 100-102 Illumination 200-203 Position 300 Escalator

Claims (7)

少なくとも2本の足部を制御して歩行基準面を歩行する歩行制御手段と、
光源から所定パターンの光を前進方向の前記歩行基準面に照射する照射手段と、
前記照射した光によって前記歩行基準面に投影された像を撮像する撮像手段と、
前記撮像した像の前記所定パターンからの歪みを用いて前記歩行基準面に対する段差を検出する段差検出手段と、
を具備し、
前記歩行制御手段は、前記検出した段差の手前側から向こう側に歩行する際に、前記検出した段差を基準にして前記足部を制御することを特徴とする歩行装置。
Walking control means for controlling at least two feet and walking on a walking reference plane;
Irradiating means for irradiating the walking reference plane in a forward direction with light of a predetermined pattern from a light source;
Imaging means for capturing an image projected on the walking reference plane by the irradiated light;
A step detecting means for detecting a step with respect to the walking reference plane using distortion from the predetermined pattern of the captured image;
Comprising
The walking control means, when walking from the near side of the detected step to the far side, controls the foot part with reference to the detected step.
前記向こう側の歩行基準面は、前記段差において前記前進方向に沿って動いており、前記歩行制御手段は、前記向こう側の歩行基準面の動きに同期して前記足部を前記向こう側の歩行基準面に置くように前記足部を制御することを特徴とする請求項1に記載の歩行装置。   The walking reference plane on the far side moves along the forward direction at the step, and the walking control means moves the foot on the far side in synchronization with the movement of the walking reference plane on the far side. The walking device according to claim 1, wherein the foot is controlled so as to be placed on a reference plane. 前記足部を前記向こう側の歩行基準面の動きに同期させるための同期情報を受信する同期情報受信手段を具備し、
前記歩行制御手段は、前記受信した同期情報を用いて前記足部を前記向こう側の歩行基準面の動きに同期させることを特徴とする請求項1、又は請求項2に記載の歩行装置。
Synchronization information receiving means for receiving synchronization information for synchronizing the foot to the movement of the walking reference plane on the far side,
The walking device according to claim 1, wherein the walking control unit synchronizes the foot with the movement of the walking reference plane on the far side using the received synchronization information.
前記段差検出手段は、前記足部から前記段差までの距離を検出することを特徴とする請求項1、請求項2、又は請求項3に記載の歩行装置。   The walking device according to claim 1, 2, or 3, wherein the step detecting means detects a distance from the foot to the step. 前記段差は、エスカレータ、又は、動く歩道の開始位置、又は終了位置における可動部分と静止部分の間に生じる段差であることを特徴とする請求項1から請求項4までのうちの何れか1の請求項に記載の歩行装置。   The said level | step difference is a level | step difference which arises between the movable part and stationary part in the starting position of the escalator or a moving sidewalk, or an end position, The any one of Claim 1 to 4 characterized by the above-mentioned. The walking device according to claim. 前記同期情報受信手段は、照明器具が発する光によって同期情報を受信することを特徴とする請求項3に記載の歩行装置。   The walking apparatus according to claim 3, wherein the synchronization information receiving unit receives the synchronization information by light emitted from a lighting fixture. 少なくとも2本の足部を制御して歩行基準面を歩行する歩行制御機能と、
光源から所定パターンの光を前進方向の前記歩行基準面に照射する照射機能と、
前記照射した光によって前記歩行基準面に投影された像を撮像する撮像機能と、
前記撮像した像の前記所定パターンからの歪みを用いて前記歩行基準面に対する段差を検出する段差検出機能と、
をコンピュータで実現する歩行プログラムであって、
前記歩行制御機能は、前記検出した段差の手前側から向こう側に歩行する際に、前記検出した段差を基準にして前記足部を制御することを特徴とする歩行プログラム。
A walking control function for controlling at least two feet and walking on a walking reference plane;
An irradiation function for irradiating the walking reference plane in a forward direction with a predetermined pattern of light from a light source
An imaging function for capturing an image projected on the walking reference plane by the irradiated light;
A step detection function for detecting a step with respect to the walking reference plane using distortion from the predetermined pattern of the captured image;
Is a walking program that realizes
The walking control function, when walking from the near side of the detected step to the far side, controls the foot part based on the detected step.
JP2010265190A 2010-11-29 2010-11-29 Walking device and walking program Pending JP2012115311A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010265190A JP2012115311A (en) 2010-11-29 2010-11-29 Walking device and walking program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010265190A JP2012115311A (en) 2010-11-29 2010-11-29 Walking device and walking program

Publications (1)

Publication Number Publication Date
JP2012115311A true JP2012115311A (en) 2012-06-21

Family

ID=46498938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010265190A Pending JP2012115311A (en) 2010-11-29 2010-11-29 Walking device and walking program

Country Status (1)

Country Link
JP (1) JP2012115311A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10391016B2 (en) 2013-03-14 2019-08-27 Ekso Bionics, Inc. Machine to human interfaces for communication from a lower extremity orthotic

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10391016B2 (en) 2013-03-14 2019-08-27 Ekso Bionics, Inc. Machine to human interfaces for communication from a lower extremity orthotic

Similar Documents

Publication Publication Date Title
US10702442B2 (en) Walking aid device
CN107224392B (en) Electric walking aid based on man-machine position and control method thereof
KR20190029175A (en) Rehabilitation training system and rehabilitation training method using the same
US10993871B2 (en) Walking support robot and walking support method
CN106473493B (en) Life assisting system, life assisting method and automatic lifting type chair
CN114845785A (en) Intelligent running machine
KR20130073743A (en) Active walking and stand-up frame and method for active walking and standing up thereof
KR101730909B1 (en) Wearing robot and variable impedance controlling method thereof
JP2010142558A (en) Walking aid
JP5610294B2 (en) Walking support device and walking support program
Yang et al. Automatic walking pattern transformation method of an assistive device during stair-ground transition
US12064390B2 (en) Powered walking assistant and associated systems and methods
JP2012200318A (en) Walking assist device and walking assist program
JP2012115311A (en) Walking device and walking program
JP2012200319A (en) Walking support device, and walking support program
JP2012115312A (en) Walking support device, and walking support program
JP2013048701A (en) Walking assistance device, and walking assistance program
JP2013075044A (en) Stumble detector, walking aid, and stumble detection method
JP2012115314A (en) Walking support device and walking support program
JP2013208294A (en) Walking device and walking program
JP7428159B2 (en) Gait training system, its control method, and control program
JP2012115313A (en) Walking support device, and walking support program
KR102396507B1 (en) Wheelchair apparatus with rehabilitation and pedestrian crossing safety function
CN115475348A (en) Walking training system, control method thereof, and storage medium
US20220395726A1 (en) Walking training system, control method of same, and non-transitory storage medium