JP4333611B2 - Obstacle detection device for moving objects - Google Patents
Obstacle detection device for moving objects Download PDFInfo
- Publication number
- JP4333611B2 JP4333611B2 JP2005076000A JP2005076000A JP4333611B2 JP 4333611 B2 JP4333611 B2 JP 4333611B2 JP 2005076000 A JP2005076000 A JP 2005076000A JP 2005076000 A JP2005076000 A JP 2005076000A JP 4333611 B2 JP4333611 B2 JP 4333611B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- distance image
- area
- candidate
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 title claims description 18
- 239000000284 extract Substances 0.000 claims description 5
- 238000000034 method Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 9
- 230000008859 change Effects 0.000 description 7
- 230000007246 mechanism Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000000087 stabilizing effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000006641 stabilisation Effects 0.000 description 2
- 238000011105 stabilization Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001141 propulsive effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、移動体本体の走行中において距離画像を用いて障害物の有無を判断する移動体用の障害物検出装置に関するものである。 The present invention relates to an obstacle detection apparatus for a moving body that determines the presence or absence of an obstacle using a distance image while the mobile body is traveling.
一般に、対象となる距離画像と背景となる距離画像(標準パターン)との差分画像を用いて侵入者などの対象物の存在領域を距離画像から抽出する技術が知られている。(たとえば、特許文献1参照)。 In general, a technique is known in which a presence image of an object such as an intruder is extracted from a distance image using a difference image between a target distance image and a background distance image (standard pattern). (For example, refer to Patent Document 1).
また、ロボットが歩行する床面上の障害物を検出するために、三次元情報を持つ画像に対してハフ変換の技術を適用することにより、三次元情報を持つ画像から床面となる平面を抽出する技術が提案されている(たとえば、非特許文献1参照)。
特許文献1に記載の技術は、距離画像センサが定位置に固定されている場合には利用可能であるが、この技術を移動体に適用しようとすると、走行時の振動によって背景となる距離画像と対象となる距離画像との位置関係にずれが生じる。したがって、距離画像センサが移動体の走行時の振動の影響を受けないように姿勢安定装置のような機構が必要になる。
The technique described in
一方、非特許文献1に記載の技術では、視差画像に含まれる情報によって床面を検出するから、姿勢安定装置のような機構は不要であるが、ハフ変換などを行う必要があるから、処理負荷が大きく、移動体の走行中において障害物の有無を判断するためには、処理能力の高い高価なプロセッサが必要になるという問題がある。
On the other hand, since the technique described in Non-Patent
本発明は上記事由に鑑みて為されたものであり、その目的は、距離画像から得られる情報を用いて距離画像内において移動体が走行する面を容易に抽出できるようにし、もって姿勢安定装置のような機構を不要とし、かつハフ変換に比較して処理負荷を軽減することができる移動体用の障害物検出装置を提供することにある。 The present invention has been made in view of the above-mentioned reasons, and an object of the present invention is to make it possible to easily extract a surface on which a moving body travels in a distance image using information obtained from the distance image, and thereby to stabilize the posture. It is an object of the present invention to provide an obstacle detection device for a moving body that eliminates the need for such a mechanism and can reduce the processing load as compared with the Hough transform.
請求項1の発明は、移動体本体に搭載され移動体本体が走行しようとする面を含む空間領域を斜め下向きに撮像し画素値が距離値である距離画像を生成する距離画像センサと、移動体本体が平面上を走行する際に距離画像センサで生成されることが予測される角度範囲内の平面の距離画像を所定の刻み幅で候補基準画像として格納した基準画像記憶部と、基準画像記憶部に格納された複数の候補基準画像のうち距離画像センサで生成された距離画像との差分画像において差分値が規定の閾値以下である一致領域の面積が最大になる候補基準画像を基準距離画像として選択する基準距離画像選択部と、基準距離画像選択部で選択された基準距離画像に対する差分画像における一致領域以外を障害物が存在する領域と判断する判断部とを備えることを特徴とする。
The invention according to
この構成によれば、距離画像センサで生成されることが予測される角度範囲内の平面の距離画像を所定の刻み幅で候補基準画像として用意しておき、距離画像センサにより生成された距離画像との差分画像を生成したときに一致領域の面積が最大である候補基準画像を基準距離画像として採用するから、距離画像を生成したときの距離画像センサの姿勢に対応した基準距離画像を障害物の評価に用いることができる。したがって、距離画像センサの姿勢を考慮する必要がなく、距離画像センサの姿勢を安定させる機構や、距離画像センサの姿勢に応じて距離画像と比較するための基準距離画像を演算により求める処理負荷の高い演算処理が不要になる。 According to this configuration, a distance image of a plane within an angle range predicted to be generated by the distance image sensor is prepared as a candidate reference image with a predetermined step size, and the distance image generated by the distance image sensor is prepared. Since the candidate reference image having the largest matching area when the difference image is generated is adopted as the reference distance image, the reference distance image corresponding to the posture of the distance image sensor when the distance image is generated is obstruction. It can be used for evaluation. Therefore, there is no need to consider the attitude of the distance image sensor, and there is a mechanism for stabilizing the attitude of the distance image sensor and the processing load for calculating a reference distance image for comparison with the distance image according to the attitude of the distance image sensor. High calculation processing becomes unnecessary.
請求項2の発明では、請求項1の発明において、前記基準画像記憶部に格納されたデフォルトの候補基準画像と前記距離画像センサにより生成された距離画像との差分画像において差分値が規定の閾値以下である一致領域を求める機能を有した差分画像生成部と、一致領域の主軸に直交する方向を用いて前記移動体本体の走行面の傾斜方向を推定しこの傾斜方向に対して所定範囲内である候補基準画像を前記基準画像記憶部から取り出す候補画像絞り込み部とを備え、前記基準距離画像選択部は候補画像絞り込み部で絞り込まれた候補基準画像から基準距離画像を選択することを特徴とする。 According to a second aspect of the present invention, in the first aspect of the present invention, in the difference image between the default candidate reference image stored in the reference image storage unit and the distance image generated by the distance image sensor, a difference value is a prescribed threshold value. A difference image generation unit having a function for obtaining a matching area as described below and a direction orthogonal to the main axis of the matching area are used to estimate the inclination direction of the traveling surface of the moving body, and within a predetermined range with respect to the inclination direction. A candidate image narrowing unit that extracts the candidate reference image from the reference image storage unit, and the reference distance image selecting unit selects a reference distance image from the candidate reference images narrowed down by the candidate image narrowing unit. To do.
この構成によれば、デフォルトの候補基準画像と実際の距離画像との差分画像を用いて距離画像に対応する候補基準画像の範囲を絞り込むことができるから、基準画像記憶部に格納された多数の候補基準画像から絞り込んだ少数の候補基準画像について一致領域の面積を評価すればよく、結果的に処理負荷が軽減されて高速な処理が期待できる。 According to this configuration, since the range of the candidate reference image corresponding to the distance image can be narrowed down using the difference image between the default candidate reference image and the actual distance image, a large number of images stored in the reference image storage unit are stored. The area of the coincidence area may be evaluated for a small number of candidate reference images narrowed down from the candidate reference images. As a result, the processing load is reduced and high-speed processing can be expected.
請求項3の発明では、請求項1の発明において、前記基準画像記憶部に格納されたデフォルトの候補基準画像と前記距離画像センサにより生成された距離画像との差分画像において差分値が規定の閾値以下である一致領域を求める機能を有した差分画像生成部と、一致領域の主軸に直交する方向における一致領域の幅を用いて前記移動体本体の走行面の傾斜角度を推定しこの傾斜角度に対して所定範囲内である候補基準画像を前記基準画像記憶部から取り出す候補画像絞り込み部とを備え、前記基準距離画像選択部は候補画像絞り込み部で絞り込まれた候補基準画像から基準距離画像を選択することを特徴とする。 According to a third aspect of the present invention, in the first aspect of the present invention, in the difference image between the default candidate reference image stored in the reference image storage unit and the distance image generated by the distance image sensor, a difference value is a prescribed threshold value. A difference image generation unit having a function for obtaining a matching area as described below and a width of the matching area in a direction orthogonal to the main axis of the matching area are used to estimate the inclination angle of the traveling surface of the moving body, and to the inclination angle And a candidate image narrowing-down unit that extracts a candidate reference image within a predetermined range from the reference image storage unit, and the reference distance image selecting unit selects a reference distance image from the candidate reference images narrowed down by the candidate image narrowing-down unit It is characterized by doing.
この構成によれば、デフォルトの候補基準画像と実際の距離画像との差分画像を用いて距離画像に対応する候補基準画像の範囲を絞り込むことができるから、基準画像記憶部に格納された多数の候補基準画像から絞り込んだ少数の候補基準画像について一致領域の面積を評価すればよく、結果的に処理負荷が軽減されて高速な処理が期待できる。 According to this configuration, since the range of the candidate reference image corresponding to the distance image can be narrowed down using the difference image between the default candidate reference image and the actual distance image, a large number of images stored in the reference image storage unit are stored. The area of the coincidence area may be evaluated for a small number of candidate reference images narrowed down from the candidate reference images. As a result, the processing load is reduced and high-speed processing can be expected.
請求項4の発明では、請求項1の発明において、前記基準画像記憶部に格納されたデフォルトの候補基準画像と前記距離画像センサにより生成された距離画像との差分画像において差分値が規定の閾値以下である一致領域を求める機能を有した差分画像生成部と、一致領域の主軸に直交する方向を用いて前記移動体本体の走行面の傾斜方向を推定するとともに一致領域の主軸に直交する方向における一致領域の幅を用いて前記移動体本体の走行面の傾斜角度を推定し傾斜方向および傾斜角度の組合せに対して所定範囲内である候補基準画像を前記基準画像記憶部から取り出す候補画像絞り込み部とを備え、前記基準距離画像選択部は候補画像絞り込み部で絞り込まれた候補基準画像から基準距離画像を選択することを特徴とする。 According to a fourth aspect of the present invention, in the first aspect of the present invention, in the difference image between the default candidate reference image stored in the reference image storage unit and the distance image generated by the distance image sensor, a difference value is a prescribed threshold value. A difference image generation unit having a function for obtaining a matching area, and a direction orthogonal to the main axis of the matching area, and a direction orthogonal to the main axis of the matching area while estimating the inclination direction of the traveling surface of the moving body. The candidate image is narrowed down by estimating the inclination angle of the traveling surface of the moving body using the width of the coincidence area and extracting candidate reference images within a predetermined range with respect to the combination of the inclination direction and the inclination angle from the reference image storage unit And the reference distance image selection unit selects a reference distance image from the candidate reference images narrowed down by the candidate image narrowing unit.
この構成によれば、デフォルトの候補基準画像と実際の距離画像との差分画像を用いて距離画像に対応する候補基準画像の範囲を絞り込み、しかも走行面の傾斜方向と傾斜角度との両方を用いて候補基準画像の範囲を狭めるから、基準画像記憶部に格納された多数の候補基準画像から絞り込んだ少数の候補基準画像について一致領域の面積を評価すればよく、結果的に処理負荷が軽減されて請求項2、3の構成よりも一層高速な処理が期待できる。 According to this configuration, the range of the candidate reference image corresponding to the distance image is narrowed down using the difference image between the default candidate reference image and the actual distance image, and both the inclination direction and the inclination angle of the traveling surface are used. Since the range of candidate reference images is narrowed, it is only necessary to evaluate the area of the matching region for a small number of candidate reference images narrowed down from a large number of candidate reference images stored in the reference image storage unit, resulting in a reduction in processing load. Thus, processing at a higher speed than that of the second and third aspects can be expected.
請求項5の発明では、請求項1の発明において、前記基準距離画像選択部は、時系列として得られる距離画像に対して前回用いた基準距離画像に対して規定した範囲内の候補基準画像から基準距離画像を選択することを特徴とする。 According to a fifth aspect of the invention, in the first aspect of the invention, the reference distance image selecting unit selects a candidate reference image within a range defined for a reference distance image used last time with respect to a distance image obtained as a time series. A reference distance image is selected.
この構成によれば、前回用いた基準距離画像から大きく逸脱しない範囲で次の基準距離画像を選択するから、少数の候補基準画像に絞り込んで一致領域の面積を評価すればよく、処理負荷が軽減されて高速な処理が期待できる。 According to this configuration, since the next reference distance image is selected within a range that does not deviate significantly from the previously used reference distance image, it is sufficient to narrow down to a small number of candidate reference images and evaluate the area of the matching region, thereby reducing the processing load. High-speed processing can be expected.
請求項6の発明は、移動体本体に搭載され移動体本体が走行しようとする面を含む空間領域を斜め下向きに撮像し画素値が距離値である距離画像を生成する距離画像センサと、移動体本体が平面上を走行する際に距離画像センサで生成されることが予測される角度範囲内の平面の距離画像を所定の刻み幅で候補基準画像として格納した基準画像記憶部と、基準画像記憶部に格納された複数の候補基準画像のうち距離画像センサで生成された距離画像との差分画像において差分値が規定の閾値以下である一致領域の面積が最大になる候補基準画像を基準距離画像として選択する基準距離画像選択部と、一致領域を移動体本体に近い近接領域と移動体本体から遠い遠方領域とに分割し、近接領域において一致領域の占める面積が第1の閾値以下でありかつ遠方領域において一致領域の占める面積が第2の閾値以上であるという条件が満たされるときには、一致領域を障害物の存在する領域と判断し、前記条件が満たされないときには、基準距離画像選択部で選択された基準距離画像に対する差分画像における一致領域以外を障害物が存在する領域と判断する判断部とを備えることを特徴とする。
The invention according to claim 6 is a distance image sensor that captures a spatial region including a surface that is mounted on a mobile body and that the mobile body is about to travel, and generates a distance image having a pixel value as a distance value. A reference image storage unit that stores a distance image of a plane within an angle range that is predicted to be generated by the distance image sensor when the body body travels on a plane as a candidate reference image at a predetermined step size, and a reference image A candidate reference image having a maximum area of a matching region whose difference value is equal to or less than a predetermined threshold in a difference image from a distance image generated by a distance image sensor among a plurality of candidate reference images stored in a storage unit is a reference distance. A reference distance image selection unit that is selected as an image, and a matching area is divided into a proximity area close to the mobile body and a remote area far from the mobile body, and the area occupied by the matching area in the proximity area is less than or equal to a first threshold value If the condition that the area occupied by the coincidence area in the far region is equal to or greater than the second threshold is satisfied, the coincidence area is determined as an area where an obstacle exists, and if the condition is not met, the reference distance image selection unit And a determination unit that determines that an area other than the matching area in the difference image with respect to the reference distance image selected in
この構成によれば、距離画像センサで生成されることが予測される角度範囲内の平面の距離画像を所定の刻み幅で候補基準画像として用意しておき、距離画像センサにより生成された距離画像との差分画像を生成したときに一致領域の面積が最大である候補基準画像を基準距離画像として採用するから、距離画像を生成したときの距離画像センサの姿勢に対応した基準距離画像を障害物の評価に用いることができる。したがって、距離画像センサの姿勢を考慮する必要がなく、距離画像センサの姿勢を安定させる機構や、距離画像センサの姿勢に応じて距離画像と比較するための基準距離画像を演算により求める処理負荷の高い演算処理が不要になる。しかも、選択した基準距離画像が障害物に一致しているときでも、距離画像内において障害物を分離することができる。 According to this configuration, a distance image of a plane within an angle range predicted to be generated by the distance image sensor is prepared as a candidate reference image with a predetermined step size, and the distance image generated by the distance image sensor is prepared. Since the candidate reference image having the largest matching area when the difference image is generated is adopted as the reference distance image, the reference distance image corresponding to the posture of the distance image sensor when the distance image is generated is obstruction. It can be used for evaluation. Therefore, there is no need to consider the attitude of the distance image sensor, and there is a mechanism for stabilizing the attitude of the distance image sensor and the processing load for calculating a reference distance image for comparison with the distance image according to the attitude of the distance image sensor. High calculation processing becomes unnecessary. Moreover, even when the selected reference distance image matches the obstacle, the obstacle can be separated in the distance image.
本発明の構成によれば、距離画像センサで生成されることが予測される角度範囲内の平面の距離画像を所定の刻み幅で候補基準画像として用意しておき、複数の候補基準画像から距離画像の基準面に一致する可能性の高い基準距離画像を選択するから、距離画像を生成したときの距離画像センサの姿勢に対応した基準距離画像を基準面の距離画像に用いることになり、距離画像センサの姿勢を安定させる機構が不要になり、また距離画像センサの姿勢に応じて距離画像と比較するための基準距離画像を演算により求める処理負荷の高い演算処理が不要になるという利点がある。 According to the configuration of the present invention, a distance image of a plane within an angle range predicted to be generated by the distance image sensor is prepared as a candidate reference image with a predetermined step size, and a distance from a plurality of candidate reference images is prepared. Since the reference distance image that is highly likely to match the reference plane of the image is selected, the reference distance image corresponding to the attitude of the distance image sensor when the distance image is generated is used for the distance image of the reference plane. There is an advantage that a mechanism for stabilizing the posture of the image sensor is not necessary, and a high processing load calculation process for obtaining a reference distance image for comparison with a distance image according to the posture of the distance image sensor is not required. .
以下に説明する実施形態では、移動範囲の地図情報を用いて自律的に移動する自律移動装置を例示する。自律移動装置は、図1に示すように、電動モータあるいはエンジンのような駆動源を持つ移動体本体2と、移動体本体2に搭載した障害物検出装置1とからなる。移動体本体2としては電動モータのような駆動源でタイヤを回転駆動させて推進力を得る構成を採用している。たとえば、駆動源を電動モータとすれば、移動体本体2は外部から推進力および進行方向に関する指示を受けると電動モータへの通電電流を制御し、通電電流の増減により推進力を調節し、左右のタイヤの回転数を異ならせるように通電電流を制御することにより進行方向を変化させる。進行方向の変化にはタイヤの向きを変化させるように操舵する構成を採用してもよい。
In embodiment described below, the autonomous mobile apparatus which moves autonomously using the map information of a movement range is illustrated. As shown in FIG. 1, the autonomous mobile device includes a
移動体本体2の構成については詳述しないが、一般に移動体本体2は、現在位置を認識する機能を有し、保有する地図情報において指示された経路を通るように自律的に走行する。ただし、本実施形態の要部は、障害物を回避して走行するために障害物を検出する機能にあるので、以下では、障害物検出装置1について説明する。
Although the configuration of the
障害物検出装置1は、移動体本体2の前方を含む所定範囲を視野に持つ距離画像センサ11と、距離画像センサ11により生成された距離画像から障害物の存在する領域を抽出するための画像処理を行う画像処理装置10とで構成される。画像処理装置10は、以下に説明する機能を実現するプログラムを実行するコンピュータにより構成される。また、移動体本体2とは適宜のインターフェイスを介して接続される。移動体本体2は一般に外部と通信するためのネットワーク用のインターフェイスを備えるから、障害物検出装置1はネットワーク用のインターフェイスを介して移動体本体2に接続することができる。
The
距離画像センサ11は、視野内に存在する物体までの距離を求め、画素値が距離値である距離画像を生成する。この種の距離画像センサの原理としては、複数台の撮像装置の視差を利用してステレオ画像法により物体までの距離を求めるもの、強度を変調した信号光を投光するとともに信号光の物体による反射光を受光し、信号光の投光時と受光時との時間差を変調波形の位相差により求めるものなどが知られている。ここでは、強度を変調した信号光を投光して投受光の位相差を求める構成を採用しているものとする。信号光の投光には赤外線発光ダイオードを用い、信号光の受光にはCCDイメージセンサあるいは類似構成のイメージセンサを用いるものとする。また、CCDイメージセンサの前方にはレンズ群からなる受光光学系が配置される。
The
ステレオ画像法あるいは投受光の位相差を用いる距離画像センサ11では、数分の1秒より短い時間内で得られる情報を用いて視野内の全領域の距離を計測することができるから、光切断法を用いる場合よりも短時間で距離の測定が可能である。したがって、とくに高速に移動するものでなければ、移動体本体2が移動している間においても視野内の全領域の距離を実質的に時間差なく計測することができる。また、距離画像センサ11では受光量を距離に換算する処理をイメージセンサの1フレーム内の時間で行う。また、以下に説明する画像処理装置10の動作もイメージセンサの1フレーム内の時間で行うものとする。1秒毎のフレーム数は移動体本体2の速度に応じて設定され、本実施形態では移動体本体2の速度を0.5〜1m/sと想定し、1秒間に5〜6フレームの処理を行うものとする。
The
距離画像センサ11は移動体本体2の上部に取り付けられ、距離画像センサ11の視野Vfは、図2のように、移動体本体2が走行しようとする面(通常は、路面、地面、床面のいずれか)を含む移動体本体2の前方の空間領域であって斜め下向きに設定される。距離画像センサ11は移動体本体2が走行する範囲における障害物の有無を検出するのが目的であるから、距離画像センサ11の視野角は、移動体本体2の走行性能に応じて適宜に設定される。移動体本体2の速度が速く、旋回性能が高いほど視野は広く設定することになる。
The
距離画像センサ11の各画素は受光系の所定位置を原点とした球座標における角度(伏角と方位角)に対応する。つまり、画素位置が持つ球座標の角度の情報と、画素値が持つ球座標の距離の情報とにより、距離画像センサ11に設定した球座標での物体の三次元の座標位置を特定することができる。
Each pixel of the
距離画像から障害物の存在領域を抽出するには、移動体本体2が走行する面に関して、障害物の存在しない状態での距離画像と、距離画像センサ11により実空間から生成した距離画像との差分を用いる。移動体本体2が走行する面に障害物が存在しない状態を想定するとき、この面を基準面とする。言い換えると、移動体本体2が走行している面を延長した平面が基準面になる。したがって、距離画像センサ11により生成した距離画像と基準面の距離画像との差分が規定した判別閾値より大きくなる領域に障害物が存在する可能性があると判断する。
In order to extract the obstacle existence area from the distance image, the distance image in the state where no obstacle exists on the surface on which the
ところで、移動体本体2に搭載された距離画像センサ1は移動体本体2の振動などにより姿勢が変化するから、距離画像センサ11で得られた距離画像の中では差分画像を生成すべき基準面も変化する。本実施形態では、移動体本体2が静止している状態での基準面をxy平面とし移動体本体2の前方をx軸の正の向きとするとき、基準面の変化がx軸回りの回転(ロール)、y軸回りの回転(ピッチ)として生じるものとする。以下では、説明を簡単にするために、z軸回りの回転(ヨー)、x軸方向、y軸方向、z軸方向の直進変位はとくに考慮せずに説明するが、実際には基準面の変化には、これらの要素の変化も併せて生じる。この点は後述する。
By the way, since the attitude of the
本発明の特徴は、移動体本体2の走行時の基準面として予測される所定の刻み幅のすべての基準面に関する距離画像を候補基準画像として用意しておき、多数の候補基準画像の中から基準面の画像として最適なものを基準面の距離画像である基準距離画像として選択し、選択した基準距離画像と距離画像センサ11で生成した距離画像との差分画像を用いて障害物を検出する点にある。
A feature of the present invention is that distance images relating to all reference planes having a predetermined step size predicted as a reference plane at the time of traveling of the
そこで、本実施形態では、ロール、ピッチの角度変化について、変化が想定される角度範囲内で刻み幅(角度分解能)を1度としたすべての候補基準画像を格納する基準画像記憶部15と、距離画像センサ11で撮像した距離画像と基準画像記憶部15に格納した各候補基準画像との差分画像を生成する差分画像生成部12とを設けてある。変化が想定される角度範囲は、たとえばロール、ピッチについてそれぞれ±10度、±20度とすれば、20×40=800であって、この場合には800枚の候補基準画像を基準画像記憶部15に格納しておけばよい。
Therefore, in the present embodiment, for the angle change of the roll and pitch, the reference
ここで、差分画像生成部12において、距離画像センサ11で生成された距離画像と800枚のすべての候補基準画像との差分画像を生成するとすれば、処理負荷が比較的大きくなる。そこで、基準画像記憶部15に格納された候補基準画像のうち実際に差分画像を生成する候補基準画像を絞り込むことが必要である。この目的のために、候補画像絞り込み部16を設けている。候補画像絞り込み部16の動作については後述する。
Here, if the difference
候補画像絞り込み部16では差分画像を生成する候補基準画像を10枚程度に絞り込み、各候補基準画像を差分画像生成部12に与えて、各候補基準画像と距離画像との差分画像を生成させる。距離画像と各候補基準画像とのそれぞれの差分画像が得られると、差分画像の中で画素値(つまり、差分値)が0に近い領域は候補基準画像との一致度が高い領域であると言える。距離画像が障害物を含まない基準面であって候補基準画像が距離画像の基準面に一致しているときには、差分画像のすべての画素値は理想的には0になるから、距離画像に障害物が含まれているときであっても複数の候補基準画像のうち距離画像に含まれる基準面との一致度がもっとも高い候補基準画像では、差分画像の画素値が0に近い領域の面積が最大になると考えられる。そこで、画像処理装置10に、各候補基準画像と距離画像とのそれぞれの差分画像について、画素値が規定の閾値以下になる一致領域の面積を求め、当該面積が最大になる候補基準画像を基準距離画像として選択する基準距離画像選択部13を設けている。
The candidate
基準画像選択部13で基準距離画像を選択した後は、障害物を検出するための通常の方法を用いることができる。ここでは、距離画像センサ11で生成した距離画像と基準距離画像との差分画像は、差分画像生成部13においてすでに生成されているから、この差分画像を判断部14に与える。判断部14では差分画像の中で画素値が規定した判別閾値を越える領域を障害物が存在する可能性のある領域として抽出する。ここに、判別閾値は一致領域を抽出するための閾値とは、必ずしも一致している必要はないが両者を一致させておけば、基準距離画像選択部13で候補基準画像から基準距離画像を選択する際に行う2値化で得られた情報をそのまま用いて障害物の評価に用いることが可能になり、処理負荷の軽減につながる。
After selecting the reference distance image by the reference image selection unit 13, a normal method for detecting an obstacle can be used. Here, since the difference image between the distance image generated by the
ところで、候補画像絞り込み部16においては、基準画像記憶部15に格納された候補基準画像から差分画像生成部12に与える候補基準画像を以下の手順で絞り込む。移動体本体2の走行中には、時間経過に伴って次々に距離画像が生成されており、時系列において隣接する一対の距離画像が得られる程度の時間間隔では、移動体本体2が走行する面の傾斜や距離画像センサ11の姿勢が大きく変動することはないと考えられる。つまり、この時間間隔では、基準距離画像選択部13で選択される基準距離画像についてもロールおよびピッチの変化は少ないと考えられる。そこで、時間経過に伴って次々に距離画像が生成されており、前回の基準距離画像を採用することができる場合であって、前回の基準距離画像として選択された候補基準画像のロールおよびピッチの角度が(θ,φ)であるときには、今回の基準距離画像は規定した角度範囲(±Δα,±Δβ)内で選択できると推定し、候補画像絞り込み部16では、(θ±Δα,φ±Δβ)の範囲である候補基準画像を基準画像記憶部15から取り出して差分画像生成部13に与える。ここで、たとえば、α=β=3度と設定すれば、差分画像生成部13に与える候補基準画像の枚数を36枚に絞り込むことができ、差分画像を生成する際の処理負荷を小さくすることができる。なお、この手順は、移動体本体2の速度と距離画像センサ11の毎秒のフレーム数との関係に依存しており、フレーム数と速度との関係が、時系列において隣接する基準距離画像の相関性が低くなるような関係(毎秒のフレーム数に比較して速度が大きい関係)であるときには採用することができない。
By the way, the candidate
移動体本体2が走行中であって、速度や方向にほとんど変化がないときには、上述の手順で候補基準画像を絞り込むことができるが、移動体本体2の移動開始時や移動体本体2の速度や方向に大きな変化が生じたときには、前回の基準距離画像を採用することができるとは限らない。要するに、時系列において隣接する基準距離画像の相関性が低いときには、基準距離画像の関係を利用して候補基準画像を絞り込むことができない。そこで、このような場合には以下の手順を採用する。まず、デフォルトとしてロールおよびピッチの角度が所定値(δ,ε)である候補基準画像を用いる。δ=ε=0とすれば、移動体本体2が静止している状態で水平面を基準面としたときの距離画像に相当する。
When the
時系列において隣接する基準距離画像の相関性の高さは、移動体本体2の動作に応じて評価することができるから、相関性が規定値以下になる動作の場合(たとえば、停止状態から発信した場合)には、次の手順で候補基準画像を絞り込む。まず、候補画像絞り込み部16では、基準画像記憶部15に格納されているデフォルトの候補基準画像と、距離画像センサ11で生成した距離画像とを差分画像生成部13に与え、両者の差分画像を生成する。距離画像センサ11で生成した距離画像P1とデフォルトの候補基準画像P0とは、基準面が一致している場合を除けば、図3(a)に示すように、距離画像P1が候補基準画像P0に対して前後に傾斜している(ローリング)か、図3(b)に示すように、距離画像P1が候補基準画像P0に対して左右に傾斜している(ピッチング)か、あるいは前後の傾斜と左右の傾斜を合成した関係になると考えられる。
Since the correlation between adjacent reference distance images in the time series can be evaluated according to the operation of the
前後に傾斜している場合には、図4(a)のように差分画像において画素値の絶対値が規定の閾値以下になる一致領域D1が横長(長手方向がy軸方向)になり、左右に傾斜している場合には、図4(b)のように差分画像における一致領域D1が縦長(長手方向がx軸方向)になる。そこで、一致領域D1について、主軸の方向を抽出するとともに主軸の方向に直交する方向での最大幅を抽出する。この処理は候補画像絞り込み部16において行われる。
When tilted back and forth, as shown in FIG. 4A, the matching area D1 in which the absolute value of the pixel value is equal to or less than a predetermined threshold in the difference image is horizontally long (the longitudinal direction is the y-axis direction), and left and right 4B, the matching region D1 in the difference image is vertically long (the longitudinal direction is the x-axis direction) as shown in FIG. Therefore, for the coincidence region D1, the direction of the main axis is extracted and the maximum width in the direction orthogonal to the direction of the main axis is extracted. This process is performed in the candidate
なお、デフォルトの候補基準画像P0は、一致領域D1が距離画像の中心付近に生じるように設定しておく。また、上述の例では説明を簡単にするためにロールをy軸回りの回転としピッチをx軸回りの回転として説明したが、本実施形態におけるロールは純粋のロールではなくx軸方向およびz軸方向の変位を含み、またピッチも純粋のピッチではなくy軸方向およびz軸方向の変位を含んでいる。したがって、基準画像記憶部15に格納される候補基準画像は、実際には回転のみではなく、x軸方向、y軸方向、z軸方向の変位を適宜に含んで補正される。
Note that the default candidate reference image P0 is set so that the matching region D1 occurs near the center of the distance image. In the above example, the roll is rotated about the y-axis and the pitch is rotated about the x-axis for the sake of simplicity. However, the roll in this embodiment is not a pure roll but the x-axis direction and the z-axis. In addition, the pitch includes not only a pure pitch but also a displacement in the y-axis direction and the z-axis direction. Accordingly, the candidate reference image stored in the reference
図3と図4とを比較すれば明らかなように、主軸の方向に直交する方向は傾斜方向を表しており、主軸の方向に直交する方向の最大幅は傾斜角度に対応する。傾斜方向と傾斜角度との一方がわかれば、その傾斜方向または傾斜角度に対応するロールの角度θとピッチの角度φとの組合せの範囲がわかる。また、傾斜方向と傾斜角度との両方がわかれば、ロールの角度θとピッチの角度φとの組合せを一つの値に決めることが可能になる。本実施形態では、傾斜方向および傾斜角度の組合せに角度(θ,φ)を対応付けたテーブルを用意することにより、角度(θ,φ)を特定している。 As apparent from a comparison between FIG. 3 and FIG. 4, the direction orthogonal to the direction of the main axis represents the inclination direction, and the maximum width in the direction orthogonal to the direction of the main axis corresponds to the inclination angle. If one of the tilt direction and the tilt angle is known, the range of combinations of the roll angle θ and the pitch angle φ corresponding to the tilt direction or tilt angle can be known. If both the tilt direction and the tilt angle are known, the combination of the roll angle θ and the pitch angle φ can be determined as one value. In the present embodiment, the angle (θ, φ) is specified by preparing a table in which the angle (θ, φ) is associated with the combination of the tilt direction and the tilt angle.
上述のようにして角度(θ,φ)が求められると、候補画像絞り込み部16では、この角度(θ,φ)に対して適宜の角度範囲(±Δα,±Δβ)の基準画像記憶部15から候補基準画像を取り出し、取り出した各候補基準画像と距離画像センサ11で生成した距離画像との差分画像を差分画像生成部12において求める。差分画像を生成した後の処理は、上述した処理と同様であって、基準距離画像選択部13では候補基準画像のうち差分画像に含まれる一致領域の面積が最大になるものを基準距離画像として選択し、判断部14ではこの基準距離画像を用いて障害物の有無を判断する。
When the angle (θ, φ) is obtained as described above, the candidate
候補絞り込み部16の動作をまとめると図5のようになる。すなわち、前回に用いた基準距離画像を採用することができるときには(S1)、前回の基準距離画像の角度(θ,φ)を求める(S2)。この角度(θ,φ)に対して、(θ±Δα,φ±Δβ)の範囲である候補基準画像を基準画像記憶部15から取り出して差分画像生成部13に与える(S3)。
The operations of the
一方、前回の基準距離画像を採用することができない場合には(S1)、デフォルトの角度(δ,ε)である候補基準画像を基準画像記憶部15から選択し(S4)、距離画像センサ11で生成した距離画像と、この候補基準画像との差分画像を生成する(S5)。差分画像のうち画素値の絶対値が規定の閾値以下である画素領域を一致領域として抽出し(S6)、一致領域の主軸に直交する方向と当該方向における一致領域の最大幅を求める(S7)。次に、主軸に直交する方向を傾斜方向(勾配方向)とし、最大幅から傾斜角度(θ,φ)を推定する(S8)。こうして角度(θ,φ)が求まれば、(θ±Δα,φ±Δβ)の範囲である候補基準画像を基準画像記憶部15から取り出して差分画像生成部13に与える(S9)。なお、主軸に直交する方向の最大幅を用いる代わりに幅の平均値を用いたり、主軸の中点に対して所定の範囲内の幅の平均値を用いたりすることも可能である。また、上述の例では傾斜方向および傾斜角度の組合せに角度(θ,φ)を対応付けたデータテーブルを用いる例を示したが、傾斜方向と傾斜角度との一方に、角度(θ,φ)の範囲を対応付けたデータテーブルを用いて候補基準画像を絞り込むことも可能である。この場合は、傾斜方向と傾斜角度との両方を用いる場合に比較すると候補基準画像の数が多くなるが、基準画像記憶部15に格納されているすべての候補基準画像から基準距離画像を選択する場合よりは処理負荷を大幅に軽減することができる。
On the other hand, when the previous reference distance image cannot be adopted (S1), a candidate reference image having a default angle (δ, ε) is selected from the reference image storage unit 15 (S4), and the
ところで、図6のように障害物Obの上面の面積が大きく距離画像センサ11の視野内の大部分を占めるときには、差分画像において一致領域が最大になる基準距離画像を選択すると、障害物Obの上面との一致度が高い基準距離画像P2を選択することがある。この場合、距離画像センサ11で得た距離画像と基準距離画像選択部13で選択した基準距離画像との差分画像からでは障害物Obを発見できない可能性がある。
By the way, when the area of the upper surface of the obstacle Ob is large and occupies most of the visual field of the
そこで、判断部14では、基準距離画像選択部13で選択した基準距離画像と距離画像センサ11で得た距離画像との差分画像Ddを生成した後、図7に示すように、この差分画像Ddを移動体本体2に近い近接領域D2と、移動体本体2から遠い遠方領域D3とに分割するとともに(分割線を一点鎖線で示している)、近接領域D2と遠方領域D3とに含まれる各一致領域D1の面積を求める。ここに、基準距離画像との一致度が高い障害物Obであれば、近接領域D2では一致領域(斜線部)D1の面積が小さくなり、遠方領域D3では一致領域D1の面積が大きくなる。これは、移動体本体2が障害物Obに徐々に近付くことにより、遠方領域D3のほうが距離画像内で障害物Obの占める面積が先に大きくなるからである。
Therefore, the determination unit 14 generates a difference image Dd between the reference distance image selected by the reference distance image selection unit 13 and the distance image obtained by the
上述の特性を踏まえて、判断部14では、近接領域D2と遠方領域D3とについて、それぞれ一致領域D1の面積に対する閾値th2,th3を個別に用意している。近接領域D2について一致領域D1の面積S2が閾値th2以下(S2≦th2)であり、かつ遠方領域D3について一致領域D1の面積S3が閾値th3以上(S3≧th3)であるときには、図6のような関係であると判断し、差分画像における一致領域D1が障害物Obに対応すると判断する。一方、近接領域D2について一致領域D1の面積S2が閾値th2より大きく(S2>th2)、かつ遠方領域D3について一致領域D1の面積S3が閾値th3未満(S3<th3)であるときには、一致領域D1ではない領域を障害物Obに対応すると判断する。 Based on the above characteristics, the determination unit 14 individually prepares thresholds th2 and th3 for the area of the coincidence region D1 for the near region D2 and the far region D3, respectively. When the area S2 of the matching region D1 is equal to or smaller than the threshold th2 (S2 ≦ th2) with respect to the proximity region D2, and the area S3 of the matching region D1 is equal to or larger than the threshold th3 (S3 ≧ th3) with respect to the far region D3, as shown in FIG. Therefore, it is determined that the matching area D1 in the difference image corresponds to the obstacle Ob. On the other hand, when the area S2 of the coincidence region D1 is larger than the threshold th2 (S2> th2) for the near region D2, and the area S3 of the coincidence region D1 is less than the threshold th3 (S3 <th3) for the far region D3, the coincidence region D1. It is determined that the area that is not corresponds to the obstacle Ob.
判断部14では、距離画像センサ11から得られた距離画像のうち障害物Obと判断した領域について、移動体本体2について設定した直交座標系の三次元空間にマッピングするように座標変換を行い、このデータを移動体本体2に引き渡す。移動体本体2では判断部14から引き渡された三次元データを用いて障害物Obに対応する行動を行う。障害物Obに対する移動体本体2の行動は、移動体本体2にルールとして規定され、たとえば障害物との回避するように移動方向を変化させるようにルールが設定される。
The determination unit 14 performs coordinate conversion so that the region determined to be the obstacle Ob in the distance image obtained from the
ところで、上述した移動体本体2は、走行範囲の地図情報を保有しており、適宜手段で自己位置を取得するとともに地図情報を用いて自己位置に合致する行動をとるように自律的に構造するように構成されている。自己位置を取得する手段は、種々提案されており、たとえば位置が既知である複数の基地局からの電波を受信し、電波の到来方向あるいは電波の到来時間などの情報を用いて自己位置を取得する電波航法による技術、あるいは既知の基準位置からの走行距離と走行方向との履歴を用いて現在の自己位置を取得する技術などが提案されている。
By the way, the
一方、移動体本体2が自律的に走行するには、取得した自己位置を照合する地図情報が必要であり、地図情報には位置が固定されている(つまり移動しない)障害物に関する情報をあらかじめ登録しておくのが望ましい。上述したように、本実施形態では障害物を検出するとともに、障害物の位置を獲得する機能を有するから、この機能と自己位置を取得する機能とを用いることで、障害物の位置を特定した地図情報を生成することが可能である。
On the other hand, in order for the
以下では、地図情報を生成する手順について簡単に説明する。なお、図8に示すように、移動体本体2には自己位置を取得するための位置検出装置21と、画像処理装置10の出力と位置検出装置21の出力とに基づいて地図情報を生成する地図作成部22と、地図作成部22で作成した地図を格納する地図格納部23とが設けられているものとする。また、地図情報は、移動体本体2とは関係なく設定される絶対座標系での物体の位置やサイズに関する情報とする。ここで、建物のように絶対座標系での位置およびサイズが既知である情報については、あらかじめ地図格納部23に地図情報として格納しておく。
Below, the procedure which produces | generates map information is demonstrated easily. As shown in FIG. 8, the
上述のように移動体本体2の移動中に判断部14が障害物Obを検出すると、距離画像センサ11について設定した座標系での障害物Obの位置が地図作成部22に引き渡される。判断部14では距離画像と基準距離画像との差分画像により障害物Obの有無を判断するから、障害物Obが存在する基準面を認識している。つまり、この基準面を路面(または地面、床面)とみなすことができる。
As described above, when the determination unit 14 detects the obstacle Ob while the
地図作成部22では、距離画像から得られる移動体本体2と障害物Obとの距離情報に基づいて、障害物Obの存在する領域について基準面を絶対座標系におけるxy平面とみなした座標変換を行う。このとき、基準面からの障害物Obの高さ情報およびxy平面内でのサイズも得られる。このような座標変換により障害物Obに関して基準面上での移動体本体2との相対位置を求めることができる。
The
一方、移動体本体2の自己位置は位置検出装置21により認識されているから、地図作成部22では、上述のようにして得られた移動体本体2と障害物Obとの相対位置と、位置検出装置21により得られている自己位置とを用いて絶対座標系における障害物Obの位置を求める。このようにして求めた障害物Obの位置およびサイズに関する地図情報は地図格納部23に格納される。
On the other hand, since the position of the
ここに、判断部14で採用している基準面は、路面(または地面、床面)に対応するものの、路面(または地面、床面)が絶対座標系におけるxy平面に対して傾斜していることがあるから、上述のようにして得られた障害物Obの位置座標には誤差が含まれる可能性がある。ただし、地図格納部23に格納される地図情報は、移動体本体2が走行する際に用いる地図情報であるから、必ずしも絶対座標系における正確な位置を反映していなくてもよい。つまり、移動体本体2が実際に走行する際に障害物Obの位置を認識することができればよいから、地図格納部23における障害物Obの位置誤差は実使用上では何ら問題を生じない。
Here, the reference plane adopted by the determination unit 14 corresponds to the road surface (or the ground or floor surface), but the road surface (or the ground or floor surface) is inclined with respect to the xy plane in the absolute coordinate system. Therefore, there is a possibility that an error is included in the position coordinates of the obstacle Ob obtained as described above. However, since the map information stored in the
1 障害物検出装置
2 移動体本体
10 画像処理装置
11 距離画像センサ
12 差分画像生成部
13 基準距離画像選択部
14 判断部
15 基準画像記憶部
16 候補画像絞り込み部
DESCRIPTION OF
Claims (6)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005076000A JP4333611B2 (en) | 2005-03-16 | 2005-03-16 | Obstacle detection device for moving objects |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005076000A JP4333611B2 (en) | 2005-03-16 | 2005-03-16 | Obstacle detection device for moving objects |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006262009A JP2006262009A (en) | 2006-09-28 |
JP4333611B2 true JP4333611B2 (en) | 2009-09-16 |
Family
ID=37100758
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005076000A Expired - Fee Related JP4333611B2 (en) | 2005-03-16 | 2005-03-16 | Obstacle detection device for moving objects |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4333611B2 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008298741A (en) * | 2007-06-04 | 2008-12-11 | Toyota Central R&D Labs Inc | Distance measuring apparatus and distance measuring method |
JP2008298742A (en) * | 2007-06-04 | 2008-12-11 | Toyota Central R&D Labs Inc | Posture angle detection device, posture angle detecting method, and surface of floor detection device |
JP2009168751A (en) * | 2008-01-18 | 2009-07-30 | Toyota Motor Corp | Obstacle detection system and obstacle detection method |
JP4985420B2 (en) * | 2008-01-18 | 2012-07-25 | トヨタ自動車株式会社 | Floor surface detection system, mobile robot, and floor surface detection method |
JP2010170288A (en) * | 2009-01-22 | 2010-08-05 | Hitachi Ltd | Three-dimensional modeling device |
JP5156731B2 (en) * | 2009-12-24 | 2013-03-06 | 本田技研工業株式会社 | Image processing apparatus, image processing method, and image processing program |
WO2015041687A1 (en) * | 2013-09-20 | 2015-03-26 | Caterpillar Inc. | Positioning system using radio frequency signals |
JP6386293B2 (en) * | 2014-08-21 | 2018-09-05 | 株式会社日立製作所 | Vehicle and vehicle control system |
CN111427357A (en) * | 2020-04-14 | 2020-07-17 | 北京石头世纪科技股份有限公司 | Robot obstacle avoidance method and device and storage medium |
WO2023058322A1 (en) * | 2021-10-04 | 2023-04-13 | ソニーグループ株式会社 | Moving device, information processing program, and information processing method |
-
2005
- 2005-03-16 JP JP2005076000A patent/JP4333611B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2006262009A (en) | 2006-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4333611B2 (en) | Obstacle detection device for moving objects | |
KR101725060B1 (en) | Apparatus for recognizing location mobile robot using key point based on gradient and method thereof | |
EP3283843B1 (en) | Generating 3-dimensional maps of a scene using passive and active measurements | |
CN108647646B (en) | Low-beam radar-based short obstacle optimized detection method and device | |
KR101776622B1 (en) | Apparatus for recognizing location mobile robot using edge based refinement and method thereof | |
KR101708659B1 (en) | Apparatus for recognizing location mobile robot using search based correlative matching and method thereof | |
Stiller et al. | Multisensor obstacle detection and tracking | |
US10803600B2 (en) | Information processing device, information processing method, and program | |
KR101776621B1 (en) | Apparatus for recognizing location mobile robot using edge based refinement and method thereof | |
US8467902B2 (en) | Method and apparatus for estimating pose of mobile robot using particle filter | |
US8265425B2 (en) | Rectangular table detection using hybrid RGB and depth camera sensors | |
KR101776620B1 (en) | Apparatus for recognizing location mobile robot using search based correlative matching and method thereof | |
Kim et al. | Moving obstacle avoidance of a mobile robot using a single camera | |
KR100901311B1 (en) | Autonomous mobile platform | |
WO2018159168A1 (en) | System and method for virtually-augmented visual simultaneous localization and mapping | |
US20150356357A1 (en) | A method of detecting structural parts of a scene | |
US20080201014A1 (en) | Robot and method for controlling the same | |
KR20090103165A (en) | Monocular Motion Stereo-Based Free Parking Space Detection Apparatus and Method | |
JPWO2017009923A1 (en) | Self-position estimation apparatus and self-position estimation method | |
KR102056147B1 (en) | Registration method of distance data and 3D scan data for autonomous vehicle and method thereof | |
JP2005528707A5 (en) | ||
CN108844538B (en) | Unmanned aerial vehicle obstacle avoidance waypoint generation method based on vision/inertial navigation | |
CN108544494B (en) | Positioning device, method and robot based on inertia and visual characteristics | |
JP2011054082A (en) | Autonomous moving apparatus | |
US11256917B2 (en) | Moving body for tracking and locating a target |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090527 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090602 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090615 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120703 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120703 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120703 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130703 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |