JP2004184331A - Object recognition apparatus for motor vehicle - Google Patents
Object recognition apparatus for motor vehicle Download PDFInfo
- Publication number
- JP2004184331A JP2004184331A JP2002354215A JP2002354215A JP2004184331A JP 2004184331 A JP2004184331 A JP 2004184331A JP 2002354215 A JP2002354215 A JP 2002354215A JP 2002354215 A JP2002354215 A JP 2002354215A JP 2004184331 A JP2004184331 A JP 2004184331A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- angle
- target
- center
- laser
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000005540 biological transmission Effects 0.000 claims abstract description 60
- 238000004364 calculation method Methods 0.000 claims description 18
- 238000012937 correction Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 2
- 238000009434 installation Methods 0.000 abstract description 3
- 230000003287 optical effect Effects 0.000 description 50
- 238000000034 method Methods 0.000 description 34
- 230000008569 process Effects 0.000 description 19
- 238000001514 detection method Methods 0.000 description 13
- 238000000605 extraction Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000005259 measurement Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 230000008685 targeting Effects 0.000 description 6
- 230000005856 abnormality Effects 0.000 description 5
- 230000001678 irradiating effect Effects 0.000 description 5
- 230000011218 segmentation Effects 0.000 description 5
- 230000035945 sensitivity Effects 0.000 description 5
- 238000012935 Averaging Methods 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 241000282326 Felis catus Species 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 229910052739 hydrogen Inorganic materials 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012913 prioritisation Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Landscapes
- Controls For Constant Speed Travelling (AREA)
- Radar Systems Or Details Thereof (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、車幅方向及び高さ方向それぞれの所定角度範囲内に渡り送信波を照射し、その反射波に基づいて自車両の前方の物体を認識する車両用物体認識装置に関する。
【0002】
【従来の技術】
従来より、例えば特許文献1に示されるように、光波,ミリ波などの送信波を照射し、その反射波を検出することによって、前方の物体を認識する物体認識装置が考えられている。この種の装置は、例えば、前方車両を検出して警報を発生する装置や、先行車両と所定の車間距離を維持するように車速を制御する装置などに適用され、それらの制御対象としての前方車両の認識に利用されている。
【0003】
上述した物体認識装置は、車両の前方に車幅方向及び高さ方向それぞれの所定角度範囲内に渡り複数の送信波を照射し、その反射波に基づいて前方車両を3次元的に認識する。この際、通常の車両であれば存在し得ないような高さや範囲において反射物体が存在している場合には、それを車両ではないと認識するために、送信波を出力する領域に応じて、送信波の出力レベルを変化させて、非車両を前方車両として識別されにくくしたり、車両と非車両とを判別するための非車両判定マップを用いて、非車両を識別していた。ここで、非車両判定マップとは、車幅、車高、及び車両前方方向をそれぞれX軸、Y軸、及びZ軸とした場合の反射物体の存在領域に対応して、車両と非車両とを区別するための反射波の受光強度の範囲が設定された3次元マップである。
【0004】
【特許文献1】特開2002−40139
【0005】
【発明が解決しようとする課題】
ここで、上述したように送信波を出力する領域に応じて、送信波の出力レベルを変化させたり、非車両判定マップを用いて非車両を識別するためには、送信波を照射するとともに、その反射波を検出するレーダユニットが、車両に対して、非常に高精度に取り付けられている必要がある。換言すれば、レーダユニットの装着状態によって送信波の出力軸がずれている場合には、反射物体の存在領域が正確に判別できないため、車両と非車両との識別も正確に行なうことができない。
【0006】
このため、従来は、車両にレーダユニットを装着する際に、作業者が調整ボルト等を用いて装着角度等の調整を行なっていた。しかしながら、レーダユニットの装着角度の公差範囲を狭くするほど、その調整作業が困難になり、また時間もかかるため、製造コストの増加を招いていた。
【0007】
本発明は、上述した点に鑑みてなされたもので、レーダユニットを車両に装着する際に、装着角度の公差範囲に余裕をもたせながら、車両の前方の適切な角度範囲に渡って、送信波を出力することが可能な車両用物体認識装置を提供することを目的とする。
【0008】
【課題を解決するための手段】
上記目的を達成するために、請求項1に記載の車両用物体認識装置は、所定のターゲットに対するレーダユニットの送受信結果に基づいて、車幅方向及び高さ方向の少なくとも一方において送信波を照射する角度範囲を、レーダユニットが照射可能な所定の角度範囲よりも狭い狭角度範囲に設定する設定手段を備え、反射物体を認識する際、レーダユニットは、設定手段によって設定された狭角度範囲において送信波を照射することを特徴とする。
【0009】
すなわち、所定のターゲットに対するレーダユニットの送受信結果に基づいて、前方車両等を反射物体として検出する角度範囲(狭角度範囲)を設定するので、レーダユニットの装着角度の公差範囲に余裕を持たせた場合でも、適切な送信波の照射範囲を設定することができる。これにより、レーダユニットの装着角度の調整作業等も簡略化でき、製造コストの低減にも寄与できる。
【0010】
請求項2に記載したように、所定のターゲットは、レーダユニットが装着された車両に対して、所定の距離及び高さに設置された固定物であることが好ましい。このように、ターゲットとして固定物を用いることにより、その固定物からの反射波を基準として、物体の認識に使用する送信波の照射角度範囲を所望の範囲に正確に設定することができる。
【0011】
請求項3に記載したように、レーダユニットは、車両の車幅方向及び高さ方向において、複数の送信波を照射するものであり、設定手段は、所定のターゲットによる反射波の受信レベルが最も高い角度における送信波が中心となるように、狭角度範囲を設定することが好ましい。すなわち、送信波を照射すべき範囲の中心位置に所定のターゲットを設けておき、このターゲットに対応する送信波が中心となるように送信波を照射する狭角度範囲を設定する。これにより、狭角度範囲の設定を容易に行なうことができるとともに、送信波の出力軸中心を狙いとする角度に合わせ込むことができる。
【0012】
請求項4に記載したように、高さ方向において隣接する送信波は、その境界領域において一部重複するように送信波の照射角度が設定されることが好ましい。例えば、送信波が光波である場合、その分解能は、原則として光のビーム径によって決定される。しかしながら、上述したように、高さ方向において隣接する送信波の境界領域に重複領域を設けることにより、各送信波単独で反射波が生じた場合と、隣接する両送信波において反射波が生じた場合とを区別することができる。これにより、高さ方向における分解能を向上することができる。
【0013】
請求項5に記載したように、設定手段が狭角度範囲を設定する際、レーダユニットは、当該レーダユニットの車両への装着許容誤差角度の範囲で、ターゲットに向けて送信波を照射する。ターゲットが、送信波の照射範囲の中央に設定されている場合、装着許容誤差角度の範囲で送信波を照射すれば、必ずターゲットによる反射波を受信できるからである。
【0014】
請求項6に記載したように、車両の高さ方向において、受信レベルが最も高い角度における送信波の上下両側において照射される送信波の受信レベルに基づいて、前記レーダユニットの中心出力軸角度を算出する算出手段を備えることが好ましい。ターゲットがある送信波に対向するように設置されている場合、その送信波のターゲットによる反射波の受信レベルが最も高くなる。しかし、その送信波の上下両側において照射される送信波によっても、受信レベルは低いがターゲットからの反射波が受信される。このとき、例えば、ターゲットが上側の送信波の照射領域よりも下側の送信波の照射領域に近ければ、下側の送信波による反射波の受信レベルが、上側の送信波による反射波の受信レベルよりも大きくなる。従って、上下両側の送信波による反射波の受信レベルの比や差等に基づいて、中央において照射される送信波の角度範囲における出力軸角度をより詳細に計算することができる。これにより、レーダユニットの出力軸角度を高精度に把握することが可能になる。
【0015】
請求項7に記載したように、中心出力軸角度が所定の基準角度範囲から外れている場合、レーダユニットの出力軸の下向き、もしくは上向き判定を行なう判定手段を備え、判定手段による下向き判定もしくは上向き判定に対応して、認識手段は、狭角度範囲における中心よりも下側もしくは上側の角度に照射される送信波による反射波に基づいて、反射物体を車両と認識する確率を低下させることが好ましい。すなわち、中心出力軸角度が所定の基準角度範囲から外れている場合には、レーダユニットは下向きあるいは上向きに車両に装着されていると判断できる。例えば、レーダユニットが下向きに装着されている場合、狭角度範囲における中心よりも下側の角度に照射される送信波は、路面に設置されたデリニエータ(キャッツアイ)等の反射物体によって反射される可能性が高くなる。従って、下向きあるいは上向き判定がなされている場合には、狭角度範囲における中心よりも下側もしくは上側の角度に照射される送信波による反射波に基づいて、反射物体を車両と認識する確率を低下させることにより、誤って非車両を車両と認識する可能性を低減することができる。
【0016】
請求項8に記載したように、算出された中心出力軸角度が所定の基準角度よりも下向きである場合、受信レベルが最も高い角度における送信波の下側において照射される送信波に対する反射波のみが検出される場合には、認識手段は、その反射物体を非車両と認識するようにしても良い。すなわち、レーダユニットが下向きに装着されている場合に、受信レベルが最も高い角度における送信波の下側において照射される送信波によってのみ反射波が生じている場合には、その反射物体の高さ位置は非常に低いため、車両からの反射ではないと判断できる。このように、請求項6に記載の算出手段によってレーダユニットの出力軸の角度を精密に把握することにより、請求項8に記載のように、車両と非車両との識別をより高精度に行なうことが可能になる。
【0017】
請求項9に記載のように、所定の条件を満たす前方車両のリフレクタから反射される反射波に基づいて、レーダユニットの高さ方向における送信波の中心出力軸角度を推測する推測手段と、推測手段によって推測された中心出力軸角度が算出手段によって算出された中心出力軸角度とずれていた場合、当該算出された中心出力軸角度を補正する補正手段とを備えることが好ましい。
【0018】
所定のターゲットを用いて送信波を照射すべき範囲を望ましい範囲に設定しても、車両の積載状態や搭乗人員等によってその照射範囲は変化する。また、車両が走行を繰り返すことにより、振動等の影響を受けてレーダユニットの装着状態が変化することもありえる。従って、所定のターゲットに基づいて算出した中心出力軸角度がずれているかどうかを判別して、ずれている場合には、補正を行なうことが好ましいのである。
【0019】
そのため、請求項9に記載の車両用物体認識装置では、車両に必ず装着されているリフレクタを用いて、レーダユニットの中心出力軸角度のずれを検出することとした。具体的には、乗用車であれば、リフレクタは地上から約75cmの位置に設置され、車種ごとの取り付け高さのばらつき範囲も小さい。従って、乗用車である所定の条件を満たす前方車両のリフレクタからの反射波に基づいて、レーダユニットの高さ方向における送信波の中心出力軸角度を推測することができる。この推測した中心出力軸角度が、算出されている中心出力軸角度とずれている場合には、その算出中心出力軸角度を補正する。
【0020】
請求項10に記載したように、推測手段は、所定の上下限距離によって規定される距離範囲に前方車両が存在するときに、中心出力軸角度を推測する対象とすることが好ましい。前方車両との距離が下限距離よりも短い場合には、車体からの反射波の受信レベルも大きくなり、リフレクタによる反射波を識別し難くなり、前方車両との距離が上限距離よりも長くなると、反射波の受信状態が不安定になり易いためである。
【0021】
請求項11に記載したように、推測手段は、前方車両の横幅が所定の範囲に属するときに中心出力軸角度を推測する対象とすることが好ましい。これにより、リフレクタの地上からの高さ位置がほぼ揃っている乗用車を対象として、中心出力軸角度を補正することができる。
【0022】
【発明の実施の形態】
以下に、本発明による車両用物体認識装置が適用された車両制御装置1について、図面とともに説明する。この車両制御装置1は、自動車に搭載され、警報すべき領域に障害物が存在する場合に警報を出力したり、前車(先行車両)に合わせて車速を制御したりする装置である。
【0023】
図1は、車両制御装置1のシステムブロック図である。車両制御装置1は認識・車間制御ECU3を中心に構成されている。認識・車間制御ECU3はマイクロコンピュータを主な構成として、入出力インターフェース(I/O)および各種の駆動回路や検出回路を備えている。これらのハード構成は一般的なものであるので詳細な説明は省略する。
【0024】
認識・車間制御ECU3は、レーザレーダセンサ5、車速センサ7、ブレーキスイッチ9、スロットル開度センサ11から各々検出信号を入力しており、警報音発生器13、距離表示器15、センサ異常表示器17、ブレーキ駆動器19、スロットル駆動器21および自動変速機制御器23に駆動信号を出力する。また認識・車間制御ECU3には、警報音量を設定する警報音量設定器24、警報判定処理における感度を設定する警報感度設定器25、クルーズコントロールスイッチ26、図示しないステアリングホイールの操作量を検出するステアリングセンサ27、及び自動車に発生したヨーレートを検出するヨーレートセンサ28が接続されている。また認識・車間制御ECU3は、電源スイッチ29を備え、電源スイッチ29がオンされることにより、所定の処理を開始する。
【0025】
レーザレーダセンサ5は、図2に示すように、発光部、受光部及びレーザレーダCPU70などを主要部として構成されている。すなわち、レーザレーダセンサ5は、レーダユニットとしての発光部、受光部に加え、その発光・受光部における検出結果から、反射物体までの距離やその車幅方向及び車高方向における位置を演算するレーザレーダCPU70も備えている。
【0026】
発光部は、パルス状のレーザ光を、発光レンズ71、スキャナ72及びガラス板77を介して放射する半導体レーザダイオード(以下、単にレーザダイオードと記載)75を備えている。レーザダイオード75は、レーザダイオード駆動回路76を介してレーザレーダCPU70に接続され、レーザレーダCPU70からの駆動信号によりレーザ光を放射(発光)する。また、スキャナ72には反射体としてのポリゴンミラー73が回転可能に設けられ、レーザレーダCPU70からの駆動信号がモータ駆動部74を介して入力されると、このポリゴンミラー73は図示しないモータの駆動力により回転する。なお、このモータの回転位置は、モータ回転位置センサ78によって検出され、レーザレーダCPU70に出力される。
【0027】
ポリゴンミラー73は、面倒れ角が異なる6つのミラー(反射面)を備えているため、車幅方向及び車高方向それぞれの所定角度の範囲で不連続にレーザ光を掃引照射(スキャン)して出力することが可能である。
【0028】
レーザレーダセンサ5の受光部は、図示しない物体に反射されたレーザ光を受光レンズ81を介して受光し、その強度に対応する電圧を出力する受光素子(フォトダイオード)83とを備えている。そして、この受光素子83の出力電圧は、増幅器85にて増幅された後にコンパレータ87に出力される。コンパレータ87は増幅器85の出力電圧を基準電圧と比較し、出力電圧>基準電圧となったとき所定の受光信号を時間計測回路89へ出力する。
【0029】
時間計測回路89には、レーザレーダCPU70からレーザダイオード駆動回路76へ出力される駆動信号も入力される。そして、図2(b)に示すように、上記駆動信号をスタートパルスPA、上記受光信号をストップパルスPBとし、2つのパルスPA,PB間の位相差(すなわちレーザ光を出射した時刻T0と反射光を受信した時刻T1との差ΔT)を2進デジタル信号に符号化する。また、ストップパルスPBのパルス幅も時間として計測する。そして、それらの値を2進デジタル信号に符号化してレーザレーダCPU70へ出力する。
【0030】
ここで、レーザ光の照射可能エリア及び、実際に先行車両等の物体を認識する時に使用される認識使用エリアについて、図3〜図9を用いて説明する。なお、図3において、レーザ光のパターン92は照射可能エリア91内の右端と左端に放射された場合のみを示しており、途中は省略している。また、レーザ光パターン92は、図3では一例として楕円形のものを示しているが、この形に限られるものではなく長方形等でもよい。さらに、レーザ光を用いる他に、ミリ波等の電波や超音波等を用いるものであってもよい。また、スキャン方式にこだわる必要はなく、距離以外にX方向、Y方向における方位を測定できる方式であればよい。
【0031】
図3に示すように、レーザレーダセンサ5は、レーザ光の照射方向をZ軸としたとき、これに垂直なXY平面内の照射可能エリア91内を順次走査することが可能である。
【0032】
本実施形態においては、図4に示すように、車高方向(Y軸方向)に隣接するレーザ光が、その境界領域において一部重複するようにレーザ光の照射角度が設定されている。すなわち、Y軸方向において、各レーザ光は1.57degの広がり角を有している。その内、隣接するレーザ光が重複する角度範囲は、0.145degである。従って、各レーザ光の中心軸間の角度は1.425degとなる。なお、図4では、便宜的に3本のレーザ光のみ示している。
【0033】
このように、Y軸方向において隣接するレーザ光が一部重複するように照射角度を設定することにより、Y軸方向における分解能を向上することができる。つまり、図4の各レーザ光を上から下に向かってそれぞれ1面、2面、3面と定義した場合、1面のレーザ光のみを反射する場合、1面と2面のレーザ光を反射する場合、2面のレーザ光のみ反射する場合、2面と3面のレーザ光を反射する場合、及び3面のレーザ光のみ反射する場合の5つのパターンに識別できる。特に、2面のレーザ光においては、その両側に重複領域があるため、2面のレーザ光付近の分解能の向上度合いを高めることができる。
【0034】
本実施形態の照射可能エリア91は、高さ方向であるY軸を基準方向、車幅方向であるX軸を走査方向とし、X軸方向には0.08deg×501点=±20degであり、Y軸方向には1.57deg×6ライン−0.145deg×5(重複領域)=8.695degである。また、スキャン方向はX軸方向については図3において左から右へ、Y軸方向については図3において上から下へである。
【0035】
次に、図5〜図9に基づいて、認識使用エリア93について説明する。レーザレーダセンサ5は、車両の前面、例えば車両のバンパーの下部に装着される。このレーザレーダセンサ5から照射されるレーザ光は、自車両の前方に存在する物体、すなわち先行車両や走行車線を判断するためのデリニエータ(キャッツアイ)、ガードレール等に的確に向けられることが必要である。従って、レーザ光の照射エリアが上下左右にずれないように、レーザレーダセンサ5の装着角度を装着基準角度に合わせ込みながら車両に装着する必要がある。
【0036】
しかしながら、作業者が調整ボルト等のメカニカルな手段によってレーダレーダセンサ5の装着角度を調整することは、レーザレーダセンサ5の装着角度の装着基準角度に対する公差範囲が小さくなるほど困難な作業となり、またその作業時間も長くなってしまう。
【0037】
そのため、本実施形態においては、そのようなメカニカルな手段による調整ではなく、レーザレーダセンサ5におけるソフト的な処理によって、レーザレーダセンサ5から照射されるレーザ光の角度範囲を、所望の基準角度範囲に合わせ込むことを可能にした。
【0038】
そのために、まず図6に示すように、レーザレーダセンサ5を装着した車両を、所定の高さに設置されたレーザ光の反射率の高いターゲット100に対して、所定の距離だけ離れた位置に移動させる。
【0039】
この状態において、図7のフローチャートに示す処理を実行することにより、認識使用領域93を設定する。すなわち、図7のステップS10において、ターゲット100に向けてレーザ光を照射するとともに、その反射光を受光する。このときに照射するレーザ光の照射角度範囲は、図5に示すように、レーザレーダセンサ5の装着角度の公差範囲に対応する。なお、図5の例では、その公差範囲は、車幅方向及び車高方向にそれぞれ±2degであり、従来に比較して大幅に緩和されている。
【0040】
ここで、ターゲット100は、レーザレーダセンサ5の装着角度が装着基準角度に一致している場合、レーザ光の照射角度範囲の中心に位置するように設置される。従って、上記したレーザレーダセンサ5の装着角度の公差範囲に対応する照射角度範囲においてレーザ光を照射することにより、レーザレーダセンサ5はターゲット100からの反射光を必ず受光するができる。
【0041】
次にステップS20において、X軸及びY軸方向において、受光した反射波の中から最も受光強度の高い反射波に対応するレーザ光を中心レーザ光として特定する。この中心レーザ光の特定に関して、図8及び図9を用いて説明する。図8は、上述したレーザ光の照射角度範囲において、X軸方向にレーザ光を走査した場合における、各レーザ光に対するターゲット100による反射光の受光強度を示す。また、図9は、Y軸方向にレーザ光を走査した場合における、各レーザ光に対するターゲット100による反射光の受光強度を示す。図8及び図9から明らかなように、最も高い受光強度を示す反射光に対応するレーザ光をX軸中心レーザ光及びY軸中心レーザ光とするのである。
【0042】
なお、図8、図9の例は、図5に示されるように、ターゲット100の位置が、レーザレーダセンサ5の装着角度の公差範囲においてもっとも中心からずれた(X、Y軸方向にそれぞれ+2deg)場合を示している。従って、この場合には、それぞれレーザ光の照射角度範囲の端部において照射されるレーザ光がX軸及びY軸中心レーザ光となる。
【0043】
そして、ステップS30において、X軸及びY軸中心レーザ光を基準として認識使用領域93を設定する。すなわち、図5に示すように、そのX軸及びY軸中心レーザ光を中心として、X軸方向に±18deg(レーザ光451本に相当)の範囲を持った左右領域、Y軸方向に4.42deg(レーザ光3本に相当)の範囲を持った上下領域を定め、これを認識使用領域93とする。
【0044】
このようにしてターゲット100を用いて認識使用領域93を設定することにより、認識使用領域93の中心に位置する中心レーザ光を狙いとする基準角度に合わせ込むことができるので、結果として、その中心レーザ光を基準として設定される認識使用領域93も、所望の認識領域に合致したものとなる。
【0045】
ただし、上述したように、X軸方向におけるレーザ光の分解能は0.08degと非常に高いが、それに比較してY軸方向におけるレーザ光の広がり角は1.57degであり、Y軸方向の分解能は低い。そのため、Y軸方向における中心レーザ光の照射角度をより高精度に認識するために上下光軸学習角度の算出処理を行なう。この上下光軸学習角度の算出処理について図10のフローチャート、図11及び図12の説明図に基づいて説明する。
【0046】
まず、図11に基づいて、レーザレーダセンサ5の装着高さΔYと、Y軸中心レーザ光の目標とする基準角度ΔAの関係について説明する。レーザレーダセンサ5は車両のバンパー下部等に装着されるものであるが、その装着高さΔYは、車種ごとに変化する。このとき、装着高さΔYが小さい、すなわち地上から低い位置にレーザレーダセンサ5が装着される場合には、Y軸中心レーザ光の中心角度が上向きに設定されることが好ましい。一方、その装着高さΔYが大きい場合には、Y軸中心レーザ光の中心角度がほぼ水平に設定されることが好ましい。
【0047】
このように、レーザレーダセンサ5の装着高さΔYに応じて、Y軸中心レーザ光の中心角度の狙いとする基準角度は異なる。そのため、本実施形態では、この基準角度をΔAとし、車種ごとに設定する。例えば、装着高さΔYが小さい車種に対しては、基準角度ΔAを0.5degに設定し、装着高さΔYが大きい車種に対しては、基準角度ΔAを0degに設定する。そして、以下に説明する上下光軸学習角度Δθelvは、Y軸中心レーザ光の中心角度が基準角度ΔAに対してどの程度ずれているかを示すずれ角として算出されるものである。
【0048】
図10のステップS50において、認識使用領域93が設定された後に、その認識使用領域93のターゲット100が存在する中心付近において、Y軸中心レーザ光及びその両側のレーザ光を照射するとともに、その反射光を受光する。例えば図12に示す例では、Y軸中心レーザ光は面番号が5のレーザ光であり、その両側において照射されるレーザ光は、面番号が4及び6のレーザ光となる。
【0049】
そして、ステップS60において、Y軸中心レーザ光の両側のレーザ光による反射光の受光強度を計測する。この受光強度の計測においては、複数のレーザ光の受光強度を平均化した平均化受光強度を用いても良いし、1つのレーザ光の受光強度をそのまま用いても良い。
【0050】
ステップS70では、計測した受光強度に基づいて、Y軸中心レーザ光の中心角度の基準角度ΔAに対するずれ角度Δθelvを算出する。すなわち、図12に示す例においては、面番号4及び6のレーザ光による反射光の受光強度に基づいて、Y軸中心レーザ光である面番号5のレーザ光内において、その中心角度が基準角度ΔAに対して、どの程度ずれているかを示すずれ角Δθelvを算出する。具体的な算出方法としては、例えば、面番号4の受光強度:面番号6の受光強度=3:1である場合には、(広がり角1.57deg―重複範囲0.145×2)×3/(3+1)−0.64deg=0.32degとして、面番号4のレーザ光側に0.32degだけずれていると算出することができる。このとき、基準角度ΔAに対応する角度が面番号4のレーザ光側にずれている場合、レーザレーダセンサ5の光軸の向きは全体として下向きとなるため、マイナス(−)の符号を付けて表す。一方、面番号6のレーザ光側にずれている場合には、レーザレーダセンサ5の光軸の向きは上向きとなるため、プラス(+)の符号を付けて表す。
【0051】
なお、基準角度ΔAに対するずれ角Δθelvの算出方法については、例えば、面番号4及び6の受光強度の差を求め、その差に応じてを求めても良い。さらに、面番号5のY軸中心レーザ光の受光強度を基準として、面番号4及び6のレーザ光の受光強度に応じた角度をそれぞれ求め、それらの角度を減算することにより、ずれ角Δθelvを求めても良い。
【0052】
本来であれば、面番号5のレーザ光のY軸方向における広がり角度の中心角度が基準角度ΔAに一致するようにターゲット100を設置することが理想である。しかしY軸方向のレーザ光の広がり角が大きいため、その広がり角内でターゲット100の位置が変化しても、それを検知することができない。そこで、上述したように、Y軸中心レーザ光の両側において照射されるレーザ光の受光強度を用いることにより、より詳細なレーザ光の上下光軸中心を算出できるのである。このY軸中心レーザ光の広がり角の中心角度が、基準角度ΔAからずれている場合に、そのずれ角度Δθelvを上下光軸学習角度として記憶する。
【0053】
このようにして上下光軸学習角度Δθelvを求めることで、後述するように、先行車両等の物体の認識をより高精度に行なうことが可能になる。
【0054】
レーザレーダセンサ5が、上述した手順で、認識使用領域93を設定した後、実際に自車両の前方に存在する物体を認識する際には、レーザレーダCPU70が認識使用領域93内を2次元的にレーザ光をスキャンさせる。このような2次元的なスキャンにより、走査方向を示すスキャン角度θx,θyと測距された距離rとが得られる。なお、2つのスキャン角度θx,θyは、それぞれ出射されたレーザビームとYZ平面に投影した線とZ軸との角度を縦スキャン角θy、出射されたレーザビームをXZ平面に投影した線とZ軸との角度を横スキャン角θxと定義する。
【0055】
レーザレーダCPU70は、時間計測回路89から入力された2つのパルスPA,PB間の時間差ΔTから物体までの距離を算出し、その距離及び対応するスキャン角度θx,θyを基にして位置データを作成する。つまり、レーザレーダ中心を原点(0,0,0)とし、車幅方向をX軸、車高方向をY軸、車両前方方向をZ軸とするXYZ直交座標に変換する。そして、このXYZ直交座標に変換された(X,Y,Z)データ及び受光信号強度データ(ストップパルスPBのパルス幅が相当する)を測距データとして認識・車間制御ECU3へ出力する。
【0056】
認識・車間制御ECU3は、レーザレーダセンサ5からの測距データを基にして物体を認識し、その認識物体から得た先行車の状況に合わせて、ブレーキ駆動器19、スロットル駆動器21および自動変速機制御器23に駆動信号を出力することにより車速を制御する、いわゆる車間制御を実施する。また、認識物体が所定の警報領域に所定時間存在した場合等に警報する警報判定処理も同時に実施する。この場合の物体としては、自車の前方を走行する前車やまたは停止している前車等が該当する。
【0057】
続いて認識・車間制御ECU3の内部構成について制御ブロックとして説明する。レーザレーダセンサ5から出力された測距データは物体認識ブロック43に送られる。物体認識ブロック43では、測距データとして得た3次元位置データに基づいて、物体の中心位置(X,Y,Z)、及び幅、奥行き、高さ等の大きさ(W,D,H)を求める。さらに、中心位置(X,Y,Z)の時間的変化に基づいて、自車位置を基準とするその物体の相対速度(Vx,Vy,Vz)を求める。さらに物体認識ブロック43では、車速センサ7の検出値に基づいて車速演算ブロック47から出力される車速(自車速)と上記求められた相対速度(Vx,Vy,Vz)とから物体が停止物体であるか移動物体であるかの識別が行なわれる。この識別結果と物体の中心位置とに基づいて自車両の走行に影響する物体が選択され、その距離が距離表示器15により表示される。
【0058】
また、ステアリングセンサ27からの信号に基づいて操舵角演算ブロック49にて操舵角が求められ、ヨーレートセンサ28からの信号に基づいてヨーレート演算ブロック51にてヨーレートが演算される。そしてカーブ半径(曲率半径)算出ブロック57では、車速演算ブロック47からの車速と操舵角演算ブロック49からの操舵角とヨーレート演算ブロック51からのヨーレートとに基づいて、カーブ半径(曲率半径)Rを算出する。そして物体認識ブロック43では、このカーブ半径Rおよび中心位置座標(X,Z)などに基づいて車両形状確率や自車線確率を算出する。この車両形状確率や自車線確率については後述する。
【0059】
このようなデータを持つ物体のモデルを「物標モデル」と呼ぶこととする。この物体認識ブロック43にて求めたデータが異常な範囲の値がどうかがセンサ異常検出ブロック44にて検出され、異常な範囲の値である場合には、センサ異常表示器17にその旨の表示がなされる。
【0060】
一方、先行車判定ブロック53では、物体認識ブロック43から得た各種データに基づいて先行車を選択し、その先行車に対する距離Zおよび相対速度Vzを求める。そして、車間制御部及び警報判定部ブロック55が、この先行車との距離Z、相対速度Vz、クルーズコントロールスイッチ26の設定状態およびブレーキスイッチ9の踏み込み状態、スロットル開度センサ11からの開度および警報感度設定器25による感度設定値に基づいて、警報判定ならば警報するか否かを判定し、クルーズ判定ならば車速制御の内容を決定する。その結果を、警報が必要ならば、警報発生信号を警報音発生器13に出力する。また、クルーズ判定ならば、自動変速機制御器23、ブレーキ駆動器19およびスロットル駆動器21に制御信号を出力して、必要な制御を実施する。そして、これらの制御実行時には、距離表示器15に対して必要な表示信号を出力して、状況をドライバーに告知する。
【0061】
このような車間制御や警報判定に際しては、その前提となる物体認識、さらに詳しく言えば、ここでの認識対象物体である車両の認識が適切に行われていることが重要である。そこで、その車両認識を適切に行なうため、認識・車間制御ECU3の物体認識ブロック43において実行される物体認識に関する処理について説明する。
【0062】
図13(a)のフローチャートに物体認識に係るメイン処理を示す。図13(a)のステップS110では、レーザレーダセンサ5から1スキャン分の測距データの読み込みを行なう。レーザレーダセンサ5でのスキャン周期は例えば100msecであり、100msec毎にデータを取り込む。
【0063】
ステップS120では、データのセグメント化を行なう。上述したように、測距データとして得た3次元位置データをグルーピングしてセグメントを形成する。このセグメント化においては、所定の接続条件(一体化条件)に合致するデータ同士を集めて1つのプリセグメントデータを生成し、さらにそのプリセグメントデータ同士の内で所定の接続条件(一体化条件)に合致するものを集めて1つの本セグメントデータとするというものである。プリセグメントデータは、例えば点認識されたデータ同士のX軸方向の距離△Xが0.2m以下、Z軸方向の距離△Zが2m以下という2条件を共に満たす場合に、その点集合を一体化して求める。本実施形態では、Y軸方向に3つの走査ラインがあるが、プリセグメント化によって各ライン毎にプリセグメントデータが生成されている。そのため、本セグメント化では、3次元(X,Y,Z)空間で近接するプリセグメントデータ同士を一体化(本セグメント化)する。本セグメントデータは、X軸,Y軸及びZ軸にそれぞれ平行な3辺を持つ直方体の領域であり、その中心座標(X,Y,Z)と大きさを示すための3辺の長さ(W,H,D)をデータ内容とする。なお、特に断らない限り、本セグメント(データ)のことを単にセグメント(データ)と称することとする。
【0064】
ステップS130では、各セグメントデータをプリ物標とし、各プリ物標について、物標モデルとして物標化処理の対象となる確率である物標化優先確率を計算する。ここで、物標モデルとは、一まとまりのセグメントに対して作成される物体のモデルであり、プリ物標とは、物標化処理を行なう物標モデルの候補となるものである。本実施形態においては、プリ物標は最大で18個選択可能であり、物標モデルは、それらプリ物標の中から物標化優先確立の高い順に4個選択される。
【0065】
各プリ物標の物標化優先確率は、車両形状確率が所定確率(例えば50%)以上か否か、移動物か否か、自車両に対する横方向位置が所定距離(例えば左右それぞれに6m)以内であるか否か、所定時間以上継続して検出されているか否か等を判断要素として、該当する項目が多いほど確率が高くなるように算出される。
【0066】
ここで、車両形状確率について説明する。
【0067】
路側にデリニエータが狭い間隔で多数設置されているような場合やガードレールを検出しているような場合には、これらの停止物を移動物であると誤認識してしまう可能性がある。これは、同一位置に常に何かを検出することにより、その位置に自車と同速度で走行している車両が存在すると判断してしまうからである。そこで、このように移動物であると誤認識した物体が誤って先行車と判断されてしまわないように、車両形状確率を算出する。そして、先行車判定ブロック53においてこの車両形状確率が例えば50%未満の場合に路側物であると判定するようにすれば、繰り返し現れる停止物を誤って先行車両と判断することを防止できる。
【0068】
車両形状確率の取り得る範囲は0〜100%であり、瞬間的なノイズやバラツキによる影響を低減するために、数式1のように加重平均して求める。
【0069】
【数1】今回の車両形状確率←前回値×α+今回の瞬時値×(1−α)
なお、初期値は50%とし、αは例えば0.8といった値を採用する。また、車両形状確率の瞬時値は、相対加速度、縦横の長さD,W、検出時間などに基づいて算出する。なお、この車両形状確率の算出方法は、特開2002−40139の段落番号0045から0049に詳しく記載されているため、これ以上の説明は省略する。
【0070】
ステップS140では、物標化優先確率の高い4つのプリ物標を物標として選択し、それらに対して物標化処理を行なう。この物標化処理を図13(b)のフローチャートを参照して説明する。物標化処理においてはまず、物標モデルの対応セグメントを検索する(ステップS141)。これは、前回までに得た物標モデルが、今回検出したセグメントの内のいずれと一致するかを検索する処理であり、物標モデルに対応するセグメントとは次のように定義する。まず、物標モデルが前回処理時の位置から前回処理時における相対速度で移動したと仮定した場合、現在物標モデルが存在するであろう推定位置を算出する。続いて、その推定位置の周囲に、X軸,Y軸,Z軸方向それぞれに所定量の幅を有する推定移動範囲を設定する。そして、その推定移動範囲に少なくとも一部が含まれるセグメントを対応セグメントとする。
【0071】
ステップS142では、物標モデルのデータ更新処理を実行する。この処理は、対応するセグメントがあれば物標モデルの過去データを現在のデータに基づいて更新するもので、更新されるデータは、中心座標(X,Y,Z)、幅W、高さH、奥行きD、X軸方向,Y軸方向、Z軸方向の相対速度(Vx,Vy,Vz)、中心座標(X,Y,Z)の過去4回分のデータ、自車線確率などである。なお、対応するセグメントがない場合は、物標モデルのデータ更新は行なわず、新規物標モデルの登録を行なう。
【0072】
その後、ステップS143にて、自車線確率の算出を行なう。自車線確率とは、物標モデルが自車と同一レーンを走行している車両である確からしさを表すパラメータである。具体的には、まず物標モデルの位置を算出し、その算出した位置を自車線確率マップに重ねて、物標モデルの自車線確率瞬時値を求める。なお、自車線確率マップとは、自車の前方の所定の範囲(例えば左右それぞれ5m、前方100m)を複数の領域に分け、距離が近いほど、また、自車の進路上に近いほど、確率が高くなるように各領域に確率が付与されているマップである。
【0073】
自車線確率瞬時値を求めた後は、数式2のように加重平均して自車線確率を求める。
【0074】
【数2】自車線確率←自車線確率前回値×α+自車線確率瞬時値×(1−α)
ここで、αは一定値でも良いし、物標モデルとの距離や物標モデルが存在する領域に応じて変化するものであっても良い。なお、自車線確率の算出方法についても、特開2002−40139の段落番号0050から0056に詳しく記載されているため、これ以上の詳細な説明は省略する。
【0075】
そして、車両形状確率や自車線確率も含めた物標モデルのデータが、図1に示す物体認識ブロック43から先行車判定ブロック53へ出力される。なお、先行車判定ブロック53では、例えば車両形状確率が所定のしきい値(例えば50%)以上、且つ自車線確率が所定のしきい値(例えば50%)以上の物標モデルの中で、距離Zが最小のものを先行車と判断する。この判断結果は車間制御部及び警報判定部ブロック55に出力されることとなる。
【0076】
次に、レーザレーダセンサ5の光軸中心の学習処理について説明する。
【0077】
ターゲット100を用いてレーザレーダセンサ5における認識使用エリア93の中心レーザ光の照射角度を基準角度ΔAに一致するように設定した場合であっても、実際のレーザ光の照射範囲は、種々の要因で変動する。例えば、車両の積載状態や搭乗人員等によって、特にY軸(上下)方向において、レーザレーダセンサ5のレーザ光照射範囲は、認識使用エリア93として設定した範囲からずれる場合がある。また、車両が走行を繰り返すことにより、走行振動等の影響を受けてレーザレーダセンサ5の車両装着状態が変化することもありえる。このように、特にY軸方向におけるレーザ光の照射角度が変動し易いため、上述したように所定のターゲット100に基づいて算出した上下光軸学習角度Δθelvがずれているかどうかを判別して、ずれている場合には、補正を行なうことが好ましいのである。
【0078】
本実施形態においては、乗用車に必ず装着されているリフレクタを用いて、レーザレーダセンサ5の光軸中心の学習を行なう。その理由は、乗用車のリフレクタは地上から約75cmの位置に設置され、車種ごとの取り付け高さのばらつき範囲も小さいためである。
【0079】
図14にレーザレーダセンサ5の光軸中心の学習処理のフローチャートを示す。まず、ステップS200において、複数のプリ物標に対する物標化優先確率を算出する。この物標化優先確立の算出方法は、既に図13(a)のフローチャートのステップS130にて説明した方法と基本的に同様である。
【0080】
ただし、本学習処理では、上述した上下光軸学習角度Δθelvを用いて、より詳細に車両と車両以外のプリ物標を識別し、車両以外のプリ物標に関しての物標化優先確率を、所定の低い確率(例えば20%)に制限する。以下、上下光軸学習角度Δθelvを用いた車両と車両以外のプリ物標の識別方法について説明する。なお、この識別方法は、図13(a)のフローチャートのステップS130において適用し、車両以外のプリ物標の物標化優先確率を所定の低い確率に制限しても良い。
【0081】
まず、上下光軸学習角度Δθelvと上向き判定角度(例えば+0.5deg)及び下向き判定角度(例えば−0.5deg)と比較することにより、光軸の上向きもしくは下向き判定を行なう。すなわち、上下光軸学習角度Δθelv≧+0.5degであれば上向き判定がなされ、上下光軸学習角度Δθelv≦−0.5degであれば下向き判定がなされる。
【0082】
そして、光軸上向き判定がなされている場合には、以下の条件(1)もしくは(2)が成立するプリ物標に関する物標化優先確率を所定の低い確率に制限する。なお、各条件の説明に際して、適宜図11に示す例を参照する。
【0083】
(1)Y軸中心レーザ光の下側のレーザ光のみによって反射光が受光され、かつプリ物標との距離Z(cm)>装着高さΔY(cm)×40+D(cm)が成立した場合
図11に示すように、本実施形態においては、Y軸方向のレーザ光の広がり角は1.57degであり、tan(1.57deg)≒1/37となる。また、中心レーザ光下側のレーザ光のみの広がり角度、すなわち重複領域を除くレーザ光の広がり角度は、1.57−0.145=1.425degであり、tan(1.425deg)≒1/40となる。
【0084】
ここで、Y軸中心レーザ光の下側のレーザ光(6面のレーザ光)は、原則として水平よりも下向きに照射される。しかし、光軸上向き判定がなされたときには、6面のレーザ光の上端がほぼ水平となる場合もある。そのような場合であっても、プリ物標との距離Zが上記の式を満足する場合には、6面のレーザ光の下端は少なくとも路面に達している。また、6面のレーザ光に対して反射光が生じ、Y軸中心レーザ光である5面のレーザ光によって反射光が生じていないのであるから、その反射光を生じているプリ物標は路面上もしくは路面に非常に近い位置にあると推測できる。このため、このプリ物標は、例えばデリニエータ等の車両以外の物体と推測できる。
【0085】
なお、上記した式におけるD(cm)は、測距誤差と道路の勾配等を考慮して設定した余裕値であり、例えば500(cm)に設定される。
【0086】
(2)Y軸中心レーザ光の上側のレーザ光、もしくはY軸中心レーザ光とその上側のレーザ光の両方に対して反射光が受光され、かつプリ物標との距離Z(cm)>(350(cm)−ΔY(cm))×37+D(cm)が成立した場合
光軸上向き判定がなされている場合には、上述したように、Y軸中心レーザ光の下端がほぼ水平に近くなる場合がある。従って、図11に示す例では、Y軸中心レーザ光である5面のレーザ光及びその上側に照射される4面のレーザ光の照射方向は、上方に広がるようになる。ここで、道路上方には標識や看板等の物体が多数設置されており、上方に広がる4面及び5面のレーザ光によって、それらの物体による反射光を受光しやすくなる。上記の(2)の条件は、そのような道路上方の物体からの反射光を受光する可能性がある場合に成立するものである。
【0087】
すなわち、例えばトラック等の車高の高い車両であっても、その車高の最大値は350(cm)程度である。そのため、4面及び5面のレーザ光による反射があり、その反射光を生じたプリ物標までの距離Zが、5面のレーザ光(Y軸中心レーザ光)の照射高さがその350(cm)を超える距離よりも長い場合、車両以外の物体からの反射光である可能性が高い。従って、そのような場合には、プリ物標の物標化優先確率を制限するのである。なお、4面のレーザ光のみによって反射光が生じている場合も同様である。
【0088】
次に、光軸下向き判定がなされている場合について説明する。光軸下向き判定がなされている場合は、以下の条件(3)もしくは(4)が成立すると、プリ物標に関する物標化優先確率を所定の低い確率に制限する。
【0089】
(3)Y軸中心レーザ光の下側のレーザ光、もしくはY軸中心レーザ光とその下側のレーザ光の両方によって反射光が受光され、かつプリ物標との距離Z(cm)>ΔY(cm)×37+D(cm)が成立した場合
光軸下向き判定がなされている場合には、光軸上向き判定の場合とは逆に、Y軸中心レーザ光の上端が水平に近づく場合がある。従って、図11に示す例では、Y軸中心レーザ光である5面のレーザ光及びその下側に照射される6面のレーザ光の照射方向は、下方に広がり、路面や路面上の低い位置にある物体からの反射光を受光しやすくなる。上記の(3)の条件は、そのような路面や路面上の低い位置にある物体からの反射光を受光する可能性がある場合に成立するものである。
【0090】
すなわち、上述したように、レーザ光の広がり角度が1.57degであるため、そのtan(1.57deg)の値にレーザレーダセンサ5の装着高さΔYを乗算することによって、Y軸中心レーザ光である5面のレーザ光がほぼ路面に達する距離が算出される。その距離に余裕値D(cm)を加えた距離よりも、プリ物標までの距離Zが長く、かつ5面及び6面のレーザ光の両方、もしくは6面のレーザ光のみに対して反射光を受光している場合には、路面上の非常に低い位置からの反射であると推測できる。従って、そのような場合には、プリ物標の物標化優先確率を制限する。
【0091】
(4)Y軸中心レーザ光の上側のレーザ光のみによって反射光が受光され、かつプリ物標との距離Z(cm)>(350(cm)―ΔY(cm))×40+D(cm)が成立した場合
光軸下向き判定がなされた場合、Y軸中心レーザ光の上側のレーザ光(4面のレーザ光)は、水平よりも上方ではあるが、相対的に水平方向に近い向きに照射される。このような場合であっても、プリ物標との距離Zが上記の式を満足する場合には、4面のレーザ光の上端は少なくとも最も高い車高以上の高さに達している。また、4面のレーザ光に対して反射光が生じ、Y軸中心レーザ光である5面のレーザ光によって反射光が生じていないのであるから、その反射光を生じているプリ物標は路面上の非常に高い位置にあると推測できる。このため、(4)の条件が成立した場合には、プリ物標が、標識や看板等の車両以外の物体である可能性があると推測できるのである。
【0092】
また、上述した(1)〜(4)の条件に加えて、次のような条件が成立した場合にも、プリ物標の物標化優先確率を制限しても良い。
【0093】
(5)図11に示されるように、水平方向と5面のレーザ光の下端とのなす角度Δθが、所定角度Θ以上であり、プリ物標との距離が所定の近距離l(例えば30m)以内であり、プリ物標の幅が車両の幅よりも短く(例えば0.5m以下)、6面のレーザ光のみによって反射光を受光している場合
上記所定角度Θの設定方法について説明する。まず、Y軸中心レーザ光である5面のレーザ光下端の、所定の近距離lにおける基準照射高さhを定める(例えば地上から30cm)。この基準照射高さhに基づき、数式3によって所定角度Θを演算する。
【0094】
【数3】Θ=tan−1(ΔY−h)/l
水平方向と5面のレーザ光の下端とのなす角度Δθが、このように設定した所定角度Θ以上である場合、上述したように基準照射高さhは、比較的低い位置に設定されるので、5面のレーザ光の照射範囲が少なくとも距離l以上においては地上高30cmの対象物をカバーすることになる。換言すれば、距離l以内において、6面のレーザ光のみに対して反射光が生じている場合、その反射物の高さは、せいぜい基準照射高さh程度の高さしか持たないことになる。
【0095】
従って、反射物が車両であり、所定の近距離以内に接近した場合には、上述した基準照射高さh程度の高さしか持たないことはなく、5面のビーム光によっても反射光を受光するはずである。
【0096】
従って、上記の条件が成立した場合には、その反射物(プリ物標)は、車両以外の例えばデリニエータ等と推測できるので、物標化優先確率を所定の低い確率に制限する。
【0097】
なお、上記の条件(5)においては、プリ物標の幅が所定の幅以下であることも、条件の成立要件の1つとしているが、これは確認的な意味であり、この成立要件は省略しても良い。
【0098】
このようにして、各プリ物標に対して物標化優先確率を算出した後は、図14のフローチャートのステップS210において、学習対象候補の第1抽出を行なう。この第1抽出では、移動物として認識しており、その認識が所定時間(例えば5秒)以上継続し、前述した車両形状確率が50%以上のプリ物標の中で、最も物標化優先確率の高いプリ物標を第1抽出による学習対象候補とする。従って、上述の(1)から(5)の条件に該当するプリ物標に関しては、その物標化優先確率が低く抑えられるので、車両として学習対象候補に選定される可能性は非常に低くなる。
【0099】
次に、ステップS220において、学習対象候補の第2抽出を行なう。この第2抽出では、第1抽出によって選定された学習対象候補と自車両との横方向相対速度Vxが所定の速度以下(例えば0.2m/s)であり、かつ前後方向相対速度Vzも所定の速度以下(例えば0.1m/s)である状態が、所定時間継続しているか否かを判定する。すなわち、学習対象候補が、自車両との相対的位置関係がほぼ安定しているかどうかを判定するのである。この場合、学習対象候補の測距誤差が小さくなるためである。横方向相対速度Vx及び前後方向相対速度Vzとも所定の速度以下(例えば0.1m/s)である状態が、所定時間継続していれば、第2抽出による学習対象候補とする。
【0100】
さらに、ステップS230にて学習対象候補の第3抽出を行なう。この第3抽出では、第2抽出された学習対象候補に対して、さらに、その幅が所定の範囲(例えば1.2m以上2.1m以下)に属し、かつ学習対象候補との距離Zが所定の範囲(例えば30m以上80m以下)に属するかを判定する。
【0101】
学習対象候補の幅を判定する理由は、本実施形態では、学習対象候補として、リフレクタの設置高さがほぼ統一されている乗用車を選定するためである。また、学習対象候補との距離Zを判定する理由は、接近しすぎると、リフレクタ以外のボディ反射による受光強度も高くなり、リフレクタを識別しにくくなるためであり、また距離が長くなりすぎると、受光状態が不安定となり、いずれにしても誤学習の可能性があるためである。
【0102】
幅及び距離Zとも所定の範囲に属すると判定された場合、第3抽出による学習対象候補とする。そして、このように第1抽出から第3抽出を経て選定された学習対象候補を用いて、ステップS240において、上下光軸ずれ角度瞬時値θuを算出する。この上下光軸ずれ角度瞬時値θuの算出式を数式4に示す。
【0103】
【数4】
なお、リフレクタの検出面番号とは、図15に示すように、学習対象候補となる乗用車に設けられたリフレクタからの反射光を生じさせるレーザ光の面番号である。本実施形態では、その検出面番号として、4(上面)、4.5(上面と中面の中間),5(中面),5.5(中面と下面の中間),6(下面)のいずれかの値となる。ちなみに、図15に示す例では、リフレクタの検出面番号は、5.5(中面と下面の中間)である。
【0104】
この数式4によって、Y軸中心レーザ光である面番号5のレーザ光の広がり角の中心角度が、狙いとする基準角度ΔAからどの程度ずれているのかを示す上下光軸ずれ角度瞬時値θuを算出することができる。
【0105】
そして、この数式4によって算出された上下光軸ずれ角度瞬時値θuが、例えば±1.424deg以内の範囲に属するか否かによって正常値か否かを判定する。このとき、異常値と判定されると、上下光軸ずれ角度瞬時値θuは未算出とする。
【0106】
一方、正常値と判定された場合には、数式5に示すように上下光軸ずれ角度瞬時値θuの算出回数Nuをインクリメントするとともに、数式6に示すように、上下光軸ずれ角度瞬時値θuの瞬時値の総和を求める。
【0107】
【数5】Nu=Nu+1
【0108】
【数6】
【0109】
さらに、上下光軸ずれ角度瞬時値θuの算出回数Nuが所定回数(例えば200回)に達した時点で、数式7に示すように上下光軸ずれ角度瞬時値θuの平均値θuaveを算出する。
【0110】
【数7】
【0111】
このθuaveの算出に伴って、算出回数Nu及び総和Σθuはそれぞれ0に初期化する。
【0112】
次に、ステップS250において、上下光軸ずれ角度瞬時値θuの平均値θuaveに基づいて、上下光軸学習角度Δθelvを補正する。具体的には、上下光軸学習角度Δθelvの急激な変化を防止するため、上下光軸学習角度Δθelvに0.05degを加算した値及び上下光軸学習角度Δθelvから0.05degを減算した値と、上下光軸ずれ角度瞬時値θuの平均値θuaveとを比較する。この比較において、平均値θuaveが上下光軸学習角度Δθelvに0.05degを加算した値よりも大きいと判断したときには、上下光軸学習角度Δθelvに0.05degを加算する。また、平均値θuaveが上下光軸学習角度Δθelvから0.05degを減算した値よりも小さいと判断したときには、上下光軸学習角度Δθelvから0.05degを減算する。このようにして、上下光軸学習角度Δθelvの変化量を所定角度(0.05deg)に制限しながら、上下光軸学習角度Δθelvを補正する。
【0113】
これにより、積載状態や搭乗人員等によって、特にY軸(上下)方向において、レーザレーダセンサ5のレーザ光の照射角度が、初期の設定角度(上下光軸学習角度Δθelv)からずれている場合でも、適切に補正することができる。
【0114】
なお、本発明はこのような実施形態に何等限定されるものではなく、本発明の主旨を逸脱しない範囲において種々なる形態で実施し得る。
【0115】
上記実施形態においては、X軸及びY軸方向とも、レーザレーダセンサ5の装着角度の公差範囲に余裕を持たせ、ターゲット100を用いて、X軸及びY軸において受光強度の最も高いレーザ光を中心として認識使用領域93を設定していた。しかしながら、例えば一方の軸(X軸もしくはY軸)に関しては、装着角度の公差範囲を狭くし、他方の軸方向においてのみ、ターゲット100を用いて認識使用領域93を設定するようにしても良い。この場合も、従来技術と比較した場合、レーザレーダセンサ5の装着角度の調整作業の負担を軽減することができる。
【0116】
上記実施形態では、レーザ光の2次元スキャンを行なうために面倒れ角が異なるポリゴンミラー73を用いたが、例えば車幅方向にスキャン可能なガルバノミラーを用い、そのミラー面の倒れ角を変更可能な機構を用いても同様に実現できる。但し、ポリゴンミラー73の場合には、回転駆動だけで2次元スキャンが実現できるという利点がある。
【0117】
上記実施形態では、レーザレーダセンサ5内部において、距離及び対応するスキャン角度θx,θyを極座標系からXYZ直交座標系に変換していたが、その処理を物体認識ブロック43において行っても良い。
【0118】
上記実施形態ではレーザ光を用いたレーザレーダセンサ5を採用したが、ミリ波等の電波や超音波等を用いるものであってもよい。また、スキャン方式にこだわる必要はなく、距離以外に方位を測定できる方式であればよい。そして、例えばミリ波でFMCWレーダ又はドップラーレーダなどを用いた場合には、反射波(受信波)から先行車までの距離情報と先行車の相対速度情報が一度に得られるため、レーザ光を用いた場合のように、距離情報に基づいて相対速度を算出するという過程は不要となる。
【図面の簡単な説明】
【図1】本発明が適用された車両制御装置の構成を示すブロック図である。
【図2】(a)はレーザレーダセンサの構成を示す構成図であり、(b)はレーザレーダセンサにおける距離検出方法を説明するための説明図である。
【図3】レーザレーダセンサの照射可能領域を示す斜視図である。
【図4】レーザレーダセンサから照射されるレーザ光の、Y軸方向における広がり角及び重複範囲を説明するための説明図である。
【図5】レーザレーダセンサの認識使用領域の設定方法を説明するための説明図である。
【図6】車両とターゲットとの位置関係を示す斜視図である。
【図7】認識使用領域を設定するための処理を示すフローチャートである。
【図8】レーザレーダセンサ5の装着角度の公差範囲に対応するレーザ光の照射角度範囲において、X軸方向にレーザ光を走査した場合における、各レーザ光に対するターゲットによる反射光の受光強度を示すグラフである。
【図9】レーザレーダセンサ5の装着角度の公差範囲に対応するレーザ光の照射角度範囲において、Y軸方向にレーザ光を走査した場合における、各レーザ光に対するターゲットによる反射光の受光強度を示すグラフである。
【図10】上下光軸学習角度の算出処理を示すフローチャートである。
【図11】レーザレーダセンサの装着高さΔYと、Y軸中心レーザ光の目標とする基準角度ΔAの関係について説明するための説明図である。
【図12】Y軸中心レーザ光の中心角度の基準角度ΔAに対するずれ角度Δθelvを算出する方法を説明するための説明図である。
【図13】(a)物体認識に係わる処理を示すフローチャートであり、(b)は(a)のフローチャートにおいて実行される物標化処理を示すフローチャートである。
【図14】レーザレーダセンサの光軸中心の学習処理を示すフローチャートである。
【図15】リフレクタの検出面番号について説明するための説明図である。
【符号の説明】
1…車両制御装置、3…認識・車間制御ECU、5…レーザレーダセンサ、7…車速センサ、9…ブレーキスイッチ、11…スロットル開度センサ、13…警報音発生器、15…距離表示器、17…センサ異常表示器、19…ブレーキ駆動器、21…スロットル駆動器、23…自動変速機制御器、24…警報音量設定器、25…警報感度設定器、26…クルーズコントロールスイッチ、27…ステアリングセンサ、28…ヨーレートセンサ、29…電源スイッチ、30…ワイパスイッチ、43…物体認識ブロック、44…センサ異常検出ブロック、47…車速演算ブロック、49…操舵角演算ブロック、51…ヨーレート演算ブロック、53…先行車判定ブロック、55…車間制御部及び警報判定部ブロック、57…カーブ半径算出ブロック、70…レーザレーダCPU、71…発光レンズ、72…スキャナ、73…ミラー、74…モータ駆動回路、75…半導体レーザダイオード、76…レーザダイオード駆動回路、77…ガラス板、81…受光レンズ、83…受光素子、85…アンプ、87…コンパレータ、89…時間計測回路[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an object recognition device for a vehicle that irradiates a transmission wave within a predetermined angle range in each of a vehicle width direction and a height direction and recognizes an object ahead of a host vehicle based on the reflected wave.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, as disclosed in Patent Document 1, for example, an object recognition device that irradiates a transmission wave such as a light wave or a millimeter wave and detects a reflected wave to recognize a forward object has been considered. This type of device is applied to, for example, a device that detects a preceding vehicle and generates an alarm, and a device that controls a vehicle speed so as to maintain a predetermined inter-vehicle distance with a preceding vehicle. Used for vehicle recognition.
[0003]
The above-described object recognition device irradiates a plurality of transmission waves in a predetermined angle range in each of the vehicle width direction and the height direction in front of the vehicle, and three-dimensionally recognizes the preceding vehicle based on the reflected waves. At this time, if there is a reflecting object at a height or range that would not be possible with a normal vehicle, in order to recognize that it is not a vehicle, In addition, the output level of the transmission wave is changed to make it difficult for the non-vehicle to be identified as the preceding vehicle, or the non-vehicle is identified using the non-vehicle determination map for distinguishing the vehicle from the non-vehicle. Here, the non-vehicle determination map refers to the vehicle, the non-vehicle, and the vehicle width, the vehicle height, and the vehicle presence direction when the vehicle front direction is defined as the X axis, the Y axis, and the Z axis, respectively. Is a three-dimensional map in which the range of the received light intensity of the reflected wave for discriminating is set.
[0004]
[Patent Document 1] JP-A-2002-40139
[0005]
[Problems to be solved by the invention]
Here, as described above, according to the area to output the transmission wave, or to change the output level of the transmission wave, to identify a non-vehicle using a non-vehicle determination map, while irradiating the transmission wave, A radar unit for detecting the reflected wave needs to be attached to the vehicle with very high accuracy. In other words, if the output axis of the transmission wave is deviated depending on the mounting state of the radar unit, the area where the reflective object exists cannot be accurately determined, so that it is not possible to accurately distinguish between the vehicle and the non-vehicle.
[0006]
For this reason, conventionally, when mounting the radar unit on the vehicle, the operator has adjusted the mounting angle or the like using an adjustment bolt or the like. However, the narrower the tolerance range of the mounting angle of the radar unit becomes, the more difficult the adjustment work becomes and the longer the time becomes, resulting in an increase in manufacturing cost.
[0007]
The present invention has been made in view of the above points, and when a radar unit is mounted on a vehicle, transmission waves are transmitted over an appropriate angle range in front of the vehicle while providing a margin in the tolerance range of the mounting angle. It is an object of the present invention to provide a vehicular object recognition device capable of outputting the object.
[0008]
[Means for Solving the Problems]
In order to achieve the above object, a vehicle object recognition device according to claim 1 irradiates a transmission wave in at least one of a vehicle width direction and a height direction based on a transmission / reception result of a radar unit with respect to a predetermined target. Setting means for setting the angle range to a narrow angle range narrower than a predetermined angle range that can be irradiated by the radar unit, and when recognizing a reflective object, the radar unit transmits in the narrow angle range set by the setting means. It is characterized by irradiating waves.
[0009]
That is, an angle range (narrow angle range) for detecting a preceding vehicle or the like as a reflection object is set based on a result of transmission / reception of the radar unit with respect to a predetermined target, so that a margin is provided for a tolerance range of the mounting angle of the radar unit. Even in this case, it is possible to set an appropriate transmission wave irradiation range. Thus, the work of adjusting the mounting angle of the radar unit and the like can be simplified, which can contribute to a reduction in manufacturing cost.
[0010]
As described in claim 2, it is preferable that the predetermined target is a fixed object installed at a predetermined distance and height with respect to the vehicle on which the radar unit is mounted. As described above, by using the fixed object as the target, the irradiation angle range of the transmission wave used for object recognition can be accurately set to a desired range based on the reflected wave from the fixed object.
[0011]
As described in claim 3, the radar unit irradiates a plurality of transmission waves in the width direction and the height direction of the vehicle, and the setting unit determines that the reception level of the reflected wave by the predetermined target is the highest. It is preferable to set the narrow angle range so that the transmission wave at a high angle is centered. That is, a predetermined target is provided at the center position of the range to be irradiated with the transmission wave, and a narrow angle range for irradiating the transmission wave is set such that the transmission wave corresponding to this target is the center. Thus, the narrow angle range can be easily set, and the center of the output axis of the transmission wave can be adjusted to the target angle.
[0012]
As described in
[0013]
As set forth in
[0014]
As described in
[0015]
As described in
[0016]
As described in claim 8, when the calculated center output shaft angle is lower than the predetermined reference angle, only the reflected wave with respect to the transmitted wave irradiated below the transmitted wave at the highest reception level angle. Is detected, the recognition means may recognize the reflection object as a non-vehicle. In other words, when the radar unit is mounted downward and the reflected wave is generated only by the transmitted wave irradiated below the transmitted wave at the highest reception level, the height of the reflected object Since the position is very low, it can be determined that the position is not a reflection from the vehicle. In this way, by accurately grasping the angle of the output shaft of the radar unit by the calculating means according to
[0017]
An estimating means for estimating a central output shaft angle of a transmission wave in a height direction of a radar unit based on a reflected wave reflected from a reflector of a preceding vehicle that satisfies a predetermined condition. When the center output shaft angle estimated by the means is deviated from the center output shaft angle calculated by the calculation means, it is preferable to include a correction means for correcting the calculated center output shaft angle.
[0018]
Even if the range in which the transmission wave is to be irradiated using the predetermined target is set to a desired range, the irradiation range varies depending on the loaded state of the vehicle, the number of occupants, and the like. Further, when the vehicle repeatedly travels, the mounting state of the radar unit may change under the influence of vibration or the like. Therefore, it is preferable to determine whether or not the center output shaft angle calculated based on a predetermined target is shifted, and to correct the center output shaft angle if it is shifted.
[0019]
Therefore, in the vehicle object recognition device according to the ninth aspect, the deviation of the center output shaft angle of the radar unit is detected using the reflector that is always mounted on the vehicle. Specifically, in the case of a passenger car, the reflector is installed at a position of about 75 cm from the ground, and the variation range of the mounting height for each vehicle type is small. Therefore, the center output shaft angle of the transmission wave in the height direction of the radar unit can be estimated based on the reflected wave from the reflector of the preceding vehicle that satisfies the predetermined condition of the passenger car. If the estimated center output shaft angle deviates from the calculated center output shaft angle, the calculated center output shaft angle is corrected.
[0020]
As described in
[0021]
As described in claim 11, it is preferable that the estimating means is an object for estimating the center output shaft angle when the lateral width of the preceding vehicle belongs to a predetermined range. As a result, the center output shaft angle can be corrected for a passenger vehicle in which the height positions of the reflectors from the ground are substantially the same.
[0022]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, a vehicle control device 1 to which a vehicle object recognition device according to the present invention is applied will be described with reference to the drawings. The vehicle control device 1 is a device that is mounted on a vehicle and outputs a warning when an obstacle exists in an area to be warned, or controls a vehicle speed in accordance with a preceding vehicle (preceding vehicle).
[0023]
FIG. 1 is a system block diagram of the vehicle control device 1. The vehicle control device 1 is mainly configured by a recognition / interval control ECU 3. The recognition / vehicle distance control ECU 3 has a microcomputer as a main component, and is provided with an input / output interface (I / O) and various drive circuits and detection circuits. Since these hardware configurations are general, detailed description will be omitted.
[0024]
The recognition / interval control ECU 3 receives detection signals from the
[0025]
As shown in FIG. 2, the
[0026]
The light emitting section includes a semiconductor laser diode (hereinafter simply referred to as a laser diode) 75 that emits a pulsed laser beam through a
[0027]
Since the
[0028]
The light receiving section of the
[0029]
A drive signal output from the
[0030]
Here, a laser beam irradiation area and a recognition use area used when actually recognizing an object such as a preceding vehicle will be described with reference to FIGS. In FIG. 3, the
[0031]
As shown in FIG. 3, when the irradiation direction of the laser beam is the Z axis, the
[0032]
In the present embodiment, as shown in FIG. 4, the irradiation angle of the laser light is set so that the laser light adjacent in the vehicle height direction (Y-axis direction) partially overlaps in the boundary region. That is, each laser beam has a spread angle of 1.57 deg in the Y-axis direction. The angle range in which the adjacent laser beams overlap is 0.145 deg. Therefore, the angle between the central axes of the laser beams is 1.425 deg. FIG. 4 shows only three laser beams for convenience.
[0033]
As described above, by setting the irradiation angle so that the adjacent laser beams partially overlap in the Y-axis direction, the resolution in the Y-axis direction can be improved. That is, when each laser beam in FIG. 4 is defined as one surface, two surfaces, and three surfaces from top to bottom, respectively, when only one surface of the laser light is reflected, one surface and two surfaces of the laser light are reflected. There are five patterns: one that reflects only two surfaces of laser light, one that reflects two and three surfaces of laser light, and one that reflects only three surfaces of laser light. In particular, since the laser light on two surfaces has overlapping regions on both sides, the degree of improvement in the resolution near the laser light on two surfaces can be increased.
[0034]
The irradiable
[0035]
Next, the
[0036]
However, it is more difficult for an operator to adjust the mounting angle of the
[0037]
For this reason, in the present embodiment, the angle range of the laser beam emitted from the
[0038]
For this purpose, first, as shown in FIG. 6, the vehicle equipped with the
[0039]
In this state, the
[0040]
Here, when the mounting angle of the
[0041]
Next, in step S20, in the X-axis and Y-axis directions, a laser beam corresponding to a reflected wave having the highest received light intensity among the received reflected waves is specified as a center laser beam. The specification of the center laser light will be described with reference to FIGS. FIG. 8 shows the received light intensity of the reflected light by the
[0042]
8 and 9, as shown in FIG. 5, the position of the
[0043]
Then, in step S30, the
[0044]
By setting the
[0045]
However, as described above, the resolution of the laser light in the X-axis direction is extremely high at 0.08 deg, whereas the spread angle of the laser light in the Y-axis direction is 1.57 deg. Is low. Therefore, in order to recognize the irradiation angle of the center laser beam in the Y-axis direction with higher accuracy, the upper and lower optical axis learning angles are calculated. The calculation process of the vertical optical axis learning angle will be described with reference to the flowchart of FIG. 10 and the explanatory diagrams of FIGS. 11 and 12.
[0046]
First, the relationship between the mounting height ΔY of the
[0047]
As described above, the target reference angle of the center angle of the Y-axis center laser beam differs depending on the mounting height ΔY of the
[0048]
After the
[0049]
Then, in step S60, the received light intensity of the reflected light by the laser light on both sides of the Y-axis center laser light is measured. In the measurement of the received light intensity, an averaged received light intensity obtained by averaging the received light intensity of a plurality of laser lights may be used, or the received light intensity of one laser light may be used as it is.
[0050]
In step S70, a deviation angle Δθelv of the center angle of the Y-axis center laser beam with respect to the reference angle ΔA is calculated based on the measured light receiving intensity. That is, in the example shown in FIG. 12, the center angle of the laser beam of the
[0051]
As a method of calculating the shift angle Δθelv with respect to the reference angle ΔA, for example, the difference between the light receiving intensities of the
[0052]
Ideally, it is ideal to set the
[0053]
By obtaining the vertical optical axis learning angle Δθelv in this manner, it becomes possible to recognize an object such as a preceding vehicle with higher accuracy, as described later.
[0054]
After the
[0055]
The
[0056]
The recognition / inter-vehicle control ECU 3 recognizes an object based on the distance measurement data from the
[0057]
Next, the internal configuration of the recognition / interval control ECU 3 will be described as a control block. The distance measurement data output from the
[0058]
A steering angle is calculated in a steering
[0059]
A model of an object having such data is referred to as a “target model”. The sensor
[0060]
On the other hand, in the preceding
[0061]
In such inter-vehicle control and alarm determination, it is important that the object recognition, which is the premise thereof, more specifically, the recognition of the vehicle as the object to be recognized is properly performed. Therefore, a description will be given of a process related to object recognition performed in the object recognition block 43 of the recognition / interval control ECU 3 in order to appropriately perform the vehicle recognition.
[0062]
FIG. 13A shows a main process relating to object recognition. In step S110 of FIG. 13A, the distance data for one scan is read from the
[0063]
In step S120, data segmentation is performed. As described above, the segments are formed by grouping the three-dimensional position data obtained as the distance measurement data. In this segmentation, data that meets predetermined connection conditions (integration conditions) is collected to generate one piece of pre-segment data, and a predetermined connection condition (integration conditions) is used among the pre-segment data. Are collected into one main segment data. For example, if the pre-segment data satisfies both the conditions that the distance △ X in the X-axis direction between point-recognized data in the X-axis direction is 0.2 m or less and the distance △ Z in the Z-axis direction is 2 m or less, the point set is integrated. And ask for it. In the present embodiment, there are three scanning lines in the Y-axis direction, but pre-segmentation generates pre-segment data for each line. Therefore, in this segmentation, pre-segment data adjacent in a three-dimensional (X, Y, Z) space are integrated (main segmentation). This segment data is a rectangular parallelepiped region having three sides parallel to the X-axis, the Y-axis, and the Z-axis, and the center coordinates (X, Y, Z) and the length of the three sides (X, Y, Z) for indicating the size ( W, H, D) are data contents. This segment (data) is simply referred to as a segment (data) unless otherwise specified.
[0064]
In step S130, each segment data is set as a pre-target, and for each pre-target, a target-modeling priority probability, which is a probability of being a target of the target-setting process, is calculated as a target model. Here, the target model is a model of an object created for a set of segments, and the pre-target is a candidate for a target model to be subjected to target conversion processing. In the present embodiment, a maximum of 18 pre-targets can be selected, and four target models are selected from the pre-targets in descending order of the establishment of the target priority.
[0065]
Targeting priority probabilities of each pre-target include whether the vehicle shape probability is equal to or more than a predetermined probability (for example, 50%), whether or not the object is a moving object, and the lateral position with respect to the own vehicle is a predetermined distance (for example, 6 m on each side). It is calculated so that the probability is higher as the number of corresponding items is larger, as a determination factor based on whether or not the value is within the predetermined range and whether the detection is continued for a predetermined time or more.
[0066]
Here, the vehicle shape probability will be described.
[0067]
In the case where a large number of delineators are installed at a narrow interval on the road side or when a guardrail is detected, there is a possibility that these stationary objects may be erroneously recognized as moving objects. This is because, by always detecting something at the same position, it is determined that a vehicle running at the same speed as the own vehicle exists at that position. Thus, the vehicle shape probability is calculated so that an object erroneously recognized as a moving object is not erroneously determined as a preceding vehicle. If the preceding
[0068]
The range in which the vehicle shape probability can be taken is 0 to 100%. In order to reduce the influence of instantaneous noise and variations, the vehicle shape probability is obtained by weighted averaging as in Expression 1.
[0069]
[Formula 1] Current vehicle shape probability ← Previous value × α + Current instant value × (1-α)
Note that the initial value is 50%, and α is, for example, 0.8. The instantaneous value of the vehicle shape probability is calculated based on the relative acceleration, the lengths D and W, the detection time, and the like. Since the method of calculating the vehicle shape probability is described in detail in paragraphs 0045 to 0049 of JP-A-2002-40139, further description will be omitted.
[0070]
In step S140, four pre-targets having high target-priority probabilities are selected as targets and target-targeting processing is performed on them. This targeting process will be described with reference to the flowchart of FIG. In the target processing, first, a corresponding segment of the target model is searched (step S141). This is a process for searching which of the segments detected this time the target model obtained up to the previous time matches. The segment corresponding to the target model is defined as follows. First, assuming that the target model has moved from the position at the time of the previous processing at the relative speed at the time of the previous processing, an estimated position where the target model will be present is calculated. Subsequently, an estimated moving range having a predetermined width in each of the X-axis, Y-axis, and Z-axis directions is set around the estimated position. Then, a segment at least partially included in the estimated moving range is set as a corresponding segment.
[0071]
In step S142, a data update process of the target model is executed. In this processing, if there is a corresponding segment, the past data of the target model is updated based on the current data. The updated data includes center coordinates (X, Y, Z), width W, and height H. , Depth D, relative speeds (Vx, Vy, Vz) in the X-axis direction, Y-axis direction, and Z-axis direction, data of the past four times of center coordinates (X, Y, Z), own lane probability, and the like. If there is no corresponding segment, a new target model is registered without updating the data of the target model.
[0072]
Thereafter, in step S143, the own lane probability is calculated. The own lane probability is a parameter indicating the likelihood that the target model is a vehicle running on the same lane as the own vehicle. Specifically, first, the position of the target model is calculated, and the calculated position is superimposed on the own lane probability map to obtain the own lane probability instantaneous value of the target model. Note that the own lane probability map divides a predetermined range in front of the own vehicle (for example, 5 m each on the left and right sides and 100 m in front) into a plurality of regions, and sets the probability that the closer the distance is, or the closer the vehicle is on the course of the own vehicle. Is a map in which probabilities are assigned to the respective regions so that is higher.
[0073]
After calculating the instantaneous value of the own lane probability, the own lane probability is obtained by performing weighted averaging as in Expression 2.
[0074]
[Formula 2] own lane probability ← own lane probability previous value × α + own lane probability instantaneous value × (1-α)
Here, α may be a constant value, or may change according to the distance from the target model or the area where the target model exists. Note that the method of calculating the own lane probability is also described in detail in paragraph numbers 0050 to 0056 of JP-A-2002-40139, and therefore, further detailed description will be omitted.
[0075]
Then, data of the target model including the vehicle shape probability and the own lane probability is output from the object recognition block 43 shown in FIG. In the preceding
[0076]
Next, the learning process of the
[0077]
Even when the
[0078]
In the present embodiment, learning of the center of the optical axis of the
[0079]
FIG. 14 shows a flowchart of the learning process of the
[0080]
However, in the learning process, the vehicle and the pre-target other than the vehicle are identified in more detail using the above-described vertical optical axis learning angle Δθelv, and the target-prioritization priority probability for the pre-target other than the vehicle is determined by a predetermined value. To a low probability (eg, 20%). Hereinafter, a method of identifying a vehicle and a pre-target other than the vehicle using the vertical optical axis learning angle Δθelv will be described. Note that this identification method may be applied in step S130 of the flowchart in FIG. 13A to limit the targeting priority probability of the pre-targets other than the vehicle to a predetermined low probability.
[0081]
First, the optical axis is determined to be upward or downward by comparing the vertical optical axis learning angle Δθelv with the upward determination angle (for example, +0.5 deg) and the downward determination angle (for example, −0.5 deg). That is, if the vertical optical axis learning angle Δθelv ≧ + 0.5 deg, an upward determination is made, and if the vertical optical axis learning angle Δθelv ≦ −0.5 deg, a downward determination is made.
[0082]
Then, when the optical axis upward determination is made, the target setting priority probability regarding the pre-target satisfying the following condition (1) or (2) is limited to a predetermined low probability. In the description of each condition, an example shown in FIG. 11 is appropriately referred to.
[0083]
(1) When the reflected light is received only by the laser beam below the Y-axis center laser beam, and the distance from the pre-target Z (cm)> the mounting height ΔY (cm) × 40 + D (cm) is satisfied
As shown in FIG. 11, in the present embodiment, the spread angle of the laser light in the Y-axis direction is 1.57 deg, and tan (1.57 deg) ≒ 1/37. Further, the spread angle of only the laser light below the center laser light, that is, the spread angle of the laser light excluding the overlap region is 1.57−0.145 = 1.425 deg, and tan (1.425 deg) ≒ 1/1. It will be 40.
[0084]
Here, the lower laser light (the laser light on the six surfaces) on the lower side of the Y-axis center laser light is emitted downward in principle from the horizontal. However, when the optical axis upward determination is made, the upper ends of the six laser beams may be substantially horizontal. Even in such a case, when the distance Z from the pre-target satisfies the above equation, the lower ends of the six laser beams reach at least the road surface. Further, since reflected light is generated with respect to the laser light on the six surfaces and reflected light is not generated by the laser light on the five surfaces which is the Y-axis center laser light, the pre target that generates the reflected light is on the road surface. It can be guessed that it is on the top or very close to the road surface. For this reason, the pre target can be assumed to be an object other than the vehicle, such as a delineator.
[0085]
Note that D (cm) in the above equation is a margin value set in consideration of a ranging error, a road gradient, and the like, and is set to, for example, 500 (cm).
[0086]
(2) Reflected light is received with respect to the laser light above the Y-axis center laser light, or both the Y-axis center laser light and the laser light above it, and the distance Z (cm) from the pre-target is> 350 (cm) -ΔY (cm)) × 37 + D (cm)
When the optical axis upward determination is made, as described above, the lower end of the Y-axis center laser light may be almost horizontal. Therefore, in the example shown in FIG. 11, the irradiation directions of the laser light of the five surfaces, which is the Y-axis center laser light, and the laser light of the four surfaces irradiated above the laser light are spread upward. Here, a large number of objects such as signs and signboards are installed above the road, and the reflected laser light from these objects can be easily received by the four and five laser beams spreading upward. The above condition (2) is satisfied when there is a possibility of receiving the reflected light from the object above the road.
[0087]
That is, for example, even for a vehicle such as a truck having a high vehicle height, the maximum value of the vehicle height is about 350 (cm). Therefore, there is reflection by the laser light on the four surfaces and the five surfaces, and the distance Z to the pre target that generated the reflected light is 350 (the irradiation height of the laser light on the five surfaces (Y-axis center laser light)). If the distance is longer than the distance exceeding (cm), it is highly possible that the light is reflected light from an object other than the vehicle. Therefore, in such a case, the targeting priority probability of the pre-target is limited. Note that the same applies to a case where reflected light is generated only by the four surfaces of laser light.
[0088]
Next, a case where the optical axis downward determination is performed will be described. In the case where the optical axis downward determination is performed, if the following condition (3) or (4) is satisfied, the targeting priority for the pre-target is limited to a predetermined low probability.
[0089]
(3) Reflected light is received by the lower laser beam of the Y-axis center laser beam or both the Y-axis center laser beam and the lower laser beam, and the distance Z (cm)> ΔY from the pre-target is received. (Cm) x 37 + D (cm)
When the optical axis downward determination is performed, the upper end of the Y-axis center laser beam may approach horizontal, contrary to the optical axis upward determination. Therefore, in the example shown in FIG. 11, the irradiation directions of the laser light of the five surfaces that are the Y-axis center laser light and the laser light of the six surfaces that are irradiated below the laser light spread downward, and the road surface or a low position on the road surface , It is easy to receive the reflected light from the object at the location. The above condition (3) is satisfied when there is a possibility that reflected light from such a road surface or an object at a low position on the road surface may be received.
[0090]
That is, as described above, since the spread angle of the laser light is 1.57 deg, the value of tan (1.57 deg) is multiplied by the mounting height ΔY of the
[0091]
(4) The reflected light is received only by the laser light above the Y-axis center laser light, and the distance from the pre-target Z (cm)> (350 (cm) −ΔY (cm)) × 40 + D (cm) If it is established
When the optical axis downward determination is made, the laser light above the Y-axis center laser light (the laser light on the four sides) is emitted in a direction higher than the horizontal but relatively closer to the horizontal direction. Even in such a case, when the distance Z from the pre-target satisfies the above expression, the upper ends of the four laser beams reach at least the highest vehicle height. Also, since the reflected light is generated with respect to the laser light on the four surfaces and the reflected light is not generated by the laser light on the five surfaces that is the Y-axis center laser light, the pre target that generates the reflected light is on the road surface. It can be guessed that it is very high above. Therefore, when the condition (4) is satisfied, it can be estimated that the pre-target may be an object other than a vehicle such as a sign or a signboard.
[0092]
Also, in addition to the above-described conditions (1) to (4), the target conversion priority probability of the pre-target may be limited when the following condition is satisfied.
[0093]
(5) As shown in FIG. 11, the angle Δθ between the horizontal direction and the lower ends of the five laser beams is equal to or greater than a predetermined angle Θ, and the distance from the pre-target is a predetermined short distance l (for example, 30 m). ), The width of the pre-target is shorter than the width of the vehicle (for example, 0.5 m or less), and the reflected light is received only by the six laser beams.
A method for setting the predetermined angle Θ will be described. First, a reference irradiation height h at a predetermined short distance l of the lower end of the laser light on the five surfaces that is the Y-axis center laser light is determined (for example, 30 cm from the ground). Based on the reference irradiation height h, a predetermined angle Θ is calculated by Expression 3.
[0094]
数 = tan -1 (ΔY-h) / l
When the angle Δθ formed between the horizontal direction and the lower ends of the five laser beams is equal to or larger than the predetermined angle Θ set as described above, the reference irradiation height h is set to a relatively low position as described above. When the irradiation range of the laser light on the five surfaces is at least equal to or greater than the distance l, an object having a height of 30 cm above the ground is covered. In other words, when the reflected light is generated only for the laser light on the six surfaces within the distance l, the height of the reflected object has at most a height of the reference irradiation height h at most. .
[0095]
Therefore, when the reflecting object is a vehicle and approaches within a predetermined short distance, the reflecting object does not have a height of only the above-described reference irradiation height h, and receives the reflected light even with the light beams of the five surfaces. Should do it.
[0096]
Therefore, when the above condition is satisfied, the reflection object (pre-target) can be assumed to be a delineator other than the vehicle, for example, and therefore the target priority priority is limited to a predetermined low probability.
[0097]
In the above condition (5), the fact that the width of the pre-target is equal to or smaller than a predetermined width is also one of the requirements to be satisfied, but this is a confirming meaning, and this requirement is not satisfied. It may be omitted.
[0098]
After calculating the target priority probability for each pre-target in this way, the first extraction of the learning target candidate is performed in step S210 of the flowchart of FIG. In the first extraction, the object is recognized as a moving object, and the recognition is continued for a predetermined time (for example, 5 seconds) or longer, and among the pre-targets having the vehicle shape probability of 50% or more, the highest priority is given to targetization. A pre-target having a high probability is set as a learning target candidate by the first extraction. Therefore, for the pre-targets corresponding to the above conditions (1) to (5), the target-setting priority probability is suppressed to a low level, and the possibility of being selected as a learning target candidate as a vehicle is extremely low. .
[0099]
Next, in step S220, a second extraction of a learning target candidate is performed. In the second extraction, the lateral relative speed Vx between the learning target candidate selected by the first extraction and the own vehicle is equal to or lower than a predetermined speed (for example, 0.2 m / s), and the front-rear direction relative speed Vz is also predetermined. It is determined whether or not the state in which the speed is equal to or less than (for example, 0.1 m / s) has continued for a predetermined time. That is, it is determined whether the learning target candidate has a substantially stable relative positional relationship with the own vehicle. In this case, the distance measurement error of the learning target candidate is reduced. If the state where both the horizontal relative velocity Vx and the front-rear relative velocity Vz are equal to or lower than a predetermined speed (for example, 0.1 m / s) has continued for a predetermined time, it is determined as a learning target candidate by the second extraction.
[0100]
Further, in step S230, a third extraction of a learning target candidate is performed. In the third extraction, the width of the second extracted learning target candidate further belongs to a predetermined range (for example, 1.2 m or more and 2.1 m or less), and the distance Z from the learning target candidate is set to a predetermined value. (For example, 30 m or more and 80 m or less).
[0101]
The reason why the width of the learning target candidate is determined is that, in the present embodiment, as the learning target candidate, a passenger car having substantially the same installation height of the reflector is selected. Further, the reason for determining the distance Z to the learning target candidate is that if the distance is too close, the light reception intensity due to the body reflection other than the reflector increases, making it difficult to identify the reflector. If the distance is too long, This is because the light receiving state becomes unstable, and in any case, there is a possibility of erroneous learning.
[0102]
When it is determined that both the width and the distance Z belong to a predetermined range, the learning target candidate is determined as the learning target by the third extraction. Then, in step S240, the instantaneous value of the vertical optical axis deviation angle θu is calculated using the learning target candidates selected through the first extraction to the third extraction. The equation for calculating the instantaneous value θu of the vertical optical axis deviation angle is shown in
[0103]
(Equation 4)
The detection surface number of the reflector is, as shown in FIG. 15, a surface number of a laser beam that generates reflected light from a reflector provided in a passenger car that is a learning target candidate. In the present embodiment, the detection surface numbers 4 (upper surface), 4.5 (middle of upper surface and middle surface), 5 (middle surface), 5.5 (middle of middle surface and lower surface), 6 (lower surface) Is one of the following values. Incidentally, in the example shown in FIG. 15, the detection surface number of the reflector is 5.5 (the middle between the middle surface and the lower surface).
[0104]
According to
[0105]
Then, it is determined whether or not the instantaneous value θu of the vertical optical axis deviation angle calculated by
[0106]
On the other hand, when it is determined to be a normal value, the number of times of calculation Nu of the vertical optical axis deviation angle instantaneous value θu is incremented as shown in
[0107]
## EQU5 ## Nu = Nu + 1
[0108]
(Equation 6)
[0109]
Further, when the calculation number Nu of the vertical optical axis deviation angle instantaneous value θu reaches a predetermined number (for example, 200 times), the average value θuave of the vertical optical axis deviation angle instantaneous value θu is calculated as shown in
[0110]
(Equation 7)
[0111]
Along with the calculation of θuave, the number of calculations Nu and the sum Σθu are each initialized to zero.
[0112]
Next, in step S250, the vertical optical axis learning angle Δθelv is corrected based on the average value θuave of the vertical optical axis deviation angle instantaneous value θu. Specifically, in order to prevent a sudden change in the vertical optical axis learning angle Δθelv, a value obtained by adding 0.05 deg to the vertical optical axis learning angle Δθelv and a value obtained by subtracting 0.05 deg from the vertical optical axis learning angle Δθelv. Is compared with the average value θuave of the instantaneous value θu of the vertical optical axis deviation angle. In this comparison, when it is determined that the average value θuave is larger than the value obtained by adding 0.05 deg to the upper and lower optical axis learning angle Δθelv, 0.05 deg is added to the upper and lower optical axis learning angle Δθelv. When it is determined that the average value θuave is smaller than the value obtained by subtracting 0.05 deg from the upper and lower optical axis learning angle Δθelv, 0.05 deg is subtracted from the upper and lower optical axis learning angle Δθelv. In this way, the upper and lower optical axis learning angle Δθelv is corrected while limiting the change amount of the upper and lower optical axis learning angle Δθelv to a predetermined angle (0.05 deg).
[0113]
Accordingly, even when the irradiation angle of the laser beam from the
[0114]
It should be noted that the present invention is not limited to such embodiments at all, and can be implemented in various forms without departing from the gist of the present invention.
[0115]
In the above embodiment, the X-axis and Y-axis directions have a margin in the tolerance range of the mounting angle of the
[0116]
In the above embodiment, the
[0117]
In the above embodiment, the distance and the corresponding scan angles θx and θy are converted from the polar coordinate system to the XYZ orthogonal coordinate system inside the
[0118]
In the above-described embodiment, the
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a vehicle control device to which the present invention is applied.
FIG. 2A is a configuration diagram illustrating a configuration of a laser radar sensor, and FIG. 2B is an explanatory diagram illustrating a distance detection method in the laser radar sensor.
FIG. 3 is a perspective view showing an irradiation area of the laser radar sensor.
FIG. 4 is an explanatory diagram for explaining a spread angle and an overlapping range of a laser beam emitted from a laser radar sensor in a Y-axis direction.
FIG. 5 is an explanatory diagram for explaining a method of setting a recognition use area of a laser radar sensor.
FIG. 6 is a perspective view showing a positional relationship between a vehicle and a target.
FIG. 7 is a flowchart illustrating a process for setting a recognition use area.
FIG. 8 shows the received light intensity of the reflected light of the target with respect to each laser beam when the laser beam is scanned in the X-axis direction in the irradiation angle range of the laser beam corresponding to the tolerance range of the mounting angle of the
FIG. 9 shows the received light intensity of the reflected light by the target with respect to each laser beam when the laser beam is scanned in the Y-axis direction in the laser beam irradiation angle range corresponding to the tolerance range of the mounting angle of the
FIG. 10 is a flowchart illustrating a process of calculating a vertical optical axis learning angle.
FIG. 11 is an explanatory diagram for explaining a relationship between a mounting height ΔY of a laser radar sensor and a target reference angle ΔA of Y-axis center laser light.
FIG. 12 is an explanatory diagram for explaining a method of calculating a shift angle Δθelv of a center angle of a Y-axis center laser beam with respect to a reference angle ΔA.
13A is a flowchart illustrating a process relating to object recognition, and FIG. 13B is a flowchart illustrating a target conversion process executed in the flowchart of FIG.
FIG. 14 is a flowchart illustrating a learning process of the laser radar sensor about the optical axis.
FIG. 15 is an explanatory diagram for describing a detection surface number of a reflector.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Vehicle control apparatus, 3 ... Recognition and headway control ECU, 5 ... Laser radar sensor, 7 ... Vehicle speed sensor, 9 ... Brake switch, 11 ... Throttle opening degree sensor, 13 ... Alarm sound generator, 15 ... Distance display, 17: Sensor abnormality indicator, 19: Brake driver, 21: Throttle driver, 23: Automatic transmission controller, 24: Alarm volume setting device, 25: Alarm sensitivity setting device, 26: Cruise control switch, 27: Steering Sensor, 28: Yaw rate sensor, 29: Power switch, 30: Wiper switch, 43: Object recognition block, 44: Sensor abnormality detection block, 47: Vehicle speed calculation block, 49: Steering angle calculation block, 51: Yaw rate calculation block, 53 ····································································································································································. Reference numeral 70: laser radar CPU, 71: light emitting lens, 72: scanner, 73: mirror, 74: motor drive circuit, 75: semiconductor laser diode, 76: laser diode drive circuit, 77: glass plate, 81: light receiving lens, 83 ... Light receiving element, 85 ... Amplifier, 87 ... Comparator, 89 ... Time measuring circuit
Claims (11)
前記レーダユニットの送受信結果に基づいて、前記反射物体を認識する認識手段とを備えた車両用物体認識装置において、
所定のターゲットに対する前記レーダユニットの送受信結果に基づいて、車幅方向及び高さ方向の少なくとも一方において送信波を照射する角度範囲を、前記所定の角度範囲よりも狭い狭角度範囲に設定する設定手段とを備え、
前記反射物体を認識する際、前記レーダユニットは、前記設定手段によって設定された狭角度範囲において送信波を照射することを特徴とする車両用物体認識装置。In each of the vehicle width direction and the height direction of the vehicle, it is possible to irradiate a transmission wave over a predetermined angle range, and a radar unit that receives a reflected wave by a reflecting object,
Based on the transmission and reception results of the radar unit, a vehicle object recognition device including a recognition unit that recognizes the reflective object,
Setting means for setting an angle range in which a transmission wave is irradiated in at least one of a vehicle width direction and a height direction to a narrow angle range narrower than the predetermined angle range, based on a transmission / reception result of the radar unit with respect to a predetermined target. With
When recognizing the reflective object, the radar unit radiates a transmission wave in a narrow angle range set by the setting means, wherein the radar unit radiates a transmission wave.
前記判定手段による下向き判定もしくは上向き判定に対応して、前記認識手段は、前記狭角度範囲における中心よりも下側もしくは上側の角度に照射される送信波による反射波に基づいて、反射物体を車両と認識する確率を低下させることを特徴とする請求項6に記載の車両用物体認識装置。When the center output shaft angle is out of a predetermined reference angle range, the radar unit includes a determination unit that determines whether the output shaft of the radar unit is downward or upward,
In response to the downward determination or the upward determination by the determination unit, the recognition unit sets the vehicle to a reflective object based on a reflected wave of a transmission wave irradiated at an angle below or above the center in the narrow angle range. The object recognition device for a vehicle according to claim 6, wherein the probability of recognizing is reduced.
前記推測手段によって推測された中心出力軸角度が前記算出手段によって算出された中心出力軸角度とずれていた場合、当該算出された中心出力軸角度を補正する補正手段とを備えることを特徴とする請求項7に記載の車両用物体認識装置。Estimating means for estimating a central output shaft angle of a transmission wave in a height direction of the radar unit based on a reflected wave reflected from a reflector of a vehicle ahead that satisfies a predetermined condition,
When the central output shaft angle estimated by the estimating unit is deviated from the central output shaft angle calculated by the calculating unit, a correction unit that corrects the calculated central output shaft angle is provided. The vehicle object recognition device according to claim 7.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002354215A JP2004184331A (en) | 2002-12-05 | 2002-12-05 | Object recognition apparatus for motor vehicle |
US10/716,795 US6927699B2 (en) | 2002-12-05 | 2003-11-20 | Object recognition apparatus for vehicle, and inter-vehicle distance control unit |
DE10356677A DE10356677A1 (en) | 2002-12-05 | 2003-12-04 | Motor vehicle object detection device and separation control unit for use in a cruise control system, has an adjustment unit that optimizes the radar beam alignment based on evaluated beam reflection intensities |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002354215A JP2004184331A (en) | 2002-12-05 | 2002-12-05 | Object recognition apparatus for motor vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004184331A true JP2004184331A (en) | 2004-07-02 |
Family
ID=32755297
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002354215A Pending JP2004184331A (en) | 2002-12-05 | 2002-12-05 | Object recognition apparatus for motor vehicle |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004184331A (en) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006038843A (en) * | 2004-07-08 | 2006-02-09 | Ibeo Automobile Sensor Gmbh | Method for calibrating distance image sensor |
JP2006123568A (en) * | 2004-10-26 | 2006-05-18 | Honda Motor Co Ltd | Controlled object judging device for vehicle |
JP2008058290A (en) * | 2006-08-03 | 2008-03-13 | Honda Motor Co Ltd | Detection axis direction determination device for moving body |
JP2008122292A (en) * | 2006-11-14 | 2008-05-29 | Denso Corp | Method of detecting shift amount of detecting center axis |
JP2008298741A (en) * | 2007-06-04 | 2008-12-11 | Toyota Central R&D Labs Inc | Distance measuring apparatus and distance measuring method |
JP2011526373A (en) * | 2008-07-02 | 2011-10-06 | アーデーツエー・オートモテイブ・デイスタンス・コントロール・システムズ・ゲゼルシヤフト・ミツト・ベシユレンクテル・ハフツング | Radar system with elevation angle measurement capability |
JP2014006114A (en) * | 2012-06-22 | 2014-01-16 | Denso Corp | Radar system and program |
DE102005054674B4 (en) * | 2004-11-16 | 2015-02-12 | Denso Corporation | Object recognition device for a motor vehicle |
JP2015078925A (en) * | 2013-10-17 | 2015-04-23 | 株式会社デンソー | Periphery monitoring device and periphery monitoring system |
JP2016151424A (en) * | 2015-02-16 | 2016-08-22 | パナソニックIpマネジメント株式会社 | Radar system |
CN110103810A (en) * | 2019-01-03 | 2019-08-09 | 华域视觉科技(上海)有限公司 | Three-dimensional detection lighting system and automobile |
WO2019202803A1 (en) * | 2018-04-19 | 2019-10-24 | 京セラ株式会社 | Electronic device, method for controlling electronic device, and program for controlling electronic device |
CN110969174A (en) * | 2018-09-29 | 2020-04-07 | 深圳市布谷鸟科技有限公司 | Target identification method, device and system based on laser radar |
JP2021012027A (en) * | 2019-07-03 | 2021-02-04 | オムロン株式会社 | Attachment angle adjustment method and target plate |
JP2021179403A (en) * | 2020-05-15 | 2021-11-18 | 株式会社デンソー | Axial deviation estimation device |
CN114245542A (en) * | 2021-12-17 | 2022-03-25 | 深圳市恒佳盛电子有限公司 | Radar induction lamp and control method thereof |
WO2022250086A1 (en) * | 2021-05-28 | 2022-12-01 | 株式会社デンソー | Axial displacement estimation device |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09178856A (en) * | 1995-12-25 | 1997-07-11 | Honda Motor Co Ltd | Detection range adjusting mechanism of obstacle detecting device for vehicle |
JPH1096775A (en) * | 1996-09-24 | 1998-04-14 | Honda Access Corp | Collision warning system for vehicle |
JPH10160834A (en) * | 1996-11-29 | 1998-06-19 | Sumitomo Electric Ind Ltd | Preceding-vehicle recognition method |
JP2000056020A (en) * | 1998-08-07 | 2000-02-25 | Honda Motor Co Ltd | Object detecting device |
JP2002040139A (en) * | 2000-07-28 | 2002-02-06 | Denso Corp | Method and device for body recognition, and recording medium |
JP2002174684A (en) * | 2000-12-08 | 2002-06-21 | Omron Corp | Method for adjusting axis of distance measuring apparatus |
JP2002257926A (en) * | 2001-03-05 | 2002-09-11 | Murata Mfg Co Ltd | Radar |
JP2004125739A (en) * | 2002-10-07 | 2004-04-22 | Omron Corp | Object detection system and method |
-
2002
- 2002-12-05 JP JP2002354215A patent/JP2004184331A/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09178856A (en) * | 1995-12-25 | 1997-07-11 | Honda Motor Co Ltd | Detection range adjusting mechanism of obstacle detecting device for vehicle |
JPH1096775A (en) * | 1996-09-24 | 1998-04-14 | Honda Access Corp | Collision warning system for vehicle |
JPH10160834A (en) * | 1996-11-29 | 1998-06-19 | Sumitomo Electric Ind Ltd | Preceding-vehicle recognition method |
JP2000056020A (en) * | 1998-08-07 | 2000-02-25 | Honda Motor Co Ltd | Object detecting device |
JP2002040139A (en) * | 2000-07-28 | 2002-02-06 | Denso Corp | Method and device for body recognition, and recording medium |
JP2002174684A (en) * | 2000-12-08 | 2002-06-21 | Omron Corp | Method for adjusting axis of distance measuring apparatus |
JP2002257926A (en) * | 2001-03-05 | 2002-09-11 | Murata Mfg Co Ltd | Radar |
JP2004125739A (en) * | 2002-10-07 | 2004-04-22 | Omron Corp | Object detection system and method |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006038843A (en) * | 2004-07-08 | 2006-02-09 | Ibeo Automobile Sensor Gmbh | Method for calibrating distance image sensor |
JP2006123568A (en) * | 2004-10-26 | 2006-05-18 | Honda Motor Co Ltd | Controlled object judging device for vehicle |
US7493218B2 (en) | 2004-10-26 | 2009-02-17 | Honda Motor Co., Ltd. | Vehicular control object determination system |
DE102005054674B4 (en) * | 2004-11-16 | 2015-02-12 | Denso Corporation | Object recognition device for a motor vehicle |
JP2008058290A (en) * | 2006-08-03 | 2008-03-13 | Honda Motor Co Ltd | Detection axis direction determination device for moving body |
JP2008122292A (en) * | 2006-11-14 | 2008-05-29 | Denso Corp | Method of detecting shift amount of detecting center axis |
JP2008298741A (en) * | 2007-06-04 | 2008-12-11 | Toyota Central R&D Labs Inc | Distance measuring apparatus and distance measuring method |
JP2011526373A (en) * | 2008-07-02 | 2011-10-06 | アーデーツエー・オートモテイブ・デイスタンス・コントロール・システムズ・ゲゼルシヤフト・ミツト・ベシユレンクテル・ハフツング | Radar system with elevation angle measurement capability |
JP2014006114A (en) * | 2012-06-22 | 2014-01-16 | Denso Corp | Radar system and program |
JP2015078925A (en) * | 2013-10-17 | 2015-04-23 | 株式会社デンソー | Periphery monitoring device and periphery monitoring system |
JP2016151424A (en) * | 2015-02-16 | 2016-08-22 | パナソニックIpマネジメント株式会社 | Radar system |
WO2019202803A1 (en) * | 2018-04-19 | 2019-10-24 | 京セラ株式会社 | Electronic device, method for controlling electronic device, and program for controlling electronic device |
JP2019190882A (en) * | 2018-04-19 | 2019-10-31 | 京セラ株式会社 | Electronic device, and method and program for controlling the same |
CN112020659A (en) * | 2018-04-19 | 2020-12-01 | 京瓷株式会社 | Electronic device, control method for electronic device, and control program for electronic device |
CN110969174B (en) * | 2018-09-29 | 2023-09-08 | 深圳市布谷鸟科技有限公司 | Target identification method, device and system based on laser radar |
CN110969174A (en) * | 2018-09-29 | 2020-04-07 | 深圳市布谷鸟科技有限公司 | Target identification method, device and system based on laser radar |
CN110103810B (en) * | 2019-01-03 | 2024-02-27 | 华域视觉科技(上海)有限公司 | Three-dimensional detection lighting system and automobile |
CN110103810A (en) * | 2019-01-03 | 2019-08-09 | 华域视觉科技(上海)有限公司 | Three-dimensional detection lighting system and automobile |
JP2021012027A (en) * | 2019-07-03 | 2021-02-04 | オムロン株式会社 | Attachment angle adjustment method and target plate |
JP7415346B2 (en) | 2019-07-03 | 2024-01-17 | オムロン株式会社 | Installation angle adjustment method and target board |
WO2021230362A1 (en) * | 2020-05-15 | 2021-11-18 | 株式会社デンソー | Axial misalignment estimation device |
JP7287345B2 (en) | 2020-05-15 | 2023-06-06 | 株式会社デンソー | Shaft misalignment estimator |
JP2021179403A (en) * | 2020-05-15 | 2021-11-18 | 株式会社デンソー | Axial deviation estimation device |
WO2022250086A1 (en) * | 2021-05-28 | 2022-12-01 | 株式会社デンソー | Axial displacement estimation device |
JP7528866B2 (en) | 2021-05-28 | 2024-08-06 | 株式会社デンソー | Axis offset estimation device |
CN114245542A (en) * | 2021-12-17 | 2022-03-25 | 深圳市恒佳盛电子有限公司 | Radar induction lamp and control method thereof |
CN114245542B (en) * | 2021-12-17 | 2024-03-22 | 深圳市恒佳盛电子有限公司 | Radar induction lamp and control method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4428208B2 (en) | Vehicle object recognition device | |
JP2005291788A (en) | Object recognition device for vehicle | |
US6927699B2 (en) | Object recognition apparatus for vehicle, and inter-vehicle distance control unit | |
JP3405327B2 (en) | Object recognition method and apparatus, recording medium | |
US6018308A (en) | Obstacle recognition system for automotive vehicle | |
JP3736521B2 (en) | Vehicle object recognition device | |
JP3915742B2 (en) | Vehicle object recognition device | |
JP3331882B2 (en) | Central axis deflection amount calculating device, central axis deflection amount correcting device, and inter-vehicle control device of vehicle obstacle detection device | |
JP3736520B2 (en) | Obstacle recognition device for vehicles | |
US7136753B2 (en) | Object recognition apparatus for vehicle, inter-vehicle control apparatus, and distance measurement apparatus | |
JP2004184331A (en) | Object recognition apparatus for motor vehicle | |
US7158217B2 (en) | Vehicle radar device | |
US8810445B2 (en) | Method and apparatus for recognizing presence of objects | |
JP2005077379A (en) | Radar device | |
JP7485526B2 (en) | Axis offset estimation device | |
JP3757937B2 (en) | Distance measuring device | |
JP3841047B2 (en) | Vehicle distance control device | |
JP5556317B2 (en) | Object recognition device | |
JP2005300307A (en) | Object recognition device for vehicle and program | |
JP2002131433A (en) | Method and device for recognizing object | |
JP2004125636A (en) | On-vehicle laser radar device | |
JPH10143797A (en) | Preceding vehicle recognition device and method | |
JPH10153661A (en) | Range-finding device | |
JPH10213446A (en) | Vehicle traveling system | |
JP4221663B2 (en) | Radar equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20041228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050405 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050602 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20051129 |