JP2004184331A - Object recognition apparatus for motor vehicle - Google Patents

Object recognition apparatus for motor vehicle Download PDF

Info

Publication number
JP2004184331A
JP2004184331A JP2002354215A JP2002354215A JP2004184331A JP 2004184331 A JP2004184331 A JP 2004184331A JP 2002354215 A JP2002354215 A JP 2002354215A JP 2002354215 A JP2002354215 A JP 2002354215A JP 2004184331 A JP2004184331 A JP 2004184331A
Authority
JP
Japan
Prior art keywords
vehicle
angle
target
center
laser
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002354215A
Other languages
Japanese (ja)
Inventor
Yoshie Sagawa
佳江 寒川
Keiji Matsuoka
圭司 松岡
Toyoji Nozawa
豊史 野沢
Koji Okata
浩司 大方
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2002354215A priority Critical patent/JP2004184331A/en
Priority to US10/716,795 priority patent/US6927699B2/en
Priority to DE10356677A priority patent/DE10356677A1/en
Publication of JP2004184331A publication Critical patent/JP2004184331A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls For Constant Speed Travelling (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To output transmission waves over an appropriate angle range ahead of a motor vehicle while maintaining a margin in the tolerance range of an installation angle at the installation of a radar unit in the motor vehicle. <P>SOLUTION: Laser light is radiated to a target 100 arranged in prescribed locational relation to a laser radar sensor 5 installed in the motor vehicle. Laser light having the highest intensity of received light in the directions of an X-axis and an Y-axis is extracted. With the laser light having the highest intensity of the received light as a center, a prescribed angle is set in the directions of the X-axis and the Y-axis and is taken as an area 93 used for recognition. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、車幅方向及び高さ方向それぞれの所定角度範囲内に渡り送信波を照射し、その反射波に基づいて自車両の前方の物体を認識する車両用物体認識装置に関する。
【0002】
【従来の技術】
従来より、例えば特許文献1に示されるように、光波,ミリ波などの送信波を照射し、その反射波を検出することによって、前方の物体を認識する物体認識装置が考えられている。この種の装置は、例えば、前方車両を検出して警報を発生する装置や、先行車両と所定の車間距離を維持するように車速を制御する装置などに適用され、それらの制御対象としての前方車両の認識に利用されている。
【0003】
上述した物体認識装置は、車両の前方に車幅方向及び高さ方向それぞれの所定角度範囲内に渡り複数の送信波を照射し、その反射波に基づいて前方車両を3次元的に認識する。この際、通常の車両であれば存在し得ないような高さや範囲において反射物体が存在している場合には、それを車両ではないと認識するために、送信波を出力する領域に応じて、送信波の出力レベルを変化させて、非車両を前方車両として識別されにくくしたり、車両と非車両とを判別するための非車両判定マップを用いて、非車両を識別していた。ここで、非車両判定マップとは、車幅、車高、及び車両前方方向をそれぞれX軸、Y軸、及びZ軸とした場合の反射物体の存在領域に対応して、車両と非車両とを区別するための反射波の受光強度の範囲が設定された3次元マップである。
【0004】
【特許文献1】特開2002−40139
【0005】
【発明が解決しようとする課題】
ここで、上述したように送信波を出力する領域に応じて、送信波の出力レベルを変化させたり、非車両判定マップを用いて非車両を識別するためには、送信波を照射するとともに、その反射波を検出するレーダユニットが、車両に対して、非常に高精度に取り付けられている必要がある。換言すれば、レーダユニットの装着状態によって送信波の出力軸がずれている場合には、反射物体の存在領域が正確に判別できないため、車両と非車両との識別も正確に行なうことができない。
【0006】
このため、従来は、車両にレーダユニットを装着する際に、作業者が調整ボルト等を用いて装着角度等の調整を行なっていた。しかしながら、レーダユニットの装着角度の公差範囲を狭くするほど、その調整作業が困難になり、また時間もかかるため、製造コストの増加を招いていた。
【0007】
本発明は、上述した点に鑑みてなされたもので、レーダユニットを車両に装着する際に、装着角度の公差範囲に余裕をもたせながら、車両の前方の適切な角度範囲に渡って、送信波を出力することが可能な車両用物体認識装置を提供することを目的とする。
【0008】
【課題を解決するための手段】
上記目的を達成するために、請求項1に記載の車両用物体認識装置は、所定のターゲットに対するレーダユニットの送受信結果に基づいて、車幅方向及び高さ方向の少なくとも一方において送信波を照射する角度範囲を、レーダユニットが照射可能な所定の角度範囲よりも狭い狭角度範囲に設定する設定手段を備え、反射物体を認識する際、レーダユニットは、設定手段によって設定された狭角度範囲において送信波を照射することを特徴とする。
【0009】
すなわち、所定のターゲットに対するレーダユニットの送受信結果に基づいて、前方車両等を反射物体として検出する角度範囲(狭角度範囲)を設定するので、レーダユニットの装着角度の公差範囲に余裕を持たせた場合でも、適切な送信波の照射範囲を設定することができる。これにより、レーダユニットの装着角度の調整作業等も簡略化でき、製造コストの低減にも寄与できる。
【0010】
請求項2に記載したように、所定のターゲットは、レーダユニットが装着された車両に対して、所定の距離及び高さに設置された固定物であることが好ましい。このように、ターゲットとして固定物を用いることにより、その固定物からの反射波を基準として、物体の認識に使用する送信波の照射角度範囲を所望の範囲に正確に設定することができる。
【0011】
請求項3に記載したように、レーダユニットは、車両の車幅方向及び高さ方向において、複数の送信波を照射するものであり、設定手段は、所定のターゲットによる反射波の受信レベルが最も高い角度における送信波が中心となるように、狭角度範囲を設定することが好ましい。すなわち、送信波を照射すべき範囲の中心位置に所定のターゲットを設けておき、このターゲットに対応する送信波が中心となるように送信波を照射する狭角度範囲を設定する。これにより、狭角度範囲の設定を容易に行なうことができるとともに、送信波の出力軸中心を狙いとする角度に合わせ込むことができる。
【0012】
請求項4に記載したように、高さ方向において隣接する送信波は、その境界領域において一部重複するように送信波の照射角度が設定されることが好ましい。例えば、送信波が光波である場合、その分解能は、原則として光のビーム径によって決定される。しかしながら、上述したように、高さ方向において隣接する送信波の境界領域に重複領域を設けることにより、各送信波単独で反射波が生じた場合と、隣接する両送信波において反射波が生じた場合とを区別することができる。これにより、高さ方向における分解能を向上することができる。
【0013】
請求項5に記載したように、設定手段が狭角度範囲を設定する際、レーダユニットは、当該レーダユニットの車両への装着許容誤差角度の範囲で、ターゲットに向けて送信波を照射する。ターゲットが、送信波の照射範囲の中央に設定されている場合、装着許容誤差角度の範囲で送信波を照射すれば、必ずターゲットによる反射波を受信できるからである。
【0014】
請求項6に記載したように、車両の高さ方向において、受信レベルが最も高い角度における送信波の上下両側において照射される送信波の受信レベルに基づいて、前記レーダユニットの中心出力軸角度を算出する算出手段を備えることが好ましい。ターゲットがある送信波に対向するように設置されている場合、その送信波のターゲットによる反射波の受信レベルが最も高くなる。しかし、その送信波の上下両側において照射される送信波によっても、受信レベルは低いがターゲットからの反射波が受信される。このとき、例えば、ターゲットが上側の送信波の照射領域よりも下側の送信波の照射領域に近ければ、下側の送信波による反射波の受信レベルが、上側の送信波による反射波の受信レベルよりも大きくなる。従って、上下両側の送信波による反射波の受信レベルの比や差等に基づいて、中央において照射される送信波の角度範囲における出力軸角度をより詳細に計算することができる。これにより、レーダユニットの出力軸角度を高精度に把握することが可能になる。
【0015】
請求項7に記載したように、中心出力軸角度が所定の基準角度範囲から外れている場合、レーダユニットの出力軸の下向き、もしくは上向き判定を行なう判定手段を備え、判定手段による下向き判定もしくは上向き判定に対応して、認識手段は、狭角度範囲における中心よりも下側もしくは上側の角度に照射される送信波による反射波に基づいて、反射物体を車両と認識する確率を低下させることが好ましい。すなわち、中心出力軸角度が所定の基準角度範囲から外れている場合には、レーダユニットは下向きあるいは上向きに車両に装着されていると判断できる。例えば、レーダユニットが下向きに装着されている場合、狭角度範囲における中心よりも下側の角度に照射される送信波は、路面に設置されたデリニエータ(キャッツアイ)等の反射物体によって反射される可能性が高くなる。従って、下向きあるいは上向き判定がなされている場合には、狭角度範囲における中心よりも下側もしくは上側の角度に照射される送信波による反射波に基づいて、反射物体を車両と認識する確率を低下させることにより、誤って非車両を車両と認識する可能性を低減することができる。
【0016】
請求項8に記載したように、算出された中心出力軸角度が所定の基準角度よりも下向きである場合、受信レベルが最も高い角度における送信波の下側において照射される送信波に対する反射波のみが検出される場合には、認識手段は、その反射物体を非車両と認識するようにしても良い。すなわち、レーダユニットが下向きに装着されている場合に、受信レベルが最も高い角度における送信波の下側において照射される送信波によってのみ反射波が生じている場合には、その反射物体の高さ位置は非常に低いため、車両からの反射ではないと判断できる。このように、請求項6に記載の算出手段によってレーダユニットの出力軸の角度を精密に把握することにより、請求項8に記載のように、車両と非車両との識別をより高精度に行なうことが可能になる。
【0017】
請求項9に記載のように、所定の条件を満たす前方車両のリフレクタから反射される反射波に基づいて、レーダユニットの高さ方向における送信波の中心出力軸角度を推測する推測手段と、推測手段によって推測された中心出力軸角度が算出手段によって算出された中心出力軸角度とずれていた場合、当該算出された中心出力軸角度を補正する補正手段とを備えることが好ましい。
【0018】
所定のターゲットを用いて送信波を照射すべき範囲を望ましい範囲に設定しても、車両の積載状態や搭乗人員等によってその照射範囲は変化する。また、車両が走行を繰り返すことにより、振動等の影響を受けてレーダユニットの装着状態が変化することもありえる。従って、所定のターゲットに基づいて算出した中心出力軸角度がずれているかどうかを判別して、ずれている場合には、補正を行なうことが好ましいのである。
【0019】
そのため、請求項9に記載の車両用物体認識装置では、車両に必ず装着されているリフレクタを用いて、レーダユニットの中心出力軸角度のずれを検出することとした。具体的には、乗用車であれば、リフレクタは地上から約75cmの位置に設置され、車種ごとの取り付け高さのばらつき範囲も小さい。従って、乗用車である所定の条件を満たす前方車両のリフレクタからの反射波に基づいて、レーダユニットの高さ方向における送信波の中心出力軸角度を推測することができる。この推測した中心出力軸角度が、算出されている中心出力軸角度とずれている場合には、その算出中心出力軸角度を補正する。
【0020】
請求項10に記載したように、推測手段は、所定の上下限距離によって規定される距離範囲に前方車両が存在するときに、中心出力軸角度を推測する対象とすることが好ましい。前方車両との距離が下限距離よりも短い場合には、車体からの反射波の受信レベルも大きくなり、リフレクタによる反射波を識別し難くなり、前方車両との距離が上限距離よりも長くなると、反射波の受信状態が不安定になり易いためである。
【0021】
請求項11に記載したように、推測手段は、前方車両の横幅が所定の範囲に属するときに中心出力軸角度を推測する対象とすることが好ましい。これにより、リフレクタの地上からの高さ位置がほぼ揃っている乗用車を対象として、中心出力軸角度を補正することができる。
【0022】
【発明の実施の形態】
以下に、本発明による車両用物体認識装置が適用された車両制御装置1について、図面とともに説明する。この車両制御装置1は、自動車に搭載され、警報すべき領域に障害物が存在する場合に警報を出力したり、前車(先行車両)に合わせて車速を制御したりする装置である。
【0023】
図1は、車両制御装置1のシステムブロック図である。車両制御装置1は認識・車間制御ECU3を中心に構成されている。認識・車間制御ECU3はマイクロコンピュータを主な構成として、入出力インターフェース(I/O)および各種の駆動回路や検出回路を備えている。これらのハード構成は一般的なものであるので詳細な説明は省略する。
【0024】
認識・車間制御ECU3は、レーザレーダセンサ5、車速センサ7、ブレーキスイッチ9、スロットル開度センサ11から各々検出信号を入力しており、警報音発生器13、距離表示器15、センサ異常表示器17、ブレーキ駆動器19、スロットル駆動器21および自動変速機制御器23に駆動信号を出力する。また認識・車間制御ECU3には、警報音量を設定する警報音量設定器24、警報判定処理における感度を設定する警報感度設定器25、クルーズコントロールスイッチ26、図示しないステアリングホイールの操作量を検出するステアリングセンサ27、及び自動車に発生したヨーレートを検出するヨーレートセンサ28が接続されている。また認識・車間制御ECU3は、電源スイッチ29を備え、電源スイッチ29がオンされることにより、所定の処理を開始する。
【0025】
レーザレーダセンサ5は、図2に示すように、発光部、受光部及びレーザレーダCPU70などを主要部として構成されている。すなわち、レーザレーダセンサ5は、レーダユニットとしての発光部、受光部に加え、その発光・受光部における検出結果から、反射物体までの距離やその車幅方向及び車高方向における位置を演算するレーザレーダCPU70も備えている。
【0026】
発光部は、パルス状のレーザ光を、発光レンズ71、スキャナ72及びガラス板77を介して放射する半導体レーザダイオード(以下、単にレーザダイオードと記載)75を備えている。レーザダイオード75は、レーザダイオード駆動回路76を介してレーザレーダCPU70に接続され、レーザレーダCPU70からの駆動信号によりレーザ光を放射(発光)する。また、スキャナ72には反射体としてのポリゴンミラー73が回転可能に設けられ、レーザレーダCPU70からの駆動信号がモータ駆動部74を介して入力されると、このポリゴンミラー73は図示しないモータの駆動力により回転する。なお、このモータの回転位置は、モータ回転位置センサ78によって検出され、レーザレーダCPU70に出力される。
【0027】
ポリゴンミラー73は、面倒れ角が異なる6つのミラー(反射面)を備えているため、車幅方向及び車高方向それぞれの所定角度の範囲で不連続にレーザ光を掃引照射(スキャン)して出力することが可能である。
【0028】
レーザレーダセンサ5の受光部は、図示しない物体に反射されたレーザ光を受光レンズ81を介して受光し、その強度に対応する電圧を出力する受光素子(フォトダイオード)83とを備えている。そして、この受光素子83の出力電圧は、増幅器85にて増幅された後にコンパレータ87に出力される。コンパレータ87は増幅器85の出力電圧を基準電圧と比較し、出力電圧>基準電圧となったとき所定の受光信号を時間計測回路89へ出力する。
【0029】
時間計測回路89には、レーザレーダCPU70からレーザダイオード駆動回路76へ出力される駆動信号も入力される。そして、図2(b)に示すように、上記駆動信号をスタートパルスPA、上記受光信号をストップパルスPBとし、2つのパルスPA,PB間の位相差(すなわちレーザ光を出射した時刻T0と反射光を受信した時刻T1との差ΔT)を2進デジタル信号に符号化する。また、ストップパルスPBのパルス幅も時間として計測する。そして、それらの値を2進デジタル信号に符号化してレーザレーダCPU70へ出力する。
【0030】
ここで、レーザ光の照射可能エリア及び、実際に先行車両等の物体を認識する時に使用される認識使用エリアについて、図3〜図9を用いて説明する。なお、図3において、レーザ光のパターン92は照射可能エリア91内の右端と左端に放射された場合のみを示しており、途中は省略している。また、レーザ光パターン92は、図3では一例として楕円形のものを示しているが、この形に限られるものではなく長方形等でもよい。さらに、レーザ光を用いる他に、ミリ波等の電波や超音波等を用いるものであってもよい。また、スキャン方式にこだわる必要はなく、距離以外にX方向、Y方向における方位を測定できる方式であればよい。
【0031】
図3に示すように、レーザレーダセンサ5は、レーザ光の照射方向をZ軸としたとき、これに垂直なXY平面内の照射可能エリア91内を順次走査することが可能である。
【0032】
本実施形態においては、図4に示すように、車高方向(Y軸方向)に隣接するレーザ光が、その境界領域において一部重複するようにレーザ光の照射角度が設定されている。すなわち、Y軸方向において、各レーザ光は1.57degの広がり角を有している。その内、隣接するレーザ光が重複する角度範囲は、0.145degである。従って、各レーザ光の中心軸間の角度は1.425degとなる。なお、図4では、便宜的に3本のレーザ光のみ示している。
【0033】
このように、Y軸方向において隣接するレーザ光が一部重複するように照射角度を設定することにより、Y軸方向における分解能を向上することができる。つまり、図4の各レーザ光を上から下に向かってそれぞれ1面、2面、3面と定義した場合、1面のレーザ光のみを反射する場合、1面と2面のレーザ光を反射する場合、2面のレーザ光のみ反射する場合、2面と3面のレーザ光を反射する場合、及び3面のレーザ光のみ反射する場合の5つのパターンに識別できる。特に、2面のレーザ光においては、その両側に重複領域があるため、2面のレーザ光付近の分解能の向上度合いを高めることができる。
【0034】
本実施形態の照射可能エリア91は、高さ方向であるY軸を基準方向、車幅方向であるX軸を走査方向とし、X軸方向には0.08deg×501点=±20degであり、Y軸方向には1.57deg×6ライン−0.145deg×5(重複領域)=8.695degである。また、スキャン方向はX軸方向については図3において左から右へ、Y軸方向については図3において上から下へである。
【0035】
次に、図5〜図9に基づいて、認識使用エリア93について説明する。レーザレーダセンサ5は、車両の前面、例えば車両のバンパーの下部に装着される。このレーザレーダセンサ5から照射されるレーザ光は、自車両の前方に存在する物体、すなわち先行車両や走行車線を判断するためのデリニエータ(キャッツアイ)、ガードレール等に的確に向けられることが必要である。従って、レーザ光の照射エリアが上下左右にずれないように、レーザレーダセンサ5の装着角度を装着基準角度に合わせ込みながら車両に装着する必要がある。
【0036】
しかしながら、作業者が調整ボルト等のメカニカルな手段によってレーダレーダセンサ5の装着角度を調整することは、レーザレーダセンサ5の装着角度の装着基準角度に対する公差範囲が小さくなるほど困難な作業となり、またその作業時間も長くなってしまう。
【0037】
そのため、本実施形態においては、そのようなメカニカルな手段による調整ではなく、レーザレーダセンサ5におけるソフト的な処理によって、レーザレーダセンサ5から照射されるレーザ光の角度範囲を、所望の基準角度範囲に合わせ込むことを可能にした。
【0038】
そのために、まず図6に示すように、レーザレーダセンサ5を装着した車両を、所定の高さに設置されたレーザ光の反射率の高いターゲット100に対して、所定の距離だけ離れた位置に移動させる。
【0039】
この状態において、図7のフローチャートに示す処理を実行することにより、認識使用領域93を設定する。すなわち、図7のステップS10において、ターゲット100に向けてレーザ光を照射するとともに、その反射光を受光する。このときに照射するレーザ光の照射角度範囲は、図5に示すように、レーザレーダセンサ5の装着角度の公差範囲に対応する。なお、図5の例では、その公差範囲は、車幅方向及び車高方向にそれぞれ±2degであり、従来に比較して大幅に緩和されている。
【0040】
ここで、ターゲット100は、レーザレーダセンサ5の装着角度が装着基準角度に一致している場合、レーザ光の照射角度範囲の中心に位置するように設置される。従って、上記したレーザレーダセンサ5の装着角度の公差範囲に対応する照射角度範囲においてレーザ光を照射することにより、レーザレーダセンサ5はターゲット100からの反射光を必ず受光するができる。
【0041】
次にステップS20において、X軸及びY軸方向において、受光した反射波の中から最も受光強度の高い反射波に対応するレーザ光を中心レーザ光として特定する。この中心レーザ光の特定に関して、図8及び図9を用いて説明する。図8は、上述したレーザ光の照射角度範囲において、X軸方向にレーザ光を走査した場合における、各レーザ光に対するターゲット100による反射光の受光強度を示す。また、図9は、Y軸方向にレーザ光を走査した場合における、各レーザ光に対するターゲット100による反射光の受光強度を示す。図8及び図9から明らかなように、最も高い受光強度を示す反射光に対応するレーザ光をX軸中心レーザ光及びY軸中心レーザ光とするのである。
【0042】
なお、図8、図9の例は、図5に示されるように、ターゲット100の位置が、レーザレーダセンサ5の装着角度の公差範囲においてもっとも中心からずれた(X、Y軸方向にそれぞれ+2deg)場合を示している。従って、この場合には、それぞれレーザ光の照射角度範囲の端部において照射されるレーザ光がX軸及びY軸中心レーザ光となる。
【0043】
そして、ステップS30において、X軸及びY軸中心レーザ光を基準として認識使用領域93を設定する。すなわち、図5に示すように、そのX軸及びY軸中心レーザ光を中心として、X軸方向に±18deg(レーザ光451本に相当)の範囲を持った左右領域、Y軸方向に4.42deg(レーザ光3本に相当)の範囲を持った上下領域を定め、これを認識使用領域93とする。
【0044】
このようにしてターゲット100を用いて認識使用領域93を設定することにより、認識使用領域93の中心に位置する中心レーザ光を狙いとする基準角度に合わせ込むことができるので、結果として、その中心レーザ光を基準として設定される認識使用領域93も、所望の認識領域に合致したものとなる。
【0045】
ただし、上述したように、X軸方向におけるレーザ光の分解能は0.08degと非常に高いが、それに比較してY軸方向におけるレーザ光の広がり角は1.57degであり、Y軸方向の分解能は低い。そのため、Y軸方向における中心レーザ光の照射角度をより高精度に認識するために上下光軸学習角度の算出処理を行なう。この上下光軸学習角度の算出処理について図10のフローチャート、図11及び図12の説明図に基づいて説明する。
【0046】
まず、図11に基づいて、レーザレーダセンサ5の装着高さΔYと、Y軸中心レーザ光の目標とする基準角度ΔAの関係について説明する。レーザレーダセンサ5は車両のバンパー下部等に装着されるものであるが、その装着高さΔYは、車種ごとに変化する。このとき、装着高さΔYが小さい、すなわち地上から低い位置にレーザレーダセンサ5が装着される場合には、Y軸中心レーザ光の中心角度が上向きに設定されることが好ましい。一方、その装着高さΔYが大きい場合には、Y軸中心レーザ光の中心角度がほぼ水平に設定されることが好ましい。
【0047】
このように、レーザレーダセンサ5の装着高さΔYに応じて、Y軸中心レーザ光の中心角度の狙いとする基準角度は異なる。そのため、本実施形態では、この基準角度をΔAとし、車種ごとに設定する。例えば、装着高さΔYが小さい車種に対しては、基準角度ΔAを0.5degに設定し、装着高さΔYが大きい車種に対しては、基準角度ΔAを0degに設定する。そして、以下に説明する上下光軸学習角度Δθelvは、Y軸中心レーザ光の中心角度が基準角度ΔAに対してどの程度ずれているかを示すずれ角として算出されるものである。
【0048】
図10のステップS50において、認識使用領域93が設定された後に、その認識使用領域93のターゲット100が存在する中心付近において、Y軸中心レーザ光及びその両側のレーザ光を照射するとともに、その反射光を受光する。例えば図12に示す例では、Y軸中心レーザ光は面番号が5のレーザ光であり、その両側において照射されるレーザ光は、面番号が4及び6のレーザ光となる。
【0049】
そして、ステップS60において、Y軸中心レーザ光の両側のレーザ光による反射光の受光強度を計測する。この受光強度の計測においては、複数のレーザ光の受光強度を平均化した平均化受光強度を用いても良いし、1つのレーザ光の受光強度をそのまま用いても良い。
【0050】
ステップS70では、計測した受光強度に基づいて、Y軸中心レーザ光の中心角度の基準角度ΔAに対するずれ角度Δθelvを算出する。すなわち、図12に示す例においては、面番号4及び6のレーザ光による反射光の受光強度に基づいて、Y軸中心レーザ光である面番号5のレーザ光内において、その中心角度が基準角度ΔAに対して、どの程度ずれているかを示すずれ角Δθelvを算出する。具体的な算出方法としては、例えば、面番号4の受光強度:面番号6の受光強度=3:1である場合には、(広がり角1.57deg―重複範囲0.145×2)×3/(3+1)−0.64deg=0.32degとして、面番号4のレーザ光側に0.32degだけずれていると算出することができる。このとき、基準角度ΔAに対応する角度が面番号4のレーザ光側にずれている場合、レーザレーダセンサ5の光軸の向きは全体として下向きとなるため、マイナス(−)の符号を付けて表す。一方、面番号6のレーザ光側にずれている場合には、レーザレーダセンサ5の光軸の向きは上向きとなるため、プラス(+)の符号を付けて表す。
【0051】
なお、基準角度ΔAに対するずれ角Δθelvの算出方法については、例えば、面番号4及び6の受光強度の差を求め、その差に応じてを求めても良い。さらに、面番号5のY軸中心レーザ光の受光強度を基準として、面番号4及び6のレーザ光の受光強度に応じた角度をそれぞれ求め、それらの角度を減算することにより、ずれ角Δθelvを求めても良い。
【0052】
本来であれば、面番号5のレーザ光のY軸方向における広がり角度の中心角度が基準角度ΔAに一致するようにターゲット100を設置することが理想である。しかしY軸方向のレーザ光の広がり角が大きいため、その広がり角内でターゲット100の位置が変化しても、それを検知することができない。そこで、上述したように、Y軸中心レーザ光の両側において照射されるレーザ光の受光強度を用いることにより、より詳細なレーザ光の上下光軸中心を算出できるのである。このY軸中心レーザ光の広がり角の中心角度が、基準角度ΔAからずれている場合に、そのずれ角度Δθelvを上下光軸学習角度として記憶する。
【0053】
このようにして上下光軸学習角度Δθelvを求めることで、後述するように、先行車両等の物体の認識をより高精度に行なうことが可能になる。
【0054】
レーザレーダセンサ5が、上述した手順で、認識使用領域93を設定した後、実際に自車両の前方に存在する物体を認識する際には、レーザレーダCPU70が認識使用領域93内を2次元的にレーザ光をスキャンさせる。このような2次元的なスキャンにより、走査方向を示すスキャン角度θx,θyと測距された距離rとが得られる。なお、2つのスキャン角度θx,θyは、それぞれ出射されたレーザビームとYZ平面に投影した線とZ軸との角度を縦スキャン角θy、出射されたレーザビームをXZ平面に投影した線とZ軸との角度を横スキャン角θxと定義する。
【0055】
レーザレーダCPU70は、時間計測回路89から入力された2つのパルスPA,PB間の時間差ΔTから物体までの距離を算出し、その距離及び対応するスキャン角度θx,θyを基にして位置データを作成する。つまり、レーザレーダ中心を原点(0,0,0)とし、車幅方向をX軸、車高方向をY軸、車両前方方向をZ軸とするXYZ直交座標に変換する。そして、このXYZ直交座標に変換された(X,Y,Z)データ及び受光信号強度データ(ストップパルスPBのパルス幅が相当する)を測距データとして認識・車間制御ECU3へ出力する。
【0056】
認識・車間制御ECU3は、レーザレーダセンサ5からの測距データを基にして物体を認識し、その認識物体から得た先行車の状況に合わせて、ブレーキ駆動器19、スロットル駆動器21および自動変速機制御器23に駆動信号を出力することにより車速を制御する、いわゆる車間制御を実施する。また、認識物体が所定の警報領域に所定時間存在した場合等に警報する警報判定処理も同時に実施する。この場合の物体としては、自車の前方を走行する前車やまたは停止している前車等が該当する。
【0057】
続いて認識・車間制御ECU3の内部構成について制御ブロックとして説明する。レーザレーダセンサ5から出力された測距データは物体認識ブロック43に送られる。物体認識ブロック43では、測距データとして得た3次元位置データに基づいて、物体の中心位置(X,Y,Z)、及び幅、奥行き、高さ等の大きさ(W,D,H)を求める。さらに、中心位置(X,Y,Z)の時間的変化に基づいて、自車位置を基準とするその物体の相対速度(Vx,Vy,Vz)を求める。さらに物体認識ブロック43では、車速センサ7の検出値に基づいて車速演算ブロック47から出力される車速(自車速)と上記求められた相対速度(Vx,Vy,Vz)とから物体が停止物体であるか移動物体であるかの識別が行なわれる。この識別結果と物体の中心位置とに基づいて自車両の走行に影響する物体が選択され、その距離が距離表示器15により表示される。
【0058】
また、ステアリングセンサ27からの信号に基づいて操舵角演算ブロック49にて操舵角が求められ、ヨーレートセンサ28からの信号に基づいてヨーレート演算ブロック51にてヨーレートが演算される。そしてカーブ半径(曲率半径)算出ブロック57では、車速演算ブロック47からの車速と操舵角演算ブロック49からの操舵角とヨーレート演算ブロック51からのヨーレートとに基づいて、カーブ半径(曲率半径)Rを算出する。そして物体認識ブロック43では、このカーブ半径Rおよび中心位置座標(X,Z)などに基づいて車両形状確率や自車線確率を算出する。この車両形状確率や自車線確率については後述する。
【0059】
このようなデータを持つ物体のモデルを「物標モデル」と呼ぶこととする。この物体認識ブロック43にて求めたデータが異常な範囲の値がどうかがセンサ異常検出ブロック44にて検出され、異常な範囲の値である場合には、センサ異常表示器17にその旨の表示がなされる。
【0060】
一方、先行車判定ブロック53では、物体認識ブロック43から得た各種データに基づいて先行車を選択し、その先行車に対する距離Zおよび相対速度Vzを求める。そして、車間制御部及び警報判定部ブロック55が、この先行車との距離Z、相対速度Vz、クルーズコントロールスイッチ26の設定状態およびブレーキスイッチ9の踏み込み状態、スロットル開度センサ11からの開度および警報感度設定器25による感度設定値に基づいて、警報判定ならば警報するか否かを判定し、クルーズ判定ならば車速制御の内容を決定する。その結果を、警報が必要ならば、警報発生信号を警報音発生器13に出力する。また、クルーズ判定ならば、自動変速機制御器23、ブレーキ駆動器19およびスロットル駆動器21に制御信号を出力して、必要な制御を実施する。そして、これらの制御実行時には、距離表示器15に対して必要な表示信号を出力して、状況をドライバーに告知する。
【0061】
このような車間制御や警報判定に際しては、その前提となる物体認識、さらに詳しく言えば、ここでの認識対象物体である車両の認識が適切に行われていることが重要である。そこで、その車両認識を適切に行なうため、認識・車間制御ECU3の物体認識ブロック43において実行される物体認識に関する処理について説明する。
【0062】
図13(a)のフローチャートに物体認識に係るメイン処理を示す。図13(a)のステップS110では、レーザレーダセンサ5から1スキャン分の測距データの読み込みを行なう。レーザレーダセンサ5でのスキャン周期は例えば100msecであり、100msec毎にデータを取り込む。
【0063】
ステップS120では、データのセグメント化を行なう。上述したように、測距データとして得た3次元位置データをグルーピングしてセグメントを形成する。このセグメント化においては、所定の接続条件(一体化条件)に合致するデータ同士を集めて1つのプリセグメントデータを生成し、さらにそのプリセグメントデータ同士の内で所定の接続条件(一体化条件)に合致するものを集めて1つの本セグメントデータとするというものである。プリセグメントデータは、例えば点認識されたデータ同士のX軸方向の距離△Xが0.2m以下、Z軸方向の距離△Zが2m以下という2条件を共に満たす場合に、その点集合を一体化して求める。本実施形態では、Y軸方向に3つの走査ラインがあるが、プリセグメント化によって各ライン毎にプリセグメントデータが生成されている。そのため、本セグメント化では、3次元(X,Y,Z)空間で近接するプリセグメントデータ同士を一体化(本セグメント化)する。本セグメントデータは、X軸,Y軸及びZ軸にそれぞれ平行な3辺を持つ直方体の領域であり、その中心座標(X,Y,Z)と大きさを示すための3辺の長さ(W,H,D)をデータ内容とする。なお、特に断らない限り、本セグメント(データ)のことを単にセグメント(データ)と称することとする。
【0064】
ステップS130では、各セグメントデータをプリ物標とし、各プリ物標について、物標モデルとして物標化処理の対象となる確率である物標化優先確率を計算する。ここで、物標モデルとは、一まとまりのセグメントに対して作成される物体のモデルであり、プリ物標とは、物標化処理を行なう物標モデルの候補となるものである。本実施形態においては、プリ物標は最大で18個選択可能であり、物標モデルは、それらプリ物標の中から物標化優先確立の高い順に4個選択される。
【0065】
各プリ物標の物標化優先確率は、車両形状確率が所定確率(例えば50%)以上か否か、移動物か否か、自車両に対する横方向位置が所定距離(例えば左右それぞれに6m)以内であるか否か、所定時間以上継続して検出されているか否か等を判断要素として、該当する項目が多いほど確率が高くなるように算出される。
【0066】
ここで、車両形状確率について説明する。
【0067】
路側にデリニエータが狭い間隔で多数設置されているような場合やガードレールを検出しているような場合には、これらの停止物を移動物であると誤認識してしまう可能性がある。これは、同一位置に常に何かを検出することにより、その位置に自車と同速度で走行している車両が存在すると判断してしまうからである。そこで、このように移動物であると誤認識した物体が誤って先行車と判断されてしまわないように、車両形状確率を算出する。そして、先行車判定ブロック53においてこの車両形状確率が例えば50%未満の場合に路側物であると判定するようにすれば、繰り返し現れる停止物を誤って先行車両と判断することを防止できる。
【0068】
車両形状確率の取り得る範囲は0〜100%であり、瞬間的なノイズやバラツキによる影響を低減するために、数式1のように加重平均して求める。
【0069】
【数1】今回の車両形状確率←前回値×α+今回の瞬時値×(1−α)
なお、初期値は50%とし、αは例えば0.8といった値を採用する。また、車両形状確率の瞬時値は、相対加速度、縦横の長さD,W、検出時間などに基づいて算出する。なお、この車両形状確率の算出方法は、特開2002−40139の段落番号0045から0049に詳しく記載されているため、これ以上の説明は省略する。
【0070】
ステップS140では、物標化優先確率の高い4つのプリ物標を物標として選択し、それらに対して物標化処理を行なう。この物標化処理を図13(b)のフローチャートを参照して説明する。物標化処理においてはまず、物標モデルの対応セグメントを検索する(ステップS141)。これは、前回までに得た物標モデルが、今回検出したセグメントの内のいずれと一致するかを検索する処理であり、物標モデルに対応するセグメントとは次のように定義する。まず、物標モデルが前回処理時の位置から前回処理時における相対速度で移動したと仮定した場合、現在物標モデルが存在するであろう推定位置を算出する。続いて、その推定位置の周囲に、X軸,Y軸,Z軸方向それぞれに所定量の幅を有する推定移動範囲を設定する。そして、その推定移動範囲に少なくとも一部が含まれるセグメントを対応セグメントとする。
【0071】
ステップS142では、物標モデルのデータ更新処理を実行する。この処理は、対応するセグメントがあれば物標モデルの過去データを現在のデータに基づいて更新するもので、更新されるデータは、中心座標(X,Y,Z)、幅W、高さH、奥行きD、X軸方向,Y軸方向、Z軸方向の相対速度(Vx,Vy,Vz)、中心座標(X,Y,Z)の過去4回分のデータ、自車線確率などである。なお、対応するセグメントがない場合は、物標モデルのデータ更新は行なわず、新規物標モデルの登録を行なう。
【0072】
その後、ステップS143にて、自車線確率の算出を行なう。自車線確率とは、物標モデルが自車と同一レーンを走行している車両である確からしさを表すパラメータである。具体的には、まず物標モデルの位置を算出し、その算出した位置を自車線確率マップに重ねて、物標モデルの自車線確率瞬時値を求める。なお、自車線確率マップとは、自車の前方の所定の範囲(例えば左右それぞれ5m、前方100m)を複数の領域に分け、距離が近いほど、また、自車の進路上に近いほど、確率が高くなるように各領域に確率が付与されているマップである。
【0073】
自車線確率瞬時値を求めた後は、数式2のように加重平均して自車線確率を求める。
【0074】
【数2】自車線確率←自車線確率前回値×α+自車線確率瞬時値×(1−α)
ここで、αは一定値でも良いし、物標モデルとの距離や物標モデルが存在する領域に応じて変化するものであっても良い。なお、自車線確率の算出方法についても、特開2002−40139の段落番号0050から0056に詳しく記載されているため、これ以上の詳細な説明は省略する。
【0075】
そして、車両形状確率や自車線確率も含めた物標モデルのデータが、図1に示す物体認識ブロック43から先行車判定ブロック53へ出力される。なお、先行車判定ブロック53では、例えば車両形状確率が所定のしきい値(例えば50%)以上、且つ自車線確率が所定のしきい値(例えば50%)以上の物標モデルの中で、距離Zが最小のものを先行車と判断する。この判断結果は車間制御部及び警報判定部ブロック55に出力されることとなる。
【0076】
次に、レーザレーダセンサ5の光軸中心の学習処理について説明する。
【0077】
ターゲット100を用いてレーザレーダセンサ5における認識使用エリア93の中心レーザ光の照射角度を基準角度ΔAに一致するように設定した場合であっても、実際のレーザ光の照射範囲は、種々の要因で変動する。例えば、車両の積載状態や搭乗人員等によって、特にY軸(上下)方向において、レーザレーダセンサ5のレーザ光照射範囲は、認識使用エリア93として設定した範囲からずれる場合がある。また、車両が走行を繰り返すことにより、走行振動等の影響を受けてレーザレーダセンサ5の車両装着状態が変化することもありえる。このように、特にY軸方向におけるレーザ光の照射角度が変動し易いため、上述したように所定のターゲット100に基づいて算出した上下光軸学習角度Δθelvがずれているかどうかを判別して、ずれている場合には、補正を行なうことが好ましいのである。
【0078】
本実施形態においては、乗用車に必ず装着されているリフレクタを用いて、レーザレーダセンサ5の光軸中心の学習を行なう。その理由は、乗用車のリフレクタは地上から約75cmの位置に設置され、車種ごとの取り付け高さのばらつき範囲も小さいためである。
【0079】
図14にレーザレーダセンサ5の光軸中心の学習処理のフローチャートを示す。まず、ステップS200において、複数のプリ物標に対する物標化優先確率を算出する。この物標化優先確立の算出方法は、既に図13(a)のフローチャートのステップS130にて説明した方法と基本的に同様である。
【0080】
ただし、本学習処理では、上述した上下光軸学習角度Δθelvを用いて、より詳細に車両と車両以外のプリ物標を識別し、車両以外のプリ物標に関しての物標化優先確率を、所定の低い確率(例えば20%)に制限する。以下、上下光軸学習角度Δθelvを用いた車両と車両以外のプリ物標の識別方法について説明する。なお、この識別方法は、図13(a)のフローチャートのステップS130において適用し、車両以外のプリ物標の物標化優先確率を所定の低い確率に制限しても良い。
【0081】
まず、上下光軸学習角度Δθelvと上向き判定角度(例えば+0.5deg)及び下向き判定角度(例えば−0.5deg)と比較することにより、光軸の上向きもしくは下向き判定を行なう。すなわち、上下光軸学習角度Δθelv≧+0.5degであれば上向き判定がなされ、上下光軸学習角度Δθelv≦−0.5degであれば下向き判定がなされる。
【0082】
そして、光軸上向き判定がなされている場合には、以下の条件(1)もしくは(2)が成立するプリ物標に関する物標化優先確率を所定の低い確率に制限する。なお、各条件の説明に際して、適宜図11に示す例を参照する。
【0083】
(1)Y軸中心レーザ光の下側のレーザ光のみによって反射光が受光され、かつプリ物標との距離Z(cm)>装着高さΔY(cm)×40+D(cm)が成立した場合
図11に示すように、本実施形態においては、Y軸方向のレーザ光の広がり角は1.57degであり、tan(1.57deg)≒1/37となる。また、中心レーザ光下側のレーザ光のみの広がり角度、すなわち重複領域を除くレーザ光の広がり角度は、1.57−0.145=1.425degであり、tan(1.425deg)≒1/40となる。
【0084】
ここで、Y軸中心レーザ光の下側のレーザ光(6面のレーザ光)は、原則として水平よりも下向きに照射される。しかし、光軸上向き判定がなされたときには、6面のレーザ光の上端がほぼ水平となる場合もある。そのような場合であっても、プリ物標との距離Zが上記の式を満足する場合には、6面のレーザ光の下端は少なくとも路面に達している。また、6面のレーザ光に対して反射光が生じ、Y軸中心レーザ光である5面のレーザ光によって反射光が生じていないのであるから、その反射光を生じているプリ物標は路面上もしくは路面に非常に近い位置にあると推測できる。このため、このプリ物標は、例えばデリニエータ等の車両以外の物体と推測できる。
【0085】
なお、上記した式におけるD(cm)は、測距誤差と道路の勾配等を考慮して設定した余裕値であり、例えば500(cm)に設定される。
【0086】
(2)Y軸中心レーザ光の上側のレーザ光、もしくはY軸中心レーザ光とその上側のレーザ光の両方に対して反射光が受光され、かつプリ物標との距離Z(cm)>(350(cm)−ΔY(cm))×37+D(cm)が成立した場合
光軸上向き判定がなされている場合には、上述したように、Y軸中心レーザ光の下端がほぼ水平に近くなる場合がある。従って、図11に示す例では、Y軸中心レーザ光である5面のレーザ光及びその上側に照射される4面のレーザ光の照射方向は、上方に広がるようになる。ここで、道路上方には標識や看板等の物体が多数設置されており、上方に広がる4面及び5面のレーザ光によって、それらの物体による反射光を受光しやすくなる。上記の(2)の条件は、そのような道路上方の物体からの反射光を受光する可能性がある場合に成立するものである。
【0087】
すなわち、例えばトラック等の車高の高い車両であっても、その車高の最大値は350(cm)程度である。そのため、4面及び5面のレーザ光による反射があり、その反射光を生じたプリ物標までの距離Zが、5面のレーザ光(Y軸中心レーザ光)の照射高さがその350(cm)を超える距離よりも長い場合、車両以外の物体からの反射光である可能性が高い。従って、そのような場合には、プリ物標の物標化優先確率を制限するのである。なお、4面のレーザ光のみによって反射光が生じている場合も同様である。
【0088】
次に、光軸下向き判定がなされている場合について説明する。光軸下向き判定がなされている場合は、以下の条件(3)もしくは(4)が成立すると、プリ物標に関する物標化優先確率を所定の低い確率に制限する。
【0089】
(3)Y軸中心レーザ光の下側のレーザ光、もしくはY軸中心レーザ光とその下側のレーザ光の両方によって反射光が受光され、かつプリ物標との距離Z(cm)>ΔY(cm)×37+D(cm)が成立した場合
光軸下向き判定がなされている場合には、光軸上向き判定の場合とは逆に、Y軸中心レーザ光の上端が水平に近づく場合がある。従って、図11に示す例では、Y軸中心レーザ光である5面のレーザ光及びその下側に照射される6面のレーザ光の照射方向は、下方に広がり、路面や路面上の低い位置にある物体からの反射光を受光しやすくなる。上記の(3)の条件は、そのような路面や路面上の低い位置にある物体からの反射光を受光する可能性がある場合に成立するものである。
【0090】
すなわち、上述したように、レーザ光の広がり角度が1.57degであるため、そのtan(1.57deg)の値にレーザレーダセンサ5の装着高さΔYを乗算することによって、Y軸中心レーザ光である5面のレーザ光がほぼ路面に達する距離が算出される。その距離に余裕値D(cm)を加えた距離よりも、プリ物標までの距離Zが長く、かつ5面及び6面のレーザ光の両方、もしくは6面のレーザ光のみに対して反射光を受光している場合には、路面上の非常に低い位置からの反射であると推測できる。従って、そのような場合には、プリ物標の物標化優先確率を制限する。
【0091】
(4)Y軸中心レーザ光の上側のレーザ光のみによって反射光が受光され、かつプリ物標との距離Z(cm)>(350(cm)―ΔY(cm))×40+D(cm)が成立した場合
光軸下向き判定がなされた場合、Y軸中心レーザ光の上側のレーザ光(4面のレーザ光)は、水平よりも上方ではあるが、相対的に水平方向に近い向きに照射される。このような場合であっても、プリ物標との距離Zが上記の式を満足する場合には、4面のレーザ光の上端は少なくとも最も高い車高以上の高さに達している。また、4面のレーザ光に対して反射光が生じ、Y軸中心レーザ光である5面のレーザ光によって反射光が生じていないのであるから、その反射光を生じているプリ物標は路面上の非常に高い位置にあると推測できる。このため、(4)の条件が成立した場合には、プリ物標が、標識や看板等の車両以外の物体である可能性があると推測できるのである。
【0092】
また、上述した(1)〜(4)の条件に加えて、次のような条件が成立した場合にも、プリ物標の物標化優先確率を制限しても良い。
【0093】
(5)図11に示されるように、水平方向と5面のレーザ光の下端とのなす角度Δθが、所定角度Θ以上であり、プリ物標との距離が所定の近距離l(例えば30m)以内であり、プリ物標の幅が車両の幅よりも短く(例えば0.5m以下)、6面のレーザ光のみによって反射光を受光している場合
上記所定角度Θの設定方法について説明する。まず、Y軸中心レーザ光である5面のレーザ光下端の、所定の近距離lにおける基準照射高さhを定める(例えば地上から30cm)。この基準照射高さhに基づき、数式3によって所定角度Θを演算する。
【0094】
【数3】Θ=tan−1(ΔY−h)/l
水平方向と5面のレーザ光の下端とのなす角度Δθが、このように設定した所定角度Θ以上である場合、上述したように基準照射高さhは、比較的低い位置に設定されるので、5面のレーザ光の照射範囲が少なくとも距離l以上においては地上高30cmの対象物をカバーすることになる。換言すれば、距離l以内において、6面のレーザ光のみに対して反射光が生じている場合、その反射物の高さは、せいぜい基準照射高さh程度の高さしか持たないことになる。
【0095】
従って、反射物が車両であり、所定の近距離以内に接近した場合には、上述した基準照射高さh程度の高さしか持たないことはなく、5面のビーム光によっても反射光を受光するはずである。
【0096】
従って、上記の条件が成立した場合には、その反射物(プリ物標)は、車両以外の例えばデリニエータ等と推測できるので、物標化優先確率を所定の低い確率に制限する。
【0097】
なお、上記の条件(5)においては、プリ物標の幅が所定の幅以下であることも、条件の成立要件の1つとしているが、これは確認的な意味であり、この成立要件は省略しても良い。
【0098】
このようにして、各プリ物標に対して物標化優先確率を算出した後は、図14のフローチャートのステップS210において、学習対象候補の第1抽出を行なう。この第1抽出では、移動物として認識しており、その認識が所定時間(例えば5秒)以上継続し、前述した車両形状確率が50%以上のプリ物標の中で、最も物標化優先確率の高いプリ物標を第1抽出による学習対象候補とする。従って、上述の(1)から(5)の条件に該当するプリ物標に関しては、その物標化優先確率が低く抑えられるので、車両として学習対象候補に選定される可能性は非常に低くなる。
【0099】
次に、ステップS220において、学習対象候補の第2抽出を行なう。この第2抽出では、第1抽出によって選定された学習対象候補と自車両との横方向相対速度Vxが所定の速度以下(例えば0.2m/s)であり、かつ前後方向相対速度Vzも所定の速度以下(例えば0.1m/s)である状態が、所定時間継続しているか否かを判定する。すなわち、学習対象候補が、自車両との相対的位置関係がほぼ安定しているかどうかを判定するのである。この場合、学習対象候補の測距誤差が小さくなるためである。横方向相対速度Vx及び前後方向相対速度Vzとも所定の速度以下(例えば0.1m/s)である状態が、所定時間継続していれば、第2抽出による学習対象候補とする。
【0100】
さらに、ステップS230にて学習対象候補の第3抽出を行なう。この第3抽出では、第2抽出された学習対象候補に対して、さらに、その幅が所定の範囲(例えば1.2m以上2.1m以下)に属し、かつ学習対象候補との距離Zが所定の範囲(例えば30m以上80m以下)に属するかを判定する。
【0101】
学習対象候補の幅を判定する理由は、本実施形態では、学習対象候補として、リフレクタの設置高さがほぼ統一されている乗用車を選定するためである。また、学習対象候補との距離Zを判定する理由は、接近しすぎると、リフレクタ以外のボディ反射による受光強度も高くなり、リフレクタを識別しにくくなるためであり、また距離が長くなりすぎると、受光状態が不安定となり、いずれにしても誤学習の可能性があるためである。
【0102】
幅及び距離Zとも所定の範囲に属すると判定された場合、第3抽出による学習対象候補とする。そして、このように第1抽出から第3抽出を経て選定された学習対象候補を用いて、ステップS240において、上下光軸ずれ角度瞬時値θuを算出する。この上下光軸ずれ角度瞬時値θuの算出式を数式4に示す。
【0103】
【数4】

Figure 2004184331
なお、リフレクタの検出面番号とは、図15に示すように、学習対象候補となる乗用車に設けられたリフレクタからの反射光を生じさせるレーザ光の面番号である。本実施形態では、その検出面番号として、4(上面)、4.5(上面と中面の中間),5(中面),5.5(中面と下面の中間),6(下面)のいずれかの値となる。ちなみに、図15に示す例では、リフレクタの検出面番号は、5.5(中面と下面の中間)である。
【0104】
この数式4によって、Y軸中心レーザ光である面番号5のレーザ光の広がり角の中心角度が、狙いとする基準角度ΔAからどの程度ずれているのかを示す上下光軸ずれ角度瞬時値θuを算出することができる。
【0105】
そして、この数式4によって算出された上下光軸ずれ角度瞬時値θuが、例えば±1.424deg以内の範囲に属するか否かによって正常値か否かを判定する。このとき、異常値と判定されると、上下光軸ずれ角度瞬時値θuは未算出とする。
【0106】
一方、正常値と判定された場合には、数式5に示すように上下光軸ずれ角度瞬時値θuの算出回数Nuをインクリメントするとともに、数式6に示すように、上下光軸ずれ角度瞬時値θuの瞬時値の総和を求める。
【0107】
【数5】Nu=Nu+1
【0108】
【数6】
Figure 2004184331
【0109】
さらに、上下光軸ずれ角度瞬時値θuの算出回数Nuが所定回数(例えば200回)に達した時点で、数式7に示すように上下光軸ずれ角度瞬時値θuの平均値θuaveを算出する。
【0110】
【数7】
Figure 2004184331
【0111】
このθuaveの算出に伴って、算出回数Nu及び総和Σθuはそれぞれ0に初期化する。
【0112】
次に、ステップS250において、上下光軸ずれ角度瞬時値θuの平均値θuaveに基づいて、上下光軸学習角度Δθelvを補正する。具体的には、上下光軸学習角度Δθelvの急激な変化を防止するため、上下光軸学習角度Δθelvに0.05degを加算した値及び上下光軸学習角度Δθelvから0.05degを減算した値と、上下光軸ずれ角度瞬時値θuの平均値θuaveとを比較する。この比較において、平均値θuaveが上下光軸学習角度Δθelvに0.05degを加算した値よりも大きいと判断したときには、上下光軸学習角度Δθelvに0.05degを加算する。また、平均値θuaveが上下光軸学習角度Δθelvから0.05degを減算した値よりも小さいと判断したときには、上下光軸学習角度Δθelvから0.05degを減算する。このようにして、上下光軸学習角度Δθelvの変化量を所定角度(0.05deg)に制限しながら、上下光軸学習角度Δθelvを補正する。
【0113】
これにより、積載状態や搭乗人員等によって、特にY軸(上下)方向において、レーザレーダセンサ5のレーザ光の照射角度が、初期の設定角度(上下光軸学習角度Δθelv)からずれている場合でも、適切に補正することができる。
【0114】
なお、本発明はこのような実施形態に何等限定されるものではなく、本発明の主旨を逸脱しない範囲において種々なる形態で実施し得る。
【0115】
上記実施形態においては、X軸及びY軸方向とも、レーザレーダセンサ5の装着角度の公差範囲に余裕を持たせ、ターゲット100を用いて、X軸及びY軸において受光強度の最も高いレーザ光を中心として認識使用領域93を設定していた。しかしながら、例えば一方の軸(X軸もしくはY軸)に関しては、装着角度の公差範囲を狭くし、他方の軸方向においてのみ、ターゲット100を用いて認識使用領域93を設定するようにしても良い。この場合も、従来技術と比較した場合、レーザレーダセンサ5の装着角度の調整作業の負担を軽減することができる。
【0116】
上記実施形態では、レーザ光の2次元スキャンを行なうために面倒れ角が異なるポリゴンミラー73を用いたが、例えば車幅方向にスキャン可能なガルバノミラーを用い、そのミラー面の倒れ角を変更可能な機構を用いても同様に実現できる。但し、ポリゴンミラー73の場合には、回転駆動だけで2次元スキャンが実現できるという利点がある。
【0117】
上記実施形態では、レーザレーダセンサ5内部において、距離及び対応するスキャン角度θx,θyを極座標系からXYZ直交座標系に変換していたが、その処理を物体認識ブロック43において行っても良い。
【0118】
上記実施形態ではレーザ光を用いたレーザレーダセンサ5を採用したが、ミリ波等の電波や超音波等を用いるものであってもよい。また、スキャン方式にこだわる必要はなく、距離以外に方位を測定できる方式であればよい。そして、例えばミリ波でFMCWレーダ又はドップラーレーダなどを用いた場合には、反射波(受信波)から先行車までの距離情報と先行車の相対速度情報が一度に得られるため、レーザ光を用いた場合のように、距離情報に基づいて相対速度を算出するという過程は不要となる。
【図面の簡単な説明】
【図1】本発明が適用された車両制御装置の構成を示すブロック図である。
【図2】(a)はレーザレーダセンサの構成を示す構成図であり、(b)はレーザレーダセンサにおける距離検出方法を説明するための説明図である。
【図3】レーザレーダセンサの照射可能領域を示す斜視図である。
【図4】レーザレーダセンサから照射されるレーザ光の、Y軸方向における広がり角及び重複範囲を説明するための説明図である。
【図5】レーザレーダセンサの認識使用領域の設定方法を説明するための説明図である。
【図6】車両とターゲットとの位置関係を示す斜視図である。
【図7】認識使用領域を設定するための処理を示すフローチャートである。
【図8】レーザレーダセンサ5の装着角度の公差範囲に対応するレーザ光の照射角度範囲において、X軸方向にレーザ光を走査した場合における、各レーザ光に対するターゲットによる反射光の受光強度を示すグラフである。
【図9】レーザレーダセンサ5の装着角度の公差範囲に対応するレーザ光の照射角度範囲において、Y軸方向にレーザ光を走査した場合における、各レーザ光に対するターゲットによる反射光の受光強度を示すグラフである。
【図10】上下光軸学習角度の算出処理を示すフローチャートである。
【図11】レーザレーダセンサの装着高さΔYと、Y軸中心レーザ光の目標とする基準角度ΔAの関係について説明するための説明図である。
【図12】Y軸中心レーザ光の中心角度の基準角度ΔAに対するずれ角度Δθelvを算出する方法を説明するための説明図である。
【図13】(a)物体認識に係わる処理を示すフローチャートであり、(b)は(a)のフローチャートにおいて実行される物標化処理を示すフローチャートである。
【図14】レーザレーダセンサの光軸中心の学習処理を示すフローチャートである。
【図15】リフレクタの検出面番号について説明するための説明図である。
【符号の説明】
1…車両制御装置、3…認識・車間制御ECU、5…レーザレーダセンサ、7…車速センサ、9…ブレーキスイッチ、11…スロットル開度センサ、13…警報音発生器、15…距離表示器、17…センサ異常表示器、19…ブレーキ駆動器、21…スロットル駆動器、23…自動変速機制御器、24…警報音量設定器、25…警報感度設定器、26…クルーズコントロールスイッチ、27…ステアリングセンサ、28…ヨーレートセンサ、29…電源スイッチ、30…ワイパスイッチ、43…物体認識ブロック、44…センサ異常検出ブロック、47…車速演算ブロック、49…操舵角演算ブロック、51…ヨーレート演算ブロック、53…先行車判定ブロック、55…車間制御部及び警報判定部ブロック、57…カーブ半径算出ブロック、70…レーザレーダCPU、71…発光レンズ、72…スキャナ、73…ミラー、74…モータ駆動回路、75…半導体レーザダイオード、76…レーザダイオード駆動回路、77…ガラス板、81…受光レンズ、83…受光素子、85…アンプ、87…コンパレータ、89…時間計測回路[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an object recognition device for a vehicle that irradiates a transmission wave within a predetermined angle range in each of a vehicle width direction and a height direction and recognizes an object ahead of a host vehicle based on the reflected wave.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, as disclosed in Patent Document 1, for example, an object recognition device that irradiates a transmission wave such as a light wave or a millimeter wave and detects a reflected wave to recognize a forward object has been considered. This type of device is applied to, for example, a device that detects a preceding vehicle and generates an alarm, and a device that controls a vehicle speed so as to maintain a predetermined inter-vehicle distance with a preceding vehicle. Used for vehicle recognition.
[0003]
The above-described object recognition device irradiates a plurality of transmission waves in a predetermined angle range in each of the vehicle width direction and the height direction in front of the vehicle, and three-dimensionally recognizes the preceding vehicle based on the reflected waves. At this time, if there is a reflecting object at a height or range that would not be possible with a normal vehicle, in order to recognize that it is not a vehicle, In addition, the output level of the transmission wave is changed to make it difficult for the non-vehicle to be identified as the preceding vehicle, or the non-vehicle is identified using the non-vehicle determination map for distinguishing the vehicle from the non-vehicle. Here, the non-vehicle determination map refers to the vehicle, the non-vehicle, and the vehicle width, the vehicle height, and the vehicle presence direction when the vehicle front direction is defined as the X axis, the Y axis, and the Z axis, respectively. Is a three-dimensional map in which the range of the received light intensity of the reflected wave for discriminating is set.
[0004]
[Patent Document 1] JP-A-2002-40139
[0005]
[Problems to be solved by the invention]
Here, as described above, according to the area to output the transmission wave, or to change the output level of the transmission wave, to identify a non-vehicle using a non-vehicle determination map, while irradiating the transmission wave, A radar unit for detecting the reflected wave needs to be attached to the vehicle with very high accuracy. In other words, if the output axis of the transmission wave is deviated depending on the mounting state of the radar unit, the area where the reflective object exists cannot be accurately determined, so that it is not possible to accurately distinguish between the vehicle and the non-vehicle.
[0006]
For this reason, conventionally, when mounting the radar unit on the vehicle, the operator has adjusted the mounting angle or the like using an adjustment bolt or the like. However, the narrower the tolerance range of the mounting angle of the radar unit becomes, the more difficult the adjustment work becomes and the longer the time becomes, resulting in an increase in manufacturing cost.
[0007]
The present invention has been made in view of the above points, and when a radar unit is mounted on a vehicle, transmission waves are transmitted over an appropriate angle range in front of the vehicle while providing a margin in the tolerance range of the mounting angle. It is an object of the present invention to provide a vehicular object recognition device capable of outputting the object.
[0008]
[Means for Solving the Problems]
In order to achieve the above object, a vehicle object recognition device according to claim 1 irradiates a transmission wave in at least one of a vehicle width direction and a height direction based on a transmission / reception result of a radar unit with respect to a predetermined target. Setting means for setting the angle range to a narrow angle range narrower than a predetermined angle range that can be irradiated by the radar unit, and when recognizing a reflective object, the radar unit transmits in the narrow angle range set by the setting means. It is characterized by irradiating waves.
[0009]
That is, an angle range (narrow angle range) for detecting a preceding vehicle or the like as a reflection object is set based on a result of transmission / reception of the radar unit with respect to a predetermined target, so that a margin is provided for a tolerance range of the mounting angle of the radar unit. Even in this case, it is possible to set an appropriate transmission wave irradiation range. Thus, the work of adjusting the mounting angle of the radar unit and the like can be simplified, which can contribute to a reduction in manufacturing cost.
[0010]
As described in claim 2, it is preferable that the predetermined target is a fixed object installed at a predetermined distance and height with respect to the vehicle on which the radar unit is mounted. As described above, by using the fixed object as the target, the irradiation angle range of the transmission wave used for object recognition can be accurately set to a desired range based on the reflected wave from the fixed object.
[0011]
As described in claim 3, the radar unit irradiates a plurality of transmission waves in the width direction and the height direction of the vehicle, and the setting unit determines that the reception level of the reflected wave by the predetermined target is the highest. It is preferable to set the narrow angle range so that the transmission wave at a high angle is centered. That is, a predetermined target is provided at the center position of the range to be irradiated with the transmission wave, and a narrow angle range for irradiating the transmission wave is set such that the transmission wave corresponding to this target is the center. Thus, the narrow angle range can be easily set, and the center of the output axis of the transmission wave can be adjusted to the target angle.
[0012]
As described in claim 4, it is preferable that the irradiation angles of the transmission waves are set so that the transmission waves adjacent in the height direction partially overlap in the boundary region. For example, when the transmission wave is a light wave, its resolution is determined in principle by the beam diameter of the light. However, as described above, by providing the overlapping region in the boundary region between the transmission waves adjacent in the height direction, the reflected wave is generated in each of the transmitted waves alone and the reflected wave is generated in both of the adjacent transmission waves. Case can be distinguished. Thereby, the resolution in the height direction can be improved.
[0013]
As set forth in claim 5, when the setting means sets the narrow angle range, the radar unit irradiates the target with a transmission wave within a range of the mounting error angle of the radar unit to the vehicle. This is because, when the target is set at the center of the irradiation range of the transmission wave, the reflected wave from the target can always be received by irradiating the transmission wave within the range of the mounting tolerance angle.
[0014]
As described in claim 6, in the height direction of the vehicle, the center output shaft angle of the radar unit is set based on the reception levels of the transmission waves irradiated on the upper and lower sides of the transmission wave at the highest reception level. It is preferable to include a calculating means for calculating. When the target is installed so as to face a certain transmission wave, the reception level of the reflection wave of the transmission wave by the target becomes the highest. However, the reflected waves from the target are received by the transmitted waves irradiated on both upper and lower sides of the transmitted waves, though the reception level is low. At this time, for example, if the target is closer to the lower transmission wave irradiation area than the upper transmission wave irradiation area, the reception level of the reflection wave by the lower transmission wave becomes lower than the reception level of the reflection wave by the upper transmission wave. Greater than level. Therefore, the output shaft angle in the angle range of the transmitted wave irradiated at the center can be calculated in more detail based on the ratio or difference between the reception levels of the reflected waves by the upper and lower transmitted waves. This makes it possible to grasp the output shaft angle of the radar unit with high accuracy.
[0015]
As described in claim 7, when the center output shaft angle is out of the predetermined reference angle range, the radar unit has a determination unit for determining whether the output shaft is downward or upward, and the determination unit determines whether the output shaft is downward or upward. In response to the determination, it is preferable that the recognition unit reduces the probability of recognizing the reflective object as a vehicle based on the reflected wave of the transmitted wave irradiated at an angle below or above the center in the narrow angle range. . That is, when the center output shaft angle is out of the predetermined reference angle range, it can be determined that the radar unit is mounted on the vehicle downward or upward. For example, when the radar unit is mounted downward, a transmission wave irradiated at an angle below the center in a narrow angle range is reflected by a reflecting object such as a delinator (cat's eye) installed on a road surface. The likelihood increases. Therefore, when a downward or upward determination is made, the probability of recognizing a reflective object as a vehicle is reduced based on the reflected wave of the transmitted wave irradiated at an angle below or above the center of the narrow angle range. By doing so, the possibility of erroneously recognizing a non-vehicle as a vehicle can be reduced.
[0016]
As described in claim 8, when the calculated center output shaft angle is lower than the predetermined reference angle, only the reflected wave with respect to the transmitted wave irradiated below the transmitted wave at the highest reception level angle. Is detected, the recognition means may recognize the reflection object as a non-vehicle. In other words, when the radar unit is mounted downward and the reflected wave is generated only by the transmitted wave irradiated below the transmitted wave at the highest reception level, the height of the reflected object Since the position is very low, it can be determined that the position is not a reflection from the vehicle. In this way, by accurately grasping the angle of the output shaft of the radar unit by the calculating means according to claim 6, the vehicle is distinguished from the non-vehicle with higher accuracy as described in claim 8. It becomes possible.
[0017]
An estimating means for estimating a central output shaft angle of a transmission wave in a height direction of a radar unit based on a reflected wave reflected from a reflector of a preceding vehicle that satisfies a predetermined condition. When the center output shaft angle estimated by the means is deviated from the center output shaft angle calculated by the calculation means, it is preferable to include a correction means for correcting the calculated center output shaft angle.
[0018]
Even if the range in which the transmission wave is to be irradiated using the predetermined target is set to a desired range, the irradiation range varies depending on the loaded state of the vehicle, the number of occupants, and the like. Further, when the vehicle repeatedly travels, the mounting state of the radar unit may change under the influence of vibration or the like. Therefore, it is preferable to determine whether or not the center output shaft angle calculated based on a predetermined target is shifted, and to correct the center output shaft angle if it is shifted.
[0019]
Therefore, in the vehicle object recognition device according to the ninth aspect, the deviation of the center output shaft angle of the radar unit is detected using the reflector that is always mounted on the vehicle. Specifically, in the case of a passenger car, the reflector is installed at a position of about 75 cm from the ground, and the variation range of the mounting height for each vehicle type is small. Therefore, the center output shaft angle of the transmission wave in the height direction of the radar unit can be estimated based on the reflected wave from the reflector of the preceding vehicle that satisfies the predetermined condition of the passenger car. If the estimated center output shaft angle deviates from the calculated center output shaft angle, the calculated center output shaft angle is corrected.
[0020]
As described in claim 10, it is preferable that the estimating means is a target for estimating the center output shaft angle when the preceding vehicle exists within a distance range defined by the predetermined upper and lower limit distances. When the distance to the vehicle in front is shorter than the lower limit distance, the reception level of the reflected wave from the vehicle body also increases, making it difficult to identify the reflected wave by the reflector, and when the distance to the vehicle in front becomes longer than the upper limit distance, This is because the reception state of the reflected wave is likely to be unstable.
[0021]
As described in claim 11, it is preferable that the estimating means is an object for estimating the center output shaft angle when the lateral width of the preceding vehicle belongs to a predetermined range. As a result, the center output shaft angle can be corrected for a passenger vehicle in which the height positions of the reflectors from the ground are substantially the same.
[0022]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, a vehicle control device 1 to which a vehicle object recognition device according to the present invention is applied will be described with reference to the drawings. The vehicle control device 1 is a device that is mounted on a vehicle and outputs a warning when an obstacle exists in an area to be warned, or controls a vehicle speed in accordance with a preceding vehicle (preceding vehicle).
[0023]
FIG. 1 is a system block diagram of the vehicle control device 1. The vehicle control device 1 is mainly configured by a recognition / interval control ECU 3. The recognition / vehicle distance control ECU 3 has a microcomputer as a main component, and is provided with an input / output interface (I / O) and various drive circuits and detection circuits. Since these hardware configurations are general, detailed description will be omitted.
[0024]
The recognition / interval control ECU 3 receives detection signals from the laser radar sensor 5, the vehicle speed sensor 7, the brake switch 9, and the throttle opening sensor 11, and outputs an alarm sound generator 13, a distance display 15, a sensor abnormality display. 17, a drive signal is output to the brake driver 19, the throttle driver 21, and the automatic transmission controller 23. The recognition / interval control ECU 3 includes an alarm volume setting device 24 for setting an alarm volume, an alarm sensitivity setting device 25 for setting sensitivity in an alarm determination process, a cruise control switch 26, and a steering for detecting an operation amount of a steering wheel (not shown). A sensor 27 and a yaw rate sensor 28 for detecting a yaw rate generated in the vehicle are connected. The recognition / interval control ECU 3 includes a power switch 29, and starts a predetermined process when the power switch 29 is turned on.
[0025]
As shown in FIG. 2, the laser radar sensor 5 mainly includes a light emitting unit, a light receiving unit, a laser radar CPU 70, and the like. That is, the laser radar sensor 5 calculates the distance to the reflecting object and the position in the vehicle width direction and the vehicle height direction based on the detection result of the light emitting / receiving section as well as the light emitting section and the light receiving section as the radar unit. A radar CPU 70 is also provided.
[0026]
The light emitting section includes a semiconductor laser diode (hereinafter simply referred to as a laser diode) 75 that emits a pulsed laser beam through a light emitting lens 71, a scanner 72, and a glass plate 77. The laser diode 75 is connected to a laser radar CPU 70 via a laser diode drive circuit 76, and emits (emits) laser light in accordance with a drive signal from the laser radar CPU 70. The scanner 72 is provided with a polygon mirror 73 as a reflector so as to be rotatable. When a driving signal from a laser radar CPU 70 is input via a motor driving unit 74, the polygon mirror 73 is driven by a motor (not shown). Rotate by force. The rotation position of the motor is detected by a motor rotation position sensor 78 and output to the laser radar CPU 70.
[0027]
Since the polygon mirror 73 includes six mirrors (reflection surfaces) having different tilt angles, the polygon mirror 73 sweeps and irradiates (scans) the laser beam discontinuously within a predetermined angle range in each of the vehicle width direction and the vehicle height direction. It is possible to output.
[0028]
The light receiving section of the laser radar sensor 5 includes a light receiving element (photodiode) 83 that receives the laser light reflected by an object (not shown) via a light receiving lens 81 and outputs a voltage corresponding to the intensity. Then, the output voltage of the light receiving element 83 is output to the comparator 87 after being amplified by the amplifier 85. The comparator 87 compares the output voltage of the amplifier 85 with the reference voltage, and outputs a predetermined light receiving signal to the time measurement circuit 89 when the output voltage> the reference voltage.
[0029]
A drive signal output from the laser radar CPU 70 to the laser diode drive circuit 76 is also input to the time measurement circuit 89. Then, as shown in FIG. 2B, the driving signal is a start pulse PA and the light receiving signal is a stop pulse PB, and the phase difference between the two pulses PA and PB (that is, the time T0 when the laser light is emitted and the reflection time T0). The difference ΔT from the time T1 at which the light was received is encoded into a binary digital signal. The pulse width of the stop pulse PB is also measured as time. Then, these values are encoded into a binary digital signal and output to the laser radar CPU 70.
[0030]
Here, a laser beam irradiation area and a recognition use area used when actually recognizing an object such as a preceding vehicle will be described with reference to FIGS. In FIG. 3, the pattern 92 of the laser beam is shown only when it is emitted to the right end and the left end in the irradiation area 91, and the middle is omitted. Further, the laser light pattern 92 is shown as an elliptical shape in FIG. 3 as an example, but is not limited to this shape and may be a rectangle or the like. Further, instead of using a laser beam, a radio wave such as a millimeter wave or an ultrasonic wave may be used. It is not necessary to stick to the scanning method, and any method may be used as long as it can measure the azimuth in the X direction and the Y direction other than the distance.
[0031]
As shown in FIG. 3, when the irradiation direction of the laser beam is the Z axis, the laser radar sensor 5 can sequentially scan the irradiation area 91 in the XY plane perpendicular to the Z axis.
[0032]
In the present embodiment, as shown in FIG. 4, the irradiation angle of the laser light is set so that the laser light adjacent in the vehicle height direction (Y-axis direction) partially overlaps in the boundary region. That is, each laser beam has a spread angle of 1.57 deg in the Y-axis direction. The angle range in which the adjacent laser beams overlap is 0.145 deg. Therefore, the angle between the central axes of the laser beams is 1.425 deg. FIG. 4 shows only three laser beams for convenience.
[0033]
As described above, by setting the irradiation angle so that the adjacent laser beams partially overlap in the Y-axis direction, the resolution in the Y-axis direction can be improved. That is, when each laser beam in FIG. 4 is defined as one surface, two surfaces, and three surfaces from top to bottom, respectively, when only one surface of the laser light is reflected, one surface and two surfaces of the laser light are reflected. There are five patterns: one that reflects only two surfaces of laser light, one that reflects two and three surfaces of laser light, and one that reflects only three surfaces of laser light. In particular, since the laser light on two surfaces has overlapping regions on both sides, the degree of improvement in the resolution near the laser light on two surfaces can be increased.
[0034]
The irradiable area 91 of the present embodiment has the Y axis, which is the height direction, as the reference direction, and the X axis, which is the vehicle width direction, as the scanning direction, and 0.08 deg × 501 points = ± 20 deg in the X axis direction. In the Y-axis direction, 1.57 deg × 6 lines−0.145 deg × 5 (overlap area) = 8.695 deg. The scanning direction is from left to right in FIG. 3 for the X-axis direction, and from top to bottom in FIG. 3 for the Y-axis direction.
[0035]
Next, the recognition use area 93 will be described with reference to FIGS. The laser radar sensor 5 is mounted on the front of the vehicle, for example, below the bumper of the vehicle. The laser beam emitted from the laser radar sensor 5 needs to be appropriately directed to an object existing in front of the own vehicle, that is, a delineator (cat's eye) for determining a preceding vehicle or a traveling lane, a guardrail, or the like. is there. Therefore, it is necessary to mount the laser radar sensor 5 on the vehicle while adjusting the mounting angle of the laser radar sensor 5 to the mounting reference angle so that the irradiation area of the laser beam does not shift up, down, left, and right.
[0036]
However, it is more difficult for an operator to adjust the mounting angle of the radar radar sensor 5 by mechanical means such as an adjustment bolt as the tolerance range of the mounting angle of the laser radar sensor 5 with respect to the mounting reference angle becomes smaller. Work time will also be long.
[0037]
For this reason, in the present embodiment, the angle range of the laser beam emitted from the laser radar sensor 5 is adjusted to a desired reference angle range by software processing in the laser radar sensor 5 instead of adjustment by such mechanical means. It is possible to fit in.
[0038]
For this purpose, first, as shown in FIG. 6, the vehicle equipped with the laser radar sensor 5 is placed at a position separated by a predetermined distance from a target 100 having a high laser light reflectance set at a predetermined height. Move.
[0039]
In this state, the recognition use area 93 is set by executing the processing shown in the flowchart of FIG. That is, in step S10 of FIG. 7, the target 100 is irradiated with laser light and the reflected light is received. The irradiation angle range of the laser beam irradiated at this time corresponds to the tolerance range of the mounting angle of the laser radar sensor 5, as shown in FIG. In the example of FIG. 5, the tolerance ranges are ± 2 deg in each of the vehicle width direction and the vehicle height direction, which are greatly relaxed as compared with the related art.
[0040]
Here, when the mounting angle of the laser radar sensor 5 matches the mounting reference angle, the target 100 is installed so as to be located at the center of the laser light irradiation angle range. Therefore, by irradiating the laser beam in the irradiation angle range corresponding to the tolerance range of the mounting angle of the laser radar sensor 5, the laser radar sensor 5 can always receive the reflected light from the target 100.
[0041]
Next, in step S20, in the X-axis and Y-axis directions, a laser beam corresponding to a reflected wave having the highest received light intensity among the received reflected waves is specified as a center laser beam. The specification of the center laser light will be described with reference to FIGS. FIG. 8 shows the received light intensity of the reflected light by the target 100 with respect to each laser light when the laser light is scanned in the X-axis direction in the above-described laser light irradiation angle range. FIG. 9 shows the received light intensity of the reflected light from the target 100 with respect to each laser light when the laser light is scanned in the Y-axis direction. As is clear from FIGS. 8 and 9, the laser light corresponding to the reflected light having the highest received light intensity is defined as the X-axis center laser light and the Y-axis center laser light.
[0042]
8 and 9, as shown in FIG. 5, the position of the target 100 is most deviated from the center in the tolerance range of the mounting angle of the laser radar sensor 5 (+2 deg in each of the X and Y axis directions). ) Shows the case. Therefore, in this case, the laser light irradiated at the end of the laser light irradiation angle range becomes the X-axis and Y-axis center laser light.
[0043]
Then, in step S30, the recognition use area 93 is set with reference to the X-axis and Y-axis center laser beams. That is, as shown in FIG. 5, right and left regions having a range of ± 18 deg (corresponding to 451 laser beams) in the X-axis direction around the X-axis and Y-axis center laser beams, and 4. An upper and lower region having a range of 42 deg (corresponding to three laser beams) is defined, and this is defined as a recognition use region 93.
[0044]
By setting the recognition use area 93 by using the target 100 in this manner, the center laser beam located at the center of the recognition use area 93 can be adjusted to the target reference angle. The recognition use area 93 set based on the laser light also matches the desired recognition area.
[0045]
However, as described above, the resolution of the laser light in the X-axis direction is extremely high at 0.08 deg, whereas the spread angle of the laser light in the Y-axis direction is 1.57 deg. Is low. Therefore, in order to recognize the irradiation angle of the center laser beam in the Y-axis direction with higher accuracy, the upper and lower optical axis learning angles are calculated. The calculation process of the vertical optical axis learning angle will be described with reference to the flowchart of FIG. 10 and the explanatory diagrams of FIGS. 11 and 12.
[0046]
First, the relationship between the mounting height ΔY of the laser radar sensor 5 and the target reference angle ΔA of the Y-axis center laser light will be described with reference to FIG. The laser radar sensor 5 is mounted on the lower part of the bumper of the vehicle, and the mounting height ΔY changes for each vehicle type. At this time, when the mounting height ΔY is small, that is, when the laser radar sensor 5 is mounted at a position lower than the ground, it is preferable that the center angle of the Y-axis center laser light be set upward. On the other hand, when the mounting height ΔY is large, it is preferable that the center angle of the Y-axis center laser beam is set to be substantially horizontal.
[0047]
As described above, the target reference angle of the center angle of the Y-axis center laser beam differs depending on the mounting height ΔY of the laser radar sensor 5. Therefore, in the present embodiment, this reference angle is set to ΔA and set for each vehicle type. For example, the reference angle ΔA is set to 0.5 deg for a vehicle type having a small mounting height ΔY, and the reference angle ΔA is set to 0 deg for a vehicle type having a large mounting height ΔY. The vertical optical axis learning angle Δθelv described below is calculated as a shift angle indicating how much the center angle of the Y-axis center laser light is shifted from the reference angle ΔA.
[0048]
After the recognition use area 93 is set in step S50 of FIG. 10, near the center where the target 100 exists in the recognition use area 93, the Y-axis center laser light and the laser lights on both sides thereof are irradiated and reflected. Receives light. For example, in the example shown in FIG. 12, the Y-axis center laser beam is a laser beam having a surface number of 5, and the laser beams irradiated on both sides thereof are laser beams having a surface number of 4 and 6.
[0049]
Then, in step S60, the received light intensity of the reflected light by the laser light on both sides of the Y-axis center laser light is measured. In the measurement of the received light intensity, an averaged received light intensity obtained by averaging the received light intensity of a plurality of laser lights may be used, or the received light intensity of one laser light may be used as it is.
[0050]
In step S70, a deviation angle Δθelv of the center angle of the Y-axis center laser beam with respect to the reference angle ΔA is calculated based on the measured light receiving intensity. That is, in the example shown in FIG. 12, the center angle of the laser beam of the surface number 5 which is the Y-axis center laser beam is set to the reference angle based on the received light intensity of the reflected light by the laser beams of the surface numbers 4 and 6. A deviation angle Δθelv indicating the degree of deviation from ΔA is calculated. As a specific calculation method, for example, when the received light intensity of the surface number 4: the received light intensity of the surface number 6 = 3: 1, (spread angle 1.57 deg-overlap range 0.145 x 2) x 3 Assuming that /(3+1)-0.64 deg = 0.32 deg, it can be calculated that the laser beam is shifted by 0.32 deg toward the laser beam side of the surface number 4. At this time, if the angle corresponding to the reference angle ΔA is shifted to the laser beam side of the surface number 4, the direction of the optical axis of the laser radar sensor 5 is downward as a whole. Represent. On the other hand, when the laser beam is shifted to the laser beam side of the surface number 6, the direction of the optical axis of the laser radar sensor 5 is upward, so that it is represented by adding a plus (+) sign.
[0051]
As a method of calculating the shift angle Δθelv with respect to the reference angle ΔA, for example, the difference between the light receiving intensities of the surface numbers 4 and 6 may be obtained, and the difference may be obtained according to the difference. Further, based on the received light intensity of the Y-axis center laser light of the surface number 5, the angles corresponding to the received light intensity of the laser lights of the surface numbers 4 and 6 are respectively obtained, and the angles are subtracted to obtain the shift angle Δθelv. You may ask.
[0052]
Ideally, it is ideal to set the target 100 so that the center angle of the spread angle of the laser beam of the surface number 5 in the Y-axis direction matches the reference angle ΔA. However, since the spread angle of the laser light in the Y-axis direction is large, even if the position of the target 100 changes within the spread angle, it cannot be detected. Therefore, as described above, by using the received light intensity of the laser light irradiated on both sides of the Y-axis center laser light, it is possible to calculate a more detailed center of the upper and lower optical axes of the laser light. When the center angle of the spread angle of the Y-axis center laser light is shifted from the reference angle ΔA, the shift angle Δθelv is stored as the upper and lower optical axis learning angle.
[0053]
By obtaining the vertical optical axis learning angle Δθelv in this manner, it becomes possible to recognize an object such as a preceding vehicle with higher accuracy, as described later.
[0054]
After the laser radar sensor 5 sets the recognition use area 93 in the above-described procedure, when the laser radar CPU 70 actually recognizes an object existing in front of the own vehicle, the laser radar CPU 70 two-dimensionally moves through the recognition use area 93. To scan the laser beam. By such a two-dimensional scan, scan angles θx and θy indicating the scan direction and the measured distance r are obtained. The two scan angles θx and θy are the vertical scan angle θy, which is the angle between the emitted laser beam, the line projected on the YZ plane, and the Z axis, and the line projected on the XZ plane, respectively. The angle with the axis is defined as a horizontal scan angle θx.
[0055]
The laser radar CPU 70 calculates the distance to the object from the time difference ΔT between the two pulses PA and PB input from the time measurement circuit 89, and creates position data based on the distance and the corresponding scan angles θx and θy. I do. That is, the coordinates are converted into XYZ orthogonal coordinates with the center of the laser radar as the origin (0, 0, 0), the X axis in the vehicle width direction, the Y axis in the vehicle height direction, and the Z axis in the forward direction of the vehicle. The (X, Y, Z) data converted into the XYZ rectangular coordinates and the light receiving signal intensity data (corresponding to the pulse width of the stop pulse PB) are output to the recognition / inter-vehicle control ECU 3 as distance measurement data.
[0056]
The recognition / inter-vehicle control ECU 3 recognizes an object based on the distance measurement data from the laser radar sensor 5, and adjusts the brake driver 19, the throttle driver 21 and the automatic transmission in accordance with the situation of the preceding vehicle obtained from the recognized object. A so-called inter-vehicle control for controlling the vehicle speed by outputting a drive signal to the transmission controller 23 is performed. In addition, an alarm determination process for issuing an alarm when a recognition object is present in a predetermined alarm area for a predetermined time is performed at the same time. In this case, the object corresponds to a preceding vehicle traveling in front of the own vehicle or a preceding vehicle that is stopped.
[0057]
Next, the internal configuration of the recognition / interval control ECU 3 will be described as a control block. The distance measurement data output from the laser radar sensor 5 is sent to the object recognition block 43. In the object recognition block 43, based on the three-dimensional position data obtained as the distance measurement data, the center position (X, Y, Z) of the object and the sizes (W, D, H) such as width, depth, height, etc. Ask for. Further, based on the temporal change of the center position (X, Y, Z), the relative speed (Vx, Vy, Vz) of the object with respect to the own vehicle position is obtained. Further, in the object recognition block 43, based on the vehicle speed (own vehicle speed) output from the vehicle speed calculation block 47 based on the detection value of the vehicle speed sensor 7 and the obtained relative speed (Vx, Vy, Vz), the object is a stationary object. Identification of whether the object is a moving object is performed. An object that affects the traveling of the host vehicle is selected based on the identification result and the center position of the object, and the distance is displayed on the distance display 15.
[0058]
A steering angle is calculated in a steering angle calculation block 49 based on a signal from the steering sensor 27, and a yaw rate is calculated in a yaw rate calculation block 51 based on a signal from the yaw rate sensor 28. In a curve radius (curvature radius) calculation block 57, a curve radius (curvature radius) R is calculated based on the vehicle speed from the vehicle speed calculation block 47, the steering angle from the steering angle calculation block 49, and the yaw rate from the yaw rate calculation block 51. calculate. Then, the object recognition block 43 calculates the vehicle shape probability and the own lane probability based on the curve radius R and the center position coordinates (X, Z). The vehicle shape probability and the own lane probability will be described later.
[0059]
A model of an object having such data is referred to as a “target model”. The sensor abnormality detection block 44 detects whether the data obtained by the object recognition block 43 has a value in an abnormal range, and if the data is in an abnormal range, the sensor abnormality display 17 indicates the fact. Is made.
[0060]
On the other hand, in the preceding vehicle determination block 53, a preceding vehicle is selected based on various data obtained from the object recognition block 43, and a distance Z and a relative speed Vz to the preceding vehicle are obtained. Then, the inter-vehicle control unit and the alarm determination unit block 55 determine the distance Z from the preceding vehicle, the relative speed Vz, the setting state of the cruise control switch 26, the depressed state of the brake switch 9, the opening from the throttle opening sensor 11, Based on the sensitivity set value by the alarm sensitivity setting device 25, it is determined whether or not an alarm is to be issued if an alarm is determined, and the content of vehicle speed control is determined if a cruise determination is made. The result is output to the alarm sound generator 13 if an alarm is required. If the cruise is determined, a control signal is output to the automatic transmission controller 23, the brake driver 19, and the throttle driver 21 to perform necessary control. At the time of executing these controls, a necessary display signal is output to the distance display 15 to notify the driver of the situation.
[0061]
In such inter-vehicle control and alarm determination, it is important that the object recognition, which is the premise thereof, more specifically, the recognition of the vehicle as the object to be recognized is properly performed. Therefore, a description will be given of a process related to object recognition performed in the object recognition block 43 of the recognition / interval control ECU 3 in order to appropriately perform the vehicle recognition.
[0062]
FIG. 13A shows a main process relating to object recognition. In step S110 of FIG. 13A, the distance data for one scan is read from the laser radar sensor 5. The scanning cycle of the laser radar sensor 5 is, for example, 100 msec, and data is taken in every 100 msec.
[0063]
In step S120, data segmentation is performed. As described above, the segments are formed by grouping the three-dimensional position data obtained as the distance measurement data. In this segmentation, data that meets predetermined connection conditions (integration conditions) is collected to generate one piece of pre-segment data, and a predetermined connection condition (integration conditions) is used among the pre-segment data. Are collected into one main segment data. For example, if the pre-segment data satisfies both the conditions that the distance △ X in the X-axis direction between point-recognized data in the X-axis direction is 0.2 m or less and the distance △ Z in the Z-axis direction is 2 m or less, the point set is integrated. And ask for it. In the present embodiment, there are three scanning lines in the Y-axis direction, but pre-segmentation generates pre-segment data for each line. Therefore, in this segmentation, pre-segment data adjacent in a three-dimensional (X, Y, Z) space are integrated (main segmentation). This segment data is a rectangular parallelepiped region having three sides parallel to the X-axis, the Y-axis, and the Z-axis, and the center coordinates (X, Y, Z) and the length of the three sides (X, Y, Z) for indicating the size ( W, H, D) are data contents. This segment (data) is simply referred to as a segment (data) unless otherwise specified.
[0064]
In step S130, each segment data is set as a pre-target, and for each pre-target, a target-modeling priority probability, which is a probability of being a target of the target-setting process, is calculated as a target model. Here, the target model is a model of an object created for a set of segments, and the pre-target is a candidate for a target model to be subjected to target conversion processing. In the present embodiment, a maximum of 18 pre-targets can be selected, and four target models are selected from the pre-targets in descending order of the establishment of the target priority.
[0065]
Targeting priority probabilities of each pre-target include whether the vehicle shape probability is equal to or more than a predetermined probability (for example, 50%), whether or not the object is a moving object, and the lateral position with respect to the own vehicle is a predetermined distance (for example, 6 m on each side). It is calculated so that the probability is higher as the number of corresponding items is larger, as a determination factor based on whether or not the value is within the predetermined range and whether the detection is continued for a predetermined time or more.
[0066]
Here, the vehicle shape probability will be described.
[0067]
In the case where a large number of delineators are installed at a narrow interval on the road side or when a guardrail is detected, there is a possibility that these stationary objects may be erroneously recognized as moving objects. This is because, by always detecting something at the same position, it is determined that a vehicle running at the same speed as the own vehicle exists at that position. Thus, the vehicle shape probability is calculated so that an object erroneously recognized as a moving object is not erroneously determined as a preceding vehicle. If the preceding vehicle determination block 53 determines that the vehicle is a roadside object when the vehicle shape probability is, for example, less than 50%, it is possible to prevent a repeatedly appearing stationary object from being erroneously determined as a preceding vehicle.
[0068]
The range in which the vehicle shape probability can be taken is 0 to 100%. In order to reduce the influence of instantaneous noise and variations, the vehicle shape probability is obtained by weighted averaging as in Expression 1.
[0069]
[Formula 1] Current vehicle shape probability ← Previous value × α + Current instant value × (1-α)
Note that the initial value is 50%, and α is, for example, 0.8. The instantaneous value of the vehicle shape probability is calculated based on the relative acceleration, the lengths D and W, the detection time, and the like. Since the method of calculating the vehicle shape probability is described in detail in paragraphs 0045 to 0049 of JP-A-2002-40139, further description will be omitted.
[0070]
In step S140, four pre-targets having high target-priority probabilities are selected as targets and target-targeting processing is performed on them. This targeting process will be described with reference to the flowchart of FIG. In the target processing, first, a corresponding segment of the target model is searched (step S141). This is a process for searching which of the segments detected this time the target model obtained up to the previous time matches. The segment corresponding to the target model is defined as follows. First, assuming that the target model has moved from the position at the time of the previous processing at the relative speed at the time of the previous processing, an estimated position where the target model will be present is calculated. Subsequently, an estimated moving range having a predetermined width in each of the X-axis, Y-axis, and Z-axis directions is set around the estimated position. Then, a segment at least partially included in the estimated moving range is set as a corresponding segment.
[0071]
In step S142, a data update process of the target model is executed. In this processing, if there is a corresponding segment, the past data of the target model is updated based on the current data. The updated data includes center coordinates (X, Y, Z), width W, and height H. , Depth D, relative speeds (Vx, Vy, Vz) in the X-axis direction, Y-axis direction, and Z-axis direction, data of the past four times of center coordinates (X, Y, Z), own lane probability, and the like. If there is no corresponding segment, a new target model is registered without updating the data of the target model.
[0072]
Thereafter, in step S143, the own lane probability is calculated. The own lane probability is a parameter indicating the likelihood that the target model is a vehicle running on the same lane as the own vehicle. Specifically, first, the position of the target model is calculated, and the calculated position is superimposed on the own lane probability map to obtain the own lane probability instantaneous value of the target model. Note that the own lane probability map divides a predetermined range in front of the own vehicle (for example, 5 m each on the left and right sides and 100 m in front) into a plurality of regions, and sets the probability that the closer the distance is, or the closer the vehicle is on the course of the own vehicle. Is a map in which probabilities are assigned to the respective regions so that is higher.
[0073]
After calculating the instantaneous value of the own lane probability, the own lane probability is obtained by performing weighted averaging as in Expression 2.
[0074]
[Formula 2] own lane probability ← own lane probability previous value × α + own lane probability instantaneous value × (1-α)
Here, α may be a constant value, or may change according to the distance from the target model or the area where the target model exists. Note that the method of calculating the own lane probability is also described in detail in paragraph numbers 0050 to 0056 of JP-A-2002-40139, and therefore, further detailed description will be omitted.
[0075]
Then, data of the target model including the vehicle shape probability and the own lane probability is output from the object recognition block 43 shown in FIG. In the preceding vehicle determination block 53, for example, in a target model in which the vehicle shape probability is equal to or more than a predetermined threshold value (for example, 50%) and the own lane probability is equal to or more than a predetermined threshold value (for example, 50%), The vehicle with the minimum distance Z is determined to be the preceding vehicle. This determination result is output to the headway control unit and the warning determination unit block 55.
[0076]
Next, the learning process of the laser radar sensor 5 about the optical axis center will be described.
[0077]
Even when the target laser 100 is used to set the irradiation angle of the center laser light of the recognition use area 93 in the laser radar sensor 5 to coincide with the reference angle ΔA, the actual irradiation range of the laser light depends on various factors. Fluctuate. For example, the irradiation range of the laser beam from the laser radar sensor 5 may deviate from the range set as the recognition use area 93, particularly in the Y-axis (vertical) direction, depending on the loading state of the vehicle, the number of passengers, and the like. Further, when the vehicle repeatedly travels, the mounting state of the laser radar sensor 5 on the vehicle may change under the influence of traveling vibration or the like. As described above, since the irradiation angle of the laser beam particularly in the Y-axis direction tends to fluctuate, it is determined whether or not the upper and lower optical axis learning angles Δθelv calculated based on the predetermined target 100 as described above are shifted. In such a case, it is preferable to perform the correction.
[0078]
In the present embodiment, learning of the center of the optical axis of the laser radar sensor 5 is performed using a reflector that is always mounted on a passenger car. The reason is that the reflector of the passenger car is installed at a position of about 75 cm from the ground, and the range of variation in the mounting height for each vehicle type is small.
[0079]
FIG. 14 shows a flowchart of the learning process of the laser radar sensor 5 about the optical axis center. First, in step S200, a target priority probability is calculated for a plurality of pre-targets. The method for calculating the target priority setting is basically the same as the method already described in step S130 of the flowchart in FIG.
[0080]
However, in the learning process, the vehicle and the pre-target other than the vehicle are identified in more detail using the above-described vertical optical axis learning angle Δθelv, and the target-prioritization priority probability for the pre-target other than the vehicle is determined by a predetermined value. To a low probability (eg, 20%). Hereinafter, a method of identifying a vehicle and a pre-target other than the vehicle using the vertical optical axis learning angle Δθelv will be described. Note that this identification method may be applied in step S130 of the flowchart in FIG. 13A to limit the targeting priority probability of the pre-targets other than the vehicle to a predetermined low probability.
[0081]
First, the optical axis is determined to be upward or downward by comparing the vertical optical axis learning angle Δθelv with the upward determination angle (for example, +0.5 deg) and the downward determination angle (for example, −0.5 deg). That is, if the vertical optical axis learning angle Δθelv ≧ + 0.5 deg, an upward determination is made, and if the vertical optical axis learning angle Δθelv ≦ −0.5 deg, a downward determination is made.
[0082]
Then, when the optical axis upward determination is made, the target setting priority probability regarding the pre-target satisfying the following condition (1) or (2) is limited to a predetermined low probability. In the description of each condition, an example shown in FIG. 11 is appropriately referred to.
[0083]
(1) When the reflected light is received only by the laser beam below the Y-axis center laser beam, and the distance from the pre-target Z (cm)> the mounting height ΔY (cm) × 40 + D (cm) is satisfied
As shown in FIG. 11, in the present embodiment, the spread angle of the laser light in the Y-axis direction is 1.57 deg, and tan (1.57 deg) ≒ 1/37. Further, the spread angle of only the laser light below the center laser light, that is, the spread angle of the laser light excluding the overlap region is 1.57−0.145 = 1.425 deg, and tan (1.425 deg) ≒ 1/1. It will be 40.
[0084]
Here, the lower laser light (the laser light on the six surfaces) on the lower side of the Y-axis center laser light is emitted downward in principle from the horizontal. However, when the optical axis upward determination is made, the upper ends of the six laser beams may be substantially horizontal. Even in such a case, when the distance Z from the pre-target satisfies the above equation, the lower ends of the six laser beams reach at least the road surface. Further, since reflected light is generated with respect to the laser light on the six surfaces and reflected light is not generated by the laser light on the five surfaces which is the Y-axis center laser light, the pre target that generates the reflected light is on the road surface. It can be guessed that it is on the top or very close to the road surface. For this reason, the pre target can be assumed to be an object other than the vehicle, such as a delineator.
[0085]
Note that D (cm) in the above equation is a margin value set in consideration of a ranging error, a road gradient, and the like, and is set to, for example, 500 (cm).
[0086]
(2) Reflected light is received with respect to the laser light above the Y-axis center laser light, or both the Y-axis center laser light and the laser light above it, and the distance Z (cm) from the pre-target is> 350 (cm) -ΔY (cm)) × 37 + D (cm)
When the optical axis upward determination is made, as described above, the lower end of the Y-axis center laser light may be almost horizontal. Therefore, in the example shown in FIG. 11, the irradiation directions of the laser light of the five surfaces, which is the Y-axis center laser light, and the laser light of the four surfaces irradiated above the laser light are spread upward. Here, a large number of objects such as signs and signboards are installed above the road, and the reflected laser light from these objects can be easily received by the four and five laser beams spreading upward. The above condition (2) is satisfied when there is a possibility of receiving the reflected light from the object above the road.
[0087]
That is, for example, even for a vehicle such as a truck having a high vehicle height, the maximum value of the vehicle height is about 350 (cm). Therefore, there is reflection by the laser light on the four surfaces and the five surfaces, and the distance Z to the pre target that generated the reflected light is 350 (the irradiation height of the laser light on the five surfaces (Y-axis center laser light)). If the distance is longer than the distance exceeding (cm), it is highly possible that the light is reflected light from an object other than the vehicle. Therefore, in such a case, the targeting priority probability of the pre-target is limited. Note that the same applies to a case where reflected light is generated only by the four surfaces of laser light.
[0088]
Next, a case where the optical axis downward determination is performed will be described. In the case where the optical axis downward determination is performed, if the following condition (3) or (4) is satisfied, the targeting priority for the pre-target is limited to a predetermined low probability.
[0089]
(3) Reflected light is received by the lower laser beam of the Y-axis center laser beam or both the Y-axis center laser beam and the lower laser beam, and the distance Z (cm)> ΔY from the pre-target is received. (Cm) x 37 + D (cm)
When the optical axis downward determination is performed, the upper end of the Y-axis center laser beam may approach horizontal, contrary to the optical axis upward determination. Therefore, in the example shown in FIG. 11, the irradiation directions of the laser light of the five surfaces that are the Y-axis center laser light and the laser light of the six surfaces that are irradiated below the laser light spread downward, and the road surface or a low position on the road surface , It is easy to receive the reflected light from the object at the location. The above condition (3) is satisfied when there is a possibility that reflected light from such a road surface or an object at a low position on the road surface may be received.
[0090]
That is, as described above, since the spread angle of the laser light is 1.57 deg, the value of tan (1.57 deg) is multiplied by the mounting height ΔY of the laser radar sensor 5 to obtain the Y-axis center laser light. Is calculated, the distance that the five laser beams almost reach the road surface. The distance Z to the pre-target is longer than the distance obtained by adding a margin value D (cm) to the distance, and the reflected light is reflected on both the 5 and 6 laser beams or only the 6 laser beams. Is received, it can be estimated that the reflection is from a very low position on the road surface. Therefore, in such a case, the targeting priority probability of the pre-target is limited.
[0091]
(4) The reflected light is received only by the laser light above the Y-axis center laser light, and the distance from the pre-target Z (cm)> (350 (cm) −ΔY (cm)) × 40 + D (cm) If it is established
When the optical axis downward determination is made, the laser light above the Y-axis center laser light (the laser light on the four sides) is emitted in a direction higher than the horizontal but relatively closer to the horizontal direction. Even in such a case, when the distance Z from the pre-target satisfies the above expression, the upper ends of the four laser beams reach at least the highest vehicle height. Also, since the reflected light is generated with respect to the laser light on the four surfaces and the reflected light is not generated by the laser light on the five surfaces that is the Y-axis center laser light, the pre target that generates the reflected light is on the road surface. It can be guessed that it is very high above. Therefore, when the condition (4) is satisfied, it can be estimated that the pre-target may be an object other than a vehicle such as a sign or a signboard.
[0092]
Also, in addition to the above-described conditions (1) to (4), the target conversion priority probability of the pre-target may be limited when the following condition is satisfied.
[0093]
(5) As shown in FIG. 11, the angle Δθ between the horizontal direction and the lower ends of the five laser beams is equal to or greater than a predetermined angle Θ, and the distance from the pre-target is a predetermined short distance l (for example, 30 m). ), The width of the pre-target is shorter than the width of the vehicle (for example, 0.5 m or less), and the reflected light is received only by the six laser beams.
A method for setting the predetermined angle Θ will be described. First, a reference irradiation height h at a predetermined short distance l of the lower end of the laser light on the five surfaces that is the Y-axis center laser light is determined (for example, 30 cm from the ground). Based on the reference irradiation height h, a predetermined angle Θ is calculated by Expression 3.
[0094]
数 = tan -1 (ΔY-h) / l
When the angle Δθ formed between the horizontal direction and the lower ends of the five laser beams is equal to or larger than the predetermined angle Θ set as described above, the reference irradiation height h is set to a relatively low position as described above. When the irradiation range of the laser light on the five surfaces is at least equal to or greater than the distance l, an object having a height of 30 cm above the ground is covered. In other words, when the reflected light is generated only for the laser light on the six surfaces within the distance l, the height of the reflected object has at most a height of the reference irradiation height h at most. .
[0095]
Therefore, when the reflecting object is a vehicle and approaches within a predetermined short distance, the reflecting object does not have a height of only the above-described reference irradiation height h, and receives the reflected light even with the light beams of the five surfaces. Should do it.
[0096]
Therefore, when the above condition is satisfied, the reflection object (pre-target) can be assumed to be a delineator other than the vehicle, for example, and therefore the target priority priority is limited to a predetermined low probability.
[0097]
In the above condition (5), the fact that the width of the pre-target is equal to or smaller than a predetermined width is also one of the requirements to be satisfied, but this is a confirming meaning, and this requirement is not satisfied. It may be omitted.
[0098]
After calculating the target priority probability for each pre-target in this way, the first extraction of the learning target candidate is performed in step S210 of the flowchart of FIG. In the first extraction, the object is recognized as a moving object, and the recognition is continued for a predetermined time (for example, 5 seconds) or longer, and among the pre-targets having the vehicle shape probability of 50% or more, the highest priority is given to targetization. A pre-target having a high probability is set as a learning target candidate by the first extraction. Therefore, for the pre-targets corresponding to the above conditions (1) to (5), the target-setting priority probability is suppressed to a low level, and the possibility of being selected as a learning target candidate as a vehicle is extremely low. .
[0099]
Next, in step S220, a second extraction of a learning target candidate is performed. In the second extraction, the lateral relative speed Vx between the learning target candidate selected by the first extraction and the own vehicle is equal to or lower than a predetermined speed (for example, 0.2 m / s), and the front-rear direction relative speed Vz is also predetermined. It is determined whether or not the state in which the speed is equal to or less than (for example, 0.1 m / s) has continued for a predetermined time. That is, it is determined whether the learning target candidate has a substantially stable relative positional relationship with the own vehicle. In this case, the distance measurement error of the learning target candidate is reduced. If the state where both the horizontal relative velocity Vx and the front-rear relative velocity Vz are equal to or lower than a predetermined speed (for example, 0.1 m / s) has continued for a predetermined time, it is determined as a learning target candidate by the second extraction.
[0100]
Further, in step S230, a third extraction of a learning target candidate is performed. In the third extraction, the width of the second extracted learning target candidate further belongs to a predetermined range (for example, 1.2 m or more and 2.1 m or less), and the distance Z from the learning target candidate is set to a predetermined value. (For example, 30 m or more and 80 m or less).
[0101]
The reason why the width of the learning target candidate is determined is that, in the present embodiment, as the learning target candidate, a passenger car having substantially the same installation height of the reflector is selected. Further, the reason for determining the distance Z to the learning target candidate is that if the distance is too close, the light reception intensity due to the body reflection other than the reflector increases, making it difficult to identify the reflector. If the distance is too long, This is because the light receiving state becomes unstable, and in any case, there is a possibility of erroneous learning.
[0102]
When it is determined that both the width and the distance Z belong to a predetermined range, the learning target candidate is determined as the learning target by the third extraction. Then, in step S240, the instantaneous value of the vertical optical axis deviation angle θu is calculated using the learning target candidates selected through the first extraction to the third extraction. The equation for calculating the instantaneous value θu of the vertical optical axis deviation angle is shown in Expression 4.
[0103]
(Equation 4)
Figure 2004184331
The detection surface number of the reflector is, as shown in FIG. 15, a surface number of a laser beam that generates reflected light from a reflector provided in a passenger car that is a learning target candidate. In the present embodiment, the detection surface numbers 4 (upper surface), 4.5 (middle of upper surface and middle surface), 5 (middle surface), 5.5 (middle of middle surface and lower surface), 6 (lower surface) Is one of the following values. Incidentally, in the example shown in FIG. 15, the detection surface number of the reflector is 5.5 (the middle between the middle surface and the lower surface).
[0104]
According to Expression 4, the vertical optical axis deviation angle instantaneous value θu indicating how much the central angle of the spread angle of the laser beam of the surface number 5 which is the Y-axis central laser beam deviates from the target reference angle ΔA is calculated. Can be calculated.
[0105]
Then, it is determined whether or not the instantaneous value θu of the vertical optical axis deviation angle calculated by Expression 4 belongs to a range within ± 1.424 deg, for example, to determine whether it is a normal value. At this time, if it is determined to be an abnormal value, the vertical optical axis deviation angle instantaneous value θu is not calculated.
[0106]
On the other hand, when it is determined to be a normal value, the number of times of calculation Nu of the vertical optical axis deviation angle instantaneous value θu is incremented as shown in Expression 5, and the vertical optical axis deviation angle instantaneous value θu is expressed as Expression 6. Is obtained.
[0107]
## EQU5 ## Nu = Nu + 1
[0108]
(Equation 6)
Figure 2004184331
[0109]
Further, when the calculation number Nu of the vertical optical axis deviation angle instantaneous value θu reaches a predetermined number (for example, 200 times), the average value θuave of the vertical optical axis deviation angle instantaneous value θu is calculated as shown in Expression 7.
[0110]
(Equation 7)
Figure 2004184331
[0111]
Along with the calculation of θuave, the number of calculations Nu and the sum Σθu are each initialized to zero.
[0112]
Next, in step S250, the vertical optical axis learning angle Δθelv is corrected based on the average value θuave of the vertical optical axis deviation angle instantaneous value θu. Specifically, in order to prevent a sudden change in the vertical optical axis learning angle Δθelv, a value obtained by adding 0.05 deg to the vertical optical axis learning angle Δθelv and a value obtained by subtracting 0.05 deg from the vertical optical axis learning angle Δθelv. Is compared with the average value θuave of the instantaneous value θu of the vertical optical axis deviation angle. In this comparison, when it is determined that the average value θuave is larger than the value obtained by adding 0.05 deg to the upper and lower optical axis learning angle Δθelv, 0.05 deg is added to the upper and lower optical axis learning angle Δθelv. When it is determined that the average value θuave is smaller than the value obtained by subtracting 0.05 deg from the upper and lower optical axis learning angle Δθelv, 0.05 deg is subtracted from the upper and lower optical axis learning angle Δθelv. In this way, the upper and lower optical axis learning angle Δθelv is corrected while limiting the change amount of the upper and lower optical axis learning angle Δθelv to a predetermined angle (0.05 deg).
[0113]
Accordingly, even when the irradiation angle of the laser beam from the laser radar sensor 5 in the Y-axis (vertical) direction deviates from the initial set angle (upper / lower optical axis learning angle Δθelv) depending on the loading state, the number of passengers, and the like. , Can be properly corrected.
[0114]
It should be noted that the present invention is not limited to such embodiments at all, and can be implemented in various forms without departing from the gist of the present invention.
[0115]
In the above embodiment, the X-axis and Y-axis directions have a margin in the tolerance range of the mounting angle of the laser radar sensor 5, and the target 100 is used to generate the laser beam having the highest light-receiving intensity in the X-axis and Y-axis. The recognition use area 93 is set as the center. However, for example, with respect to one axis (X axis or Y axis), the tolerance range of the mounting angle may be narrowed, and the recognition use area 93 may be set using the target 100 only in the other axis direction. Also in this case, the burden of adjusting the mounting angle of the laser radar sensor 5 can be reduced as compared with the related art.
[0116]
In the above embodiment, the polygon mirror 73 having a different tilt angle is used to perform the two-dimensional scanning of the laser beam. However, for example, a galvanometer mirror capable of scanning in the vehicle width direction is used, and the tilt angle of the mirror surface can be changed. The same can be realized by using a simple mechanism. However, in the case of the polygon mirror 73, there is an advantage that a two-dimensional scan can be realized only by rotational driving.
[0117]
In the above embodiment, the distance and the corresponding scan angles θx and θy are converted from the polar coordinate system to the XYZ orthogonal coordinate system inside the laser radar sensor 5, but the processing may be performed in the object recognition block 43.
[0118]
In the above-described embodiment, the laser radar sensor 5 using laser light is employed, but a radio wave such as a millimeter wave, an ultrasonic wave, or the like may be used. Further, it is not necessary to stick to the scanning method, and any method may be used as long as it can measure the azimuth other than the distance. For example, when an FMCW radar or a Doppler radar is used for millimeter waves, the distance information from the reflected wave (received wave) to the preceding vehicle and the relative speed information of the preceding vehicle can be obtained at one time. The process of calculating the relative speed based on the distance information as in the case where there is no need to do so is required.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a vehicle control device to which the present invention is applied.
FIG. 2A is a configuration diagram illustrating a configuration of a laser radar sensor, and FIG. 2B is an explanatory diagram illustrating a distance detection method in the laser radar sensor.
FIG. 3 is a perspective view showing an irradiation area of the laser radar sensor.
FIG. 4 is an explanatory diagram for explaining a spread angle and an overlapping range of a laser beam emitted from a laser radar sensor in a Y-axis direction.
FIG. 5 is an explanatory diagram for explaining a method of setting a recognition use area of a laser radar sensor.
FIG. 6 is a perspective view showing a positional relationship between a vehicle and a target.
FIG. 7 is a flowchart illustrating a process for setting a recognition use area.
FIG. 8 shows the received light intensity of the reflected light of the target with respect to each laser beam when the laser beam is scanned in the X-axis direction in the irradiation angle range of the laser beam corresponding to the tolerance range of the mounting angle of the laser radar sensor 5. It is a graph.
FIG. 9 shows the received light intensity of the reflected light by the target with respect to each laser beam when the laser beam is scanned in the Y-axis direction in the laser beam irradiation angle range corresponding to the tolerance range of the mounting angle of the laser radar sensor 5. It is a graph.
FIG. 10 is a flowchart illustrating a process of calculating a vertical optical axis learning angle.
FIG. 11 is an explanatory diagram for explaining a relationship between a mounting height ΔY of a laser radar sensor and a target reference angle ΔA of Y-axis center laser light.
FIG. 12 is an explanatory diagram for explaining a method of calculating a shift angle Δθelv of a center angle of a Y-axis center laser beam with respect to a reference angle ΔA.
13A is a flowchart illustrating a process relating to object recognition, and FIG. 13B is a flowchart illustrating a target conversion process executed in the flowchart of FIG.
FIG. 14 is a flowchart illustrating a learning process of the laser radar sensor about the optical axis.
FIG. 15 is an explanatory diagram for describing a detection surface number of a reflector.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Vehicle control apparatus, 3 ... Recognition and headway control ECU, 5 ... Laser radar sensor, 7 ... Vehicle speed sensor, 9 ... Brake switch, 11 ... Throttle opening degree sensor, 13 ... Alarm sound generator, 15 ... Distance display, 17: Sensor abnormality indicator, 19: Brake driver, 21: Throttle driver, 23: Automatic transmission controller, 24: Alarm volume setting device, 25: Alarm sensitivity setting device, 26: Cruise control switch, 27: Steering Sensor, 28: Yaw rate sensor, 29: Power switch, 30: Wiper switch, 43: Object recognition block, 44: Sensor abnormality detection block, 47: Vehicle speed calculation block, 49: Steering angle calculation block, 51: Yaw rate calculation block, 53 ····································································································································································. Reference numeral 70: laser radar CPU, 71: light emitting lens, 72: scanner, 73: mirror, 74: motor drive circuit, 75: semiconductor laser diode, 76: laser diode drive circuit, 77: glass plate, 81: light receiving lens, 83 ... Light receiving element, 85 ... Amplifier, 87 ... Comparator, 89 ... Time measuring circuit

Claims (11)

車両の車幅方向及び高さ方向それぞれにおいて、所定の角度範囲に渡って送信波を照射可能であるとともに、反射物体による反射波を受信するレーダユニットと、
前記レーダユニットの送受信結果に基づいて、前記反射物体を認識する認識手段とを備えた車両用物体認識装置において、
所定のターゲットに対する前記レーダユニットの送受信結果に基づいて、車幅方向及び高さ方向の少なくとも一方において送信波を照射する角度範囲を、前記所定の角度範囲よりも狭い狭角度範囲に設定する設定手段とを備え、
前記反射物体を認識する際、前記レーダユニットは、前記設定手段によって設定された狭角度範囲において送信波を照射することを特徴とする車両用物体認識装置。
In each of the vehicle width direction and the height direction of the vehicle, it is possible to irradiate a transmission wave over a predetermined angle range, and a radar unit that receives a reflected wave by a reflecting object,
Based on the transmission and reception results of the radar unit, a vehicle object recognition device including a recognition unit that recognizes the reflective object,
Setting means for setting an angle range in which a transmission wave is irradiated in at least one of a vehicle width direction and a height direction to a narrow angle range narrower than the predetermined angle range, based on a transmission / reception result of the radar unit with respect to a predetermined target. With
When recognizing the reflective object, the radar unit radiates a transmission wave in a narrow angle range set by the setting means, wherein the radar unit radiates a transmission wave.
前記所定のターゲットは、前記レーダユニットが装着された車両に対して、所定の距離及び高さに設置された固定物であることを特徴とする請求項1に記載の車両用物体認識装置。The vehicle object recognition device according to claim 1, wherein the predetermined target is a fixed object installed at a predetermined distance and height with respect to a vehicle on which the radar unit is mounted. 前記レーダユニットは、前記車両の車幅方向及び高さ方向において、複数の送信波を照射するものであり、前記設定手段は、前記所定のターゲットによる反射波の受信レベルが最も高い角度における送信波が中心となるように、前記狭角度範囲を設定することを特徴とする請求項2に記載の車両用物体認識装置。The radar unit irradiates a plurality of transmission waves in a vehicle width direction and a height direction of the vehicle. The vehicle object recognition device according to claim 2, wherein the narrow angle range is set such that the center is set at the center. 前記高さ方向において隣接する送信波は、その境界領域において一部重複するように送信波の照射角度が設定されることを特徴とする請求項3に記載の車両用物体認識装置。4. The vehicle object recognition device according to claim 3, wherein the irradiation angles of the transmission waves are set such that the transmission waves adjacent in the height direction partially overlap each other in a boundary region thereof. 前記設定手段が前記狭角度範囲を設定する際、前記レーダユニットは、当該レーダユニットの車両への装着許容誤差角度の範囲で、前記ターゲットに向けて送信波を照射することを特徴とする請求項3に記載の車両用物体認識装置。When the setting means sets the narrow angle range, the radar unit irradiates a transmission wave toward the target within a range of a mounting error angle of the radar unit to a vehicle. 4. The vehicle object recognition device according to 3. 前記車両の高さ方向において、前記受信レベルが最も高い角度における送信波の上下両側において照射される送信波の受信レベルに基づいて、前記レーダユニットの中心出力軸角度を算出する算出手段を備えることを特徴とする請求項3に記載の車両用物体認識装置。Calculating means for calculating a center output shaft angle of the radar unit based on reception levels of transmission waves irradiated on both upper and lower sides of the transmission wave at the highest reception level in the height direction of the vehicle; The vehicle object recognition device according to claim 3, wherein: 前記中心出力軸角度が所定の基準角度範囲から外れている場合、レーダユニットの出力軸の下向き、もしくは上向き判定を行なう判定手段を備え、
前記判定手段による下向き判定もしくは上向き判定に対応して、前記認識手段は、前記狭角度範囲における中心よりも下側もしくは上側の角度に照射される送信波による反射波に基づいて、反射物体を車両と認識する確率を低下させることを特徴とする請求項6に記載の車両用物体認識装置。
When the center output shaft angle is out of a predetermined reference angle range, the radar unit includes a determination unit that determines whether the output shaft of the radar unit is downward or upward,
In response to the downward determination or the upward determination by the determination unit, the recognition unit sets the vehicle to a reflective object based on a reflected wave of a transmission wave irradiated at an angle below or above the center in the narrow angle range. The object recognition device for a vehicle according to claim 6, wherein the probability of recognizing is reduced.
前記算出手段によって算出された中心出力軸角度が所定の基準角度よりも下向きである場合、前記受信レベルが最も高い角度における送信波の下側において照射される送信波に対する反射波のみが検出される場合には、前記認識手段は、その反射物体を非車両と認識することを特徴とする請求項6に記載の車両用物体認識装置。When the center output shaft angle calculated by the calculation means is lower than a predetermined reference angle, only the reflected wave for the transmitted wave irradiated below the transmitted wave at the angle having the highest reception level is detected. 7. The vehicle object recognition device according to claim 6, wherein in the case, the recognition unit recognizes the reflection object as a non-vehicle. 所定の条件を満たす前方車両のリフレクタから反射される反射波に基づいて、前記レーダユニットの高さ方向における送信波の中心出力軸角度を推測する推測手段と、
前記推測手段によって推測された中心出力軸角度が前記算出手段によって算出された中心出力軸角度とずれていた場合、当該算出された中心出力軸角度を補正する補正手段とを備えることを特徴とする請求項7に記載の車両用物体認識装置。
Estimating means for estimating a central output shaft angle of a transmission wave in a height direction of the radar unit based on a reflected wave reflected from a reflector of a vehicle ahead that satisfies a predetermined condition,
When the central output shaft angle estimated by the estimating unit is deviated from the central output shaft angle calculated by the calculating unit, a correction unit that corrects the calculated central output shaft angle is provided. The vehicle object recognition device according to claim 7.
前記推測手段は、所定の上下限距離によって規定される距離範囲に前記前方車両が存在するときに、前記中心出力軸角度を推測する対象とすることを特徴とする請求項9に記載の車両用物体認識装置。10. The vehicle according to claim 9, wherein the estimating unit estimates the central output shaft angle when the preceding vehicle exists within a distance range defined by a predetermined upper and lower limit distance. Object recognition device. 前記推測手段は、前方車両の横幅が所定の範囲に属するときに前記中心出力角度を推測する対象とすることを特徴とする請求項9に記載の車両用物体認識装置。The vehicle object recognition device according to claim 9, wherein the estimating means estimates the center output angle when the lateral width of the preceding vehicle belongs to a predetermined range.
JP2002354215A 2002-12-05 2002-12-05 Object recognition apparatus for motor vehicle Pending JP2004184331A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2002354215A JP2004184331A (en) 2002-12-05 2002-12-05 Object recognition apparatus for motor vehicle
US10/716,795 US6927699B2 (en) 2002-12-05 2003-11-20 Object recognition apparatus for vehicle, and inter-vehicle distance control unit
DE10356677A DE10356677A1 (en) 2002-12-05 2003-12-04 Motor vehicle object detection device and separation control unit for use in a cruise control system, has an adjustment unit that optimizes the radar beam alignment based on evaluated beam reflection intensities

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002354215A JP2004184331A (en) 2002-12-05 2002-12-05 Object recognition apparatus for motor vehicle

Publications (1)

Publication Number Publication Date
JP2004184331A true JP2004184331A (en) 2004-07-02

Family

ID=32755297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002354215A Pending JP2004184331A (en) 2002-12-05 2002-12-05 Object recognition apparatus for motor vehicle

Country Status (1)

Country Link
JP (1) JP2004184331A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006038843A (en) * 2004-07-08 2006-02-09 Ibeo Automobile Sensor Gmbh Method for calibrating distance image sensor
JP2006123568A (en) * 2004-10-26 2006-05-18 Honda Motor Co Ltd Controlled object judging device for vehicle
JP2008058290A (en) * 2006-08-03 2008-03-13 Honda Motor Co Ltd Detection axis direction determination device for moving body
JP2008122292A (en) * 2006-11-14 2008-05-29 Denso Corp Method of detecting shift amount of detecting center axis
JP2008298741A (en) * 2007-06-04 2008-12-11 Toyota Central R&D Labs Inc Distance measuring apparatus and distance measuring method
JP2011526373A (en) * 2008-07-02 2011-10-06 アーデーツエー・オートモテイブ・デイスタンス・コントロール・システムズ・ゲゼルシヤフト・ミツト・ベシユレンクテル・ハフツング Radar system with elevation angle measurement capability
JP2014006114A (en) * 2012-06-22 2014-01-16 Denso Corp Radar system and program
DE102005054674B4 (en) * 2004-11-16 2015-02-12 Denso Corporation Object recognition device for a motor vehicle
JP2015078925A (en) * 2013-10-17 2015-04-23 株式会社デンソー Periphery monitoring device and periphery monitoring system
JP2016151424A (en) * 2015-02-16 2016-08-22 パナソニックIpマネジメント株式会社 Radar system
CN110103810A (en) * 2019-01-03 2019-08-09 华域视觉科技(上海)有限公司 Three-dimensional detection lighting system and automobile
WO2019202803A1 (en) * 2018-04-19 2019-10-24 京セラ株式会社 Electronic device, method for controlling electronic device, and program for controlling electronic device
CN110969174A (en) * 2018-09-29 2020-04-07 深圳市布谷鸟科技有限公司 Target identification method, device and system based on laser radar
JP2021012027A (en) * 2019-07-03 2021-02-04 オムロン株式会社 Attachment angle adjustment method and target plate
JP2021179403A (en) * 2020-05-15 2021-11-18 株式会社デンソー Axial deviation estimation device
CN114245542A (en) * 2021-12-17 2022-03-25 深圳市恒佳盛电子有限公司 Radar induction lamp and control method thereof
WO2022250086A1 (en) * 2021-05-28 2022-12-01 株式会社デンソー Axial displacement estimation device

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09178856A (en) * 1995-12-25 1997-07-11 Honda Motor Co Ltd Detection range adjusting mechanism of obstacle detecting device for vehicle
JPH1096775A (en) * 1996-09-24 1998-04-14 Honda Access Corp Collision warning system for vehicle
JPH10160834A (en) * 1996-11-29 1998-06-19 Sumitomo Electric Ind Ltd Preceding-vehicle recognition method
JP2000056020A (en) * 1998-08-07 2000-02-25 Honda Motor Co Ltd Object detecting device
JP2002040139A (en) * 2000-07-28 2002-02-06 Denso Corp Method and device for body recognition, and recording medium
JP2002174684A (en) * 2000-12-08 2002-06-21 Omron Corp Method for adjusting axis of distance measuring apparatus
JP2002257926A (en) * 2001-03-05 2002-09-11 Murata Mfg Co Ltd Radar
JP2004125739A (en) * 2002-10-07 2004-04-22 Omron Corp Object detection system and method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09178856A (en) * 1995-12-25 1997-07-11 Honda Motor Co Ltd Detection range adjusting mechanism of obstacle detecting device for vehicle
JPH1096775A (en) * 1996-09-24 1998-04-14 Honda Access Corp Collision warning system for vehicle
JPH10160834A (en) * 1996-11-29 1998-06-19 Sumitomo Electric Ind Ltd Preceding-vehicle recognition method
JP2000056020A (en) * 1998-08-07 2000-02-25 Honda Motor Co Ltd Object detecting device
JP2002040139A (en) * 2000-07-28 2002-02-06 Denso Corp Method and device for body recognition, and recording medium
JP2002174684A (en) * 2000-12-08 2002-06-21 Omron Corp Method for adjusting axis of distance measuring apparatus
JP2002257926A (en) * 2001-03-05 2002-09-11 Murata Mfg Co Ltd Radar
JP2004125739A (en) * 2002-10-07 2004-04-22 Omron Corp Object detection system and method

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006038843A (en) * 2004-07-08 2006-02-09 Ibeo Automobile Sensor Gmbh Method for calibrating distance image sensor
JP2006123568A (en) * 2004-10-26 2006-05-18 Honda Motor Co Ltd Controlled object judging device for vehicle
US7493218B2 (en) 2004-10-26 2009-02-17 Honda Motor Co., Ltd. Vehicular control object determination system
DE102005054674B4 (en) * 2004-11-16 2015-02-12 Denso Corporation Object recognition device for a motor vehicle
JP2008058290A (en) * 2006-08-03 2008-03-13 Honda Motor Co Ltd Detection axis direction determination device for moving body
JP2008122292A (en) * 2006-11-14 2008-05-29 Denso Corp Method of detecting shift amount of detecting center axis
JP2008298741A (en) * 2007-06-04 2008-12-11 Toyota Central R&D Labs Inc Distance measuring apparatus and distance measuring method
JP2011526373A (en) * 2008-07-02 2011-10-06 アーデーツエー・オートモテイブ・デイスタンス・コントロール・システムズ・ゲゼルシヤフト・ミツト・ベシユレンクテル・ハフツング Radar system with elevation angle measurement capability
JP2014006114A (en) * 2012-06-22 2014-01-16 Denso Corp Radar system and program
JP2015078925A (en) * 2013-10-17 2015-04-23 株式会社デンソー Periphery monitoring device and periphery monitoring system
JP2016151424A (en) * 2015-02-16 2016-08-22 パナソニックIpマネジメント株式会社 Radar system
WO2019202803A1 (en) * 2018-04-19 2019-10-24 京セラ株式会社 Electronic device, method for controlling electronic device, and program for controlling electronic device
JP2019190882A (en) * 2018-04-19 2019-10-31 京セラ株式会社 Electronic device, and method and program for controlling the same
CN112020659A (en) * 2018-04-19 2020-12-01 京瓷株式会社 Electronic device, control method for electronic device, and control program for electronic device
CN110969174B (en) * 2018-09-29 2023-09-08 深圳市布谷鸟科技有限公司 Target identification method, device and system based on laser radar
CN110969174A (en) * 2018-09-29 2020-04-07 深圳市布谷鸟科技有限公司 Target identification method, device and system based on laser radar
CN110103810B (en) * 2019-01-03 2024-02-27 华域视觉科技(上海)有限公司 Three-dimensional detection lighting system and automobile
CN110103810A (en) * 2019-01-03 2019-08-09 华域视觉科技(上海)有限公司 Three-dimensional detection lighting system and automobile
JP2021012027A (en) * 2019-07-03 2021-02-04 オムロン株式会社 Attachment angle adjustment method and target plate
JP7415346B2 (en) 2019-07-03 2024-01-17 オムロン株式会社 Installation angle adjustment method and target board
WO2021230362A1 (en) * 2020-05-15 2021-11-18 株式会社デンソー Axial misalignment estimation device
JP7287345B2 (en) 2020-05-15 2023-06-06 株式会社デンソー Shaft misalignment estimator
JP2021179403A (en) * 2020-05-15 2021-11-18 株式会社デンソー Axial deviation estimation device
WO2022250086A1 (en) * 2021-05-28 2022-12-01 株式会社デンソー Axial displacement estimation device
JP7528866B2 (en) 2021-05-28 2024-08-06 株式会社デンソー Axis offset estimation device
CN114245542A (en) * 2021-12-17 2022-03-25 深圳市恒佳盛电子有限公司 Radar induction lamp and control method thereof
CN114245542B (en) * 2021-12-17 2024-03-22 深圳市恒佳盛电子有限公司 Radar induction lamp and control method thereof

Similar Documents

Publication Publication Date Title
JP4428208B2 (en) Vehicle object recognition device
JP2005291788A (en) Object recognition device for vehicle
US6927699B2 (en) Object recognition apparatus for vehicle, and inter-vehicle distance control unit
JP3405327B2 (en) Object recognition method and apparatus, recording medium
US6018308A (en) Obstacle recognition system for automotive vehicle
JP3736521B2 (en) Vehicle object recognition device
JP3915742B2 (en) Vehicle object recognition device
JP3331882B2 (en) Central axis deflection amount calculating device, central axis deflection amount correcting device, and inter-vehicle control device of vehicle obstacle detection device
JP3736520B2 (en) Obstacle recognition device for vehicles
US7136753B2 (en) Object recognition apparatus for vehicle, inter-vehicle control apparatus, and distance measurement apparatus
JP2004184331A (en) Object recognition apparatus for motor vehicle
US7158217B2 (en) Vehicle radar device
US8810445B2 (en) Method and apparatus for recognizing presence of objects
JP2005077379A (en) Radar device
JP7485526B2 (en) Axis offset estimation device
JP3757937B2 (en) Distance measuring device
JP3841047B2 (en) Vehicle distance control device
JP5556317B2 (en) Object recognition device
JP2005300307A (en) Object recognition device for vehicle and program
JP2002131433A (en) Method and device for recognizing object
JP2004125636A (en) On-vehicle laser radar device
JPH10143797A (en) Preceding vehicle recognition device and method
JPH10153661A (en) Range-finding device
JPH10213446A (en) Vehicle traveling system
JP4221663B2 (en) Radar equipment

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050602

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20051129