JP6673181B2 - 駐車支援装置およびその制御部 - Google Patents

駐車支援装置およびその制御部 Download PDF

Info

Publication number
JP6673181B2
JP6673181B2 JP2016245728A JP2016245728A JP6673181B2 JP 6673181 B2 JP6673181 B2 JP 6673181B2 JP 2016245728 A JP2016245728 A JP 2016245728A JP 2016245728 A JP2016245728 A JP 2016245728A JP 6673181 B2 JP6673181 B2 JP 6673181B2
Authority
JP
Japan
Prior art keywords
parking
vehicle
mode
positional relationship
likelihood
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016245728A
Other languages
English (en)
Other versions
JP2018099935A (ja
JP2018099935A5 (ja
Inventor
前田 優
優 前田
充保 松浦
充保 松浦
博彦 柳川
博彦 柳川
大塚 秀樹
秀樹 大塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2016245728A priority Critical patent/JP6673181B2/ja
Priority to PCT/JP2017/040494 priority patent/WO2018116686A1/ja
Priority to DE112017006366.3T priority patent/DE112017006366T5/de
Publication of JP2018099935A publication Critical patent/JP2018099935A/ja
Publication of JP2018099935A5 publication Critical patent/JP2018099935A5/ja
Priority to US16/442,799 priority patent/US10885356B2/en
Application granted granted Critical
Publication of JP6673181B2 publication Critical patent/JP6673181B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Mechanical Engineering (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、駐車支援装置およびその制御部に関する。
特許文献1に記載の装置は、車両に取り付けたカメラで車両の周囲の画像を撮像し、撮像した画像に基づいて白線を検出し、検出した白線により駐車枠のサイズを算出し、この駐車枠が並列駐車することができる駐車枠であるか又は縦列駐車することができる駐車枠であるかを判定する。
特開2012−1081号公報
駐車枠を規定するための、白線等の仕切線が、良好には検出できない場合がある(例えば、白線が摩耗等により薄くなった場合、薄くなった古い白線の上に新たな白線が形成されていて且つ両者の駐車態様が異なる場合、白線ではなくロープが地面に敷設してある場合、そもそも白線等が設けられていない場合、等)。あるいは、予め明確に設けられた仕切線に基づく駐車態様とは異なる駐車態様が、臨時に設定される場合があり得る。これらのような場合、特許文献1に記載の装置においては、駐車態様の良好な判定ができない。本発明は、上記に例示した課題に鑑みてなされたものである。
車支援装置(20)は、車両(10)に搭載されることで、当該車両の駐車スペース(PS)への駐車を支援するように構成されている。
請求項1に記載の駐車支援装置は、
前記車両の周囲の画像に対応する画像情報を取得するように設けられた、撮像部(22)と、
前記撮像部により取得された前記画像情報を処理することで、前記画像中の特徴形状を認識するように設けられた、画像処理部(S46、S47)と、
前記駐車スペースの周囲に存在する障害物と前記車両との位置関係に対応する位置関係情報を取得するように設けられた、障害物検知部(S42、S43)と、
前記画像処理部により認識された前記特徴形状と、前記障害物検知部により取得された前記位置関係情報とに基づいて、前記駐車スペースへの前記車両の駐車態様を、並列駐車及び縦列駐車を含む複数の態様候補のうちから選択するように設けられた、駐車態様選択部(S575、S580、S585)と、
を備え、
前記駐車態様選択部は、前記障害物検知部により取得された前記位置関係情報に基づく前記態様候補の尤度と、前記特徴形状としての、白線、駐車車両のタイヤ、前記駐車車両のナンバープレートのうちの少なくともいずれか一つの認識結果に基づく前記態様候補の尤度とを統合することで、複数の前記態様候補の各々における最終的な尤度を算出し、算出した複数の前記態様候補の各々における前記最終的な尤度を比較することで、前記駐車態様を複数の前記態様候補のうちから選択するように構成されている。
請求項3に記載の、駐車支援装置の制御部(26)は、
前記車両の周囲の画像に対応する画像情報を取得するように設けられた撮像部(22)により取得された前記画像情報を処理することで、前記画像中の特徴形状を認識するように設けられた、画像処理部(S46、S47)と、
前記駐車スペースの周囲に存在する障害物と前記車両との位置関係に対応する位置関係情報を取得するように設けられた、障害物検知部(S42、S43)と、
前記画像処理部により認識された前記特徴形状と、前記障害物検知部により取得された前記位置関係情報とに基づいて、前記駐車スペースへの前記車両の駐車態様を、並列駐車及び縦列駐車を含む複数の態様候補のうちから選択するように設けられた、駐車態様選択部(S575、S580、S585)と、
を備え、
前記駐車態様選択部は、前記障害物検知部により取得された前記位置関係情報に基づく前記態様候補の尤度と、前記特徴形状としての、白線、駐車車両のタイヤ、前記駐車車両のナンバープレートのうちの少なくともいずれか一つの認識結果に基づく前記態様候補の尤度とを統合することで、複数の前記態様候補の各々における最終的な尤度を算出し、算出した複数の前記態様候補の各々における前記最終的な尤度を比較することで、前記駐車態様を複数の前記態様候補のうちから選択するように構成されている。
なお、上記及び特許請求の範囲欄における各手段に付された括弧付きの参照符号は、同手段と後述する実施形態に記載の具体的手段との対応関係の一例を示すものである。
実施形態に係る駐車支援装置を搭載した車両の概略構成図である。 並列駐車が選択される状況の例を示す概略図である。 縦列駐車が選択される状況の例を示す概略図である。 図1に示された駐車支援装置の一動作例を示すフローチャートである。 図1に示された駐車支援装置の一動作例を示すフローチャートである。 図1に示された駐車支援装置の一動作例を示すフローチャートである。 図1に示された駐車支援装置の一動作例を示すフローチャートである。 斜め並列駐車が選択される状況の例を示す概略図である。
以下、本発明の実施形態を、図面に基づいて説明する。なお、実施形態に対して適用可能な各種の変更については、変形例として、一連の実施形態の説明の後に、まとめて説明する。
(構成)
図1を参照すると、車両10は、いわゆる四輪自動車であって、平面視にて略矩形状の車体11を備えている。以下、車両中心線Lと直交し、車両10の車幅を規定する方向を、「車幅方向」と称する。車幅方向は、図1における左右方向となる。また、車両中心線Lと平行な方向における一方(図1における上方向)を「前方向」と称し、他方(図1における下方向)を「後方向」と称する。車両10及び車体11における前方向側を「前側」と称し、反対側を「後側」と称する。また、車両10及び車体11の、図1における右側を単に「右側」と称し、図1における左側を単に「左側」と称する。
車体11における前側の端部である前面部12には、フロントバンパー13が装着されている。車体11における後側の端部である後面部14には、リアバンパー15が装着されている。車体11における側面部16には、ドアパネル17が設けられている。図1に示す具体例においては、左右にそれぞれ2枚ずつ、合計4枚のドアパネル17が設けられている。前側のドアパネル17には、ドアミラー18が装着されている。
車両10には、駐車支援装置20が搭載されている。駐車支援装置20は、車両10の駐車スペースPS(図2等参照)への駐車を支援するように構成されている。具体的には、駐車支援装置20は、測距センサ21と、撮像部22と、車速センサ23と、シフトポジションセンサ24と、舵角センサ25と、制御部26と、ディスプレイ27とを備えている。以下、駐車支援装置20を構成する各部の詳細について説明する。なお、図示の簡略化のため、駐車支援装置20を構成する各部の間の電気接続関係は、図1においては省略されている。
測距センサ21は、探査波WSを車両10の外側に向けて発信するとともに、検知障害物DOによる探査波WSの反射波を含み車両10と検知障害物DOとの距離に応じた強度を有する受信波WRを受信するように設けられている。具体的には、本実施形態においては、測距センサ21は、いわゆる超音波センサであって、超音波である探査波WSを発信するとともに、超音波を含む受信波WRを受信可能に構成されている。測距センサ21は、制御部26に電気接続されている。即ち、測距センサ21は、制御部26の制御下で探査波WSを発信するとともに、受信波WRの受信結果に対応する信号(以下「受信情報」と称する)を発生して制御部26に送信するようになっている。
本実施形態においては、複数の測距センサ21が、車体11に装着されている。即ち、フロントバンパー13には、測距センサ21としての、第一フロントソナーSF1、第二フロントソナーSF2、第三フロントソナーSF3、及び第四フロントソナーSF4が装着されている。同様に、リアバンパー15には、測距センサ21としての、第一リアソナーSR1、第二リアソナーSR2、第三リアソナーSR3、及び第四リアソナーSR4が装着されている。また、車体11の側面部16には、測距センサ21としての、第一サイドソナーSS1、第二サイドソナーSS2、第三サイドソナーSS3、及び第四サイドソナーSS4が装着されている。
第一フロントソナーSF1は、車体11の左前角部に配置されている。第二フロントソナーSF2は、車体11の右前角部に配置されている。第一フロントソナーSF1と第二フロントソナーSF2とは、車両中心線Lを挟んで対称に設けられている。第三フロントソナーSF3は、第一フロントソナーSF1と車両中心線Lとの間に配置されている。第四フロントソナーSF4は、第二フロントソナーSF2と車両中心線Lとの間に配置されている。第三フロントソナーSF3と第四フロントソナーSF4とは、車両中心線Lを挟んで対称に設けられている。
第一リアソナーSR1は、車体11の左後角部に配置されている。第二リアソナーSR2は、車体11の右後角部に配置されている。第一リアソナーSR1と第二リアソナーSR2とは、車両中心線Lを挟んで対称に設けられている。第三リアソナーSR3は、第一リアソナーSR1と車両中心線Lとの間に配置されている。第四リアソナーSR4は、第二リアソナーSR2と車両中心線Lとの間に配置されている。第三リアソナーSR3と第四リアソナーSR4とは、車両中心線Lを挟んで対称に設けられている。
第一サイドソナーSS1は、車両10の前後方向について、左側のドアミラー18と第一フロントソナーSF1との間に配置されている。第二サイドソナーSS2は、車両10の前後方向について、右側のドアミラー18と第二フロントソナーSF2との間に配置されている。第一サイドソナーSS1と第二サイドソナーSS2とは、車両中心線Lを挟んで対称に設けられている。第三サイドソナーSS3は、車両10の前後方向について、左前側のドアパネル17と第一リアソナーSR1との間に配置されている。第四サイドソナーSS4は、車両10の前後方向について、右前側のドアパネル17と第二リアソナーSR2との間に配置されている。第三サイドソナーSS3と第四サイドソナーSS4とは、車両中心線Lを挟んで対称に設けられている。
本実施形態においては、撮像部22は、電荷結合素子(CCD)等のイメージセンサを備えたカメラであって、車両10の周囲の画像に対応する画像情報を取得するように設けられている。撮像部22は、制御部26に電気接続されている。即ち、撮像部22は、制御部26の制御下で画像情報を取得するとともに、取得した画像情報を制御部26に送信するようになっている。
本実施形態においては、車両10には、複数の撮像部22、即ちフロントカメラCF、リアカメラCB、左側カメラCL、及び右側カメラCRが搭載されている。フロントカメラCFは、車両10の前方の画像に対応する画像情報を取得するように、車体11の前面部12に装着されている。リアカメラCBは、車両10の後方の画像に対応する画像情報を取得するように、車体11の後面部14に装着されている。左側カメラCLは、車両10の左側方の画像に対応する画像情報を取得するように、左側のドアミラー18に装着されている。右側カメラCRは、車両10の右側方の画像に対応する画像情報を取得するように、右側のドアミラー18に装着されている。
車速センサ23、シフトポジションセンサ24、及び舵角センサ25は、制御部26に電気接続されている。車速センサ23は、車両10の走行速度(以下単に「車速」と称する)に対応する信号を発生して、制御部26に送信するように設けられている。シフトポジションセンサ24は、シフトポジションに対応する信号を発生して、制御部26に送信するように設けられている。舵角センサ25は、操舵角に対応する信号を発生して、制御部26に送信するように設けられている。
制御部26は、車体11の内部に設けられている。制御部26は、図示しないCPU、ROM、RAM、不揮発性RAM(例えばフラッシュROM)、等を備えた、いわゆる車載マイクロコンピュータであって、CPUがROM又は不揮発性RAMからプログラム(即ち後述の各ルーチン)を読み出して実行することで各種の制御動作を実現可能に構成されている。即ち、制御部26は、測距センサ21、撮像部22、車速センサ23、シフトポジションセンサ24、及び舵角センサ25から受信した信号及び情報に基づいて、駐車支援動作を実行するように構成されている。また、ROM又は不揮発性RAMには、プログラムの実行の際に用いられる各種のデータ(初期値、ルックアップテーブル、マップ等)が予め格納されている。
図2は、車両10を駐車スペースPSに並列駐車、具体的にはいわゆる「車庫入れ駐車」する状況の例を示す。「車庫入れ駐車」とは、並列駐車の一態様であって、並列する複数の駐車スペースPS又は並列する複数の駐車車両PVの配列方向と、各駐車スペースPS又は各駐車車両PVの前後方向(即ち長手方向)とが、略直交するような駐車態様をいう。図3は、車両10を駐車スペースPSに縦列駐車する状況の例を示す。以下、図1〜図3を用いて、制御部26の詳細について説明する。なお、図2及び図3においては、図示の都合上、測距センサ21及び撮像部22の図示が簡略化されている。
画像処理部としての制御部26は、撮像部22により取得された画像情報を処理することで、画像中の特徴点及び特徴形状を認識するようになっている。本実施形態においては、制御部26は、SFM(Structure from Motion)処理により、画像中の各物体の三次元形状を認識可能に構成されている。
障害物検知部としての制御部26は、駐車スペースPSの周囲に存在する障害物等の物体と車両10との位置関係に対応する位置関係情報を、測距センサ21からの受信情報に基づいて取得するようになっている。本実施形態においては、測距センサ21は、複数設けられている。故に、制御部26は、複数の測距センサ21(例えば車両10の左前方に位置する障害物の場合は第一フロントソナーSF1及び第二フロントソナーSF2)における受信情報に基づき、物体と車両10との位置関係情報として、物体と車両10との距離、及び物体の車両10からの方位角に対応する情報を取得可能に構成されている。換言すれば、制御部26は、物体の車両10との相対位置を取得可能に構成されている。
駐車態様選択部としての制御部26は、測距センサ21を用いて取得した位置関係情報と、撮像部22を用いて認識した特徴形状とに基づいて、駐車スペースPSへの車両10の駐車態様を、並列駐車及び縦列駐車を含む複数の態様候補のうちから選択するようになっている。具体的には、制御部26は、取得された壁状立体物WAを含む検知障害物DO及び車止めCSの位置関係情報に基づく態様候補の尤度と、特徴形状としての、白線WL、駐車車両PVのヘッドライトHL、駐車車両PVのナンバープレートNP、及び駐車車両PVのタイヤTYのうちの少なくともいずれか一つの認識結果に基づく態様候補の尤度とを統合することで、駐車態様を複数の態様候補のうちから選択するように構成されている。
ディスプレイ27は、車両10における車室内に配置されている。ディスプレイ27は、制御部26の制御下で駐車支援動作に伴う表示を行うように、制御部26に電気接続されている。
(動作概要)
以下、図2及び図3を用いて、駐車支援装置20における動作の概要について説明する。各図中、(i)は、駐車場PLに白線WL及び車止めCSが設けられている場合を示す。また、(ii)は、駐車場PL内の駐車スペースPSの周囲に、壁状立体物WAを含む検知障害物DOが存在する場合を示す。さらに、(iii)は、駐車スペースPSの周囲の駐車車両PVにて、ナンバープレートNP等の特徴形状が認識可能な場合を示す。
図2及び図3における(i)に示すように、隣接する複数の駐車スペースPSを区画する白線WLが駐車場PLに設けられている場合がある。この場合、制御部26は、撮像部22により取得した画像情報を処理して白線WLを認識することで、車両10の駐車態様を選択することが可能である。
また、白線WLに代えて、あるいは白線WLとともに、車止めCSが設けられている場合がある。この場合、制御部26は、測距センサ21を用いて取得した車止めCSの位置関係情報に基づいて、車両10の駐車態様を選択することが可能である。具体的には、複数の車止めCSの位置、又は車止めCSの長手方向を形成する外形形状が、車両10の進行方向に沿って略一直線状に並んでいる場合、車両10の駐車態様の選択結果が車庫入れ駐車となり得る(図2における(i)参照)。これに対し、車止めCSの長手方向を形成する外形形状が、車両10の進行方向と略直交している場合、車両10の駐車態様の選択結果が縦列駐車となり得る(図3における(i)参照)。
図2及び図3における(ii)に示すように、隣接する複数の駐車スペースPSの間に壁状立体物WA(例えば屋内駐車場における壁又は柱等)が存在する場合がある。また、現在使用中の駐車スペースPSに隣接して、車両10を駐車可能な空きの駐車スペースPSが存在する場合がある。この場合、制御部26は、測距センサ21を用いて取得した検知障害物DOの位置関係情報に基づいて、車両10の駐車態様を選択することが可能である。この場合の、検知障害物DOの位置関係情報には、壁状立体物WA及び/又はこれに隣接する駐車車両PVの位置関係情報が含まれ得る。具体的には、複数の検知障害物DO同士の位置関係等に基づいて、車両10の駐車態様を選択することが可能である。
図2及び図3における(iii)に示すように、現在使用中の駐車スペースPSに隣接して、車両10を駐車可能な空きの駐車スペースPSが存在する場合がある。この場合、現在使用中の駐車スペースPSに駐車された駐車車両PVにおける、ナンバープレートNP等の特徴形状が認識され得る。制御部26は、撮像部22により取得した画像情報を処理して、駐車車両PVにおける特徴形状を認識することで、車両10の駐車態様を選択することが可能である。
具体的には、例えば、ナンバープレートNPの長手方向と車両10の進行方向とのなす角が小さい(例えば0〜15度)場合、車両10の駐車態様の選択結果が車庫入れ駐車となり得る(図2における(iii)参照)。これに対し、ナンバープレートNPの長手方向と車両10の進行方向とのなす角が大きい(例えば75〜90度)場合、車両10の駐車態様の選択結果が縦列駐車となり得る(図3における(iii)参照)。
また、複数のタイヤTYが車両10の進行方向に沿って略一直線状に並んでいる場合、車両10の駐車態様の選択結果が車庫入れ駐車となり得る(図2における(iii)参照)。これに対し、一対のタイヤTYが車両10の進行方向と略直交するように並んでいる場合、車両10の駐車態様の選択結果が縦列駐車となり得る(図3における(iii)参照)。
また、一対のヘッドライトHLが、車両10の進行方向に沿って略一直線状に並んでいる場合、車両10の駐車態様の選択結果が車庫入れ駐車となり得る(図2における(iii)参照)。これに対し、一対のヘッドライトHLが、車両10の前方にて進行方向と略直交する方向に並んでいる場合、あるいは、ヘッドライトHLが前方に全く認識されない場合、車両10の駐車態様の選択結果が縦列駐車となり得る(図3における(iii)参照)。
本実施形態においては、上記のように、白線WL、車止めCS、検知障害物DO、ヘッドライトHL、タイヤTY、及びナンバープレートNPの認識結果に基づいて、車両10の駐車態様を選択することが可能である。但し、これらの特徴形状の認識結果がすべて同一の駐車態様に対応するとは限らない。即ち、例えば、一部の特徴形状の認識が困難であったり、一部の特徴形状の認識結果に基づく駐車態様と他の特徴形状の認識結果に基づく駐車態様とが矛盾したりする場合があり得る。
具体的には、駐車スペースPSを規定するための白線WLが、摩耗等により薄くなる場合があり得る。また、縦列駐車用の古い白線WLの上に、車庫入れ駐車用の新しい白線WLが形成される場合があり得る。あるいは、明確な白線WLが設けられていても、何らかの事情(例えば臨時イベント開催により通常時の最大収容数を超える台数の駐車が一時的に見込まれる場合等)により、当該白線WLによる通常の駐車態様とは異なる駐車態様が設定される場合があり得る。これらの場合、白線WLの認識結果によっては、適確な態様候補の選択が困難となる。
白線WLではなくロープが地面に敷設された駐車場PLが多数存在する。このような駐車場PLにおいては、ロープの画像認識は困難であり、車止めCSが設けられない場合も多い。また、駐車場PLにそもそも白線WLが設けられない場合があり得る。具体的には、例えば、大規模な屋外イベント開催時に、イベント会場に近接する空き地(例えば、工場又はショッピング施設の建設予定地、工事中の自動車専用道路、等。)が、臨時駐車場として使用される場合があり得る。これらの場合、白線WL及び車止めCSの認識結果によっては、適確な態様候補の選択が困難となる。
駐車時の車体11の外傷発生を抑制するために、壁状立体物WAにスポンジ等の弾性物が貼付される場合がある。また、壁状立体物WAに近接して駐車された駐車車両PVが、探査波の反射率が低い物体(例えば、雪、カバー、等)によって覆われている場合があり得る。これらの場合、測距センサ21による検知障害物DOの検知が良好には行われないことがあり得る。
駐車車両PVにおける、ナンバープレートNPの形状及び位置は、自動車に関する法令により、ほぼ一定となる。これに対し、タイヤTYの位置は、駐車車両PVのサイズ、駐車スペースPS内の駐車車両PVの位置、駐車時の操舵状態、等により変動し得る。また、ヘッドライトHLは、車種によって形状及び位置が様々であり、駐車時に車体内部に格納されたり車体部品等で遮蔽されたりする場合もあり得る。このため、駐車車両PVにおける各種の特徴形状のうち、ナンバープレートNPの認識結果に基づく駐車態様の選択が、最も確からしいということが一応可能である。
例えば、図2における(iii)を参照すると、普通自動車PV1においては、ナンバープレートNPは、通常、車幅方向における中央部に設けられている。これに対し、軽自動車PV2においては、前側のナンバープレートNPは、車幅方向における中央部から右側(当該軽自動車PV2を正面視した場合は向かって左側)に若干ずれた位置に設けられていることが多い。故に、駐車車両PV及びこれに対応するナンバープレートNPが車両10の側方に認識され、且つ、ナンバープレートNPが画像中にて当該駐車車両PVの車幅方向における中央部から若干左側にずれた位置に存在すると認識された場合、ヘッドライトHLの認識がなくても、当該駐車車両PVはバックで車庫入れ駐車した軽自動車PV2である可能性が高くなる。
しかしながら、駐車車両PVにおけるフロント側のナンバープレートNPの位置が特殊である場合があり得る。さらに、駐車場PLの照明状態等によっては、駐車車両PVにおける各種の特徴形状の認識がそもそも困難である場合もあり得る。これらの場合、駐車車両PVにおける各種の特徴形状の認識結果によっては、適確な態様候補の選択が困難となる。
以上の事情を考慮し、本実施形態においては、制御部26は、測距センサ21を用いた車止めCS及び検知障害物DOの認識結果に基づく駐車態様の尤度と、撮像部22を用いたその他の認識結果に基づく駐車態様の尤度とを統合する。また、制御部26は、統合した尤度に基づいて、最も確からしい駐車態様の候補を選択する。
駐車態様の選択が終了した後は、制御部26は、認識した駐車目標の駐車スペースPSへの駐車支援動作(ディスプレイ27による誘導動作、又は自動操縦動作)を実行する。このとき、制御部26は、測距センサ21及び撮像部22を用いた認識結果に基づいて、良好な駐車支援動作を行うことが可能である。具体的には、例えば、制御部26は、ナンバープレートNPの認識結果に基づいて、認識した駐車目標の駐車スペースPSが軽自動車専用であることについての警告を、ディスプレイ27に表示させることが可能である。あるいは、例えば、制御部26は、タイヤTYの認識結果に基づいて、駐車スペースPSにおける、車両10が進行可能な領域を推定することが可能である。
(動作の具体例)
以下、本実施形態の構成による動作の具体例について、フローチャートを用いて説明する。明細書中の以下の説明、及び図示したフローチャートにおいて、「ステップ」を単に「S」と略記する。また、明細書中の以下の説明において、制御部26のCPUを、単に「CPU」と略称する。制御部26の不揮発性RAM等についても同様である。
CPUは、所定の起動条件が成立した場合に、図4に示した周囲構造認識ルーチンを起動する。この周囲構造認識ルーチンの起動条件は、例えば、車両10のシステム起動スイッチが「オン」されてから所定時間経過後であり、且つ本ルーチンの所定の起動タイミングが到来したこと等を含む。図4に示した周囲構造認識ルーチンにおいて、CPUは、S41〜S49の処理を順に実行した後、本ルーチンを一旦終了する。
S41にて、CPUは、測距センサ21から受信情報を取得する。この受信情報に基づいて、CPUは、S42にて、距離点を抽出する。距離点は、今回の受信情報に対応する、所定の空間座標中の点である。各距離点は、対応する位置関係情報を有している。上記の通り、本実施形態においては、位置関係情報は、複数の測距センサ21による受信情報に基づいて取得される。故に、本具体例においては、距離点は、車両10の周囲の空間に対応する三次元マップ中の点とすることができる。続いて、CPUは、S43にて、車両10の周囲に存在する物体の外形形状を、距離点を繋ぎ合わせることによって認識する。さらに、CPUは、S43における認識結果を、不揮発性RAMに格納する(S44)。
S45にて、CPUは、撮像部22から画像情報を取得する。この画像情報に基づいて、CPUは、S46にて、特徴点を抽出する。上記の通り、本実施形態においては、複数の撮像部22が設けられている。また、制御部26は、SFM(Structure from Motion)処理により、画像中の各物体の三次元形状を認識可能である。故に、特徴点は、上記の三次元マップ中の点とすることができる。このようにして抽出した特徴点に基づいて、CPUは、S47にて、特徴形状を認識する。続いて、CPUは、S47における認識結果を、不揮発性RAMに格納する(S48)。
上記のように、CPUは、S41〜S44にて、測距センサ21を用いた物体認識及び特徴形状認識を行う。次に、CPUは、S45〜48にて、撮像部22を用いた物体認識及び特徴形状認識を行う。その後、CPUは、S49にて、測距センサ21を用いた認識結果と、撮像部22を用いた認識結果とを統合することで、車両10の周囲の空間における物体及び特徴形状を、三次元的に認識する。この三次元的認識を「構造化」と称する。構造化された、物体及び特徴形状の認識結果は、不揮発性RAMに格納される。なお、上記のように、複数種類の認識結果を統合することを、「フュージョン」と称することがある。
CPUは、車両10の走行中に所定の時間間隔で周囲構造認識ルーチンを起動する。これにより、構造化した特徴形状の三次元情報が、時系列的に不揮発性RAMに格納される。
CPUは、所定の起動条件が成立した場合に、図5A〜図5Cに示した駐車態様選択ルーチンを起動する。この駐車態様選択ルーチンの起動条件は、例えば、不揮発性RAMにおける上記の認識結果の格納量が所定量に達し、且つ車速が所定速度未満に達したことを含む。
駐車態様選択ルーチンが起動されると、まず、S500にて、CPUは、縦列駐車尤度LPP及び並列駐車尤度LDPを初期化する。具体的には、S500にて、CPUは、縦列駐車尤度LPP及び並列駐車尤度LDPを、それぞれ、初期値LPP0及びLDP0に設定する。本具体例においては、初期値LPP0及びLDP0は、ともに0.5である。
次に、S511にて、CPUは、ナンバープレートNPが認識されているか否か、即ち、ナンバープレートNPの認識結果が不揮発性RAMに格納されているか否かを判定する。ナンバープレートNPが認識されている場合(即ちS511=YES)、CPUは、処理をS512に進行させ、S512における判定結果に応じてS513又はS514の処理を実行する。一方、ナンバープレートNPが認識されていない場合(即ちS511=NO)、CPUは、S512〜S514の処理をスキップする。
S512にて、CPUは、今回のナンバープレートNPの認識結果に基づいて駐車態様を選択した場合に、その選択結果が縦列駐車となるか否かを判定する。縦列駐車の場合(即ちS512=YES)、CPUは、処理をS513に進行させる。一方、並列駐車の場合(即ちS512=NO)、CPUは、処理をS514に進行させる。
S513及びS514にて、CPUは、ナンバープレートNPの認識結果に基づく縦列駐車尤度LPP(NP)及び並列駐車尤度LDP(NP)を、ルックアップテーブル又はマップに基づいて設定する。S513及びS514にて用いられるルックアップテーブル又はマップは、ナンバープレートNPの認識結果に対応するパラメータ(例えば、ナンバープレートNPの認識数、ナンバープレートNPの長手方向と車両10の進行方向とのなす角、複数のナンバープレートNPの配列方向、各ナンバープレートNPの長方形からの歪度合、等。)の少なくとも1個と、当該パラメータに対応する値(0より大きく1以下の数)との対応関係を規定する。S513の場合、LPP(NP)>LDP(NP)となるように、LPP(NP)及びLDP(NP)が設定される。一方、S514の場合、LPP(NP)<LDP(NP)となるように、LPP(NP)及びLDP(NP)が設定される。
S511=NOの場合、あるいはS513又はS514の処理の後、CPUは、S521の処理を実行する。S521にて、CPUは、タイヤTYが認識されているか否かを判定する。タイヤTYが認識されている場合(即ちS521=YES)、CPUは、処理をS522に進行させ、S522における判定結果に応じてS523又はS524の処理を実行する。一方、タイヤTYが認識されていない場合(即ちS521=NO)、CPUは、S522〜S524の処理をスキップする。
S522にて、CPUは、今回のタイヤTYの認識結果に基づいて駐車態様を選択した場合に、その選択結果が縦列駐車となるか否かを判定する。縦列駐車の場合(即ちS522=YES)、CPUは、処理をS523に進行させる。一方、並列駐車の場合(即ちS522=NO)、CPUは、処理をS524に進行させる。
S523及びS524にて、CPUは、タイヤTYの認識結果に基づく縦列駐車尤度LPP(TY)及び並列駐車尤度LDP(TY)を、ルックアップテーブル又はマップに基づいて設定する。S523及びS524にて用いられるルックアップテーブル又はマップは、タイヤTYの認識結果に対応するパラメータ(例えば、タイヤTYの認識数、複数のタイヤTYの配列方向と車両10の進行方向とのなす角、各タイヤTYの認識結果である楕円形状における扁平率、各タイヤTYの認識結果である楕円形状における長径と車両10の進行方向とのなす角、等。)の少なくとも1個と、当該パラメータに対応する値(0より大きく1以下の数)との対応関係を規定する。S523の場合、LPP(TY)>LDP(TY)となるように、LPP(TY)及びLDP(TY)が設定される。一方、S524の場合、LPP(TY)<LDP(TY)となるように、LPP(TY)及びLDP(TY)が設定される。
S521=NOの場合、あるいはS523又はS524の処理の後、CPUは、S531の処理を実行する。S531にて、CPUは、ヘッドライトHLが認識されているか否かを判定する。ヘッドライトHLが認識されている場合(即ちS531=YES)、CPUは、処理をS532に進行させ、S532における判定結果に応じてS533又はS534の処理を実行する。一方、ヘッドライトHLが認識されていない場合(即ちS531=NO)、CPUは、S532〜S534の処理をスキップする。
S532にて、CPUは、今回のヘッドライトHLの認識結果に基づいて駐車態様を選択した場合に、その選択結果が縦列駐車となるか否かを判定する。縦列駐車の場合(即ちS532=YES)、CPUは、処理をS533に進行させる。一方、並列駐車の場合(即ちS532=NO)、CPUは、処理をS534に進行させる。
S533及びS534にて、CPUは、ヘッドライトHLの認識結果に基づく縦列駐車尤度LPP(HL)及び並列駐車尤度LDP(HL)を、ルックアップテーブル又はマップに基づいて設定する。S533及びS534にて用いられるルックアップテーブル又はマップは、ヘッドライトHLの認識結果に対応するパラメータ(例えば、ヘッドライトHLの認識数、複数のヘッドライトHLの配列方向と車両10の進行方向とのなす角、等。)の少なくとも1個と、当該パラメータに対応する値(0より大きく1以下の数)との対応関係を規定する。S533の場合、LPP(HL)>LDP(HL)となるように、LPP(HL)及びLDP(HL)が設定される。一方、S534の場合、LPP(HL)<LDP(HL)となるように、LPP(HL)及びLDP(HL)が設定される。
S531=NOの場合、あるいはS533又はS534の処理の後、CPUは、S541の処理を実行する。S541にて、CPUは、車止めCSが認識されているか否かを判定する。車止めCSが認識されている場合(即ちS541=YES)、CPUは、処理をS542に進行させ、S542における判定結果に応じてS543又はS544の処理を実行する。一方、車止めCSが認識されていない場合(即ちS541=NO)、CPUは、S542〜S544の処理をスキップする。
S542にて、CPUは、今回の車止めCSの認識結果に基づいて駐車態様を選択した場合に、その選択結果が縦列駐車となるか否かを判定する。縦列駐車の場合(即ちS542=YES)、CPUは、処理をS543に進行させる。一方、並列駐車の場合(即ちS542=NO)、CPUは、処理をS544に進行させる。
S543及びS544にて、CPUは、車止めCSの認識結果に基づく縦列駐車尤度LPP(CS)及び並列駐車尤度LDP(CS)を、ルックアップテーブル又はマップに基づいて設定する。S543及びS544にて用いられるルックアップテーブル又はマップは、車止めCSの認識結果に対応するパラメータ(例えば、車止めCSの認識数、複数の車止めCSの配列方向と車両10の進行方向とのなす角、各車止めCSの車両10からの距離、等。)の少なくとも1個と、当該パラメータに対応する値(0より大きく1以下の数)との対応関係を規定する。S543の場合、LPP(CS)>LDP(CS)となるように、LPP(CS)及びLDP(CS)が設定される。一方、S544の場合、LPP(CS)<LDP(CS)となるように、LPP(CS)及びLDP(CS)が設定される。
S541=NOの場合、あるいはS543又はS544の処理の後、CPUは、S551の処理を実行する。S551にて、CPUは、検知障害物DO、即ち車止めCS以外の立体障害物が認識されているか否かを判定する。検知障害物DOが認識されている場合(即ちS551=YES)、CPUは、処理をS552に進行させ、S552における判定結果に応じてS553又はS554の処理を実行する。一方、車止めCS以外の立体障害物が検知障害物DOとして認識されていない場合(即ちS551=NO)、CPUは、S552〜S554の処理をスキップする。
S552にて、CPUは、今回の検知障害物DOの認識結果に基づいて駐車態様を選択した場合に、その選択結果が縦列駐車となるか否かを判定する。縦列駐車の場合(即ちS552=YES)、CPUは、処理をS553に進行させる。一方、並列駐車の場合(即ちS552=NO)、CPUは、処理をS554に進行させる。
S553及びS544にて、CPUは、検知障害物DOの認識結果に基づく縦列駐車尤度LPP(DO)及び並列駐車尤度LDP(DO)を、ルックアップテーブル又はマップに基づいて設定する。S553及びS554にて用いられるルックアップテーブル又はマップは、検知障害物DOの認識結果に対応するパラメータ(例えば、検知障害物DOの周囲の空間のサイズ及び形状、検知障害物DOの車両10からの距離、等。)の少なくとも1個と、当該パラメータに対応する値(0より大きく1以下の数)との対応関係を規定する。S553の場合、LPP(DO)>LDP(DO)となるように、LPP(DO)及びLDP(DO)が設定される。一方、S554の場合、LPP(DO)<LDP(DO)となるように、LPP(DO)及びLDP(DO)が設定される。
S551=NOの場合、あるいはS553又はS554の処理の後、CPUは、S561の処理を実行する。S561にて、CPUは、白線WLが認識されているか否かを判定する。白線WLが認識されている場合(即ちS561=YES)、CPUは、処理をS562に進行させ、S562における判定結果に応じてS563又はS564の処理を実行する。一方、白線WLが認識されていない場合(即ちS561=NO)、CPUは、S562〜S564の処理をスキップする。
S562にて、CPUは、今回の白線WLの認識結果に基づいて駐車態様を選択した場合に、その選択結果が縦列駐車となるか否かを判定する。縦列駐車の場合(即ちS562=YES)、CPUは、処理をS563に進行させる。一方、並列駐車の場合(即ちS562=NO)、CPUは、処理をS564に進行させる。
S563及びS564にて、CPUは、白線WLの認識結果に基づく縦列駐車尤度LPP(WL)及び並列駐車尤度LDP(WL)を、ルックアップテーブル又はマップに基づいて設定する。S563及びS654にて用いられるルックアップテーブル又はマップは、白線WLの認識結果に対応するパラメータ(例えば、白線WLの本数、コントラスト、方向、長さ、等。)の少なくとも1個と、当該パラメータに対応する値(0より大きく1以下の数)との対応関係を規定する。S563の場合、LPP(WL)>LDP(WL)となるように、LPP(WL)及びLDP(WL)が設定される。一方、S564の場合、LPP(WL)<LDP(WL)となるように、LPP(WL)及びLDP(WL)が設定される。
S561=NOの場合、あるいはS563又はS564の処理の後、CPUは、S570の処理を実行する。S570にて、CPUは、縦列駐車尤度LPPの初期値LPP0と、各認識結果に基づく縦列駐車尤度LPP(NP)等とに基づいて、最終的な縦列駐車尤度LPPを算出する。また、CPUは、並列駐車尤度LDPの初期値LDP0と、各認識結果に基づく並列駐車尤度LDP(NP)等とに基づいて、最終的な並列駐車尤度LDPを算出する。
具体的には、本具体例においては、最終的な縦列駐車尤度LPPは、以下のようにして算出される。
Figure 0006673181
Figure 0006673181
Figure 0006673181
Figure 0006673181
Figure 0006673181
Figure 0006673181
最終的な並列駐車尤度LDPも、上記と同様にして算出される。
次に、CPUは、S575にて、縦列駐車尤度LPPと並列駐車尤度LDPとを比較する。LPP>LDPの場合(即ちS575=YES)、CPUは、今回の駐車態様の選択結果を縦列駐車とする(S580)。一方、LPP<LDPの場合(即ちS575=NO)、CPUは、今回の駐車態様の選択結果を並列駐車(即ち車庫入れ駐車)とする(S585)。
(変形例)
本発明は上記実施形態に限定されるものではなく、上記実施形態に対しては適宜変更が可能である。以下、代表的な変形例について説明する。以下の変形例の説明においては、上記実施形態と異なる部分についてのみ説明する。また、上記実施形態と変形例とにおいて、互いに同一又は均等である部分には、同一符号が付されている。したがって、以下の変形例の説明において、上記実施形態と同一の符号を有する構成要素に関しては、技術的矛盾又は特段の追加説明なき限り、上記実施形態における説明が適宜援用され得る。
本発明は、上記実施形態にて示された具体的な装置構成に限定されない。即ち、例えば、車両10は、四輪自動車に限定されない。具体的には、車両10は、三輪自動車であってもよいし、貨物トラック等の六輪又は八輪自動車でもよい。また、車両10の種類は、内燃機関のみを備えた自動車であってもよいし、内燃機関を備えない電気自動車又は燃料電池車であってもよいし、ハイブリッド自動車であってもよい。ドアパネル17の数も、特段の限定はない。
測距センサ21が超音波センサである場合の、測距センサ21の配置及び個数は、上記の具体例に限定されない。即ち、例えば、第三フロントソナーSF3が車幅方向における中央位置に配置される場合、第四フロントソナーSF4は省略される。同様に、第三リアソナーSR3が車幅方向における中央位置に配置される場合、第四リアソナーSR4は省略される。第三サイドソナーSS3及び第四サイドソナーSS4は、省略され得る。
測距センサ21は、超音波センサに限定されない。即ち、例えば、測距センサ21は、レーザレーダセンサ、又はミリ波レーダセンサであってもよい。
撮像部22の配置及び個数は、上記の例に限定されない。即ち、例えば、左側カメラCL及び右側カメラCRは、ドアミラー18とは異なる位置に配置されてもよい。あるいは、左側カメラCL及び右側カメラCRは、省略され得る。駐車支援装置20により可能な複数の駐車支援動作のうちの、駐車態様選択動作については、フロントカメラCFのみによっても可能であるし、左側カメラCL及び右側カメラCRのみによっても可能である。
上記実施形態においては、制御部26は、CPUがROM等からプログラムを読み出して起動する構成であった。しかしながら、本発明は、かかる構成に限定されない。即ち、例えば、制御部26は、上記のような動作を可能に構成されたデジタル回路、例えばゲートアレイ等のASICであってもよい。ASICはAPPLICATION SPECIFIC INTEGRATED CIRCUITの略である。
本発明は、上記実施形態にて示された具体的な動作例及び処理態様に限定されない。例えば、認識結果の格納場所は、不揮発性RAM以外の記憶媒体(例えばRAM及び/又は磁気記憶媒体)であってもよい。
駐車スペースPSが設けられる場所は、駐車場PLに限定されない。即ち、例えば、駐車スペースPSは、道路における駐車可能地帯、公園等に設定される仮設駐車地帯、等に設けられ得る。
物体及び特徴形状の認識対象及び認識方法も、上記の具体例に限定されない。例えば、車止めCSは、画像情報に基づいて、画像中の特徴形状として認識されてもよい。白線WL、車止めCS、検知障害物DO、ヘッドライトHL、タイヤTY、及びナンバープレートNPの認識のうちの少なくとも1つは、省略され得る。白線WL、車止めCS、検知障害物DO、ヘッドライトHL、タイヤTY、及びナンバープレートNPとは異なる他の特徴形状の認識も用いられ得る。
上記具体例においては、駐車態様の候補は、縦列駐車と並列駐車との2種類であった。しかしながら、本発明は、かかる態様に限定されない。即ち、例えば、並列駐車は、図2に示されているような「車庫入れ駐車」と、図6に示されているような「斜め駐車」とに、さらに細分化され得る。
図6における(i)は、斜め駐車の駐車場PLに駐車スペースPSに白線WL及び車止めCSが設けられている場合を示す。また、(ii)は、斜め駐車の駐車場PL内の、駐車スペースPSの周囲に、壁状立体物WAを含む検知障害物DOが存在する場合を示す。さらに、(iii)は、斜め駐車の駐車場PLにおいて、駐車スペースPSの周囲の駐車車両PVにてナンバープレートNP等の特徴形状が認識可能な場合を示す。
本変形例における処理は、例えば、図5A〜図5Cのルーチンを一部改変することによって、良好に行われ得る。具体的には、例えば、S500において、縦列駐車尤度LPP及び並列駐車尤度LDPの初期値LPP0及びLDP0を、それぞれ、0.33に設定する。また、CPUは、S512=NOの場合に、「車庫入れ駐車か否か」の判定処理を実行し、車庫入れ駐車の場合にCPUは処理をS514に進行させ、斜め駐車の場合にCPUはS514の処理をスキップする。S522、S532、S542、S552、及びS562についても同様である。
その後、CPUは、S575の処理に代えて、LPP及びLDPのいずれかが0.33より大きいか否かを判定する。LPP>0.33の場合、CPUは、今回の駐車態様の選択結果を縦列駐車とする。一方、LDP>0.33の場合、CPUは、今回の駐車態様の選択結果を車庫入れ駐車とする。また、LPP及びLDPのいずれもが0.33以下である場合、CPUは、今回の駐車態様の選択結果を斜め駐車とする。
最終的な縦列駐車尤度LPP及び並列駐車尤度LDPの算出方法、即ち、各認識結果に基づく縦列駐車尤度LPP(NP)等の統合方法も、上記具体例に限定されない。
変形例も、上記の例示に限定されない。また、複数の変形例が、互いに組み合わされ得る。さらに、上記実施形態の全部又は一部と、変形例の全部又は一部とが、互いに組み合わされ得る。
10 車両
11 車体
20 駐車支援装置
21 測距センサ
22 撮像部
26 制御部
DO 検知障害物
PS 駐車スペース
WS 探査波
WR 受信波

Claims (4)

  1. 車両(10)に搭載されることで当該車両の駐車スペース(PS)への駐車を支援するように構成された、駐車支援装置(20)であって、
    前記車両の周囲の画像に対応する画像情報を取得するように設けられた、撮像部(22)と、
    前記撮像部により取得された前記画像情報を処理することで、前記画像中の特徴形状を認識するように設けられた、画像処理部(S46、S47)と、
    前記駐車スペースの周囲に存在する障害物と前記車両との位置関係に対応する位置関係情報を取得するように設けられた、障害物検知部(S42、S43)と、
    前記画像処理部により認識された前記特徴形状と、前記障害物検知部により取得された前記位置関係情報とに基づいて、前記駐車スペースへの前記車両の駐車態様を、並列駐車及び縦列駐車を含む複数の態様候補のうちから選択するように設けられた、駐車態様選択部(S575、S580、S585)と、
    を備え、
    前記駐車態様選択部は、前記障害物検知部により取得された前記位置関係情報に基づく前記態様候補の尤度と、前記特徴形状としての、白線、駐車車両のタイヤ、前記駐車車両のナンバープレートのうちの少なくともいずれか一つの認識結果に基づく前記態様候補の尤度とを統合することで、複数の前記態様候補の各々における最終的な尤度を算出し、算出した複数の前記態様候補の各々における前記最終的な尤度を比較することで、前記駐車態様を複数の前記態様候補のうちから選択するように構成された、駐車支援装置。
  2. 探査波を前記車両の外側に向けて発信するとともに、前記障害物による前記探査波の反射波を含み前記車両と前記障害物との距離に応じた強度を有する受信波を受信するように設けられた、測距センサ(21)をさらに備え、
    前記障害物検知部は、前記測距センサによる前記受信波の受信結果に基づいて、前記位置関係情報を取得するように設けられた、
    請求項1に記載の駐車支援装置。
  3. 車両(10)に搭載されることで当該車両の駐車スペース(PS)への駐車を支援するように構成された駐車支援装置(20)の制御部(26)であって、
    前記車両の周囲の画像に対応する画像情報を取得するように設けられた撮像部(22)により取得された前記画像情報を処理することで、前記画像中の特徴形状を認識するように設けられた、画像処理部(S46、S47)と、
    前記駐車スペースの周囲に存在する障害物と前記車両との位置関係に対応する位置関係情報を取得するように設けられた、障害物検知部(S42、S43)と、
    前記画像処理部により認識された前記特徴形状と、前記障害物検知部により取得された前記位置関係情報とに基づいて、前記駐車スペースへの前記車両の駐車態様を、並列駐車及び縦列駐車を含む複数の態様候補のうちから選択するように設けられた、駐車態様選択部(S575、S580、S585)と、
    を備え、
    前記駐車態様選択部は、前記障害物検知部により取得された前記位置関係情報に基づく前記態様候補の尤度と、前記特徴形状としての、白線、駐車車両のタイヤ、前記駐車車両のナンバープレートのうちの少なくともいずれか一つの認識結果に基づく前記態様候補の尤度とを統合することで、複数の前記態様候補の各々における最終的な尤度を算出し、算出した複数の前記態様候補の各々における前記最終的な尤度を比較することで、前記駐車態様を複数の前記態様候補のうちから選択するように構成された、駐車支援装置の制御部。
  4. 前記障害物検知部は、探査波を前記車両の外側に向けて発信するとともに前記障害物による前記探査波の反射波を含み前記車両と前記障害物との距離に応じた強度を有する受信波を受信するように設けられた測距センサ(21)による前記受信波の受信結果に基づいて、前記位置関係情報を取得するように設けられた、
    請求項3に記載の駐車支援装置の制御部。
JP2016245728A 2016-12-19 2016-12-19 駐車支援装置およびその制御部 Active JP6673181B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016245728A JP6673181B2 (ja) 2016-12-19 2016-12-19 駐車支援装置およびその制御部
PCT/JP2017/040494 WO2018116686A1 (ja) 2016-12-19 2017-11-09 駐車支援装置
DE112017006366.3T DE112017006366T5 (de) 2016-12-19 2017-11-09 Parkunterstützungsvorrichtung
US16/442,799 US10885356B2 (en) 2016-12-19 2019-06-17 Parking assisting apparatus and control unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016245728A JP6673181B2 (ja) 2016-12-19 2016-12-19 駐車支援装置およびその制御部

Publications (3)

Publication Number Publication Date
JP2018099935A JP2018099935A (ja) 2018-06-28
JP2018099935A5 JP2018099935A5 (ja) 2019-03-07
JP6673181B2 true JP6673181B2 (ja) 2020-03-25

Family

ID=62627290

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016245728A Active JP6673181B2 (ja) 2016-12-19 2016-12-19 駐車支援装置およびその制御部

Country Status (4)

Country Link
US (1) US10885356B2 (ja)
JP (1) JP6673181B2 (ja)
DE (1) DE112017006366T5 (ja)
WO (1) WO2018116686A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7221669B2 (ja) * 2018-12-04 2023-02-14 株式会社デンソー 駐車支援装置
US20220080902A1 (en) 2019-01-23 2022-03-17 Sony Semiconductor Solutions Corporation Vehicle-mounted camera
CN111845716B (zh) * 2019-04-26 2024-04-05 现代摩比斯株式会社 停车辅助装置和方法、及车辆
KR20210008259A (ko) * 2019-07-12 2021-01-21 현대자동차주식회사 주차 제어 장치, 그를 포함한 시스템 및 그 방법
DE102019216363A1 (de) * 2019-10-24 2021-04-29 Robert Bosch Gmbh Verfahren zum Bereitstellen eines Signals zur Ansteuerung eines zumindest teilautomatisierten Fahrzeugs
JP7467202B2 (ja) * 2020-03-31 2024-04-15 本田技研工業株式会社 駐車支援システム
JP2023048457A (ja) * 2021-09-28 2023-04-07 トヨタ自動車株式会社 駐車支援装置
GB2617838B (en) * 2022-04-19 2024-04-10 Aptiv Tech Ltd Method of determining parking area layout

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63191987A (ja) * 1987-02-04 1988-08-09 Daihatsu Motor Co Ltd 車庫入れ・縦列駐車ガイド装置
JP3804161B2 (ja) * 1997-03-25 2006-08-02 日産自動車株式会社 自動駐車装置および駐車誘導装置
JP2002243857A (ja) * 2001-02-14 2002-08-28 Nissan Motor Co Ltd 周囲物体認識装置
JP4179285B2 (ja) * 2005-01-12 2008-11-12 トヨタ自動車株式会社 駐車支援装置
JP2007290433A (ja) 2006-04-21 2007-11-08 Denso Corp 駐車支援システム
JP4613881B2 (ja) 2006-05-31 2011-01-19 アイシン・エィ・ダブリュ株式会社 駐車案内装置
CN101573257B (zh) 2006-12-28 2011-08-10 株式会社丰田自动织机 停车辅助装置及方法、行车参数的计算方法及装置
JP2010202018A (ja) 2009-03-03 2010-09-16 Alpine Electronics Inc 運転支援装置、駐車向き提示方法、駐車向き提示プログラム
JP5644200B2 (ja) * 2010-06-16 2014-12-24 日産自動車株式会社 駐車支援システム
JP2014031104A (ja) 2012-08-03 2014-02-20 Denso Corp 駐車状態検出装置、図形コード配置方法、および駐車場
JP6473571B2 (ja) * 2014-03-24 2019-02-20 アルパイン株式会社 Ttc計測装置およびttc計測プログラム
JP2016101778A (ja) * 2014-11-27 2016-06-02 パナソニックIpマネジメント株式会社 駐車支援装置
KR102267562B1 (ko) * 2015-04-16 2021-06-22 한국전자통신연구원 무인자동주차 기능 지원을 위한 장애물 및 주차구획 인식 장치 및 그 방법

Also Published As

Publication number Publication date
WO2018116686A1 (ja) 2018-06-28
US10885356B2 (en) 2021-01-05
JP2018099935A (ja) 2018-06-28
US20190303691A1 (en) 2019-10-03
DE112017006366T5 (de) 2019-09-26

Similar Documents

Publication Publication Date Title
JP6673181B2 (ja) 駐車支援装置およびその制御部
EP3867118B1 (en) Lidar-based trailer tracking
CN108146503B (zh) 车辆防撞
WO2018198574A1 (ja) 障害物検知装置
US20180101720A1 (en) Systems and methods for free space inference to break apart clustered objects in vehicle perception systems
US20150149076A1 (en) Method for Determining a Course of a Traffic Lane for a Vehicle
US20200014898A1 (en) Image processing apparatus, and image processing method
US11433886B2 (en) System, vehicle and method for adapting a driving condition of a vehicle upon detecting an event in an environment of the vehicle
CN102673560A (zh) 识别拐弯机动的方法和驾驶员辅助系统
JP2019159427A (ja) 車両制御装置、車両制御方法、およびプログラム
WO2019187716A1 (ja) 駐車支援装置
KR20170000569A (ko) 차량의 충돌 감지 방법
JP2018106479A (ja) 駐車制御装置、プログラム、および記録媒体
WO2019151156A1 (ja) 物体検知装置および駐車支援装置
EP3771620B1 (en) Parking assistance device and control method of parking assistance device
JP6355161B2 (ja) 車両用撮像装置
JP6579144B2 (ja) 障害物検知装置
US20210370919A1 (en) Information processing device and information processing method
JP2019096161A (ja) 車両制御装置、車両制御方法、およびプログラム
US20230227027A1 (en) Vehicle and control method thereof
CN110789519B (zh) 交通工具停放位置的获取方法、装置、设备和存储介质
US20230228592A1 (en) System and Method for Updating High-Definition Maps for Autonomous Driving
US20230060112A1 (en) Drive assist apparatus
CN115771505A (zh) 用于运行具有挂车的牵引车的方法、设备和存储介质
CN114830206A (zh) 驾驶辅助装置以及驾驶辅助程序

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190118

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200217

R150 Certificate of patent or registration of utility model

Ref document number: 6673181

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250