JP2023038220A - Posture estimation device, control method, program and storage medium - Google Patents
Posture estimation device, control method, program and storage medium Download PDFInfo
- Publication number
- JP2023038220A JP2023038220A JP2022209722A JP2022209722A JP2023038220A JP 2023038220 A JP2023038220 A JP 2023038220A JP 2022209722 A JP2022209722 A JP 2022209722A JP 2022209722 A JP2022209722 A JP 2022209722A JP 2023038220 A JP2023038220 A JP 2023038220A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- rider
- point group
- angle
- line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title description 41
- 238000005259 measurement Methods 0.000 claims abstract description 112
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000001514 detection method Methods 0.000 description 70
- 241001125929 Trisopterus luscus Species 0.000 description 24
- 238000012545 processing Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 16
- 238000009434 installation Methods 0.000 description 13
- 238000012935 Averaging Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 10
- 239000000284 extract Substances 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 8
- 238000012986 modification Methods 0.000 description 8
- 230000004048 modification Effects 0.000 description 8
- 240000004050 Pentaglottis sempervirens Species 0.000 description 6
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000005192 partition Methods 0.000 description 3
- 238000000611 regression analysis Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000007717 exclusion Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000013316 zoning Methods 0.000 description 1
Images
Landscapes
- Navigation (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、計測装置の姿勢を推定する技術に関する。 The present invention relates to technology for estimating the orientation of a measuring device.
従来から、レーダやカメラなどの計測装置の計測データに基づいて、自車位置推定などを行う技術が知られている。例えば、特許文献1には、計測センサの出力と、予め地図上に登録された地物の位置情報とを照合させることで自己位置を推定する技術が開示されている。また、特許文献2には、カルマンフィルタを用いた自車位置推定技術が開示されている。
2. Description of the Related Art Conventionally, there has been known a technique for estimating a position of a vehicle based on measurement data from measurement devices such as radar and cameras. For example,
計測装置から得られるデータは、計測装置を基準とした座標系の値であり、車両に対する計測装置の姿勢等に依存したデータとなっているため、車両を基準とした座標系の値に変換する必要がある。従って、計測装置の姿勢にずれが生じた場合には、そのずれを的確に検知して計測装置のデータに反映させたり、計測装置の姿勢を修正したりする必要がある。 The data obtained from the measuring device is the value of the coordinate system with the measuring device as the reference, and it depends on the attitude of the measuring device with respect to the vehicle. There is a need. Therefore, when the posture of the measuring device deviates, it is necessary to accurately detect the deviation and reflect it in the data of the measuring device or to correct the posture of the measuring device.
本発明は、上記のような課題を解決するためになされたものであり、移動体に取り付けられた計測装置の移動体への取り付け姿勢を好適に推定可能な姿勢推定装置を提供することを主な目的とする。 SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problems, and is primarily to provide a posture estimation device capable of suitably estimating the mounting posture of a measuring device attached to a moving body. purpose.
請求項に記載の発明は、姿勢推定装置であって、被計測面が移動体が走行する走行路面と平行であって前記走行路面に沿って形成された地物を、前記移動体に取り付けられた計測装置により計測した計測点群を取得する取得手段と、前記計測点群に基づき、前記移動体の走行方向に沿った前記被計測面上の線を算出する算出手段と、前記計測装置が基準とする方向に対する前記線の方向に基づき、前記計測装置の前記移動体への取り付け姿勢を推定する推定手段と、を有する。 According to a claim of the invention, there is provided a posture estimating apparatus in which a feature whose surface to be measured is parallel to a road surface on which a mobile object travels and which is formed along the road surface is attached to the mobile object. Acquisition means for acquiring a measurement point group measured by a measurement device, calculation means for calculating a line on the surface to be measured along the traveling direction of the moving body based on the measurement point group, and the measurement device an estimating means for estimating the attachment posture of the measuring device to the moving body based on the direction of the line with respect to the reference direction.
また、請求項に記載の発明は、姿勢推定装置が実行する制御方法であって、被計測面が移動体が走行する走行路面と平行であって前記走行路面に沿って形成された地物を、前記移動体に取り付けられた計測装置により計測した計測点群を取得する取得工程と、前記計測点群に基づき、前記移動体の走行方向に沿った前記被計測面上の線を算出する算出工程と、前記計測装置が基準とする方向に対する前記線の方向に基づき、前記計測装置の前記移動体への取り付け姿勢を推定する推定工程と、を有する。 Further, the claimed invention is a control method executed by a posture estimating device, wherein a surface to be measured is parallel to a road surface on which a moving body travels, and a feature formed along the road surface is detected. an acquisition step of acquiring a measurement point group measured by a measuring device attached to the moving body; and a calculation of calculating a line on the surface to be measured along the traveling direction of the moving body based on the measurement point group. and an estimating step of estimating the attachment posture of the measuring device to the moving object based on the direction of the line with respect to the direction that the measuring device uses as a reference.
また、請求項に記載の発明は、コンピュータが実行するプログラムであって、被計測面が移動体が走行する走行路面と平行であって前記走行路面に沿って形成された地物を、前記移動体に取り付けられた計測装置により計測した計測点群を取得する取得手段と、前記計測点群に基づき、前記移動体の走行方向に沿った前記被計測面上の線を算出する算出手段と、前記計測装置が基準とする方向に対する前記線の方向に基づき、前記計測装置の前記移動体への取り付け姿勢を推定する推定手段として前記コンピュータを機能させる。 Further, the invention as claimed in claims is a program executed by a computer, wherein a surface to be measured is parallel to a road surface on which a mobile body travels and is formed along the road surface. Acquisition means for acquiring a measurement point group measured by a measurement device attached to a body; calculation means for calculating a line on the surface to be measured along the running direction of the moving body based on the measurement point group; The computer is caused to function as estimation means for estimating the attachment posture of the measuring device to the moving body based on the direction of the line with respect to the direction used as a reference by the measuring device.
本発明の好適な実施形態によれば、姿勢推定装置は、被計測面が移動体が走行する走行路面と平行であって前記走行路面に沿って形成された地物を、前記移動体に取り付けられた計測装置により計測した計測点群を取得する取得手段と、前記計測点群に基づき、前記移動体の走行方向に沿った前記被計測面上の線を算出する算出手段と、前記計測装置が基準とする方向に対する前記線の方向に基づき、前記計測装置の前記移動体への取り付け姿勢を推定する推定手段と、を有する。姿勢推定装置は、この態様により、被計測面が移動体が走行する走行路面と平行であって走行路面に沿って形成された地物を基準として、計測装置の移動体への取り付け姿勢を好適に推定することができる。 According to a preferred embodiment of the present invention, the posture estimating apparatus attaches to the moving object a feature whose surface to be measured is parallel to a road surface on which the moving object travels and which is formed along the road surface. Acquisition means for acquiring a measurement point group measured by the measuring device, calculation means for calculating a line on the surface to be measured along the traveling direction of the moving body based on the measurement point group, and the measurement device an estimating means for estimating the attachment posture of the measuring device to the moving object based on the direction of the line with respect to the reference direction. According to this aspect, the posture estimation device uses as a reference the feature whose surface to be measured is parallel to the road surface on which the mobile body travels and which is formed along the road surface, so that the mounting posture of the measuring device to the mobile body is suitable. can be estimated to
上記姿勢推定装置の一態様では、前記取得手段は、前記地物に関する地物情報に基づき前記地物の位置を認識することで、当該位置において前記計測装置が計測した計測点群を前記地物の計測点群として取得する。姿勢推定装置は、この態様により、移動体の走行路に沿った鉛直面又は走行路の幅方向に沿った鉛直面を有する地物の位置を把握して当該地物の計測点群を好適に取得することができる。 In one aspect of the posture estimation device, the acquisition means recognizes the position of the feature based on the feature information about the feature, so that the measurement point group measured by the measuring device at the position is obtained from the feature. obtained as a measurement point cloud of According to this aspect, the attitude estimation device grasps the position of a feature having a vertical plane along the travel path of the moving object or a vertical plane along the width direction of the travel path, and suitably obtains a measurement point cloud of the feature. can be obtained.
上記姿勢推定装置の他の一態様では、前記推定手段は、前記線と前記計測装置におけるヨー方向の基準線とのなす角に基づき、前記計測装置のヨー方向の姿勢を推定する。姿勢推定装置は、この態様により、計測装置のヨー方向の姿勢を好適に推定することができる。 In another aspect of the posture estimation device, the estimation means estimates the posture of the measurement device in the yaw direction based on an angle between the line and a reference line in the yaw direction of the measurement device. With this aspect, the posture estimation device can preferably estimate the posture of the measurement device in the yaw direction.
上記姿勢推定装置の他の一態様では、前記推定手段は、異なる前記計測点群に基づき前記算出手段が算出した複数の前記線と前記基準線とのなす角を平均化することで、前記計測装置のヨー方向の姿勢を推定する。姿勢推定装置は、この態様により、計測装置のヨー方向の姿勢をより的確に推定することができる。 In another aspect of the posture estimating apparatus, the estimating means averages angles formed between the reference line and the plurality of lines calculated by the calculating means based on the different measurement point groups, so that the measured Estimate the yaw attitude of the device. With this aspect, the posture estimation device can more accurately estimate the posture of the measurement device in the yaw direction.
上記姿勢推定装置の他の一態様では、前記算出手段は、前記計測点群に基づき、前記移動体の走行方向に沿った前記被計測面上の複数の点を算出し、当該複数の点から前記線を算出し、前記推定手段は、異なる前記計測点群に基づき前記算出手段が算出した複数の前記線と前記基準線とのなす角を、当該線の各々の算出に用いた前記点の数に基づき平均化することで、前記計測装置のヨー方向の姿勢を推定する。この態様では、姿勢推定装置は、算出した線の各々の精度を好適に考慮した重み付けにより、計測装置のヨー方向の姿勢をより的確に推定することができる。 In another aspect of the posture estimation device, the calculation means calculates a plurality of points on the surface to be measured along the traveling direction of the moving object based on the measured point group, and from the plurality of points, The line is calculated, and the estimating means calculates the angles formed by the reference line and the plurality of lines calculated by the calculating means based on the different measurement point groups, of the points used to calculate each of the lines. The yaw orientation of the measuring device is estimated by averaging based on the numbers. In this aspect, the posture estimating device can more accurately estimate the yaw direction posture of the measuring device by appropriately weighting the calculated lines in consideration of the accuracy of each line.
好適な例では、前記地物は、前記走行路に設けられた区画線又は縁石であるとよい。また、他の好適な例では、前記計測装置は、光を走査する光走査装置であるとよい。 In a preferred example, the features may be marking lines or curbs provided on the travel path. In another preferred example, the measuring device may be an optical scanning device that scans light.
上記姿勢推定装置の他の一態様では、前記基準とする方向は、前記取り付け姿勢のずれが生じていない場合に前記計測装置の座標系において前記移動体の走行方向とみなされる方向であり、前記取り付け姿勢のずれが生じた場合に、当該ずれに応じて前記移動体の走行方向と異なる方向を示す。姿勢推定装置は、この態様により、算出した被計測面上の線に対する基準とする方向のずれに基づき、計測装置の移動体への取り付け姿勢を好適に推定することができる。 In another aspect of the posture estimating device, the reference direction is a direction regarded as a running direction of the moving body in the coordinate system of the measuring device when the mounting posture does not deviate, and When there is a deviation in the mounting posture, a direction different from the running direction of the moving body is indicated according to the deviation. According to this aspect, the attitude estimation device can preferably estimate the attachment attitude of the measuring device to the moving object based on the calculated deviation of the reference direction with respect to the line on the measurement target surface.
本発明の他の好適な実施形態によれば、姿勢推定装置が実行する制御方法であって、被計測面が移動体が走行する走行路面と平行であって前記走行路面に沿って形成された地物を、前記移動体に取り付けられた計測装置により計測した計測点群を取得する取得工程と、前記計測点群に基づき、前記移動体の走行方向に沿った前記被計測面上の線を算出する算出工程と、前記計測装置が基準とする方向に対する前記線の方向に基づき、前記計測装置の前記移動体への取り付け姿勢を推定する推定工程と、を有する。姿勢推定装置は、この制御方法を実行することで、計測装置の移動体への取り付け姿勢を好適に推定することができる。 According to another preferred embodiment of the present invention, there is provided a control method executed by a posture estimating device, in which the surface to be measured is parallel to and formed along the road surface on which the moving body travels. an acquiring step of acquiring a measurement point group obtained by measuring a feature with a measuring device attached to the moving body; and obtaining a line on the measurement surface along the running direction of the moving body based on the measurement point group. and an estimating step of estimating the attachment posture of the measuring device to the moving body based on the direction of the line with respect to the direction that the measuring device uses as a reference. By executing this control method, the attitude estimation device can suitably estimate the mounting attitude of the measuring device to the moving body.
本発明の他の好適な実施形態によれば、コンピュータが実行するプログラムであって、被計測面が移動体が走行する走行路面と平行であって前記走行路面に沿って形成された地物を、前記移動体に取り付けられた計測装置により計測した計測点群を取得する取得手段と、前記計測点群に基づき、前記移動体の走行方向に沿った前記被計測面上の線を算出する算出手段と、前記計測装置が基準とする方向に対する前記線の方向に基づき、前記計測装置の前記移動体への取り付け姿勢を推定する推定手段として前記コンピュータを機能させる。コンピュータは、このプログラムを実行することで、計測装置の移動体への取り付け姿勢を好適に推定することができる。好適には、上記プログラムは、記憶媒体に記憶される。 According to another preferred embodiment of the present invention, there is provided a program executed by a computer, wherein a surface to be measured is parallel to a road surface on which a moving object travels, and a feature formed along the road surface is measured. an acquisition means for acquiring a measurement point group measured by a measuring device attached to the moving body; and a calculation for calculating a line on the surface to be measured along the running direction of the moving body based on the measurement point group. and the computer functions as estimation means for estimating the attachment posture of the measuring device to the moving object based on the direction of the line with respect to the direction that the measuring device uses as a reference. By executing this program, the computer can suitably estimate the attachment attitude of the measuring device to the moving object. Preferably, the program is stored in a storage medium.
以下、図面を参照して本発明の好適な各実施例について説明する。 Preferred embodiments of the present invention will be described below with reference to the drawings.
[概略構成]
図1は、本実施例に係る車両システムの概略構成図である。図1に示す車両システムは、車両の運転支援に関する制御を行う車載機1と、ライダ(Lidar:Light Detection and Ranging、または、Laser Illuminated Detection And Ranging)2、ジャイロセンサ3、加速度センサ4、及びGPS受信機5などのセンサ群とを有する。
[Outline configuration]
FIG. 1 is a schematic configuration diagram of a vehicle system according to this embodiment. The vehicle system shown in FIG. 1 includes an in-
車載機1は、ライダ2、ジャイロセンサ3、加速度センサ4、及びGPS受信機5などのセンサ群と電気的に接続し、これらの出力データを取得する。また、道路データ及び道路付近に設けられた地物に関する地物情報などを記憶した地図データベース(DB:DataBase)10を記憶している。そして、車載機1は、上述の出力データ及び地図DB10に基づき、車両の位置の推定を行い、位置推定結果に基づいた自動運転制御などの車両の運転支援に関する制御などを行う。また、車載機1は、ライダ2の出力などに基づいて、ライダ2の姿勢の推定を行う。そして、車載機1は、この推定結果に基づいて、ライダ2が出力する点群データの各計測値を補正する処理などを行う。車載機1は、本発明における「姿勢推定装置」の一例である。
The in-
ライダ2は、水平方向および垂直方向の所定の角度範囲に対してパルスレーザを出射することで、外界に存在する物体までの距離を離散的に測定し、当該物体の位置を示す3次元の点群情報を生成する。この場合、ライダ2は、照射方向を変えながらレーザ光を照射する照射部と、照射したレーザ光の反射光(散乱光)を受光する受光部と、受光部が出力する受光信号に基づくスキャンデータを出力する出力部とを有する。スキャンデータは、受光部が受光したレーザ光に対応する照射方向と、上述の受光信号に基づき特定される当該レーザ光のその照射方向での物体までの距離とに基づき生成され、車載機1へ供給される。ライダ2は、本発明における「計測装置」の一例である。
The
図2は、車載機1の機能的構成を示すブロック図である。車載機1は、主に、インターフェース11と、記憶部12と、入力部14と、制御部15と、情報出力部16と、を有する。これらの各要素は、バスラインを介して相互に接続されている。
FIG. 2 is a block diagram showing the functional configuration of the vehicle-mounted
インターフェース11は、ライダ2、ジャイロセンサ3、加速度センサ4、及びGPS受信機5などのセンサから出力データを取得し、制御部15へ供給する。また、インターフェース11は、制御部15が生成した車両の走行制御に関する信号を車両の電子制御装置(ECU:Electronic Control Unit)へ供給する。
The
記憶部12は、制御部15が実行するプログラムや、制御部15が所定の処理を実行するのに必要な情報を記憶する。本実施例では、記憶部12は、地図DB10と、ライダ設置情報ILとを有する。地図DB10は、例えば、道路データ、施設データ、及び、道路周辺の地物データなどを含むデータベースである。道路データには、経路探索用の車線ネットワークデータ、道路形状データ、交通法規データなどが含まれる。地物データは、道路標識等の看板や停止線等の道路標示、白線等の道路区画線や道路沿いの構造物等の情報(例えば位置情報及び種別情報)を含む。また、地物データは、自車位置推定に用いるための地物の高精度な点群情報などを含んでもよい。その他、地図DBには、位置推定に必要な種々のデータが記憶されてもよい。
The
ライダ設置情報ILは、ある基準時(例えばライダ2のアライメント調整直後などの姿勢ずれが生じていない時)におけるライダ2の車両に対する相対的な姿勢及び位置に関する情報である。本実施例では、ライダ2等の姿勢を、ロール角、ピッチ角、ヨー角(即ちオイラー角)により表すものとする。ライダ設置情報ILは、後述するライダ2の姿勢の推定処理が実行された場合に、推定結果に基づき更新されてもよい。
The rider installation information IL is information about the relative attitude and position of the
入力部14は、ユーザが操作するためのボタン、タッチパネル、リモートコントローラ、音声入力装置等であり、経路探索のための目的地を指定する入力、自動運転のオン及びオフを指定する入力などを受け付ける。情報出力部16は、例えば、制御部15の制御に基づき出力を行うディスプレイやスピーカ等である。
The
制御部15は、プログラムを実行するCPUなどを含み、車載機1の全体を制御する。制御部15は、インターフェース11から供給される各センサの出力信号及び地図DB10に基づき、自車位置の推定を行い、自車位置の推定結果に基づいて自動運転制御を含む車両の運転支援に関する制御などを行う。このとき、制御部15は、ライダ2の出力データを用いる場合には、ライダ2が出力する計測データを、ライダ設置情報ILに記録されたライダ2の設置情報に含まれる姿勢及び位置を基準として、ライダ2を基準とした座標系から車両を基準とした座標系(以下「基準座標系」)に変換する。さらに、本実施例では、制御部15は、車両に対するライダ2の現在(即ち処理基準時)の姿勢を推定することで、ライダ設置情報ILに記録された姿勢に対する変化量を算出し、当該変化量に基づきライダ2が出力する計測データを補正する。これにより、制御部15は、ライダ2の姿勢にずれが生じた場合であっても、当該ずれの影響を受けないようにライダ2が出力する計測データを補正する。制御部15は、本発明におけるプログラムを実行する「コンピュータ」の一例である。
The
[座標系の変換]
ライダ2により取得される3次元点群データの各計測点が示す3次元座標は、ライダ2の位置及び姿勢を基準とした座標系(「ライダ座標系」とも呼ぶ。)で表されており、車両の位置及び姿勢を基準とした座標系(「車両座標系」とも呼ぶ。)に変換する必要がある。ここでは、ライダ座標系と車両座標系との変換について説明する。
[Coordinate system conversion]
The three-dimensional coordinates indicated by each measurement point of the three-dimensional point cloud data acquired by the
図3は、2次元座標により表された車両座標系とライダ座標系との関係を示す図である。ここでは、車両座標系は、車両の中心を原点とし、車両の進行方向に沿った座標軸「xb」と車両の側面方向に沿った座標軸「yb」を有する。また、ライダ座標系は、ライダ2の正面方向(矢印A2参照)に沿った座標軸「xL」とライダ2の側面方向に沿った座標軸「yL」を有する。
FIG. 3 is a diagram showing the relationship between the vehicle coordinate system and the rider coordinate system represented by two-dimensional coordinates. Here, the vehicle coordinate system has the center of the vehicle as the origin, and has a coordinate axis " xb " along the traveling direction of the vehicle and a coordinate axis " yb " along the lateral direction of the vehicle. The lidar coordinate system also has a coordinate axis “x L ” along the front direction of the rider 2 (see arrow A2) and a coordinate axis “y L ” along the lateral direction of the
ここで、車両座標系に対するライダ2のヨー角を「Lψ」、ライダ2の位置を[Lx、Ly]Tとした場合、車両座標系から見た時刻「k」の計測点[xb(k)、yb(k)]Tは、回転行列「Cψ」を用いた以下の式(1)によりライダ座標系の座標[xL(k)、yL(k)]Tへ変換される。
Here, when the yaw angle of the
車両座標系に対するライダ2のロール角を「Lφ」、ピッチ角を「Lθ」、ヨー角を「Lψ」とし、ライダ2の座標軸xbにおける位置が「Lx」、座標軸ybにおける位置が「Ly」、座標軸zbにおける位置が「Lz」とした場合、車両座標系から見た時刻「k」の計測点[xb(k)、yb(k)、zb(k)]Tは、ロール、ピッチ、ヨーに対応する各回転行列「Cφ」、「Cθ」、「Cψ」により表される方向余弦行列「C」を用いた以下の式(3)により、ライダ座標系の座標[xL(k)、yL(k)、zL(k)]Tへ変換される。
The roll angle of the
[ロール角の推定]
まず、ライダ2のロール角Lφの推定方法について説明する。車載機1は、走行路の進行方向に対して垂直面(即ち走行路に対して正面)を有する方形(矩形)状の道路標識を、ライダ2により検出すべき対象となる地物(「検出対象地物Ftag」とも呼ぶ。)とみなし、当該道路標識の傾きをライダ2が計測する計測点群に基づき算出することで、ライダ2のロール角Lφを推定する。
[Estimation of roll angle]
First, a method for estimating the roll angle Lφ of the
図5は、ライダ2のロール角を推定する際の検出対象地物Ftagとなる道路標識22付近に車両が走行する場合の車両周辺の俯瞰図を示す。図5において、破線円20は、ライダ2により地物を検出可能な範囲(「ライダ検出範囲」とも呼ぶ。)を示し、破線枠21は、検出対象地物Ftagである道路標識22を検出するための検出ウィンドウを示す。
FIG. 5 shows a bird's-eye view of the surroundings of the vehicle when the vehicle runs near the
この場合、車載機1は、地図DB10を参照することで、走行路の進行方向に対して垂直面を有する方形状の道路標識22がライダ検出範囲内に存在することを認識し、当該道路標識22に関する地物データに基づき破線枠21に示す検出ウィンドウを設定する。この場合、車載機1は、例えば、検出対象地物Ftagとなる道路標識の種別情報などを予め記憶しておき、当該種別情報が示す種別の道路標識がライダ検出範囲内に存在するか否かを地図DB10の地物データを参照して判定する。なお、地図DB10の地物データに地物の大きさ又は/及び形状の情報が含まれている場合には、車載機1は、検出対象地物Ftagとなる道路標識22の大きさ又は/及び形状の情報に基づき検出ウィンドウの大きさ又は/及び形状を決定してもよい。そして、車載機1は、ライダ2が計測する計測点群のうち、設定した検出ウィンドウ内に存在する計測点群(「対象計測点群Ptag」とも呼ぶ。)を、道路標識22の計測点群として抽出する。
In this case, the vehicle-mounted
図6(A)~(C)は、道路標識22の被計測面を正面視した場合の対象計測点群Ptagとライダ2によるレーザ光の走査線23(即ち、レーザ光の被照射点を時系列に結ぶ線)との位置関係を示す。なお、説明を容易にするため,ライダ2の初期姿勢角Lφ,Lθ,LΨが0度である場合を例にとっている。ここで、図6(A)は、ライダ2にロール方向のずれが生じていない場合の対象計測点群Ptagとライダ2の走査線23との関係を示し、図6(B)、(C)は、ロール方向のずれΔLφが生じている場合の対象計測点群Ptagとライダ2の走査線23との関係を示す。ここで、図6(B)は、車両座標系のyb-zb平面内における対象計測点群Ptagとライダ2の走査線23との関係を示し、図6(C)は、基準座標系のyb‘-zb‘平面内における対象計測点群Ptagとライダ2の走査線23との関係を示す。なお、ここでは、説明便宜上、ライダ2の姿勢ずれが生じていないときには、道路標識22の長手方向はyb軸と平行であるものとし、車両は平坦な道路上に存在しているものとする。
6A to 6C show target measurement point group Ptag and scanning
図6(A)に示すように、ライダ2のロール角にずれが生じていない場合には、ライダ2は、道路標識22の横方向(即ち水平方向又は長手方向)と平行にスキャンを行う。そして、この場合、対象計測点群Ptagの縦方向における点群の数は、横方向における位置に関わらず同じ数(図6(A)では6個)となる。
As shown in FIG. 6A, when there is no shift in the roll angle of the
一方、ライダ2のロール角にずれが生じている場合には、道路標識22に対して走査線が斜めに傾いている。ここで、道路標識22の長手方向は車両に対して傾いておらず、ライダ2の走査線が車両に対して傾いているため、車両座標系で観察した場合には、図6(B)に示すように、yb軸と道路標識22の長手方向とが平行となり、ライダ2の走査線がyb軸に対して傾く。一方、基準座標系で観察した場合には、図6(C)に示すように、yb‘軸とライダ2の走査線とが平行となり、道路標識22の長手方向がyb‘軸に対して傾く。
On the other hand, when the roll angle of the
次に、対象計測点群Ptagの抽出後の処理について説明する。まず、車載機1は、対象計測点群Ptagの各計測点に対する受光強度を所定の閾値により判定することで、所定の閾値以下となる受光強度に対応する計測点を対象計測点群Ptagから除外する。そして、車載機1は、受光強度に基づく除外処理後の対象計測点群Ptagから、外縁を構成する点群(「外縁点群Pout」とも呼ぶ。)を抽出する。例えば、車載機1は、上下左右の少なくとも一方向において、隣接する計測点が存在しない対象計測点群Ptagの計測点を、外縁点群Poutとして抽出する。
Next, processing after extraction of the target measurement point group Ptag will be described. First, the in-
図7(A)は、ライダ座標系における対象計測点群Ptagを示し、図7(B)は、所定の閾値以下となる受光強度に対応する計測点を除外した後の対象計測点群Ptagを示す。また、図7(C)は、図7(B)に示す対象計測点群Ptagから抽出した外縁点群Poutを示す。図7(A)、(B)に示すように、図7(A)に示す計測点のうち、レーザ光の一部のみが反射したことにより一部が欠けている計測点については、受光強度が所定の閾値以下となり、対象計測点群Ptagから除外されている。また、図7(B)、(C)に示すように、上下左右の少なくとも一方向において隣接する計測点が存在しない計測点が外縁点群Poutとして抽出されている。 FIG. 7A shows the target measurement point group Ptag in the lidar coordinate system, and FIG. 7B shows the target measurement point group Ptag after excluding measurement points corresponding to received light intensities equal to or lower than a predetermined threshold. show. FIG. 7(C) shows the outer edge point group Pout extracted from the target measurement point group Ptag shown in FIG. 7(B). As shown in FIGS. 7A and 7B, of the measurement points shown in FIG. 7A, the received light intensity is is equal to or less than a predetermined threshold, and is excluded from the target measurement point group Ptag. In addition, as shown in FIGS. 7B and 7C, measurement points that do not have adjacent measurement points in at least one of the vertical and horizontal directions are extracted as the outer edge point group Pout.
次に、車載機1は、外縁点群Poutから道路標識22の長手方向の傾きを算出する。ここで、外縁点群Poutは四角形を形成することから、この四角形のそれぞれの辺ごとに外縁点群Poutを分類し、辺ごとに分類した外縁点群Poutから、最小二乗法などの回帰分析手法により各辺の近似直線の傾きを算出する。
Next, the in-
図8(A)は、四角形の上辺を形成する外縁点群Poutを抽出し,最小2乗法で直線を引いた図を示す。図8(B)は、四角形の底辺を形成する外縁点群Poutを抽出し,最小2乗法で直線を引いた図を示す。図8(C)は、四角形の左辺を形成する外縁点群Poutを抽出し,最小2乗法で直線を引いた図を示す。図8(D)は、四角形の右辺を形成する外縁点群Poutを抽出し,最小2乗法で直線を引いた図を示す。 FIG. 8(A) shows a diagram obtained by extracting the outer edge point group Pout forming the upper side of the quadrangle and drawing a straight line by the method of least squares. FIG. 8B shows a diagram in which the outer edge point group Pout forming the base of the quadrangle is extracted and a straight line is drawn by the method of least squares. FIG. 8(C) shows a diagram obtained by extracting the outer edge point group Pout forming the left side of the quadrangle and drawing a straight line by the method of least squares. FIG. 8(D) shows a diagram in which the outer edge point group Pout forming the right side of the quadrangle is extracted and a straight line is drawn by the method of least squares.
この場合、車載機1は、図8(A)~(D)に示される各直線を算出し、各直線のyb‘軸に対する傾き「φ1」~「φ4」を算出する。そして、車載機1は、以下の式(5)に示すように、これらの傾き「φ1」~「φ4」の平均を、道路標識22の傾き「φ」として算出する。
In this case, the vehicle-mounted
なお、好適には、車載機1は、傾きφを求める場合、四角形の各辺を構成する外縁点群Poutの数に基づき、各傾きφ1~φ4に重み付けをしてもよい。この場合、四角形の上辺を形成する外縁点群Poutの数を「n1」、四角形の底辺を形成する外縁点群Poutの数を「n2」、四角形の左辺を形成する外縁点群Poutの数を「n3」、四角形の右辺を形成する外縁点群Poutの数を「n4」とすると、車載機1は、以下の式(6)に基づき重み付け平均を行うことで、傾きφを算出する。
Preferably, when obtaining the inclination φ, the in-
好適には、検出対象地物Ftagである道路標識22が水平方向に対して傾いている可能性や計測誤差等を勘案し、車載機1は、上記のライダ2のロール角Lφの算出を、検出対象地物Ftagとなる多くの道路標識に対して実施し、それらを平均化するとよい。これにより、車載機1は、確からしいライダ2のロール方向の傾きLφを好適に算出することができる。
Preferably, considering the possibility that the
また、車体のロール角φ0は平均すると0°と見なせるため,上述の平均化の時間を長くすることにより、車体のロール角度φ0を取得する必要がなくなる。例えば、十分大きいN個分の傾きφを取得した場合、車載機1は、ライダ2のロール角Lφを、以下の式(10)により定めてもよい。
In addition, since the roll angle φ 0 of the vehicle body can be regarded as 0° on average, it becomes unnecessary to obtain the roll angle φ 0 of the vehicle body by lengthening the above-described averaging time. For example, when obtaining N sufficiently large inclinations φ, the vehicle-mounted
図9は、ロール角推定処理の手順を示すフローチャートである。 FIG. 9 is a flowchart showing the procedure of roll angle estimation processing.
まず、車載機1は、地図DB10を参照し、車両周辺の検出対象地物Ftagに対して検出ウィンドウを設定する(ステップS101)。この場合、車載機1は、検出対象地物Ftagとして、走行路の進行方向に対して垂直面を有する方形状の道路標識を選定し、現在位置から所定距離以内に存在する上述の道路標識を地図DB10から特定する。そして、車載機1は、特定した道路標識に関する位置情報等を地図DB10から取得することで、検出ウィンドウを設定する。
First, the in-
次に、車載機1は、ステップS101で設定した検出ウィンドウ内のライダ2の計測点群を、検出対象地物Ftagの点群(即ち対象計測点群Ptag)として取得する(ステップS102)。そして、車載機1は、ステップS102で取得した対象計測点群Ptagから、これらの点群の外縁を形成する外縁点群Poutを抽出する(ステップS103)。
Next, the in-
そして、車載機1は、ステップS103で抽出した外縁点群Poutの横方向の傾きφを算出する(ステップS104)。この場合、車載機1は、図8(A)~(D)において説明したように、外縁点群Poutが形成する四角形の各辺に該当する点群から各辺に対応する直線の傾きφ1~φ4を求め、式(5)~(8)のいずれかの式を採用して傾きφを算出する。
Then, the in-
その後、車載機1は、傾きφの平均化処理又は/及び車体のロール角φ0との差分処理により、ライダ2のロール角Lφを算出する(ステップS105)。上述の平均化処理では、車載機1は、ステップS101~S104の処理を複数の検出対象地物Ftagに対して実行することで複数の傾きφを取得し、取得した複数の傾きφの平均値を、傾きLφとして算出する。
After that, the in-
[ピッチ角の推定]
次に、ライダ2のピッチ角Lθの推定方法について説明する。車載機1は、走行路の幅方向に対して垂直面(即ち走行路に対して横向きの面)を有する方形状の道路標識を検出対象地物Ftagとみなし、当該道路標識の傾きをライダ2が出力する計測点群にもとづき算出することで、ライダ2のピッチ角を推定する。
[Estimation of pitch angle]
Next, a method for estimating the pitch angle Lθ of the
図10は、ライダ2のピッチ角を推定する際の検出対象地物Ftagとなる道路標識24付近に車両が走行する場合の車両周辺の俯瞰図を示す。図10において、破線円20は、ライダ2により地物を検出可能なライダ検出範囲を示し、破線枠21は、検出対象地物Ftagである道路標識24に対して設定した検出ウィンドウを示す。
FIG. 10 shows a bird's-eye view of the surroundings of the vehicle when the vehicle runs near the
この場合、車載機1は、地図DB10を参照することで、走行路の幅方向に対して垂直面を有する方形状の道路標識24が破線円20に示されるライダ検出範囲内に存在することを認識し、当該道路標識24に関する位置情報等に基づき破線枠21に示す検出ウィンドウを設定する。この場合、車載機1は、例えば、検出対象地物Ftagとなる道路標識の種別情報などを予め記憶しておき、当該種別情報が示す種別の道路標識がライダ検出範囲内に存在するか否かを地図DB10の地物データを参照して判定する。そして、車載機1は、ライダ2が出力する計測点群のうち、設定した検出ウィンドウ内に存在する計測点群を、対象計測点群Ptagとして抽出する。
In this case, the in-
次に、車載機1は、抽出した対象計測点群Ptagに対して、ロール角の推定方法と同様の処理を実行することで、ライダ2のピッチ角を推定する。
Next, the in-
具体的には、まず、車載機1は、対象計測点群Ptagの各計測点に対する受光強度を所定の閾値により判定することで、所定の閾値以下となる受光強度に対応する計測点を対象計測点群Ptagから除外する。そして、車載機1は、受光強度に基づく除外処理後の対象計測点群Ptagから、外縁を構成する外縁点群Poutを抽出する。次に、車載機1は、外縁点群Poutが構成する四角形の各辺の近似直線の傾き「θ1」~「θ4」を最小二乗法などの回帰分析手法により算出する。そして、車載機1は、傾きθ1~θ4に基づく平均化処理を行うことで、道路標識22の傾き「θ」を算出する。なお、車載機1は、式(6)~(8)と同様、四角形の各辺を構成する点群の数n1~n4と、垂直間隔IV及び水平間隔IHとの少なくとも一方を加味した重み付け平均により傾きθを算出してもよい。
Specifically, first, the in-
また、車載機1は、ジャイロセンサ3及び加速度センサ4の出力に基づき車体のピッチ角「θ0」を算出し、傾きθとの差分をとることで、ライダ2のピッチ角Lθを算出する。この場合、車載機1は、以下の式(11)に基づきライダ2のピッチ方向の傾きLθを算出する。
In addition, the in-
図11は、ピッチ角推定処理の手順を示すフローチャートである。 FIG. 11 is a flowchart showing the procedure of pitch angle estimation processing.
まず、車載機1は、地図DB10を参照し、車両周辺の検出対象地物Ftagに対して検出ウィンドウを設定する(ステップS201)。この場合、車載機1は、検出対象地物Ftagとして、走行路の幅方向に対して垂直面を有する方形状の道路標識を選定し、現在位置から所定距離以内に存在する上述の道路標識を地図DB10から特定する。そして、車載機1は、特定した道路標識に関する位置情報等を地図DB10から取得することで、検出ウィンドウを設定する。
First, the in-
次に、車載機1は、ステップS201で設定した検出ウィンドウ内のライダ2の計測点群を、検出対象地物Ftagの点群(即ち対象計測点群Ptag)として取得する(ステップS202)。そして、車載機1は、ステップS202で取得した検出対象地物Ftagの点群から、これらの点群の外縁を形成する外縁点群Poutを抽出する(ステップS203)。
Next, the in-
そして、車載機1は、ステップS203で抽出した外縁点群Poutの長手方向の傾きθを算出する(ステップS204)。その後、車載機1は、傾きθの平均化処理又は/及び車体のピッチ角θ0との差分処理により、ライダ2のピッチ方向の傾きLθを算出する(ステップS205)。上述の平均化処理では、車載機1は、ステップS201~S204の処理を複数の対象計測点群Ptagに対して実行することで複数の傾きθを算出し、これらの平均値を傾きLθとして算出する。
Then, the in-
[ヨー角の推定]
次に、ライダ2のヨー角Lψの推定方法について説明する。車載機1は、白線などの区画線を検出対象地物Ftagとみなし、区画線の中心線の方向をライダ2が計測する計測点群に基づき算出することで、ライダ2のヨー角Lψを推定する。
[Estimation of Yaw Angle]
Next, a method for estimating the yaw angle L ψ of the
図12は、ライダ2のヨー角を推定する際の検出対象地物Ftagとなる区画線に沿って車両が走行する場合の車両周辺の俯瞰図を示す。この例では、車両の左側に連続する区画線である連続線30が存在し、車両の右側に断続的に存在する区画線である破線31が存在している。また、矢印25は、ライダ2にヨー方向のずれが生じていない場合のヨー方向の基準方向を示し,ライダ2の座標軸「xL」をライダ2のヨー角LΨだけ回転させた向きであり、車両の進行方向に沿った座標軸「xb」と一致する。すなわち、ライダ2のヨー角LΨは、ずれが生じていなければ、車両の走行方向であるとみなすヨー角(「ヨー方向基準角」とも呼ぶ。)を示す。一方、矢印26は、ライダ2にヨー方向のずれがΔLΨ生じた場合のヨー方向基準角を示しており、ヨー方向基準角を修正しないと、車両の走行方向と一致しなくなる。ヨー方向基準角は、例えば予め記憶部12等に記憶されている。
FIG. 12 shows a bird's-eye view of the surroundings of the vehicle when the vehicle travels along the division line that serves as the detection target feature Ftag when estimating the yaw angle of the
この場合、例えば、地図DB10内には、連続線30の離散的な座標位置及び破線31の離散的な座標位置を示す区画線情報が含まれている。そして、車載機1は、この区画線情報を参照し、車両の左前方、左後方、右前方、右後方の各方向において、車両から所定距離(例えば5m)離れた位置から最も近い座標位置を抽出し、抽出した座標位置を中心として矩形領域を、破線枠21A~21Dに示される検出ウィンドウとして設定する。
In this case, for example, the
次に、車載機1は、ライダ2が計測する計測点群から、検出ウィンドウ内において、路面上かつ、所定の閾値以上の反射強度なる点群を、対象計測点群Ptagとして抽出する。そして、車載機1は、走査線ごとの対象計測点群Ptagの中心点を求め、検出ウィンドウごとにこれらの中心点を通る直線(矢印27A~27D参照)を、区画線の中心線として算出する。
Next, the in-
図13(A)は、破線枠21Aの検出ウィンドウにおける中心点を丸印により示した図であり、図13(B)は、破線枠21Bの検出ウィンドウにおける中心点を丸印により示した図である。また、図13(A)、(B)では、ライダ2によるレーザ光の走査線28が明示されている。なお、区画線に入射するライダ2のレーザ光は下斜め方向に射出されているため、走査線は、車両に近づくほど間隔が短くなっている。
FIG. 13A is a diagram showing the center point of the detection window of the dashed
図13(A)、(B)に示すように、車載機1は、各走査線28に対して中心点を算出する。中心点は、計測点が示す座標位置を走査線28ごとに平均した位置であってもよく、各走査線28上の左端及び右端の計測点の中間点であってもよく、各走査線28上の中間に存在する計測点であってもよい。そして、車載機1は、算出した中心点から、最小二乗法などの回帰分析手法により区画線の中心線(矢印27A、27B参照)を検出ウィンドウごとに算出する。
As shown in FIGS. 13A and 13B, the in-
そして、車載機1は、検出ウィンドウごとに算出した区画線の中心線とヨー方向基準角(図12の矢印26参照)とがなす角を、傾き「ψ1」~「ψ4」として算出する。図14(A)~(D)は、傾きψ1~ψ4をそれぞれ示した図である。図14(A)~(D)に示すように、傾きψ1~ψ4は、区画線の中心線を指し示す矢印27A~27Dと、ヨー方向基準角を指し示す矢印26とがなす角に相当する。
Then, the in-
そして、車載機1は、以下の式(13)に示されるように、傾きψ1~ψ4を平均化することで、傾きψを算出する。
Then, the vehicle-mounted
次に、傾きψからライダ2のヨー角Lψを算出する方法について説明する。白線などの区画線は、道路に沿って描かれているため、車体のヨー角はほぼ一定(即ち走行路と平行)とみなすことができる。よって、車載機1は、ロール角やピッチ角の推定方法と異なり、傾きψを、ライダ2のヨー角のずれΔLψ(即ち「ΔLψ=ψ」)として算出する。ただし、通常の走行では、車線変更や、車線内での車体のふらつきが存在する。よって、車載機1は、多くの区画線に対して中心線の傾きを算出する処理を実行し、それを平均化するとよい。これにより、車載機1は、確からしいライダ2のヨー角のずれΔLψを好適に算出することができる。例えば、N個分の傾きψを取得した場合、ライダ2のヨー角Lψは、以下の式(15)により表される。
Next, a method for calculating the yaw angle L ψ of the
図15は、ヨー角推定処理の手順を示すフローチャートである。 FIG. 15 is a flowchart showing the procedure of yaw angle estimation processing.
まず、車載機1は、地図DB10を参照し、区画線に対して1個以上の検出ウィンドウを設定する(ステップS301)。そして、車載機1は、ステップS301で設定した検出ウィンドウ内のライダ2の計測点群を、区画線の点群(即ち対象計測点群Ptag)として取得する(ステップS302)。
First, the in-
そして、車載機1は、設定した各検出ウィンドウ内の区画線の中心線を算出する(ステップS303)。この場合、車載機1は、ライダ2の走査線ごとに対象計測点群Ptagの中心点を求め、中心点から最小二乗法等に基づき検出ウィンドウごとに区画線の中心線を算出する。そして、車載機1は、予め記憶部12等に記憶したヨー角基準角と、区画線の中心線との角度ψを算出する(ステップS304)。この場合、車載機1は、ステップS301において2つ以上の検出ウィンドウを設定した場合には、検出ウィンドウごとにヨー角基準角と区画線の中心線との角度を求め、これらの角度を平均化又は中心点の数により重み付け平均化することで、上述の角度ψを算出する。
Then, the in-
そして、車載機1は、異なる区画線を対象にステップS301~S304を実行することで算出した複数の角度ψを平均化し、式(15)に基づき、ライダ2のヨー角Lψを算出する(ステップS305)。
Then, the in-
ここで、以上説明したロール角、ピッチ角及びヨー角の推定値に基づく処理の具体例について説明する。図16は、ロール角、ピッチ角及びヨー角の推定値に基づく処理の具体例を示すフローチャートである。 Here, a specific example of processing based on the estimated values of the roll angle, pitch angle, and yaw angle described above will be described. FIG. 16 is a flow chart showing a specific example of processing based on the estimated roll angle, pitch angle, and yaw angle.
まず、車載機1は、図9、図11、又は図15のフローチャートの処理を実行することで、ライダ2のロール角Lφ、ピッチ角Lθ、又はヨー角Lψのいずれかを算出したか否か判定する(ステップS401)。そして、車載機1は、ライダ2のロール角Lφ、ピッチ角Lθ、又はヨー角Lψのいずれかを算出した場合(ステップS401;Yes)、算出した角度がライダ設置情報ILに記録された角度から所定角度以上変化しているか否か判定する(ステップS402)。上述の閾値は、後述するステップS404でのライダ2の計測データの補正処理を行うことで引き続きライダ2の計測データを使用できるか否かを判定するための閾値であり、例えば予め実験等に基づき設定される。
First, the in-
そして、車載機1は、算出した角度がライダ設置情報ILに記録された角度から所定角度以上変化している場合(ステップS402;Yes)、対象のライダ2の出力データの使用(即ち障害物検知や自車位置推定等への利用)を中止し、対象のライダ2について再度のアライメント調整を行う必要がある旨の警告を情報出力部16により出力する(ステップS403)。これにより、事故等により著しく姿勢・位置のずれが生じたライダ2の計測データを用いることによる安全性低下等を確実に抑制する。
Then, if the calculated angle has changed by a predetermined angle or more from the angle recorded in the rider installation information IL (step S402; Yes), the vehicle-mounted
一方、車載機1は、算出した角度がライダ設置情報ILに記録された角度から所定角度以上変化していない場合(ステップS402;No)、ライダ設置情報ILに記録された角度からの算出した角度の変化量に基づき、ライダ2が出力する点群データの各計測値を補正する(ステップS404)。この場合、車載機1は、例えば、上述の変化量に対する計測値の補正量を示すマップ等を記憶しておき、当該マップ等を参照することで、上述の計測値を補正する。また、変化量の所定の割合の値を計測値の補正量として計測値を補正してもよい。
On the other hand, if the calculated angle has not changed by a predetermined angle or more from the angle recorded in the rider installation information IL (step S402; No), the vehicle-mounted
以上説明したように、本実施例における車載機1は、車両の走行路の進行方向に対して垂直面又は走行路の幅方向に対して垂直面を有する道路標識を、車両に取り付けられたライダ2により計測した対象計測点群Ptagを取得する。そして、車載機1は、対象計測点群Ptagから算出される、ライダ2の設置情報に基づく座標系を基準とした道路標識の長手方向の傾きに基づいて、ライダ2の車両への取り付け姿勢を推定する。これにより、車載機1は、ロール方向及びピッチ方向におけるライダ2の車両への取り付け姿勢を的確に推定することができる。
As described above, the in-
また、以上説明したように、本実施例における車載機1は、区画線を車両に取り付けられたライダ2により計測した計測点群を取得し、当該計測点群に基づき、車両の走行方向に沿った区画線の中心線を算出する。そして、車載機1は、ライダ2が基準とするヨー方向基準角に対する区画線の中心線の方向に基づき、ライダ2の車両への取り付け姿勢を推定する。これにより、車載機1は、ヨー方向におけるライダ2の車両の取り付け姿勢を好適に推定することができる。
Further, as described above, the in-
[変形例]
以下、実施例に好適な変形例について説明する。以下の変形例は、組み合わせて実施例に適用してもよい。
[Modification]
Modifications suitable for the embodiment will be described below. The following modifications may be combined and applied to the embodiment.
(変形例1)
図13及び図15のステップS303の説明では、車載機1は、検出ウィンドウ内における区画線の幅方向における中心点を算出することで区画線の中心線を算出した。これに代えて、車載機1は、検出ウィンドウ内における走査線の右端点又は左端点を抽出し、区画線の右端又は左端を通る直線を算出してもよい。これによっても、車載機1は、走行路と平行となる線を好適に特定して角度ψを算出することができる。
(Modification 1)
In the description of step S303 in FIGS. 13 and 15, the in-
(変形例2)
図12~図15で説明したヨー角の推定処理では、車載機1は区間線を検出対象地物Ftagとみなした。これに代えて、又はこれに加えて、車載機1は、縁石などを検出対象地物Ftagとみなしてもよい。このように、車載機1は、区画線に限らず、被計測面が走行路面と平行であって走行路面に沿って形成された任意の地物を検出対象地物Ftagとみなして図12~図15で説明したヨー角の推定処理を実行してもよい。
(Modification 2)
In the yaw angle estimation processing described with reference to FIGS. 12 to 15, the vehicle-mounted
(変形例3)
図16のステップS404において、車載機1は、ライダ2が出力する点群データの各計測値を補正する代わりに、図9、図11、又は図15のフローチャートの処理により算出したロール角、ピッチ角、ヨー角に基づき、ライダ2が出力する点群データの各計測値を車両座標系に変換してもよい。
(Modification 3)
In step S404 of FIG. 16, the in-
この場合、車載機1は、算出したロール角Lφ、ピッチ角Lθ、ヨー角Lψを用いて、式(4)に基づき、ライダ2が出力する点群データの各計測値をライダ座標系から車体座標系に変換し、変換後のデータに基づいて、自車位置推定や自動運転制御などを実行してもよい。
In this case, the in-
他の例では、車載機1は、各ライダ2の姿勢を修正するためのアクチュエータなどの調整機構が各ライダ2に備わっている場合には、図16のステップS404の処理に代えて、ライダ設置情報ILに記録された角度からのずれ分だけライダ2の姿勢を修正するように調整機構を駆動させる制御を行ってもよい。
As another example, if each
(変形例4)
図1に示す車両システムの構成は一例であり、本発明が適用可能な車両システムの構成は図1に示す構成に限定されない。例えば、車両システムは、車載機1を有する代わりに、車両の電子制御装置が図9、図11、図15、図16等に示す処理を実行してもよい。この場合、ライダ設置情報ILは、例えば車両内の記憶部に記憶され、車両の電子制御装置は、ライダ2などの各種センサの出力データを受信可能に構成される。
(Modification 4)
The configuration of the vehicle system shown in FIG. 1 is an example, and the configuration of the vehicle system to which the present invention is applicable is not limited to the configuration shown in FIG. For example, in the vehicle system, instead of having the vehicle-mounted
(変形例5)
車両システムは、ライダ2を複数台備えてもよい。この場合、車載機1は、それぞれのライダ2に対して図9、図11、及び図15のフローチャートの処理を実行することで、各ライダ2のロール角、ピッチ角、及びヨー角を推定する。
(Modification 5)
The vehicle system may include
1 車載機
2 ライダ
3 ジャイロセンサ
4 加速度センサ
5 GPS受信機
10 地図DB
1 vehicle-mounted
Claims (1)
前記計測点群に基づき、前記移動体の走行方向に沿った前記被計測面上の線を算出する算出手段と、
前記計測装置が基準とする方向に対する前記線の方向に基づき、前記計測装置の前記移動体への取り付け姿勢を推定する推定手段と、
を有する姿勢推定装置。 Acquisition means for acquiring a measurement point group obtained by measuring a feature whose surface to be measured is parallel to a road surface on which the mobile body travels and which is formed along the road surface, by a measuring device attached to the mobile body. ,
a calculation means for calculating a line on the surface to be measured along the running direction of the moving body based on the measurement point group;
estimating means for estimating a mounting posture of the measuring device to the moving object based on the direction of the line with respect to the direction that the measuring device uses as a reference;
A posture estimation device having
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022209722A JP2023038220A (en) | 2018-08-31 | 2022-12-27 | Posture estimation device, control method, program and storage medium |
JP2024117034A JP2024150627A (en) | 2018-08-31 | 2024-07-22 | Attitude estimation device, control method, program, and storage medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018163738A JP2020032986A (en) | 2018-08-31 | 2018-08-31 | Posture estimation device, control method, program and storage medium |
JP2022209722A JP2023038220A (en) | 2018-08-31 | 2022-12-27 | Posture estimation device, control method, program and storage medium |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018163738A Division JP2020032986A (en) | 2018-08-31 | 2018-08-31 | Posture estimation device, control method, program and storage medium |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024117034A Division JP2024150627A (en) | 2018-08-31 | 2024-07-22 | Attitude estimation device, control method, program, and storage medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023038220A true JP2023038220A (en) | 2023-03-16 |
Family
ID=69666819
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018163738A Ceased JP2020032986A (en) | 2018-08-31 | 2018-08-31 | Posture estimation device, control method, program and storage medium |
JP2022209722A Pending JP2023038220A (en) | 2018-08-31 | 2022-12-27 | Posture estimation device, control method, program and storage medium |
JP2024117034A Pending JP2024150627A (en) | 2018-08-31 | 2024-07-22 | Attitude estimation device, control method, program, and storage medium |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018163738A Ceased JP2020032986A (en) | 2018-08-31 | 2018-08-31 | Posture estimation device, control method, program and storage medium |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024117034A Pending JP2024150627A (en) | 2018-08-31 | 2024-07-22 | Attitude estimation device, control method, program, and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (3) | JP2020032986A (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113494911B (en) * | 2020-04-02 | 2024-06-07 | 宝马股份公司 | Method and system for positioning vehicle |
JP7482440B2 (en) * | 2020-06-25 | 2024-05-14 | パナソニックIpマネジメント株式会社 | Information processing device, information processing method, and program |
JP2022154840A (en) * | 2021-03-30 | 2022-10-13 | 本田技研工業株式会社 | Detection device, vehicle system, detection method, and program |
WO2024101175A1 (en) * | 2022-11-11 | 2024-05-16 | ヌヴォトンテクノロジージャパン株式会社 | Information processing method, information processing device, and program |
WO2024127480A1 (en) * | 2022-12-13 | 2024-06-20 | 三菱電機株式会社 | Location estimation device, location estimation method, and location estimation program |
CN116381632B (en) * | 2023-06-05 | 2023-08-18 | 南京隼眼电子科技有限公司 | Self-calibration method and device for radar roll angle and storage medium |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009204532A (en) * | 2008-02-28 | 2009-09-10 | Aisin Seiki Co Ltd | Calibration device and calibration method of range image sensor |
JP2010151829A (en) * | 2010-02-12 | 2010-07-08 | Toyota Motor Corp | Own vehicle positioning system |
JP2011196916A (en) * | 2010-03-23 | 2011-10-06 | Mitsubishi Electric Corp | Measuring vehicle, and road feature measuring system |
JP2016206178A (en) * | 2015-04-21 | 2016-12-08 | 国際航業株式会社 | Laser measurement method, laser measurement marker and coordinate calculation program |
JP2017111683A (en) * | 2015-12-17 | 2017-06-22 | 株式会社デンソー | Control device and control method |
JP2018009868A (en) * | 2016-07-13 | 2018-01-18 | 株式会社Soken | Position estimation device |
-
2018
- 2018-08-31 JP JP2018163738A patent/JP2020032986A/en not_active Ceased
-
2022
- 2022-12-27 JP JP2022209722A patent/JP2023038220A/en active Pending
-
2024
- 2024-07-22 JP JP2024117034A patent/JP2024150627A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009204532A (en) * | 2008-02-28 | 2009-09-10 | Aisin Seiki Co Ltd | Calibration device and calibration method of range image sensor |
JP2010151829A (en) * | 2010-02-12 | 2010-07-08 | Toyota Motor Corp | Own vehicle positioning system |
JP2011196916A (en) * | 2010-03-23 | 2011-10-06 | Mitsubishi Electric Corp | Measuring vehicle, and road feature measuring system |
JP2016206178A (en) * | 2015-04-21 | 2016-12-08 | 国際航業株式会社 | Laser measurement method, laser measurement marker and coordinate calculation program |
JP2017111683A (en) * | 2015-12-17 | 2017-06-22 | 株式会社デンソー | Control device and control method |
JP2018009868A (en) * | 2016-07-13 | 2018-01-18 | 株式会社Soken | Position estimation device |
Also Published As
Publication number | Publication date |
---|---|
JP2020032986A (en) | 2020-03-05 |
JP2024150627A (en) | 2024-10-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2023038220A (en) | Posture estimation device, control method, program and storage medium | |
JP5441549B2 (en) | Road shape recognition device | |
US9389093B2 (en) | Traffic signal recognition apparatus | |
US8410919B2 (en) | Driving support apparatus | |
JP6806891B2 (en) | Information processing equipment, control methods, programs and storage media | |
JP7155284B2 (en) | Measurement accuracy calculation device, self-position estimation device, control method, program and storage medium | |
JP6980010B2 (en) | Self-position estimator, control method, program and storage medium | |
JP2023075184A (en) | Output device, control method, program, and storage medium | |
JP2023118751A (en) | Self-position estimation device | |
JP2022176322A (en) | Self-position estimation device, control method, program, and storage medium | |
JP2013036856A (en) | Driving support apparatus | |
JP2023164553A (en) | Position estimation device, estimation device, control method, program and storage medium | |
JP2023054314A (en) | Information processing device, control method, program, and storage medium | |
JP2023076673A (en) | Information processing device, control method, program and storage medium | |
WO2018212302A1 (en) | Self-position estimation device, control method, program, and storage medium | |
WO2020045057A1 (en) | Posture estimation device, control method, program, and storage medium | |
WO2018212290A1 (en) | Information processing device, control method, program and storage medium | |
US12140697B2 (en) | Self-position estimation device, self-position estimation method, program, and recording medium | |
US20240053440A1 (en) | Self-position estimation device, self-position estimation method, program, and recording medium | |
JP2024161585A (en) | Self-location estimation device | |
CN117849826A (en) | External recognition device | |
JP2024161105A (en) | Self-location estimation device, control method, program, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231031 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240423 |