JP2024150627A - Attitude estimation device, control method, program, and storage medium - Google Patents

Attitude estimation device, control method, program, and storage medium Download PDF

Info

Publication number
JP2024150627A
JP2024150627A JP2024117034A JP2024117034A JP2024150627A JP 2024150627 A JP2024150627 A JP 2024150627A JP 2024117034 A JP2024117034 A JP 2024117034A JP 2024117034 A JP2024117034 A JP 2024117034A JP 2024150627 A JP2024150627 A JP 2024150627A
Authority
JP
Japan
Prior art keywords
vehicle
measurement
point cloud
lidar
inclination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2024117034A
Other languages
Japanese (ja)
Inventor
正浩 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corp filed Critical Pioneer Corp
Priority to JP2024117034A priority Critical patent/JP2024150627A/en
Publication of JP2024150627A publication Critical patent/JP2024150627A/en
Pending legal-status Critical Current

Links

Landscapes

  • Navigation (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】移動体に取り付けられた計測装置の移動体への取り付け姿勢を好適に推定可能な姿勢推定装置を提供する。
【解決手段】車載機1は、車両の走行路の進行方向に対して垂直面又は走行路の幅方向に対して垂直面を有する道路標識を、車両に取り付けられたライダ2により計測した対象計測点群Ptagを取得する。そして、車載機1は、対象計測点群Ptagから算出される、ライダ2の設置情報に基づく座標系を基準とした道路標識の長手方向の傾きに基づいて、ライダ2の車両への取り付け姿勢を推定する。
【選択図】図10

An attitude estimation device is provided that can suitably estimate the mounting attitude of a measuring device attached to a moving body relative to the moving body.
[Solution] An on-board device 1 acquires a target measurement point cloud Ptag obtained by measuring road signs having a surface perpendicular to the traveling direction of the vehicle's roadway or a surface perpendicular to the width direction of the roadway by a lidar 2 attached to the vehicle. Then, the on-board device 1 estimates the mounting attitude of the lidar 2 on the vehicle based on the inclination of the longitudinal direction of the road sign calculated from the target measurement point cloud Ptag with respect to a coordinate system based on the installation information of the lidar 2.
[Selected figure] Figure 10

Description

本発明は、計測装置の姿勢を推定する技術に関する。 The present invention relates to a technology for estimating the attitude of a measurement device.

従来から、レーダやカメラなどの計測装置の計測データに基づいて、自車位置推定などを行う技術が知られている。例えば、特許文献1には、計測センサの出力と、予め地図上に登録された地物の位置情報とを照合させることで自己位置を推定する技術が開示されている。また、特許文献2には、カルマンフィルタを用いた自車位置推定技術が開示されている。 Technologies for estimating a vehicle's own position based on measurement data from measurement devices such as radar and cameras have been known for some time. For example, Patent Document 1 discloses a technology for estimating a vehicle's own position by matching the output of a measurement sensor with position information of features registered in advance on a map. Patent Document 2 discloses a vehicle's own position estimation technology that uses a Kalman filter.

特開2013-257742号公報JP 2013-257742 A 特開2017-72422号公報JP 2017-72422 A

計測装置から得られるデータは、計測装置を基準とした座標系の値であり、車両に対する計測装置の姿勢等に依存したデータとなっているため、車両を基準とした座標系の値に変換する必要がある。従って、計測装置の姿勢にずれが生じた場合には、そのずれを的確に検知して計測装置のデータに反映させたり、計測装置の姿勢を修正したりする必要がある。 The data obtained from the measuring device is a value in a coordinate system based on the measuring device, and is dependent on the attitude of the measuring device relative to the vehicle, so it needs to be converted to a value in a coordinate system based on the vehicle. Therefore, if a deviation occurs in the attitude of the measuring device, it is necessary to accurately detect the deviation and reflect it in the data of the measuring device, or to correct the attitude of the measuring device.

本発明は、上記のような課題を解決するためになされたものであり、移動体に取り付けられた計測装置の移動体への取り付け姿勢を好適に推定可能な姿勢推定装置を提供することを主な目的とする。 The present invention has been made to solve the above-mentioned problems, and has as its main objective the provision of an attitude estimation device that can suitably estimate the mounting attitude of a measuring device attached to a moving body relative to the moving body.

請求項に記載の発明は、姿勢推定装置であって、移動体の走行路の進行方向に対して垂直面又は前記走行路の幅方向に対して垂直面を有する地物を、前記移動体に取り付けられた計測装置により計測した計測点群を取得する取得手段と、前記計測点群から算出される、前記計測装置の設置情報に基づく座標系を基準とした前記垂直面の傾きに基づいて、前記計測装置の前記移動体への取り付け姿勢を推定する推定手段と、を有する。 The invention described in the claims is an attitude estimation device having an acquisition means for acquiring a measurement point cloud obtained by measuring a feature having a plane perpendicular to the direction of travel of the travel path of the moving body or a plane perpendicular to the width direction of the travel path by a measurement device attached to the moving body, and an estimation means for estimating the mounting attitude of the measurement device to the moving body based on the inclination of the vertical plane calculated from the measurement point cloud with respect to a coordinate system based on the installation information of the measurement device.

また、請求項に記載の発明は、姿勢推定装置が実行する制御方法であって、移動体の走行路の進行方向に対して垂直面又は前記走行路の幅方向に対して垂直面を有する地物を、前記移動体に取り付けられた計測装置により計測した計測点群を取得する取得工程と、前記計測点群から算出される、前記計測装置の設置情報に基づく座標系を基準とした前記垂直面の傾きに基づいて、前記計測装置の前記移動体への取り付け姿勢を推定する推定工程と、を有する。 The invention described in the claims is a control method executed by an attitude estimation device, and includes an acquisition step of acquiring a measurement point cloud measured by a measurement device attached to the moving body of a feature having a plane perpendicular to the direction of travel of the moving body's travel path or a plane perpendicular to the width direction of the travel path, and an estimation step of estimating the mounting attitude of the measurement device to the moving body based on the inclination of the vertical plane calculated from the measurement point cloud with reference to a coordinate system based on the installation information of the measurement device.

また、請求項に記載の発明は、コンピュータが実行するプログラムであって、移動体の走行路の進行方向に対して垂直面又は前記走行路の幅方向に対して垂直面を有する地物を、前記移動体に取り付けられた計測装置により計測した計測点群を取得する取得手段と、前記計測点群から算出される、前記計測装置の設置情報に基づく座標系を基準とした前記垂直面の傾きに基づいて、前記計測装置の前記移動体への取り付け姿勢を推定する推定手段として前記コンピュータを機能させる。 The invention described in the claims is a program executed by a computer, which causes the computer to function as an acquisition means for acquiring a cloud of measurement points measured by a measurement device attached to a moving body of a feature having a plane perpendicular to the direction of travel of the moving body's path or a plane perpendicular to the width direction of the path, and an estimation means for estimating the mounting attitude of the measurement device to the moving body based on the inclination of the vertical plane calculated from the cloud of measurement points with respect to a coordinate system based on the installation information of the measurement device.

車両システムの概略構成図である。FIG. 1 is a schematic configuration diagram of a vehicle system. 車載機の機能的構成を示すブロック図である。FIG. 2 is a block diagram showing a functional configuration of an in-vehicle device. 2次元座標により表された車両座標系とライダ座標系との関係を示す図である。FIG. 2 is a diagram showing the relationship between a vehicle coordinate system and a rider coordinate system represented by two-dimensional coordinates. 3次元座標により表された車両座標系とライダ座標系との関係を示す図である。FIG. 2 is a diagram showing the relationship between a vehicle coordinate system and a rider coordinate system represented by three-dimensional coordinates. ライダのロール角を推定する際の検出対象地物となる道路標識付近に車両が走行する場合の車両周辺の俯瞰図を示す。1 shows an overhead view of the surroundings of a vehicle when the vehicle is traveling near a road sign that is a detection target feature when estimating the roll angle of the lidar. 道路標識の被計測面を正面視した場合の道路標識と対象計測点群との位置関係を示す。This shows the positional relationship between the road sign and the target measurement point cloud when the measured surface of the road sign is viewed from the front. ライダ座標系における対象計測点群及び抽出された外縁点群を示す。1 shows the target measurement point cloud and the extracted outer edge point cloud in the lidar coordinate system. 外縁点群が形成する四角形の各辺の近似直線を示す。The approximate straight lines for each side of the quadrangle formed by the boundary points are shown. ロール角推定処理の手順を示すフローチャートである。13 is a flowchart showing a procedure for roll angle estimation processing. ライダのピッチ角を推定する際の検出対象地物となる道路標識付近に車両が走行する場合の車両周辺の俯瞰図を示す。1 shows an overhead view of the surroundings of a vehicle when the vehicle is traveling near a road sign that is a detection target feature when estimating the pitch angle of the lidar. ピッチ角推定処理の手順を示すフローチャートである。10 is a flowchart showing a procedure for a pitch angle estimation process. ライダのヨー角を推定する際の検出対象地物となる区画線に沿って車両が走行する場合の車両周辺の俯瞰図を示す。1 shows an overhead view of the surroundings of a vehicle when the vehicle is traveling along a lane marking that is a detection target feature when estimating the yaw angle of the lidar. 検出ウィンドウにおける中心点を丸印により示した図である。FIG. 11 is a diagram showing the center point of a detection window by a circle. 検出ウィンドウごとに算出した区画線の中心線とヨー方向基準角とがなす角度を示す。The angle between the center line of the lane marking and the yaw direction reference angle calculated for each detection window is shown. ヨー角推定処理の手順を示すフローチャートである。10 is a flowchart showing a procedure for yaw angle estimation processing. ロール角、ピッチ角及びヨー角の推定値に基づく処理の具体例を示すフローチャートである。10 is a flowchart showing a specific example of a process based on estimated values of a roll angle, a pitch angle, and a yaw angle.

本発明の好適な実施形態によれば、姿勢推定装置は、被計測面が移動体が走行する走行路面と平行であって前記走行路面に沿って形成された地物を、前記移動体に取り付けられた計測装置により計測した計測点群を取得する取得手段と、前記計測点群に基づき、前記移動体の走行方向に沿った前記被計測面上の線を算出する算出手段と、前記計測装置が基準とする方向に対する前記線の方向に基づき、前記計測装置の前記移動体への取り付け姿勢を推定する推定手段と、を有する。姿勢推定装置は、この態様により、被計測面が移動体が走行する走行路面と平行であって走行路面に沿って形成された地物を基準として、計測装置の移動体への取り付け姿勢を好適に推定することができる。 According to a preferred embodiment of the present invention, the attitude estimation device has an acquisition means for acquiring a cloud of measurement points obtained by measuring features whose measurement surface is parallel to the road surface on which the mobile body travels and formed along the road surface using a measurement device attached to the mobile body, a calculation means for calculating a line on the measurement surface that runs along the traveling direction of the mobile body based on the measurement point cloud, and an estimation means for estimating the mounting attitude of the measurement device to the mobile body based on the direction of the line relative to a direction that the measurement device uses as a reference. With this aspect, the attitude estimation device can suitably estimate the mounting attitude of the measurement device to the mobile body based on a feature whose measurement surface is parallel to the road surface on which the mobile body travels and formed along the road surface.

上記姿勢推定装置の一態様では、前記取得手段は、前記地物に関する地物情報に基づき前記地物の位置を認識することで、当該位置において前記計測装置が計測した計測点群を前記地物の計測点群として取得する。姿勢推定装置は、この態様により、移動体の走行路に沿った鉛直面又は走行路の幅方向に沿った鉛直面を有する地物の位置を把握して当該地物の計測点群を好適に取得することができる。 In one aspect of the posture estimation device, the acquisition means recognizes the position of the feature based on feature information about the feature, and acquires the measurement point cloud measured by the measurement device at that position as the measurement point cloud of the feature. With this aspect, the posture estimation device can grasp the position of a feature having a vertical plane along the travel path of the moving body or a vertical plane along the width direction of the travel path, and suitably acquire the measurement point cloud of the feature.

上記姿勢推定装置の他の一態様では、前記推定手段は、前記線と前記計測装置におけるヨー方向の基準線とのなす角に基づき、前記計測装置のヨー方向の姿勢を推定する。姿勢推定装置は、この態様により、計測装置のヨー方向の姿勢を好適に推定することができる。 In another aspect of the above-mentioned attitude estimation device, the estimation means estimates the attitude of the measurement device in the yaw direction based on the angle between the line and a reference line in the yaw direction of the measurement device. With this aspect, the attitude estimation device can preferably estimate the attitude of the measurement device in the yaw direction.

上記姿勢推定装置の他の一態様では、前記推定手段は、異なる前記計測点群に基づき前記算出手段が算出した複数の前記線と前記基準線とのなす角を平均化することで、前記計測装置のヨー方向の姿勢を推定する。姿勢推定装置は、この態様により、計測装置のヨー方向の姿勢をより的確に推定することができる。 In another aspect of the above-mentioned attitude estimation device, the estimation means estimates the attitude of the measurement device in the yaw direction by averaging the angles between the reference line and the multiple lines calculated by the calculation means based on the different measurement point groups. With this aspect, the attitude estimation device can more accurately estimate the attitude of the measurement device in the yaw direction.

上記姿勢推定装置の他の一態様では、前記算出手段は、前記計測点群に基づき、前記移動体の走行方向に沿った前記被計測面上の複数の点を算出し、当該複数の点から前記線を算出し、前記推定手段は、異なる前記計測点群に基づき前記算出手段が算出した複数の前記線と前記基準線とのなす角を、当該線の各々の算出に用いた前記点の数に基づき平均化することで、前記計測装置のヨー方向の姿勢を推定する。この態様では、姿勢推定装置は、算出した線の各々の精度を好適に考慮した重み付けにより、計測装置のヨー方向の姿勢をより的確に推定することができる。 In another aspect of the above-mentioned attitude estimation device, the calculation means calculates a plurality of points on the measured surface along the traveling direction of the moving body based on the measurement point cloud, and calculates the line from the plurality of points, and the estimation means estimates the attitude of the measurement device in the yaw direction by averaging the angles between the plurality of lines calculated by the calculation means based on the different measurement point clouds and the reference line based on the number of points used in calculating each of the lines. In this aspect, the attitude estimation device can more accurately estimate the attitude of the measurement device in the yaw direction by weighting that appropriately takes into account the accuracy of each of the calculated lines.

好適な例では、前記地物は、前記走行路に設けられた区画線又は縁石であるとよい。また、他の好適な例では、前記計測装置は、光を走査する光走査装置であるとよい。 In a preferred example, the feature may be a dividing line or a curbstone provided on the roadway. In another preferred example, the measurement device may be an optical scanning device that scans light.

上記姿勢推定装置の他の一態様では、前記基準とする方向は、前記取り付け姿勢のずれが生じていない場合に前記計測装置の座標系において前記移動体の走行方向とみなされる方向であり、前記取り付け姿勢のずれが生じた場合に、当該ずれに応じて前記移動体の走行方向と異なる方向を示す。姿勢推定装置は、この態様により、算出した被計測面上の線に対する基準とする方向のずれに基づき、計測装置の移動体への取り付け姿勢を好適に推定することができる。 In another aspect of the above-mentioned posture estimation device, the reference direction is a direction that is regarded as the traveling direction of the moving body in the coordinate system of the measurement device when there is no deviation in the mounting posture, and when there is a deviation in the mounting posture, the reference direction indicates a direction different from the traveling direction of the moving body according to the deviation. With this aspect, the posture estimation device can suitably estimate the mounting posture of the measurement device to the moving body based on the calculated deviation of the reference direction with respect to a line on the measurement surface.

本発明の他の好適な実施形態によれば、姿勢推定装置が実行する制御方法であって、被計測面が移動体が走行する走行路面と平行であって前記走行路面に沿って形成された地物を、前記移動体に取り付けられた計測装置により計測した計測点群を取得する取得工程と、前記計測点群に基づき、前記移動体の走行方向に沿った前記被計測面上の線を算出する算出工程と、前記計測装置が基準とする方向に対する前記線の方向に基づき、前記計測装置の前記移動体への取り付け姿勢を推定する推定工程と、を有する。姿勢推定装置は、この制御方法を実行することで、計測装置の移動体への取り付け姿勢を好適に推定することができる。 According to another preferred embodiment of the present invention, a control method executed by an attitude estimation device includes an acquisition step of acquiring a measurement point cloud obtained by measuring features whose measurement surface is parallel to a road surface on which a moving body travels and that are formed along the road surface by a measuring device attached to the moving body, a calculation step of calculating a line on the measurement surface that runs along the traveling direction of the moving body based on the measurement point cloud, and an estimation step of estimating the mounting attitude of the measuring device to the moving body based on the direction of the line relative to a direction that the measuring device uses as a reference. By executing this control method, the attitude estimation device can suitably estimate the mounting attitude of the measuring device to the moving body.

本発明の他の好適な実施形態によれば、コンピュータが実行するプログラムであって、被計測面が移動体が走行する走行路面と平行であって前記走行路面に沿って形成された地物を、前記移動体に取り付けられた計測装置により計測した計測点群を取得する取得手段と、前記計測点群に基づき、前記移動体の走行方向に沿った前記被計測面上の線を算出する算出手段と、前記計測装置が基準とする方向に対する前記線の方向に基づき、前記計測装置の前記移動体への取り付け姿勢を推定する推定手段として前記コンピュータを機能させる。コンピュータは、このプログラムを実行することで、計測装置の移動体への取り付け姿勢を好適に推定することができる。好適には、上記プログラムは、記憶媒体に記憶される。 According to another preferred embodiment of the present invention, a program executed by a computer causes the computer to function as an acquisition means for acquiring a cloud of measurement points obtained by measuring features formed along a road surface along which a moving body travels, the surface to be measured being parallel to the road surface on which the moving body travels, using a measurement device attached to the moving body; a calculation means for calculating a line on the surface to be measured along the traveling direction of the moving body based on the cloud of measurement points; and an estimation means for estimating the mounting orientation of the measurement device to the moving body based on the direction of the line relative to a direction that the measurement device uses as a reference. By executing this program, the computer can preferably estimate the mounting orientation of the measurement device to the moving body. Preferably, the program is stored in a storage medium.

以下、図面を参照して本発明の好適な各実施例について説明する。 Below, preferred embodiments of the present invention will be described with reference to the drawings.

[概略構成]
図1は、本実施例に係る車両システムの概略構成図である。図1に示す車両システムは、車両の運転支援に関する制御を行う車載機1と、ライダ(Lidar:Light Detection and Ranging、または、Laser Illuminated Detection And Ranging)2、ジャイロセンサ3、加速度センサ4、及びGPS受信機5などのセンサ群とを有する。
[General Configuration]
Fig. 1 is a schematic diagram of a vehicle system according to the present embodiment. The vehicle system shown in Fig. 1 includes an on-board device 1 that controls driving assistance for the vehicle, and a group of sensors including a Lidar (Light Detection and Ranging, or Laser Illuminated Detection and Ranging) 2, a gyro sensor 3, an acceleration sensor 4, and a GPS receiver 5.

車載機1は、ライダ2、ジャイロセンサ3、加速度センサ4、及びGPS受信機5などのセンサ群と電気的に接続し、これらの出力データを取得する。また、道路データ及び道路付近に設けられた地物に関する地物情報などを記憶した地図データベース(DB:DataBase)10を記憶している。そして、車載機1は、上述の出力データ及び地図DB10に基づき、車両の位置の推定を行い、位置推定結果に基づいた自動運転制御などの車両の運転支援に関する制御などを行う。また、車載機1は、ライダ2の出力などに基づいて、ライダ2の姿勢の推定を行う。そして、車載機1は、この推定結果に基づいて、ライダ2が出力する点群データの各計測値を補正する処理などを行う。車載機1は、本発明における「姿勢推定装置」の一例である。 The vehicle-mounted device 1 is electrically connected to a group of sensors, such as the lidar 2, gyro sensor 3, acceleration sensor 4, and GPS receiver 5, and acquires output data from these sensors. It also stores a map database (DB: DataBase) 10 that stores road data and feature information on features installed near roads. The vehicle-mounted device 1 estimates the position of the vehicle based on the above-mentioned output data and the map DB 10, and performs control related to vehicle driving assistance such as automatic driving control based on the position estimation result. The vehicle-mounted device 1 also estimates the attitude of the lidar 2 based on the output of the lidar 2, etc. The vehicle-mounted device 1 then performs processing such as correcting each measurement value of the point cloud data output by the lidar 2 based on the estimation result. The vehicle-mounted device 1 is an example of an "attitude estimation device" in the present invention.

ライダ2は、水平方向および垂直方向の所定の角度範囲に対してパルスレーザを出射することで、外界に存在する物体までの距離を離散的に測定し、当該物体の位置を示す3次元の点群情報を生成する。この場合、ライダ2は、照射方向を変えながらレーザ光を照射する照射部と、照射したレーザ光の反射光(散乱光)を受光する受光部と、受光部が出力する受光信号に基づくスキャンデータを出力する出力部とを有する。スキャンデータは、受光部が受光したレーザ光に対応する照射方向と、上述の受光信号に基づき特定される当該レーザ光のその照射方向での物体までの距離とに基づき生成され、車載機1へ供給される。ライダ2は、本発明における「計測装置」の一例である。 The lidar 2 emits a pulsed laser in a predetermined angular range in the horizontal and vertical directions to discretely measure the distance to an object in the external world and generate three-dimensional point cloud information indicating the position of the object. In this case, the lidar 2 has an irradiation unit that irradiates laser light while changing the irradiation direction, a light receiving unit that receives reflected light (scattered light) of the irradiated laser light, and an output unit that outputs scan data based on the light receiving signal output by the light receiving unit. The scan data is generated based on the irradiation direction corresponding to the laser light received by the light receiving unit and the distance to the object in the irradiation direction of the laser light identified based on the above-mentioned light receiving signal, and is supplied to the vehicle-mounted device 1. The lidar 2 is an example of a "measurement device" in the present invention.

図2は、車載機1の機能的構成を示すブロック図である。車載機1は、主に、インターフェース11と、記憶部12と、入力部14と、制御部15と、情報出力部16と、を有する。これらの各要素は、バスラインを介して相互に接続されている。 Figure 2 is a block diagram showing the functional configuration of the vehicle-mounted device 1. The vehicle-mounted device 1 mainly has an interface 11, a memory unit 12, an input unit 14, a control unit 15, and an information output unit 16. These elements are interconnected via a bus line.

インターフェース11は、ライダ2、ジャイロセンサ3、加速度センサ4、及びGPS受信機5などのセンサから出力データを取得し、制御部15へ供給する。また、インターフェース11は、制御部15が生成した車両の走行制御に関する信号を車両の電子制御装置(ECU:Electronic Control Unit)へ供給する。 The interface 11 acquires output data from sensors such as the lidar 2, gyro sensor 3, acceleration sensor 4, and GPS receiver 5, and supplies the data to the control unit 15. The interface 11 also supplies signals related to vehicle driving control generated by the control unit 15 to the vehicle's electronic control unit (ECU: Electronic Control Unit).

記憶部12は、制御部15が実行するプログラムや、制御部15が所定の処理を実行するのに必要な情報を記憶する。本実施例では、記憶部12は、地図DB10と、ライダ設置情報ILとを有する。地図DB10は、例えば、道路データ、施設データ、及び、道路周辺の地物データなどを含むデータベースである。道路データには、経路探索用の車線ネットワークデータ、道路形状データ、交通法規データなどが含まれる。地物データは、道路標識等の看板や停止線等の道路標示、白線等の道路区画線や道路沿いの構造物等の情報(例えば位置情報及び種別情報)を含む。また、地物データは、自車位置推定に用いるための地物の高精度な点群情報などを含んでもよい。その他、地図DBには、位置推定に必要な種々のデータが記憶されてもよい。 The storage unit 12 stores a program executed by the control unit 15 and information required for the control unit 15 to execute a predetermined process. In this embodiment, the storage unit 12 has a map DB 10 and lidar installation information IL. The map DB 10 is a database including, for example, road data, facility data, and feature data around the road. The road data includes lane network data for route search, road shape data, traffic law data, and the like. The feature data includes information (for example, position information and type information) on signs such as road signs, road markings such as stop lines, road dividing lines such as white lines, and structures along the road. The feature data may also include highly accurate point cloud information of features to be used for vehicle position estimation. In addition, the map DB may store various data required for position estimation.

ライダ設置情報ILは、ある基準時(例えばライダ2のアライメント調整直後などの姿勢ずれが生じていない時)におけるライダ2の車両に対する相対的な姿勢及び位置に関する情報である。本実施例では、ライダ2等の姿勢を、ロール角、ピッチ角、ヨー角(即ちオイラー角)により表すものとする。ライダ設置情報ILは、後述するライダ2の姿勢の推定処理が実行された場合に、推定結果に基づき更新されてもよい。 The rider installation information IL is information about the attitude and position of the rider 2 relative to the vehicle at a certain reference time (for example, when there is no attitude deviation, such as immediately after the alignment adjustment of the rider 2). In this embodiment, the attitude of the rider 2, etc. is represented by the roll angle, pitch angle, and yaw angle (i.e., Euler angles). The rider installation information IL may be updated based on the estimation result when the estimation process of the attitude of the rider 2, which will be described later, is executed.

入力部14は、ユーザが操作するためのボタン、タッチパネル、リモートコントローラ、音声入力装置等であり、経路探索のための目的地を指定する入力、自動運転のオン及びオフを指定する入力などを受け付ける。情報出力部16は、例えば、制御部15の制御に基づき出力を行うディスプレイやスピーカ等である。 The input unit 14 is a button, touch panel, remote controller, voice input device, etc. that the user can operate, and accepts inputs specifying a destination for route search, inputs specifying whether autonomous driving is on or off, etc. The information output unit 16 is, for example, a display, speaker, etc. that outputs information based on the control of the control unit 15.

制御部15は、プログラムを実行するCPUなどを含み、車載機1の全体を制御する。制御部15は、インターフェース11から供給される各センサの出力信号及び地図DB10に基づき、自車位置の推定を行い、自車位置の推定結果に基づいて自動運転制御を含む車両の運転支援に関する制御などを行う。このとき、制御部15は、ライダ2の出力データを用いる場合には、ライダ2が出力する計測データを、ライダ設置情報ILに記録されたライダ2の設置情報に含まれる姿勢及び位置を基準として、ライダ2を基準とした座標系から車両を基準とした座標系(以下「基準座標系」)に変換する。さらに、本実施例では、制御部15は、車両に対するライダ2の現在(即ち処理基準時)の姿勢を推定することで、ライダ設置情報ILに記録された姿勢に対する変化量を算出し、当該変化量に基づきライダ2が出力する計測データを補正する。これにより、制御部15は、ライダ2の姿勢にずれが生じた場合であっても、当該ずれの影響を受けないようにライダ2が出力する計測データを補正する。制御部15は、本発明におけるプログラムを実行する「コンピュータ」の一例である。 The control unit 15 includes a CPU that executes a program and controls the entire vehicle-mounted device 1. The control unit 15 estimates the vehicle position based on the output signals of each sensor supplied from the interface 11 and the map DB 10, and performs control related to vehicle driving assistance including automatic driving control based on the estimation result of the vehicle position. At this time, when the control unit 15 uses the output data of the rider 2, it converts the measurement data output by the rider 2 from a coordinate system based on the rider 2 to a coordinate system based on the vehicle (hereinafter referred to as the "reference coordinate system") based on the attitude and position included in the installation information of the rider 2 recorded in the rider installation information IL. Furthermore, in this embodiment, the control unit 15 estimates the current (i.e., processing reference time) attitude of the rider 2 relative to the vehicle, calculates the amount of change with respect to the attitude recorded in the rider installation information IL, and corrects the measurement data output by the rider 2 based on the amount of change. As a result, even if a deviation occurs in the attitude of the rider 2, the control unit 15 corrects the measurement data output by the rider 2 so that it is not affected by the deviation. The control unit 15 is an example of a "computer" that executes the program in this invention.

[座標系の変換]
ライダ2により取得される3次元点群データの各計測点が示す3次元座標は、ライダ2の位置及び姿勢を基準とした座標系(「ライダ座標系」とも呼ぶ。)で表されており、車両の位置及び姿勢を基準とした座標系(「車両座標系」とも呼ぶ。)に変換する必要がある。ここでは、ライダ座標系と車両座標系との変換について説明する。
[Coordinate system conversion]
The three-dimensional coordinates indicated by each measurement point of the three-dimensional point cloud data acquired by the Rider 2 are expressed in a coordinate system based on the position and attitude of the Rider 2 (also called the "Rider coordinate system"), and need to be converted into a coordinate system based on the position and attitude of the vehicle (also called the "Vehicle coordinate system"). Here, the conversion between the Rider coordinate system and the vehicle coordinate system will be described.

図3は、2次元座標により表された車両座標系とライダ座標系との関係を示す図である。ここでは、車両座標系は、車両の中心を原点とし、車両の進行方向に沿った座標軸「x」と車両の側面方向に沿った座標軸「y」を有する。また、ライダ座標系は、ライダ2の正面方向(矢印A2参照)に沿った座標軸「x」とライダ2の側面方向に沿った座標軸「y」を有する。 3 is a diagram showing the relationship between the vehicle coordinate system and the rider coordinate system expressed by two-dimensional coordinates. Here, the vehicle coordinate system has the center of the vehicle as the origin, and has a coordinate axis "x b " along the vehicle's traveling direction and a coordinate axis "y b " along the vehicle's lateral direction. The rider coordinate system has a coordinate axis "x L " along the front direction of the rider 2 (see arrow A2) and a coordinate axis "y L " along the lateral direction of the rider 2.

ここで、車両座標系に対するライダ2のヨー角を「Lψ」、ライダ2の位置を[L、Lとした場合、車両座標系から見た時刻「k」の計測点[x(k)、y(k)]は、回転行列「Cψ」を用いた以下の式(1)によりライダ座標系の座標[x(k)、y(k)]へ変換される。 Here, if the yaw angle of the rider 2 relative to the vehicle coordinate system is "L ψ " and the position of the rider 2 is [L x , L y ] T , the measurement point [x b (k), y b (k)] T at time " k " as viewed from the vehicle coordinate system is converted to coordinates [x L (k), y L (k)] T in the rider coordinate system by the following equation (1) using the rotation matrix "C ψ ".

一方、ライダ座標系から車両座標系への変換は、回転行列の逆行列(転置行列)を用いればよい。よって、ライダ座標系で取得した時刻kの計測点[x(k)、y(k)]は、以下の式(2)により車両座標系の座標[x(k)、y(k)]に変換することが可能である。 On the other hand, the conversion from the lidar coordinate system to the vehicle coordinate system can be performed by using the inverse matrix (transpose matrix) of the rotation matrix, so that the measurement point [ xL (k), yL (k)] T at time k acquired in the lidar coordinate system can be converted to the coordinates [ xb (k), yb (k)] T in the vehicle coordinate system by the following equation (2).

図4は、3次元座標により表された車両座標系とライダ座標系との関係を示す図である。ここでは、座標軸x、yに垂直な座標軸を「z」、座標軸x、yに垂直な座標軸を「z」とする。 4 is a diagram showing the relationship between the vehicle coordinate system and the rider coordinate system expressed by three-dimensional coordinates. Here, the coordinate axis perpendicular to the coordinate axes xb and yb is defined as " zb ", and the coordinate axis perpendicular to the coordinate axes xL and yL is defined as " zL ".

車両座標系に対するライダ2のロール角を「Lφ」、ピッチ角を「Lθ」、ヨー角を「Lψ」とし、ライダ2の座標軸xにおける位置が「L」、座標軸yにおける位置が「L」、座標軸zにおける位置が「L」とした場合、車両座標系から見た時刻「k」の計測点[x(k)、y(k)、z(k)]は、ロール、ピッチ、ヨーに対応する各回転行列「Cφ」、「Cθ」、「Cψ」により表される方向余弦行列「C」を用いた以下の式(3)により、ライダ座標系の座標[x(k)、y(k)、z(k)]へ変換される。 If the roll angle of the rider 2 relative to the vehicle coordinate system is " ", the pitch angle is " ", the yaw angle is " ", the position of the rider 2 on the coordinate axis xb is " Lx ", the position on the coordinate axis yb is " Ly ", and the position on the coordinate axis zb is " Lz ", then the measurement point [ xb (k), yb (k), zb (k)]T at time "k" as viewed from the vehicle coordinate system is converted into coordinates [xL( k ), yL( k ), zL ( k )] T in the rider coordinate system by the following equation (3) using a direction cosine matrix "C" represented by rotation matrices " ", " ", and "Cψ" corresponding to roll, pitch, and yaw, respectively.

一方、ライダ座標系から車両座標系への変換は、方向余弦行列の逆行列(転置行列)を用いればよい。よって、ライダ座標系で取得した時刻kの計測点[x(k)、y(k)、z(k)]は、以下の式(4)により車両座標系の座標[x(k)、y(k)、z(k)]に変換することが可能である。 On the other hand, the conversion from the lidar coordinate system to the vehicle coordinate system can be performed by using the inverse matrix (transpose matrix) of the direction cosine matrix, so that the measurement point [ xL (k), yL (k), zL (k)] T at time k acquired in the lidar coordinate system can be converted to coordinates [ xb (k), yb (k), zb (k)] T in the vehicle coordinate system by the following equation (4).

以下では、ライダ座標系から車両座標系へ変換するための式(4)に用いられるロール角Lφ、ピッチ角Lθ、ヨー角Lψの各推定方法について順に説明する。 In the following, a method for estimating the roll angle L φ , the pitch angle L θ , and the yaw angle L ψ used in equation (4) for transforming from the rider coordinate system to the vehicle coordinate system will be described in order.

[ロール角の推定]
まず、ライダ2のロール角Lφの推定方法について説明する。車載機1は、走行路の進行方向に対して垂直面(即ち走行路に対して正面)を有する方形(矩形)状の道路標識を、ライダ2により検出すべき対象となる地物(「検出対象地物Ftag」とも呼ぶ。)とみなし、当該道路標識の傾きをライダ2が計測する計測点群に基づき算出することで、ライダ2のロール角Lφを推定する。
[Roll Angle Estimation]
First, a method for estimating the roll angle of the LIDAR 2 will be described. The vehicle-mounted device 1 regards a square (rectangular) road sign having a perpendicular surface to the traveling direction of the road (i.e., the front side of the road) as a target feature to be detected by the LIDAR 2 (also referred to as a "detection target feature Ftag"), and estimates the roll angle of the LIDAR 2 by calculating the inclination of the road sign based on the measurement point cloud measured by the LIDAR 2.

図5は、ライダ2のロール角を推定する際の検出対象地物Ftagとなる道路標識22付近に車両が走行する場合の車両周辺の俯瞰図を示す。図5において、破線円20は、ライダ2により地物を検出可能な範囲(「ライダ検出範囲」とも呼ぶ。)を示し、破線枠21は、検出対象地物Ftagである道路標識22を検出するための検出ウィンドウを示す。 Figure 5 shows an overhead view of the area around the vehicle when the vehicle is traveling near a road sign 22 that is the target feature Ftag when estimating the roll angle of the lidar 2. In Figure 5, a dashed circle 20 indicates the range in which the lidar 2 can detect features (also called the "lidar detection range"), and a dashed frame 21 indicates a detection window for detecting the road sign 22 that is the target feature Ftag.

この場合、車載機1は、地図DB10を参照することで、走行路の進行方向に対して垂直面を有する方形状の道路標識22がライダ検出範囲内に存在することを認識し、当該道路標識22に関する地物データに基づき破線枠21に示す検出ウィンドウを設定する。この場合、車載機1は、例えば、検出対象地物Ftagとなる道路標識の種別情報などを予め記憶しておき、当該種別情報が示す種別の道路標識がライダ検出範囲内に存在するか否かを地図DB10の地物データを参照して判定する。なお、地図DB10の地物データに地物の大きさ又は/及び形状の情報が含まれている場合には、車載機1は、検出対象地物Ftagとなる道路標識22の大きさ又は/及び形状の情報に基づき検出ウィンドウの大きさ又は/及び形状を決定してもよい。そして、車載機1は、ライダ2が計測する計測点群のうち、設定した検出ウィンドウ内に存在する計測点群(「対象計測点群Ptag」とも呼ぶ。)を、道路標識22の計測点群として抽出する。 In this case, the vehicle-mounted device 1 recognizes that a rectangular road sign 22 having a surface perpendicular to the traveling direction of the road is present within the lidar detection range by referring to the map DB 10, and sets a detection window shown in the dashed frame 21 based on the feature data related to the road sign 22. In this case, the vehicle-mounted device 1 pre-stores, for example, type information of the road sign that is the detection target feature Ftag, and determines whether or not a road sign of the type indicated by the type information is present within the lidar detection range by referring to the feature data in the map DB 10. Note that if the feature data in the map DB 10 includes information on the size and/or shape of the feature, the vehicle-mounted device 1 may determine the size and/or shape of the detection window based on the information on the size and/or shape of the road sign 22 that is the detection target feature Ftag. Then, the vehicle-mounted device 1 extracts the measurement point group (also called the "target measurement point group Ptag") that is present within the set detection window from the measurement point group measured by the lidar 2 as the measurement point group of the road sign 22.

図6(A)~(C)は、道路標識22の被計測面を正面視した場合の対象計測点群Ptagとライダ2によるレーザ光の走査線23(即ち、レーザ光の被照射点を時系列に結ぶ線)との位置関係を示す。なお、説明を容易にするため,ライダ2の初期姿勢角Lφ,Lθ,LΨが0度である場合を例にとっている。ここで、図6(A)は、ライダ2にロール方向のずれが生じていない場合の対象計測点群Ptagとライダ2の走査線23との関係を示し、図6(B)、(C)は、ロール方向のずれΔLφが生じている場合の対象計測点群Ptagとライダ2の走査線23との関係を示す。ここで、図6(B)は、車両座標系のy-z平面内における対象計測点群Ptagとライダ2の走査線23との関係を示し、図6(C)は、基準座標系のy‘-z‘平面内における対象計測点群Ptagとライダ2の走査線23との関係を示す。なお、ここでは、説明便宜上、ライダ2の姿勢ずれが生じていないときには、道路標識22の長手方向はy軸と平行であるものとし、車両は平坦な道路上に存在しているものとする。 6A to 6C show the positional relationship between the target measurement point cloud Ptag and the scanning line 23 of the laser light by the LIDAR 2 (i.e., a line connecting the irradiated points of the laser light in a time series) when the measurement surface of the road sign 22 is viewed from the front. For ease of explanation, a case where the initial attitude angles , , and of the LIDAR 2 are 0 degrees is taken as an example. Here, FIG. 6A shows the relationship between the target measurement point cloud Ptag and the scanning line 23 of the LIDAR 2 when no deviation in the roll direction occurs in the LIDAR 2, and FIGS. 6B and 6C show the relationship between the target measurement point cloud Ptag and the scanning line 23 of the LIDAR 2 when a deviation ΔLφ occurs in the roll direction. 6(B) shows the relationship between the target measurement point group Ptag and the scanning line 23 of the LIDAR 2 in the yb - zb plane of the vehicle coordinate system, and FIG. 6(C) shows the relationship between the target measurement point group Ptag and the scanning line 23 of the LIDAR 2 in the yb' - zb ' plane of the reference coordinate system. Note that, for ease of explanation, it is assumed here that when there is no attitude deviation of the LIDAR 2, the longitudinal direction of the road sign 22 is parallel to the yb axis, and that the vehicle is on a flat road.

図6(A)に示すように、ライダ2のロール角にずれが生じていない場合には、ライダ2は、道路標識22の横方向(即ち水平方向又は長手方向)と平行にスキャンを行う。そして、この場合、対象計測点群Ptagの縦方向における点群の数は、横方向における位置に関わらず同じ数(図6(A)では6個)となる。 As shown in FIG. 6(A), when there is no deviation in the roll angle of the lidar 2, the lidar 2 scans parallel to the lateral direction (i.e., the horizontal or longitudinal direction) of the road sign 22. In this case, the number of points in the longitudinal direction of the target measurement point cloud Ptag is the same regardless of the position in the lateral direction (six in FIG. 6(A)).

一方、ライダ2のロール角にずれが生じている場合には、道路標識22に対して走査線が斜めに傾いている。ここで、道路標識22の長手方向は車両に対して傾いておらず、ライダ2の走査線が車両に対して傾いているため、車両座標系で観察した場合には、図6(B)に示すように、y軸と道路標識22の長手方向とが平行となり、ライダ2の走査線がy軸に対して傾く。一方、基準座標系で観察した場合には、図6(C)に示すように、y‘軸とライダ2の走査線とが平行となり、道路標識22の長手方向がy‘軸に対して傾く。 On the other hand, when there is a deviation in the roll angle of the lidar 2, the scanning line is inclined obliquely with respect to the road sign 22. Here, since the longitudinal direction of the road sign 22 is not inclined with respect to the vehicle, and the scanning line of the lidar 2 is inclined with respect to the vehicle, when observed in the vehicle coordinate system, the yb axis and the longitudinal direction of the road sign 22 are parallel as shown in Fig. 6(B), and the scanning line of the lidar 2 is inclined with respect to the yb axis. On the other hand, when observed in the reference coordinate system, the yb ' axis and the scanning line of the lidar 2 are parallel as shown in Fig. 6(C), and the longitudinal direction of the road sign 22 is inclined with respect to the yb ' axis.

次に、対象計測点群Ptagの抽出後の処理について説明する。まず、車載機1は、対象計測点群Ptagの各計測点に対する受光強度を所定の閾値により判定することで、所定の閾値以下となる受光強度に対応する計測点を対象計測点群Ptagから除外する。そして、車載機1は、受光強度に基づく除外処理後の対象計測点群Ptagから、外縁を構成する点群(「外縁点群Pout」とも呼ぶ。)を抽出する。例えば、車載機1は、上下左右の少なくとも一方向において、隣接する計測点が存在しない対象計測点群Ptagの計測点を、外縁点群Poutとして抽出する。 Next, the processing after extraction of the target measurement point group Ptag will be described. First, the vehicle-mounted device 1 judges the received light intensity for each measurement point of the target measurement point group Ptag using a predetermined threshold, and excludes measurement points corresponding to received light intensities below the predetermined threshold from the target measurement point group Ptag. Then, the vehicle-mounted device 1 extracts a point group constituting the outer edge (also called the "outer edge point group Pout") from the target measurement point group Ptag after the exclusion process based on the received light intensity. For example, the vehicle-mounted device 1 extracts measurement points of the target measurement point group Ptag that have no adjacent measurement points in at least one direction of up, down, left, or right as the outer edge point group Pout.

図7(A)は、ライダ座標系における対象計測点群Ptagを示し、図7(B)は、所定の閾値以下となる受光強度に対応する計測点を除外した後の対象計測点群Ptagを示す。また、図7(C)は、図7(B)に示す対象計測点群Ptagから抽出した外縁点群Poutを示す。図7(A)、(B)に示すように、図7(A)に示す計測点のうち、レーザ光の一部のみが反射したことにより一部が欠けている計測点については、受光強度が所定の閾値以下となり、対象計測点群Ptagから除外されている。また、図7(B)、(C)に示すように、上下左右の少なくとも一方向において隣接する計測点が存在しない計測点が外縁点群Poutとして抽出されている。 Figure 7(A) shows the target measurement point cloud Ptag in the lidar coordinate system, and Figure 7(B) shows the target measurement point cloud Ptag after excluding measurement points corresponding to light receiving intensities below a predetermined threshold. Also, Figure 7(C) shows the outer edge point cloud Pout extracted from the target measurement point cloud Ptag shown in Figure 7(B). As shown in Figures 7(A) and (B), among the measurement points shown in Figure 7(A), for measurement points that are missing a portion due to only a portion of the laser light being reflected, the received light intensity is below a predetermined threshold and is excluded from the target measurement point cloud Ptag. Also, as shown in Figures 7(B) and (C), measurement points that do not have adjacent measurement points in at least one direction, up, down, left, or right, are extracted as the outer edge point cloud Pout.

次に、車載機1は、外縁点群Poutから道路標識22の長手方向の傾きを算出する。ここで、外縁点群Poutは四角形を形成することから、この四角形のそれぞれの辺ごとに外縁点群Poutを分類し、辺ごとに分類した外縁点群Poutから、最小二乗法などの回帰分析手法により各辺の近似直線の傾きを算出する。 Next, the vehicle-mounted device 1 calculates the inclination of the longitudinal direction of the road sign 22 from the outer edge point cloud Pout. Here, since the outer edge point cloud Pout forms a quadrangle, the outer edge point cloud Pout is classified for each side of this quadrangle, and the inclination of the approximate straight line of each side is calculated from the outer edge point cloud Pout classified for each side by a regression analysis method such as the least squares method.

図8(A)は、四角形の上辺を形成する外縁点群Poutを抽出し,最小2乗法で直線を引いた図を示す。図8(B)は、四角形の底辺を形成する外縁点群Poutを抽出し,最小2乗法で直線を引いた図を示す。図8(C)は、四角形の左辺を形成する外縁点群Poutを抽出し,最小2乗法で直線を引いた図を示す。図8(D)は、四角形の右辺を形成する外縁点群Poutを抽出し,最小2乗法で直線を引いた図を示す。 Figure 8(A) shows a diagram in which the outer edge point group Pout that forms the top side of a quadrangle is extracted, and a straight line is drawn using the least squares method. Figure 8(B) shows a diagram in which the outer edge point group Pout that forms the bottom side of a quadrangle is extracted, and a straight line is drawn using the least squares method. Figure 8(C) shows a diagram in which the outer edge point group Pout that forms the left side of a quadrangle is extracted, and a straight line is drawn using the least squares method. Figure 8(D) shows a diagram in which the outer edge point group Pout that forms the right side of a quadrangle is extracted, and a straight line is drawn using the least squares method.

この場合、車載機1は、図8(A)~(D)に示される各直線を算出し、各直線のy‘軸に対する傾き「φ」~「φ」を算出する。そして、車載機1は、以下の式(5)に示すように、これらの傾き「φ」~「φ」の平均を、道路標識22の傾き「φ」として算出する。 8A to 8D, and calculates the inclinations "φ 1 " to "φ 4 " of each line relative to the y b ' axis. Then, the vehicle-mounted device 1 calculates the average of these inclinations "φ 1 " to "φ 4 " as the inclination "φ" of the road sign 22, as shown in the following equation (5).

ここで、四角形の左辺及び右辺は、上辺及び底辺に対して約90°ずれているため、式(5)では、四角形の左辺及び右辺を構成する外縁点群Poutから求めた直線の傾きφ及びφに対して「π/2」だけ補正している。 Here, since the left and right sides of the rectangle are shifted by approximately 90° from the top and bottom sides, in equation (5), the slopes φ3 and φ4 of the straight lines obtained from the outer edge point group Pout that constitutes the left and right sides of the rectangle are corrected by “π/2”.

なお、好適には、車載機1は、傾きφを求める場合、四角形の各辺を構成する外縁点群Poutの数に基づき、各傾きφ~φに重み付けをしてもよい。この場合、四角形の上辺を形成する外縁点群Poutの数を「n」、四角形の底辺を形成する外縁点群Poutの数を「n」、四角形の左辺を形成する外縁点群Poutの数を「n」、四角形の右辺を形成する外縁点群Poutの数を「n」とすると、車載機1は、以下の式(6)に基づき重み付け平均を行うことで、傾きφを算出する。 Preferably, when determining the inclination φ, the vehicle-mounted device 1 may weight each of the inclinations φ 1 to φ 4 based on the number of the outer edge point group Pout constituting each side of the quadrangle. In this case, assuming that the number of the outer edge point group Pout constituting the top side of the quadrangle is "n 1 ", the number of the outer edge point group Pout constituting the bottom side of the quadrangle is "n 2 ", the number of the outer edge point group Pout constituting the left side of the quadrangle is "n 3 ", and the number of the outer edge point group Pout constituting the right side of the quadrangle is "n 4 ", the vehicle-mounted device 1 calculates the inclination φ by performing a weighted average based on the following formula (6).

他の好適な例では、車載機1は、傾きφを求める場合、ライダ2の水平方向の対象計測点群Ptagの間隔「I」と垂直方向の対象計測点群Ptagの間隔「I」とに基づいて、各傾きφ~φに重み付けをしてもよい。ここで、水平間隔I及び垂直間隔Iは、それぞれ図7(B)に示される間隔となる。この場合、車載機1は、垂直間隔Iが長いほど、四角形の上辺及び底辺の傾きφ及びφの精度が低くなり、水平間隔Iが長いほど、四角形の左辺及び右辺の傾きφ及びφの精度が低くなるとみなし、以下の式(7)に示すように、水平間隔I及び垂直間隔Iの逆数を用いて重み付け平均を行うことで、傾きφを算出する。 In another preferred example, when determining the inclination φ, the vehicle-mounted device 1 may weight each of the inclinations φ 1 to φ 4 based on the interval "I H " of the target measurement point group Ptag in the horizontal direction of the lidar 2 and the interval "I V " of the target measurement point group Ptag in the vertical direction. Here, the horizontal interval I H and the vertical interval I V are the intervals shown in FIG. 7B . In this case, the vehicle-mounted device 1 assumes that the longer the vertical interval I V , the lower the accuracy of the inclinations φ 1 and φ 2 of the top and bottom sides of the rectangle, and that the longer the horizontal interval I H , the lower the accuracy of the inclinations φ 3 and φ 4 of the left and right sides of the rectangle. As shown in the following formula (7), the vehicle-mounted device 1 calculates the inclination φ by performing a weighted average using the reciprocals of the horizontal interval I H and the vertical interval I V.

また、車載機1は、四角形の各辺を構成する点群の数n~n及び垂直間隔I及び水平間隔Iの両方を加味した重み付け平均により傾きφを算出してもよい。この場合、車載機1は、以下の式(8)に基づき重み付け平均を行うことで、傾きφを算出する。 Furthermore, the vehicle-mounted device 1 may calculate the inclination φ by a weighted average that takes into account the numbers n1 to n4 of points constituting each side of the quadrangle and both the vertical interval IV and the horizontal interval IH . In this case, the vehicle-mounted device 1 calculates the inclination φ by taking a weighted average based on the following formula (8).

また、車載機1は、ジャイロセンサ3及び加速度センサ4の出力に基づき車体のロール角「φ」を算出し、式(5)~(8)のいずれかにより算出した傾きφとの差分をとることで、ライダ2のロール角Lφを算出する。この場合、車載機1は、以下の式(9)に基づきライダ2のロール角Lφを算出する。 The vehicle-mounted device 1 also calculates the roll angle "φ 0 " of the vehicle body based on the outputs of the gyro sensor 3 and the acceleration sensor 4, and calculates the difference between this and the tilt φ calculated by any one of the equations (5) to (8) to calculate the roll angle L φ of the rider 2. In this case, the vehicle-mounted device 1 calculates the roll angle L φ of the rider 2 based on the following equation (9).

これにより、車載機1は、車両の傾きの影響を排除したライダ2のロール角Lφを好適に算出することができる。 This allows the vehicle-mounted device 1 to suitably calculate the roll angle of the rider 2 while eliminating the influence of the inclination of the vehicle.

好適には、検出対象地物Ftagである道路標識22が水平方向に対して傾いている可能性や計測誤差等を勘案し、車載機1は、上記のライダ2のロール角Lφの算出を、検出対象地物Ftagとなる多くの道路標識に対して実施し、それらを平均化するとよい。これにより、車載機1は、確からしいライダ2のロール方向の傾きLφを好適に算出することができる。 Preferably, taking into consideration the possibility that the road sign 22, which is the detection target feature Ftag, is inclined with respect to the horizontal direction, measurement errors, etc., the vehicle-mounted device 1 performs the above-mentioned calculation of the roll angle of the LIDAR 2 for many road signs, which are the detection target feature Ftag, and averages them. This allows the vehicle-mounted device 1 to preferably calculate the likely inclination of the LIDAR 2 in the roll direction.

また、車体のロール角φは平均すると0°と見なせるため,上述の平均化の時間を長くすることにより、車体のロール角度φを取得する必要がなくなる。例えば、十分大きいN個分の傾きφを取得した場合、車載機1は、ライダ2のロール角Lφを、以下の式(10)により定めてもよい。 In addition, since the roll angle φ 0 of the vehicle body can be regarded as 0° on average, by lengthening the averaging time described above, it becomes unnecessary to acquire the roll angle φ 0 of the vehicle body. For example, when N sufficiently large tilt angles φ are acquired, the vehicle-mounted device 1 may determine the roll angle L φ of the rider 2 by the following formula (10).

上述のNは、車体ロール角φの平均が略0°とみなすことができるサンプル数であり、例えば実験等に基づき予め定められる。 The above-mentioned N is the number of samples for which the average of the vehicle body roll angle φ 0 can be regarded as approximately 0°, and is determined in advance based on, for example, an experiment.

図9は、ロール角推定処理の手順を示すフローチャートである。 Figure 9 is a flowchart showing the steps of the roll angle estimation process.

まず、車載機1は、地図DB10を参照し、車両周辺の検出対象地物Ftagに対して検出ウィンドウを設定する(ステップS101)。この場合、車載機1は、検出対象地物Ftagとして、走行路の進行方向に対して垂直面を有する方形状の道路標識を選定し、現在位置から所定距離以内に存在する上述の道路標識を地図DB10から特定する。そして、車載機1は、特定した道路標識に関する位置情報等を地図DB10から取得することで、検出ウィンドウを設定する。 First, the vehicle-mounted device 1 refers to the map DB 10 and sets a detection window for the detection target feature Ftag around the vehicle (step S101). In this case, the vehicle-mounted device 1 selects a rectangular road sign having a perpendicular surface to the traveling direction of the road as the detection target feature Ftag, and identifies the above-mentioned road sign that exists within a predetermined distance from the current position from the map DB 10. Then, the vehicle-mounted device 1 sets the detection window by acquiring position information, etc. related to the identified road sign from the map DB 10.

次に、車載機1は、ステップS101で設定した検出ウィンドウ内のライダ2の計測点群を、検出対象地物Ftagの点群(即ち対象計測点群Ptag)として取得する(ステップS102)。そして、車載機1は、ステップS102で取得した対象計測点群Ptagから、これらの点群の外縁を形成する外縁点群Poutを抽出する(ステップS103)。 Next, the vehicle-mounted device 1 acquires the measurement point cloud of the lidar 2 within the detection window set in step S101 as a point cloud of the detection target feature Ftag (i.e., the target measurement point cloud Ptag) (step S102).Then, the vehicle-mounted device 1 extracts the outer edge point cloud Pout that forms the outer edge of these point clouds from the target measurement point cloud Ptag acquired in step S102 (step S103).

そして、車載機1は、ステップS103で抽出した外縁点群Poutの横方向の傾きφを算出する(ステップS104)。この場合、車載機1は、図8(A)~(D)において説明したように、外縁点群Poutが形成する四角形の各辺に該当する点群から各辺に対応する直線の傾きφ~φを求め、式(5)~(8)のいずれかの式を採用して傾きφを算出する。 Then, the vehicle-mounted device 1 calculates the lateral gradient φ of the outer edge point group Pout extracted in step S103 (step S104). In this case, as described with reference to Figures 8(A) to 8(D), the vehicle-mounted device 1 obtains gradients φ1 to φ4 of straight lines corresponding to each side from the points corresponding to each side of the quadrangle formed by the outer edge point group Pout, and calculates the gradient φ by employing any one of the formulas (5) to (8).

その後、車載機1は、傾きφの平均化処理又は/及び車体のロール角φとの差分処理により、ライダ2のロール角Lφを算出する(ステップS105)。上述の平均化処理では、車載機1は、ステップS101~S104の処理を複数の検出対象地物Ftagに対して実行することで複数の傾きφを取得し、取得した複数の傾きφの平均値を、傾きLφとして算出する。 Thereafter, the vehicle-mounted device 1 calculates the roll angle of the LIDAR 2 by averaging the tilt φ and/or by subtracting the tilt φ from the roll angle φ 0 of the vehicle body (step S105). In the averaging process described above, the vehicle-mounted device 1 executes the processes of steps S101 to S104 for multiple detection target features Ftag to obtain multiple tilts φ, and calculates the average value of the obtained multiple tilts φ as the tilt .

[ピッチ角の推定]
次に、ライダ2のピッチ角Lθの推定方法について説明する。車載機1は、走行路の幅方向に対して垂直面(即ち走行路に対して横向きの面)を有する方形状の道路標識を検出対象地物Ftagとみなし、当該道路標識の傾きをライダ2が出力する計測点群にもとづき算出することで、ライダ2のピッチ角を推定する。
[Pitch angle estimation]
Next, a method for estimating the pitch angle of the LIDAR 2 will be described. The vehicle-mounted device 1 regards a rectangular road sign having a surface perpendicular to the width direction of the road (i.e., a surface oriented horizontally to the road) as a detection target feature Ftag, and estimates the pitch angle of the LIDAR 2 by calculating the inclination of the road sign based on the measurement point cloud output by the LIDAR 2.

図10は、ライダ2のピッチ角を推定する際の検出対象地物Ftagとなる道路標識24付近に車両が走行する場合の車両周辺の俯瞰図を示す。図10において、破線円20は、ライダ2により地物を検出可能なライダ検出範囲を示し、破線枠21は、検出対象地物Ftagである道路標識24に対して設定した検出ウィンドウを示す。 Figure 10 shows an overhead view of the area around the vehicle when the vehicle is traveling near a road sign 24 that is a target feature Ftag when estimating the pitch angle of the lidar 2. In Figure 10, a dashed circle 20 indicates the lidar detection range in which the lidar 2 can detect the target feature Ftag, and a dashed frame 21 indicates a detection window set for the road sign 24 that is a target feature Ftag.

この場合、車載機1は、地図DB10を参照することで、走行路の幅方向に対して垂直面を有する方形状の道路標識24が破線円20に示されるライダ検出範囲内に存在することを認識し、当該道路標識24に関する位置情報等に基づき破線枠21に示す検出ウィンドウを設定する。この場合、車載機1は、例えば、検出対象地物Ftagとなる道路標識の種別情報などを予め記憶しておき、当該種別情報が示す種別の道路標識がライダ検出範囲内に存在するか否かを地図DB10の地物データを参照して判定する。そして、車載機1は、ライダ2が出力する計測点群のうち、設定した検出ウィンドウ内に存在する計測点群を、対象計測点群Ptagとして抽出する。 In this case, the vehicle-mounted device 1 refers to the map DB 10 to recognize that a rectangular road sign 24 having a surface perpendicular to the width direction of the road is present within the lidar detection range shown in the dashed circle 20, and sets a detection window shown in the dashed frame 21 based on position information and the like related to the road sign 24. In this case, the vehicle-mounted device 1 pre-stores, for example, type information and the like of the road sign that is the detection target feature Ftag, and determines whether or not a road sign of the type indicated by the type information is present within the lidar detection range by referring to the feature data in the map DB 10. Then, the vehicle-mounted device 1 extracts the measurement point group that is present within the set detection window from the measurement point group output by the lidar 2 as the target measurement point group Ptag.

次に、車載機1は、抽出した対象計測点群Ptagに対して、ロール角の推定方法と同様の処理を実行することで、ライダ2のピッチ角を推定する。 Next, the vehicle-mounted device 1 estimates the pitch angle of the rider 2 by performing a process similar to the roll angle estimation method on the extracted target measurement point cloud Ptag.

具体的には、まず、車載機1は、対象計測点群Ptagの各計測点に対する受光強度を所定の閾値により判定することで、所定の閾値以下となる受光強度に対応する計測点を対象計測点群Ptagから除外する。そして、車載機1は、受光強度に基づく除外処理後の対象計測点群Ptagから、外縁を構成する外縁点群Poutを抽出する。次に、車載機1は、外縁点群Poutが構成する四角形の各辺の近似直線の傾き「θ」~「θ」を最小二乗法などの回帰分析手法により算出する。そして、車載機1は、傾きθ~θに基づく平均化処理を行うことで、道路標識22の傾き「θ」を算出する。なお、車載機1は、式(6)~(8)と同様、四角形の各辺を構成する点群の数n~nと、垂直間隔I及び水平間隔Iとの少なくとも一方を加味した重み付け平均により傾きθを算出してもよい。 Specifically, the vehicle-mounted device 1 first determines the light receiving intensity for each measurement point of the target measurement point group Ptag based on a predetermined threshold, and excludes measurement points corresponding to light receiving intensities equal to or less than the predetermined threshold from the target measurement point group Ptag. The vehicle-mounted device 1 then extracts an outer edge point group Pout that constitutes the outer edge from the target measurement point group Ptag after the exclusion process based on the light receiving intensity. Next, the vehicle-mounted device 1 calculates the slopes "θ 1 " to "θ 4 " of the approximated straight lines of each side of the quadrangle constituted by the outer edge point group Pout using a regression analysis method such as the least squares method. The vehicle-mounted device 1 then calculates the slope "θ" of the road sign 22 by performing an averaging process based on the slopes θ 1 to θ 4 . In addition, the vehicle-mounted device 1 may calculate the inclination θ by a weighted average that takes into account at least one of the numbers n1 to n4 of points constituting each side of the quadrangle and the vertical interval IV and the horizontal interval IH , similar to equations (6) to (8).

また、車載機1は、ジャイロセンサ3及び加速度センサ4の出力に基づき車体のピッチ角「θ」を算出し、傾きθとの差分をとることで、ライダ2のピッチ角Lθを算出する。この場合、車載機1は、以下の式(11)に基づきライダ2のピッチ方向の傾きLθを算出する。 The vehicle-mounted device 1 also calculates the pitch angle "θ 0 " of the vehicle body based on the outputs of the gyro sensor 3 and the acceleration sensor 4, and calculates the difference between this and the inclination θ to calculate the pitch angle L θ of the rider 2. In this case, the vehicle-mounted device 1 calculates the inclination L θ of the rider 2 in the pitch direction based on the following equation (11).

これにより、車載機1は、車両の傾きの影響を排除したライダ2のピッチ角Lθを好適に算出することができる。また、好適には、検出対象地物Ftagである道路標識24が水平方向に対して傾いている可能性や計測誤差等を勘案し、車載機1は、上記のライダ2のピッチ角Lθの算出を、検出対象地物Ftagとなる多くの道路標識に対して実施し、それらを平均化するとよい。これにより、車載機1は、確からしいライダ2のピッチ角Lθを好適に算出することができる。ここで、車体のピッチ角θは平均すると0°と見なせるため,上述の平均化の時間を長くすることにより、車体のピッチ角度θを取得する必要がなくなる。例えば、N個分の傾きθを取得した場合、ライダ2のピッチ角Lθは、以下の式(12)により表される。 This allows the vehicle-mounted device 1 to suitably calculate the pitch angle L θ of the LIDAR 2, excluding the influence of the vehicle tilt. In addition, preferably, taking into consideration the possibility that the road sign 24, which is the detection target feature Ftag, is tilted with respect to the horizontal direction, measurement errors, etc., the vehicle-mounted device 1 performs the above-mentioned calculation of the pitch angle L θ of the LIDAR 2 for many road signs that are the detection target feature Ftag, and averages them. This allows the vehicle-mounted device 1 to suitably calculate a likely pitch angle L θ of the LIDAR 2. Here, since the pitch angle θ 0 of the vehicle body can be regarded as 0° on average, it becomes unnecessary to acquire the pitch angle θ 0 of the vehicle body by lengthening the above-mentioned averaging time. For example, when N tilts θ are acquired, the pitch angle L θ of the LIDAR 2 is expressed by the following formula (12).

図11は、ピッチ角推定処理の手順を示すフローチャートである。 Figure 11 is a flowchart showing the steps of the pitch angle estimation process.

まず、車載機1は、地図DB10を参照し、車両周辺の検出対象地物Ftagに対して検出ウィンドウを設定する(ステップS201)。この場合、車載機1は、検出対象地物Ftagとして、走行路の幅方向に対して垂直面を有する方形状の道路標識を選定し、現在位置から所定距離以内に存在する上述の道路標識を地図DB10から特定する。そして、車載機1は、特定した道路標識に関する位置情報等を地図DB10から取得することで、検出ウィンドウを設定する。 First, the vehicle-mounted device 1 refers to the map DB 10 and sets a detection window for the detection target feature Ftag around the vehicle (step S201). In this case, the vehicle-mounted device 1 selects a rectangular road sign having a perpendicular surface to the width direction of the road as the detection target feature Ftag, and identifies the above-mentioned road sign that exists within a predetermined distance from the current position from the map DB 10. Then, the vehicle-mounted device 1 sets the detection window by acquiring position information and the like related to the identified road sign from the map DB 10.

次に、車載機1は、ステップS201で設定した検出ウィンドウ内のライダ2の計測点群を、検出対象地物Ftagの点群(即ち対象計測点群Ptag)として取得する(ステップS202)。そして、車載機1は、ステップS202で取得した検出対象地物Ftagの点群から、これらの点群の外縁を形成する外縁点群Poutを抽出する(ステップS203)。 Next, the vehicle-mounted device 1 acquires the measurement point cloud of the lidar 2 within the detection window set in step S201 as a point cloud of the detection target feature Ftag (i.e., the target measurement point cloud Ptag) (step S202).Then, the vehicle-mounted device 1 extracts an outer edge point cloud Pout that forms the outer edge of the point cloud from the point cloud of the detection target feature Ftag acquired in step S202 (step S203).

そして、車載機1は、ステップS203で抽出した外縁点群Poutの長手方向の傾きθを算出する(ステップS204)。その後、車載機1は、傾きθの平均化処理又は/及び車体のピッチ角θとの差分処理により、ライダ2のピッチ方向の傾きLθを算出する(ステップS205)。上述の平均化処理では、車載機1は、ステップS201~S204の処理を複数の対象計測点群Ptagに対して実行することで複数の傾きθを算出し、これらの平均値を傾きLθとして算出する。 Then, the vehicle-mounted device 1 calculates the tilt θ in the longitudinal direction of the outer edge point group Pout extracted in step S203 (step S204). After that, the vehicle-mounted device 1 calculates the tilt L θ in the pitch direction of the rider 2 by averaging the tilt θ and/or by subtracting the tilt θ from the pitch angle θ 0 of the vehicle body (step S205). In the above-mentioned averaging process, the vehicle-mounted device 1 executes the processes of steps S201 to S204 for multiple target measurement point groups Ptag to calculate multiple tilts θ, and calculates the average value of these as the tilt L θ .

[ヨー角の推定]
次に、ライダ2のヨー角Lψの推定方法について説明する。車載機1は、白線などの区画線を検出対象地物Ftagとみなし、区画線の中心線の方向をライダ2が計測する計測点群に基づき算出することで、ライダ2のヨー角Lψを推定する。
[Yaw angle estimation]
Next, a description will be given of a method for estimating the yaw angle of the LIDAR 2. The vehicle-mounted device 1 regards a lane marking such as a white line as a detection target feature Ftag, and estimates the yaw angle of the LIDAR 2 by calculating the direction of the center line of the lane marking based on a cloud of measurement points measured by the LIDAR 2.

図12は、ライダ2のヨー角を推定する際の検出対象地物Ftagとなる区画線に沿って車両が走行する場合の車両周辺の俯瞰図を示す。この例では、車両の左側に連続する区画線である連続線30が存在し、車両の右側に断続的に存在する区画線である破線31が存在している。また、矢印25は、ライダ2にヨー方向のずれが生じていない場合のヨー方向の基準方向を示し,ライダ2の座標軸「x」をライダ2のヨー角LΨだけ回転させた向きであり、車両の進行方向に沿った座標軸「x」と一致する。すなわち、ライダ2のヨー角LΨは、ずれが生じていなければ、車両の走行方向であるとみなすヨー角(「ヨー方向基準角」とも呼ぶ。)を示す。一方、矢印26は、ライダ2にヨー方向のずれがΔLΨ生じた場合のヨー方向基準角を示しており、ヨー方向基準角を修正しないと、車両の走行方向と一致しなくなる。ヨー方向基準角は、例えば予め記憶部12等に記憶されている。 FIG. 12 shows an overhead view of the vehicle periphery when the vehicle travels along a demarcation line that is a detection target feature Ftag when estimating the yaw angle of the LIDAR 2. In this example, a continuous line 30, which is a continuous demarcation line, exists on the left side of the vehicle, and a broken line 31, which is a demarcation line that exists intermittently, exists on the right side of the vehicle. The arrow 25 indicates the reference direction in the yaw direction when no deviation in the yaw direction occurs in the LIDAR 2, and is the direction in which the coordinate axis "x L " of the LIDAR 2 is rotated by the yaw angle L Ψ of the LIDAR 2, and coincides with the coordinate axis "x b " along the traveling direction of the vehicle. That is, the yaw angle L Ψ of the LIDAR 2 indicates a yaw angle (also called the "yaw direction reference angle") that is considered to be the traveling direction of the vehicle if no deviation occurs. On the other hand, the arrow 26 indicates the yaw direction reference angle when a deviation in the yaw direction ΔL Ψ occurs in the LIDAR 2, and if the yaw direction reference angle is not corrected, it will not coincide with the traveling direction of the vehicle. The yaw direction reference angle is stored in advance in, for example, the storage unit 12 or the like.

この場合、例えば、地図DB10内には、連続線30の離散的な座標位置及び破線31の離散的な座標位置を示す区画線情報が含まれている。そして、車載機1は、この区画線情報を参照し、車両の左前方、左後方、右前方、右後方の各方向において、車両から所定距離(例えば5m)離れた位置から最も近い座標位置を抽出し、抽出した座標位置を中心として矩形領域を、破線枠21A~21Dに示される検出ウィンドウとして設定する。 In this case, for example, the map DB 10 contains demarcation line information indicating the discrete coordinate positions of the continuous line 30 and the discrete coordinate positions of the dashed line 31. The vehicle-mounted device 1 then references this demarcation line information, extracts the closest coordinate position from a position a predetermined distance (e.g., 5 m) away from the vehicle in each of the directions of the left front, left rear, right front, and right rear of the vehicle, and sets a rectangular area centered on the extracted coordinate position as the detection window shown in the dashed frame 21A-21D.

次に、車載機1は、ライダ2が計測する計測点群から、検出ウィンドウ内において、路面上かつ、所定の閾値以上の反射強度なる点群を、対象計測点群Ptagとして抽出する。そして、車載機1は、走査線ごとの対象計測点群Ptagの中心点を求め、検出ウィンドウごとにこれらの中心点を通る直線(矢印27A~27D参照)を、区画線の中心線として算出する。 Next, the vehicle-mounted device 1 extracts, from the measurement point clouds measured by the lidar 2, a point cloud that is on the road surface within the detection window and has a reflection intensity equal to or greater than a predetermined threshold, as the target measurement point cloud Ptag. The vehicle-mounted device 1 then finds the center point of the target measurement point cloud Ptag for each scanning line, and calculates the straight line (see arrows 27A to 27D) that passes through these center points for each detection window as the center line of the lane marking.

図13(A)は、破線枠21Aの検出ウィンドウにおける中心点を丸印により示した図であり、図13(B)は、破線枠21Bの検出ウィンドウにおける中心点を丸印により示した図である。また、図13(A)、(B)では、ライダ2によるレーザ光の走査線28が明示されている。なお、区画線に入射するライダ2のレーザ光は下斜め方向に射出されているため、走査線は、車両に近づくほど間隔が短くなっている。 Figure 13(A) shows the center point of the detection window of dashed frame 21A with a circle, and Figure 13(B) shows the center point of the detection window of dashed frame 21B with a circle. Also, Figures 13(A) and (B) clearly show the scanning line 28 of the laser light from the lidar 2. Note that because the laser light from the lidar 2 that is incident on the lane marking is emitted in a downward diagonal direction, the spacing of the scanning lines becomes shorter as they get closer to the vehicle.

図13(A)、(B)に示すように、車載機1は、各走査線28に対して中心点を算出する。中心点は、計測点が示す座標位置を走査線28ごとに平均した位置であってもよく、各走査線28上の左端及び右端の計測点の中間点であってもよく、各走査線28上の中間に存在する計測点であってもよい。そして、車載機1は、算出した中心点から、最小二乗法などの回帰分析手法により区画線の中心線(矢印27A、27B参照)を検出ウィンドウごとに算出する。 As shown in Figures 13(A) and (B), the vehicle-mounted device 1 calculates a center point for each scanning line 28. The center point may be a position obtained by averaging the coordinate positions indicated by the measurement points for each scanning line 28, or may be a midpoint between the measurement points at the left and right ends of each scanning line 28, or may be a measurement point located midway on each scanning line 28. Then, the vehicle-mounted device 1 calculates the center line of the division line (see arrows 27A and 27B) for each detection window from the calculated center point using a regression analysis method such as the least squares method.

そして、車載機1は、検出ウィンドウごとに算出した区画線の中心線とヨー方向基準角(図12の矢印26参照)とがなす角を、傾き「ψ」~「ψ」として算出する。図14(A)~(D)は、傾きψ~ψをそれぞれ示した図である。図14(A)~(D)に示すように、傾きψ~ψは、区画線の中心線を指し示す矢印27A~27Dと、ヨー方向基準角を指し示す矢印26とがなす角に相当する。 The vehicle-mounted device 1 then calculates the angles between the center lines of the lane lines calculated for each detection window and the yaw direction reference angle (see arrow 26 in FIG. 12) as inclinations "ψ 1 " to "ψ 4 ". FIGS. 14(A) to (D) are diagrams showing the inclinations ψ 1 to ψ 4 , respectively. As shown in FIGS. 14(A) to (D), the inclinations ψ 1 to ψ 4 correspond to the angles between the arrows 27A to 27D indicating the center lines of the lane lines and the arrow 26 indicating the yaw direction reference angle.

そして、車載機1は、以下の式(13)に示されるように、傾きψ~ψを平均化することで、傾きψを算出する。 Then, the vehicle-mounted device 1 calculates the inclination ψ by averaging the inclinations ψ 1 to ψ 4 as shown in the following equation (13).

また、車載機1は、区画線の中心線の算出に用いた中心点の数に基づき傾きψ~ψを重み付けしてもよい。この場合、傾きψとなる区画線の中心線の算出に用いた中心点の数を「n」、傾きψとなる区画線の中心線の算出に用いた中心点の数を「n」、傾きψとなる区画線の中心線の算出に用いた中心点の数を「n」、傾きψとなる区画線の中心線の算出に用いた中心点の数を「n」とすると、車載機1は、以下の式(14)に基づき傾きψを算出する。 Furthermore, the vehicle-mounted device 1 may weight the slopes ψ 1 to ψ 4 based on the number of center points used in calculating the center lines of the lane lines. In this case, assuming that the number of center points used in calculating the center line of the lane line with slope ψ 1 is "n 1 " , the number of center points used in calculating the center line of the lane line with slope ψ 2 is "n 2 ", the number of center points used in calculating the center line of the lane line with slope ψ 3 is "n 3 ", and the number of center points used in calculating the center line of the lane line with slope ψ 4 is "n 4 ", the vehicle-mounted device 1 calculates the slope ψ based on the following formula (14):

これにより、車載機1は、少ない中心点により算出した区画線(図12では破線31)の中心線の傾きの重みを相対的に低くし、傾きψを的確に求めることができる。よって、図13(A)の検出状況に対して、図13(B)の検出状況では重みが低くなる。なお、図12~図14の説明では、同時に4箇所の区画線に対する傾きψ~ψを算出する例について示したが、少なくとも1箇所の区画線に対する傾きを算出すればよい。 As a result, the vehicle-mounted device 1 can accurately determine the slope ψ by relatively lowering the weight of the slope of the center line of the lane marking (dashed line 31 in Fig. 12) calculated using fewer center points. Therefore, the weight is lower in the detection situation of Fig. 13(B) than in the detection situation of Fig. 13(A). Note that, in the explanation of Figs. 12 to 14, an example has been shown in which the slopes ψ 1 to ψ 4 relative to four lane markings are calculated simultaneously, but it is sufficient to calculate the slope relative to at least one lane marking.

次に、傾きψからライダ2のヨー角Lψを算出する方法について説明する。白線などの区画線は、道路に沿って描かれているため、車体のヨー角はほぼ一定(即ち走行路と平行)とみなすことができる。よって、車載機1は、ロール角やピッチ角の推定方法と異なり、傾きψを、ライダ2のヨー角のずれΔLψ(即ち「ΔLψ=ψ」)として算出する。ただし、通常の走行では、車線変更や、車線内での車体のふらつきが存在する。よって、車載機1は、多くの区画線に対して中心線の傾きを算出する処理を実行し、それを平均化するとよい。これにより、車載機1は、確からしいライダ2のヨー角のずれΔLψを好適に算出することができる。例えば、N個分の傾きψを取得した場合、ライダ2のヨー角Lψは、以下の式(15)により表される。 Next, a method for calculating the yaw angle L ψ of the rider 2 from the inclination ψ will be described. Since the lane markings such as white lines are drawn along the road, the yaw angle of the vehicle body can be considered to be almost constant (i.e., parallel to the road). Therefore, unlike the method for estimating the roll angle or pitch angle, the vehicle-mounted device 1 calculates the inclination ψ as the deviation ΔL ψ of the yaw angle of the rider 2 (i.e., "ΔL ψ = ψ"). However, in normal driving, lane changes and wobbling of the vehicle body within the lane exist. Therefore, the vehicle-mounted device 1 may execute a process for calculating the inclination of the center line for many lane marks and average them. This allows the vehicle-mounted device 1 to suitably calculate the deviation ΔL ψ of the yaw angle of the rider 2 that is likely to occur. For example, when N inclinations ψ are acquired, the yaw angle L ψ of the rider 2 is expressed by the following formula (15).

ここで、「LΨ0」は、ヨー角にずれが生じていないときのヨー角LΨ(即ちヨー方向基準角)を示す。 Here, "L ψ0 " indicates the yaw angle L ψ (i.e., the yaw direction reference angle) when no deviation occurs in the yaw angle.

図15は、ヨー角推定処理の手順を示すフローチャートである。 Figure 15 is a flowchart showing the steps of the yaw angle estimation process.

まず、車載機1は、地図DB10を参照し、区画線に対して1個以上の検出ウィンドウを設定する(ステップS301)。そして、車載機1は、ステップS301で設定した検出ウィンドウ内のライダ2の計測点群を、区画線の点群(即ち対象計測点群Ptag)として取得する(ステップS302)。 First, the vehicle-mounted device 1 refers to the map DB 10 and sets one or more detection windows for the lane markings (step S301). Then, the vehicle-mounted device 1 acquires the measurement point cloud of the lidar 2 within the detection window set in step S301 as the point cloud of the lane markings (i.e., the target measurement point cloud Ptag) (step S302).

そして、車載機1は、設定した各検出ウィンドウ内の区画線の中心線を算出する(ステップS303)。この場合、車載機1は、ライダ2の走査線ごとに対象計測点群Ptagの中心点を求め、中心点から最小二乗法等に基づき検出ウィンドウごとに区画線の中心線を算出する。そして、車載機1は、予め記憶部12等に記憶したヨー角基準角と、区画線の中心線との角度ψを算出する(ステップS304)。この場合、車載機1は、ステップS301において2つ以上の検出ウィンドウを設定した場合には、検出ウィンドウごとにヨー角基準角と区画線の中心線との角度を求め、これらの角度を平均化又は中心点の数により重み付け平均化することで、上述の角度ψを算出する。 Then, the vehicle-mounted device 1 calculates the center line of the demarcation line in each detection window that has been set (step S303). In this case, the vehicle-mounted device 1 obtains the center point of the target measurement point group Ptag for each scanning line of the lidar 2, and calculates the center line of the demarcation line for each detection window from the center point based on the least squares method or the like. Then, the vehicle-mounted device 1 calculates the angle ψ between the yaw angle reference angle previously stored in the memory unit 12 or the like and the center line of the demarcation line (step S304). In this case, if two or more detection windows are set in step S301, the vehicle-mounted device 1 obtains the angle between the yaw angle reference angle and the center line of the demarcation line for each detection window, and calculates the above-mentioned angle ψ by averaging these angles or averaging them weighted by the number of center points.

そして、車載機1は、異なる区画線を対象にステップS301~S304を実行することで算出した複数の角度ψを平均化し、式(15)に基づき、ライダ2のヨー角Lψを算出する(ステップS305)。 Then, the vehicle-mounted device 1 averages the multiple angles ψ calculated by executing steps S301 to S304 for different lane lines, and calculates the yaw angle L ψ of the rider 2 based on equation (15) (step S305).

ここで、以上説明したロール角、ピッチ角及びヨー角の推定値に基づく処理の具体例について説明する。図16は、ロール角、ピッチ角及びヨー角の推定値に基づく処理の具体例を示すフローチャートである。 Here, a specific example of processing based on the estimated values of the roll angle, pitch angle, and yaw angle described above will be described. FIG. 16 is a flowchart showing a specific example of processing based on the estimated values of the roll angle, pitch angle, and yaw angle.

まず、車載機1は、図9、図11、又は図15のフローチャートの処理を実行することで、ライダ2のロール角Lφ、ピッチ角Lθ、又はヨー角Lψのいずれかを算出したか否か判定する(ステップS401)。そして、車載機1は、ライダ2のロール角Lφ、ピッチ角Lθ、又はヨー角Lψのいずれかを算出した場合(ステップS401;Yes)、算出した角度がライダ設置情報ILに記録された角度から所定角度以上変化しているか否か判定する(ステップS402)。上述の閾値は、後述するステップS404でのライダ2の計測データの補正処理を行うことで引き続きライダ2の計測データを使用できるか否かを判定するための閾値であり、例えば予め実験等に基づき設定される。 First, the vehicle-mounted device 1 executes the process of the flowchart of Fig. 9, Fig. 11, or Fig. 15 to determine whether or not any of the roll angle , pitch angle , or yaw angle of the rider 2 has been calculated (step S401). Then, when the vehicle-mounted device 1 calculates any of the roll angle , pitch angle , or yaw angle of the rider 2 (step S401; Yes), it determines whether or not the calculated angle has changed by a predetermined angle or more from the angle recorded in the rider installation information IL (step S402). The above-mentioned threshold value is a threshold value for determining whether or not the measurement data of the rider 2 can be used continuously by performing a correction process of the measurement data of the rider 2 in step S404 described later, and is set in advance based on, for example, experiments.

そして、車載機1は、算出した角度がライダ設置情報ILに記録された角度から所定角度以上変化している場合(ステップS402;Yes)、対象のライダ2の出力データの使用(即ち障害物検知や自車位置推定等への利用)を中止し、対象のライダ2について再度のアライメント調整を行う必要がある旨の警告を情報出力部16により出力する(ステップS403)。これにより、事故等により著しく姿勢・位置のずれが生じたライダ2の計測データを用いることによる安全性低下等を確実に抑制する。 If the calculated angle has changed by a predetermined angle or more from the angle recorded in the lidar installation information IL (step S402; Yes), the vehicle-mounted device 1 stops using the output data of the target lidar 2 (i.e., use for obstacle detection, vehicle position estimation, etc.), and outputs a warning from the information output unit 16 that the target lidar 2 needs to be realigned (step S403). This reliably prevents a decrease in safety, etc., caused by using measurement data from a lidar 2 whose attitude or position has shifted significantly due to an accident, etc.

一方、車載機1は、算出した角度がライダ設置情報ILに記録された角度から所定角度以上変化していない場合(ステップS402;No)、ライダ設置情報ILに記録された角度からの算出した角度の変化量に基づき、ライダ2が出力する点群データの各計測値を補正する(ステップS404)。この場合、車載機1は、例えば、上述の変化量に対する計測値の補正量を示すマップ等を記憶しておき、当該マップ等を参照することで、上述の計測値を補正する。また、変化量の所定の割合の値を計測値の補正量として計測値を補正してもよい。 On the other hand, if the calculated angle has not changed by a predetermined angle or more from the angle recorded in the LIDAR installation information IL (step S402; No), the vehicle-mounted device 1 corrects each measurement value of the point cloud data output by the LIDAR 2 based on the amount of change in the calculated angle from the angle recorded in the LIDAR installation information IL (step S404). In this case, the vehicle-mounted device 1 stores, for example, a map or the like indicating the amount of correction of the measurement value for the amount of change described above, and corrects the above measurement value by referring to the map or the like. The measurement value may also be corrected by setting a value of a predetermined percentage of the amount of change as the amount of correction of the measurement value.

以上説明したように、本実施例における車載機1は、車両の走行路の進行方向に対して垂直面又は走行路の幅方向に対して垂直面を有する道路標識を、車両に取り付けられたライダ2により計測した対象計測点群Ptagを取得する。そして、車載機1は、対象計測点群Ptagから算出される、ライダ2の設置情報に基づく座標系を基準とした道路標識の長手方向の傾きに基づいて、ライダ2の車両への取り付け姿勢を推定する。これにより、車載機1は、ロール方向及びピッチ方向におけるライダ2の車両への取り付け姿勢を的確に推定することができる。 As described above, the vehicle-mounted device 1 in this embodiment acquires a target measurement point cloud Ptag measured by the lidar 2 attached to the vehicle of road signs having a surface perpendicular to the traveling direction of the vehicle's roadway or a surface perpendicular to the width direction of the roadway. The vehicle-mounted device 1 then estimates the mounting attitude of the lidar 2 to the vehicle based on the longitudinal tilt of the road sign calculated from the target measurement point cloud Ptag with reference to a coordinate system based on the installation information of the lidar 2. This allows the vehicle-mounted device 1 to accurately estimate the mounting attitude of the lidar 2 to the vehicle in the roll direction and pitch direction.

また、以上説明したように、本実施例における車載機1は、区画線を車両に取り付けられたライダ2により計測した計測点群を取得し、当該計測点群に基づき、車両の走行方向に沿った区画線の中心線を算出する。そして、車載機1は、ライダ2が基準とするヨー方向基準角に対する区画線の中心線の方向に基づき、ライダ2の車両への取り付け姿勢を推定する。これにより、車載機1は、ヨー方向におけるライダ2の車両の取り付け姿勢を好適に推定することができる。 As described above, the vehicle-mounted device 1 in this embodiment acquires a cloud of measurement points obtained by measuring the lane markings using the lidar 2 attached to the vehicle, and calculates the center line of the lane markings along the vehicle's traveling direction based on the cloud of measurement points. The vehicle-mounted device 1 then estimates the mounting attitude of the lidar 2 to the vehicle based on the direction of the center line of the lane markings relative to the yaw direction reference angle based on which the lidar 2 is based. This allows the vehicle-mounted device 1 to preferably estimate the mounting attitude of the lidar 2 to the vehicle in the yaw direction.

[変形例]
以下、実施例に好適な変形例について説明する。以下の変形例は、組み合わせて実施例に適用してもよい。
[Modification]
Preferred modified examples of the embodiment will be described below. The following modified examples may be applied to the embodiment in combination.

(変形例1)
図13及び図15のステップS303の説明では、車載機1は、検出ウィンドウ内における区画線の幅方向における中心点を算出することで区画線の中心線を算出した。これに代えて、車載機1は、検出ウィンドウ内における走査線の右端点又は左端点を抽出し、区画線の右端又は左端を通る直線を算出してもよい。これによっても、車載機1は、走行路と平行となる線を好適に特定して角度ψを算出することができる。
(Variation 1)
In the description of step S303 in Figures 13 and 15, the vehicle-mounted device 1 calculates the center line of the lane line by calculating the center point of the lane line in the width direction within the detection window. Alternatively, the vehicle-mounted device 1 may extract the right end point or the left end point of the scanning line within the detection window and calculate a straight line passing through the right end or the left end of the lane line. This also allows the vehicle-mounted device 1 to preferably identify a line that is parallel to the road and calculate the angle ψ.

(変形例2)
図12~図15で説明したヨー角の推定処理では、車載機1は区間線を検出対象地物Ftagとみなした。これに代えて、又はこれに加えて、車載機1は、縁石などを検出対象地物Ftagとみなしてもよい。このように、車載機1は、区画線に限らず、被計測面が走行路面と平行であって走行路面に沿って形成された任意の地物を検出対象地物Ftagとみなして図12~図15で説明したヨー角の推定処理を実行してもよい。
(Variation 2)
In the yaw angle estimation process described in Figures 12 to 15, the vehicle-mounted device 1 regards the lane markings as the detection target feature Ftag. Alternatively, or in addition, the vehicle-mounted device 1 may regard a curb or the like as the detection target feature Ftag. In this way, the vehicle-mounted device 1 may execute the yaw angle estimation process described in Figures 12 to 15 by regarding, as the detection target feature Ftag, any feature whose measurement surface is parallel to the traveling road surface and is formed along the traveling road surface, not limited to the lane markings.

(変形例3)
図16のステップS404において、車載機1は、ライダ2が出力する点群データの各計測値を補正する代わりに、図9、図11、又は図15のフローチャートの処理により算出したロール角、ピッチ角、ヨー角に基づき、ライダ2が出力する点群データの各計測値を車両座標系に変換してもよい。
(Variation 3)
In step S404 of FIG. 16, instead of correcting each measurement value of the point cloud data output by the LIDAR 2, the vehicle-mounted device 1 may convert each measurement value of the point cloud data output by the LIDAR 2 into the vehicle coordinate system based on the roll angle, pitch angle, and yaw angle calculated by the processing of the flowchart of FIG. 9, FIG. 11, or FIG. 15.

この場合、車載機1は、算出したロール角Lφ、ピッチ角Lθ、ヨー角Lψを用いて、式(4)に基づき、ライダ2が出力する点群データの各計測値をライダ座標系から車体座標系に変換し、変換後のデータに基づいて、自車位置推定や自動運転制御などを実行してもよい。 In this case, the vehicle-mounted device 1 may use the calculated roll angle , pitch angle , and yaw angle to convert each measurement value of the point cloud data output by the LIDAR 2 from the LIDAR coordinate system to the vehicle body coordinate system based on equation (4), and perform vehicle position estimation, automatic driving control, and the like based on the converted data.

他の例では、車載機1は、各ライダ2の姿勢を修正するためのアクチュエータなどの調整機構が各ライダ2に備わっている場合には、図16のステップS404の処理に代えて、ライダ設置情報ILに記録された角度からのずれ分だけライダ2の姿勢を修正するように調整機構を駆動させる制御を行ってもよい。 In another example, if each rider 2 is equipped with an adjustment mechanism such as an actuator for correcting the attitude of the rider 2, the vehicle-mounted device 1 may control the actuation of the adjustment mechanism to correct the attitude of the rider 2 by the deviation from the angle recorded in the rider installation information IL, instead of the processing of step S404 in FIG. 16.

(変形例4)
図1に示す車両システムの構成は一例であり、本発明が適用可能な車両システムの構成は図1に示す構成に限定されない。例えば、車両システムは、車載機1を有する代わりに、車両の電子制御装置が図9、図11、図15、図16等に示す処理を実行してもよい。この場合、ライダ設置情報ILは、例えば車両内の記憶部に記憶され、車両の電子制御装置は、ライダ2などの各種センサの出力データを受信可能に構成される。
(Variation 4)
The configuration of the vehicle system shown in Fig. 1 is an example, and the configuration of a vehicle system to which the present invention can be applied is not limited to the configuration shown in Fig. 1. For example, instead of having an on-board device 1, the vehicle system may have an electronic control device of the vehicle execute the processes shown in Figs. 9, 11, 15, 16, etc. In this case, the LIDAR installation information IL is stored in, for example, a storage unit in the vehicle, and the electronic control device of the vehicle is configured to be able to receive output data from various sensors such as the LIDAR 2.

(変形例5)
車両システムは、ライダ2を複数台備えてもよい。この場合、車載機1は、それぞれのライダ2に対して図9、図11、及び図15のフローチャートの処理を実行することで、各ライダ2のロール角、ピッチ角、及びヨー角を推定する。
(Variation 5)
The vehicle system may include a plurality of LIDARs 2. In this case, the vehicle-mounted device 1 executes the processes of the flowcharts in Fig. 9, Fig. 11, and Fig. 15 for each LIDAR 2 to estimate the roll angle, pitch angle, and yaw angle of each LIDAR 2.

1 車載機
2 ライダ
3 ジャイロセンサ
4 加速度センサ
5 GPS受信機
10 地図DB
REFERENCE SIGNS LIST 1 Vehicle-mounted device 2 Lidar 3 Gyro sensor 4 Acceleration sensor 5 GPS receiver 10 Map DB

Claims (10)

移動体の走行路の進行方向に対して垂直面又は前記走行路の幅方向に対して垂直面を有する地物を、前記移動体に取り付けられた計測装置により計測した計測点群を取得する取得手段と、
前記計測点群から算出される、前記計測装置の設置情報に基づく座標系を基準とした前記垂直面の傾きに基づいて、前記計測装置の前記移動体への取り付け姿勢を推定する推定手段と、
を有する姿勢推定装置。
an acquisition means for acquiring a cloud of measurement points obtained by measuring features having a surface perpendicular to a direction of travel of a travel path of a moving body or a surface perpendicular to a width direction of the travel path by a measuring device attached to the moving body;
an estimation means for estimating an attachment attitude of the measurement device to the moving body based on an inclination of the vertical plane with respect to a coordinate system based on installation information of the measurement device, the inclination being calculated from the measurement point cloud;
A posture estimation device having the following configuration.
前記取得手段は、前記地物に関する地物情報に基づき前記地物の位置を認識することで、当該位置において前記計測装置が計測した計測点群を前記地物の計測点群として取得する請求項1に記載の姿勢推定装置。 The posture estimation device according to claim 1, wherein the acquisition means recognizes the position of the feature based on feature information about the feature, and acquires a measurement point cloud measured by the measurement device at that position as the measurement point cloud of the feature. 前記推定手段は、
前記走行路の進行方向に対して垂直面を有する地物の計測点群から算出される前記傾きに基づいて、前記計測装置のロール方向の姿勢を推定し、
前記走行路の幅方向に対して垂直面を有する地物の計測点群から算出される前記傾きに基づいて、前記計測装置のピッチ方向の姿勢を推定する請求項1または2に記載の姿勢推定装置。
The estimation means includes:
estimating an attitude of the measurement device in a roll direction based on the inclination calculated from a measurement point cloud of a feature having a surface perpendicular to a traveling direction of the travel path;
3. The attitude estimation device according to claim 1, further comprising: estimating an attitude of the measurement device in a pitch direction based on the inclination calculated from a cloud of measurement points of a feature having a surface perpendicular to a width direction of the road.
前記地物は、前記走行路に設けられた道路標識である請求項1~3のいずれか一項に記載の姿勢推定装置。 The posture estimation device according to any one of claims 1 to 3, wherein the feature is a road sign provided on the travel path. 前記推定手段は、前記計測点群の縁を形成する外縁点群を抽出し、当該外縁点群に基づいて前記地物の傾きを算出する請求項1~4のいずれか一項に記載の姿勢推定装置。 The posture estimation device according to any one of claims 1 to 4, wherein the estimation means extracts an outer edge point cloud that forms the edge of the measurement point cloud, and calculates the inclination of the feature based on the outer edge point cloud. 前記垂直面は矩形であり、
前記推定手段は、前記外側点群から前記矩形の各辺に対応する傾きを算出することで、前記地物の傾きを算出する請求項5に記載の姿勢推定装置。
the vertical surface is rectangular;
The attitude estimation device according to claim 5 , wherein the estimation means calculates the inclination of the feature by calculating an inclination corresponding to each side of the rectangle from the outer point cloud.
前記各辺の各々を構成する点群の数及び間隔の少なくとも一方に基づき、前記各辺に対応する傾きの重み付けを行うことで、前記地物の傾きを算出する請求項6に記載の姿勢推定装置。 The posture estimation device according to claim 6, wherein the inclination of the feature is calculated by weighting the inclination corresponding to each side based on at least one of the number and spacing of the points constituting each side. 姿勢推定装置が実行する制御方法であって、
移動体の走行路の進行方向に対して垂直面又は前記走行路の幅方向に対して垂直面を有する地物を、前記移動体に取り付けられた計測装置により計測した計測点群を取得する取得工程と、
前記計測点群から算出される、前記計測装置の設置情報に基づく座標系を基準とした前記垂直面の傾きに基づいて、前記計測装置の前記移動体への取り付け姿勢を推定する推定工程と、
を有する制御方法。
A control method executed by a posture estimation device, comprising:
an acquisition step of acquiring a cloud of measurement points obtained by measuring features having a surface perpendicular to the direction of travel of the travel path of the moving body or a surface perpendicular to the width direction of the travel path by a measuring device attached to the moving body;
an estimation step of estimating an attachment attitude of the measurement device to the moving body based on an inclination of the vertical plane with respect to a coordinate system based on installation information of the measurement device, the inclination being calculated from the measurement point cloud;
The control method includes:
コンピュータが実行するプログラムであって、
移動体の走行路の進行方向に対して垂直面又は前記走行路の幅方向に対して垂直面を有する地物を、前記移動体に取り付けられた計測装置により計測した計測点群を取得する取得手段と、
前記計測点群から算出される、前記計測装置の設置情報に基づく座標系を基準とした前記垂直面の傾きに基づいて、前記計測装置の前記移動体への取り付け姿勢を推定する推定手段
として前記コンピュータを機能させるプログラム。
A program executed by a computer,
an acquisition means for acquiring a cloud of measurement points obtained by measuring features having a surface perpendicular to a direction of travel of a travel path of a moving body or a surface perpendicular to a width direction of the travel path by a measuring device attached to the moving body;
A program that causes the computer to function as an estimation means for estimating the mounting attitude of the measuring device to the moving body, based on the inclination of the vertical plane relative to a coordinate system based on installation information of the measuring device, which is calculated from the measurement point cloud.
請求項9に記載のプログラムを記憶した記憶媒体。 A storage medium storing the program according to claim 9.
JP2024117034A 2018-08-31 2024-07-22 Attitude estimation device, control method, program, and storage medium Pending JP2024150627A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024117034A JP2024150627A (en) 2018-08-31 2024-07-22 Attitude estimation device, control method, program, and storage medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018163738A JP2020032986A (en) 2018-08-31 2018-08-31 Posture estimation device, control method, program and storage medium
JP2022209722A JP2023038220A (en) 2018-08-31 2022-12-27 Posture estimation device, control method, program and storage medium
JP2024117034A JP2024150627A (en) 2018-08-31 2024-07-22 Attitude estimation device, control method, program, and storage medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022209722A Division JP2023038220A (en) 2018-08-31 2022-12-27 Posture estimation device, control method, program and storage medium

Publications (1)

Publication Number Publication Date
JP2024150627A true JP2024150627A (en) 2024-10-23

Family

ID=69666819

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2018163738A Ceased JP2020032986A (en) 2018-08-31 2018-08-31 Posture estimation device, control method, program and storage medium
JP2022209722A Pending JP2023038220A (en) 2018-08-31 2022-12-27 Posture estimation device, control method, program and storage medium
JP2024117034A Pending JP2024150627A (en) 2018-08-31 2024-07-22 Attitude estimation device, control method, program, and storage medium

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2018163738A Ceased JP2020032986A (en) 2018-08-31 2018-08-31 Posture estimation device, control method, program and storage medium
JP2022209722A Pending JP2023038220A (en) 2018-08-31 2022-12-27 Posture estimation device, control method, program and storage medium

Country Status (1)

Country Link
JP (3) JP2020032986A (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113494911B (en) * 2020-04-02 2024-06-07 宝马股份公司 Method and system for positioning vehicle
JP7482440B2 (en) * 2020-06-25 2024-05-14 パナソニックIpマネジメント株式会社 Information processing device, information processing method, and program
JP2022154840A (en) * 2021-03-30 2022-10-13 本田技研工業株式会社 Detection device, vehicle system, detection method, and program
WO2024101175A1 (en) * 2022-11-11 2024-05-16 ヌヴォトンテクノロジージャパン株式会社 Information processing method, information processing device, and program
WO2024127480A1 (en) * 2022-12-13 2024-06-20 三菱電機株式会社 Location estimation device, location estimation method, and location estimation program
CN116381632B (en) * 2023-06-05 2023-08-18 南京隼眼电子科技有限公司 Self-calibration method and device for radar roll angle and storage medium

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5278728B2 (en) * 2008-02-28 2013-09-04 アイシン精機株式会社 Distance image sensor calibration apparatus and calibration method
JP4977218B2 (en) * 2010-02-12 2012-07-18 トヨタ自動車株式会社 Self-vehicle position measurement device
JP2011196916A (en) * 2010-03-23 2011-10-06 Mitsubishi Electric Corp Measuring vehicle, and road feature measuring system
JP6741243B2 (en) * 2015-04-21 2020-08-19 国際航業株式会社 Laser measurement method, laser measurement marker, and coordinate calculation program
JP6493196B2 (en) * 2015-12-17 2019-04-03 株式会社デンソー Control device and control method
JP6616257B2 (en) * 2016-07-13 2019-12-04 株式会社Soken Position estimation device

Also Published As

Publication number Publication date
JP2020032986A (en) 2020-03-05
JP2023038220A (en) 2023-03-16

Similar Documents

Publication Publication Date Title
JP2024150627A (en) Attitude estimation device, control method, program, and storage medium
JP5441549B2 (en) Road shape recognition device
US9669829B2 (en) Travel lane marking recognition system
EP3306429B1 (en) Position estimation device and position estimation method
EP1909064A1 (en) Object detection device
JP7155284B2 (en) Measurement accuracy calculation device, self-position estimation device, control method, program and storage medium
JP6806891B2 (en) Information processing equipment, control methods, programs and storage media
JP2023075184A (en) Output device, control method, program, and storage medium
JP2023118751A (en) Self-position estimation device
JP2023164553A (en) Position estimation device, estimation device, control method, program and storage medium
JP5910180B2 (en) Moving object position and orientation estimation apparatus and method
JP2023076673A (en) Information processing device, control method, program and storage medium
JP2020046411A (en) Data structure, storage device, terminal device, server device, control method, program, and storage medium
JP6604052B2 (en) Runway boundary estimation device and runway boundary estimation method
WO2020045057A1 (en) Posture estimation device, control method, program, and storage medium
KR20150041895A (en) Lane Recognition Apparatus and Method
WO2018212290A1 (en) Information processing device, control method, program and storage medium
JP2024161585A (en) Self-location estimation device
JP2023154287A (en) Vehicle control device, computer program for vehicle control and vehicle control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240722