JP2023038220A - Posture estimation device, control method, program and storage medium - Google Patents

Posture estimation device, control method, program and storage medium Download PDF

Info

Publication number
JP2023038220A
JP2023038220A JP2022209722A JP2022209722A JP2023038220A JP 2023038220 A JP2023038220 A JP 2023038220A JP 2022209722 A JP2022209722 A JP 2022209722A JP 2022209722 A JP2022209722 A JP 2022209722A JP 2023038220 A JP2023038220 A JP 2023038220A
Authority
JP
Japan
Prior art keywords
vehicle
rider
point group
angle
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022209722A
Other languages
Japanese (ja)
Inventor
正浩 加藤
Masahiro Kato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2022209722A priority Critical patent/JP2023038220A/en
Publication of JP2023038220A publication Critical patent/JP2023038220A/en
Priority to JP2024117034A priority patent/JP2024150627A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a posture estimation device that can preferably estimate a fitting posture of a measurement device which is fitted to a movable body to the movable body.
SOLUTION: An on-board machine 1 acquires a group of measurement points obtained by measuring a section line with a rider 2 fitted to a vehicle and calculates a central line of the section line along a travel direction of the vehicle on the basis of the group of measurement points. The on-board machine 1 estimates a fitting posture of the rider 2 to the vehicle on the basis of a direction of the central line of the section line relative to a yaw-directional reference angle that is used by the rider 2 as a reference.
SELECTED DRAWING: Figure 15
COPYRIGHT: (C)2023,JPO&INPIT

Description

本発明は、計測装置の姿勢を推定する技術に関する。 The present invention relates to technology for estimating the orientation of a measuring device.

従来から、レーダやカメラなどの計測装置の計測データに基づいて、自車位置推定などを行う技術が知られている。例えば、特許文献1には、計測センサの出力と、予め地図上に登録された地物の位置情報とを照合させることで自己位置を推定する技術が開示されている。また、特許文献2には、カルマンフィルタを用いた自車位置推定技術が開示されている。 2. Description of the Related Art Conventionally, there has been known a technique for estimating a position of a vehicle based on measurement data from measurement devices such as radar and cameras. For example, Patent Literature 1 discloses a technique of estimating a self-position by collating the output of a measurement sensor with the position information of a feature registered in advance on a map. Further, Patent Document 2 discloses a vehicle position estimation technique using a Kalman filter.

特開2013-257742号公報JP 2013-257742 A 特開2017-72422号公報JP 2017-72422 A

計測装置から得られるデータは、計測装置を基準とした座標系の値であり、車両に対する計測装置の姿勢等に依存したデータとなっているため、車両を基準とした座標系の値に変換する必要がある。従って、計測装置の姿勢にずれが生じた場合には、そのずれを的確に検知して計測装置のデータに反映させたり、計測装置の姿勢を修正したりする必要がある。 The data obtained from the measuring device is the value of the coordinate system with the measuring device as the reference, and it depends on the attitude of the measuring device with respect to the vehicle. There is a need. Therefore, when the posture of the measuring device deviates, it is necessary to accurately detect the deviation and reflect it in the data of the measuring device or to correct the posture of the measuring device.

本発明は、上記のような課題を解決するためになされたものであり、移動体に取り付けられた計測装置の移動体への取り付け姿勢を好適に推定可能な姿勢推定装置を提供することを主な目的とする。 SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problems, and is primarily to provide a posture estimation device capable of suitably estimating the mounting posture of a measuring device attached to a moving body. purpose.

請求項に記載の発明は、姿勢推定装置であって、被計測面が移動体が走行する走行路面と平行であって前記走行路面に沿って形成された地物を、前記移動体に取り付けられた計測装置により計測した計測点群を取得する取得手段と、前記計測点群に基づき、前記移動体の走行方向に沿った前記被計測面上の線を算出する算出手段と、前記計測装置が基準とする方向に対する前記線の方向に基づき、前記計測装置の前記移動体への取り付け姿勢を推定する推定手段と、を有する。 According to a claim of the invention, there is provided a posture estimating apparatus in which a feature whose surface to be measured is parallel to a road surface on which a mobile object travels and which is formed along the road surface is attached to the mobile object. Acquisition means for acquiring a measurement point group measured by a measurement device, calculation means for calculating a line on the surface to be measured along the traveling direction of the moving body based on the measurement point group, and the measurement device an estimating means for estimating the attachment posture of the measuring device to the moving body based on the direction of the line with respect to the reference direction.

また、請求項に記載の発明は、姿勢推定装置が実行する制御方法であって、被計測面が移動体が走行する走行路面と平行であって前記走行路面に沿って形成された地物を、前記移動体に取り付けられた計測装置により計測した計測点群を取得する取得工程と、前記計測点群に基づき、前記移動体の走行方向に沿った前記被計測面上の線を算出する算出工程と、前記計測装置が基準とする方向に対する前記線の方向に基づき、前記計測装置の前記移動体への取り付け姿勢を推定する推定工程と、を有する。 Further, the claimed invention is a control method executed by a posture estimating device, wherein a surface to be measured is parallel to a road surface on which a moving body travels, and a feature formed along the road surface is detected. an acquisition step of acquiring a measurement point group measured by a measuring device attached to the moving body; and a calculation of calculating a line on the surface to be measured along the traveling direction of the moving body based on the measurement point group. and an estimating step of estimating the attachment posture of the measuring device to the moving object based on the direction of the line with respect to the direction that the measuring device uses as a reference.

また、請求項に記載の発明は、コンピュータが実行するプログラムであって、被計測面が移動体が走行する走行路面と平行であって前記走行路面に沿って形成された地物を、前記移動体に取り付けられた計測装置により計測した計測点群を取得する取得手段と、前記計測点群に基づき、前記移動体の走行方向に沿った前記被計測面上の線を算出する算出手段と、前記計測装置が基準とする方向に対する前記線の方向に基づき、前記計測装置の前記移動体への取り付け姿勢を推定する推定手段として前記コンピュータを機能させる。 Further, the invention as claimed in claims is a program executed by a computer, wherein a surface to be measured is parallel to a road surface on which a mobile body travels and is formed along the road surface. Acquisition means for acquiring a measurement point group measured by a measurement device attached to a body; calculation means for calculating a line on the surface to be measured along the running direction of the moving body based on the measurement point group; The computer is caused to function as estimation means for estimating the attachment posture of the measuring device to the moving body based on the direction of the line with respect to the direction used as a reference by the measuring device.

車両システムの概略構成図である。1 is a schematic configuration diagram of a vehicle system; FIG. 車載機の機能的構成を示すブロック図である。3 is a block diagram showing a functional configuration of an in-vehicle device; FIG. 2次元座標により表された車両座標系とライダ座標系との関係を示す図である。FIG. 2 is a diagram showing the relationship between a vehicle coordinate system and a rider coordinate system represented by two-dimensional coordinates; 3次元座標により表された車両座標系とライダ座標系との関係を示す図である。FIG. 2 is a diagram showing the relationship between a vehicle coordinate system and a rider coordinate system represented by three-dimensional coordinates; ライダのロール角を推定する際の検出対象地物となる道路標識付近に車両が走行する場合の車両周辺の俯瞰図を示す。FIG. 10 shows a bird's-eye view of the surroundings of the vehicle when the vehicle runs near a road sign that is a detection target feature when estimating the roll angle of the rider. 道路標識の被計測面を正面視した場合の道路標識と対象計測点群との位置関係を示す。The positional relationship between the road sign and the target measurement point group when the measurement surface of the road sign is viewed from the front is shown. ライダ座標系における対象計測点群及び抽出された外縁点群を示す。FIG. 2 shows a target measurement point cloud and an extracted outer edge point cloud in the lidar coordinate system; FIG. 外縁点群が形成する四角形の各辺の近似直線を示す。The approximation line of each side of the quadrangle formed by the edge point cloud is shown. ロール角推定処理の手順を示すフローチャートである。4 is a flowchart showing the procedure of roll angle estimation processing; ライダのピッチ角を推定する際の検出対象地物となる道路標識付近に車両が走行する場合の車両周辺の俯瞰図を示す。FIG. 10 shows a bird's-eye view of the surroundings of the vehicle when the vehicle runs near a road sign serving as a detection target feature when estimating a rider's pitch angle. ピッチ角推定処理の手順を示すフローチャートである。4 is a flowchart showing a procedure of pitch angle estimation processing; ライダのヨー角を推定する際の検出対象地物となる区画線に沿って車両が走行する場合の車両周辺の俯瞰図を示す。FIG. 10 is a bird's-eye view of the surroundings of the vehicle when the vehicle travels along a lane marking that serves as a detection target feature when estimating the yaw angle of the rider; 検出ウィンドウにおける中心点を丸印により示した図である。FIG. 4 is a diagram showing a center point in a detection window with a circle; 検出ウィンドウごとに算出した区画線の中心線とヨー方向基準角とがなす角度を示す。The angle formed by the center line of the marking line calculated for each detection window and the yaw direction reference angle is shown. ヨー角推定処理の手順を示すフローチャートである。4 is a flowchart showing the procedure of yaw angle estimation processing; ロール角、ピッチ角及びヨー角の推定値に基づく処理の具体例を示すフローチャートである。4 is a flowchart showing a specific example of processing based on estimated values of roll angle, pitch angle, and yaw angle;

本発明の好適な実施形態によれば、姿勢推定装置は、被計測面が移動体が走行する走行路面と平行であって前記走行路面に沿って形成された地物を、前記移動体に取り付けられた計測装置により計測した計測点群を取得する取得手段と、前記計測点群に基づき、前記移動体の走行方向に沿った前記被計測面上の線を算出する算出手段と、前記計測装置が基準とする方向に対する前記線の方向に基づき、前記計測装置の前記移動体への取り付け姿勢を推定する推定手段と、を有する。姿勢推定装置は、この態様により、被計測面が移動体が走行する走行路面と平行であって走行路面に沿って形成された地物を基準として、計測装置の移動体への取り付け姿勢を好適に推定することができる。 According to a preferred embodiment of the present invention, the posture estimating apparatus attaches to the moving object a feature whose surface to be measured is parallel to a road surface on which the moving object travels and which is formed along the road surface. Acquisition means for acquiring a measurement point group measured by the measuring device, calculation means for calculating a line on the surface to be measured along the traveling direction of the moving body based on the measurement point group, and the measurement device an estimating means for estimating the attachment posture of the measuring device to the moving object based on the direction of the line with respect to the reference direction. According to this aspect, the posture estimation device uses as a reference the feature whose surface to be measured is parallel to the road surface on which the mobile body travels and which is formed along the road surface, so that the mounting posture of the measuring device to the mobile body is suitable. can be estimated to

上記姿勢推定装置の一態様では、前記取得手段は、前記地物に関する地物情報に基づき前記地物の位置を認識することで、当該位置において前記計測装置が計測した計測点群を前記地物の計測点群として取得する。姿勢推定装置は、この態様により、移動体の走行路に沿った鉛直面又は走行路の幅方向に沿った鉛直面を有する地物の位置を把握して当該地物の計測点群を好適に取得することができる。 In one aspect of the posture estimation device, the acquisition means recognizes the position of the feature based on the feature information about the feature, so that the measurement point group measured by the measuring device at the position is obtained from the feature. obtained as a measurement point cloud of According to this aspect, the attitude estimation device grasps the position of a feature having a vertical plane along the travel path of the moving object or a vertical plane along the width direction of the travel path, and suitably obtains a measurement point cloud of the feature. can be obtained.

上記姿勢推定装置の他の一態様では、前記推定手段は、前記線と前記計測装置におけるヨー方向の基準線とのなす角に基づき、前記計測装置のヨー方向の姿勢を推定する。姿勢推定装置は、この態様により、計測装置のヨー方向の姿勢を好適に推定することができる。 In another aspect of the posture estimation device, the estimation means estimates the posture of the measurement device in the yaw direction based on an angle between the line and a reference line in the yaw direction of the measurement device. With this aspect, the posture estimation device can preferably estimate the posture of the measurement device in the yaw direction.

上記姿勢推定装置の他の一態様では、前記推定手段は、異なる前記計測点群に基づき前記算出手段が算出した複数の前記線と前記基準線とのなす角を平均化することで、前記計測装置のヨー方向の姿勢を推定する。姿勢推定装置は、この態様により、計測装置のヨー方向の姿勢をより的確に推定することができる。 In another aspect of the posture estimating apparatus, the estimating means averages angles formed between the reference line and the plurality of lines calculated by the calculating means based on the different measurement point groups, so that the measured Estimate the yaw attitude of the device. With this aspect, the posture estimation device can more accurately estimate the posture of the measurement device in the yaw direction.

上記姿勢推定装置の他の一態様では、前記算出手段は、前記計測点群に基づき、前記移動体の走行方向に沿った前記被計測面上の複数の点を算出し、当該複数の点から前記線を算出し、前記推定手段は、異なる前記計測点群に基づき前記算出手段が算出した複数の前記線と前記基準線とのなす角を、当該線の各々の算出に用いた前記点の数に基づき平均化することで、前記計測装置のヨー方向の姿勢を推定する。この態様では、姿勢推定装置は、算出した線の各々の精度を好適に考慮した重み付けにより、計測装置のヨー方向の姿勢をより的確に推定することができる。 In another aspect of the posture estimation device, the calculation means calculates a plurality of points on the surface to be measured along the traveling direction of the moving object based on the measured point group, and from the plurality of points, The line is calculated, and the estimating means calculates the angles formed by the reference line and the plurality of lines calculated by the calculating means based on the different measurement point groups, of the points used to calculate each of the lines. The yaw orientation of the measuring device is estimated by averaging based on the numbers. In this aspect, the posture estimating device can more accurately estimate the yaw direction posture of the measuring device by appropriately weighting the calculated lines in consideration of the accuracy of each line.

好適な例では、前記地物は、前記走行路に設けられた区画線又は縁石であるとよい。また、他の好適な例では、前記計測装置は、光を走査する光走査装置であるとよい。 In a preferred example, the features may be marking lines or curbs provided on the travel path. In another preferred example, the measuring device may be an optical scanning device that scans light.

上記姿勢推定装置の他の一態様では、前記基準とする方向は、前記取り付け姿勢のずれが生じていない場合に前記計測装置の座標系において前記移動体の走行方向とみなされる方向であり、前記取り付け姿勢のずれが生じた場合に、当該ずれに応じて前記移動体の走行方向と異なる方向を示す。姿勢推定装置は、この態様により、算出した被計測面上の線に対する基準とする方向のずれに基づき、計測装置の移動体への取り付け姿勢を好適に推定することができる。 In another aspect of the posture estimating device, the reference direction is a direction regarded as a running direction of the moving body in the coordinate system of the measuring device when the mounting posture does not deviate, and When there is a deviation in the mounting posture, a direction different from the running direction of the moving body is indicated according to the deviation. According to this aspect, the attitude estimation device can preferably estimate the attachment attitude of the measuring device to the moving object based on the calculated deviation of the reference direction with respect to the line on the measurement target surface.

本発明の他の好適な実施形態によれば、姿勢推定装置が実行する制御方法であって、被計測面が移動体が走行する走行路面と平行であって前記走行路面に沿って形成された地物を、前記移動体に取り付けられた計測装置により計測した計測点群を取得する取得工程と、前記計測点群に基づき、前記移動体の走行方向に沿った前記被計測面上の線を算出する算出工程と、前記計測装置が基準とする方向に対する前記線の方向に基づき、前記計測装置の前記移動体への取り付け姿勢を推定する推定工程と、を有する。姿勢推定装置は、この制御方法を実行することで、計測装置の移動体への取り付け姿勢を好適に推定することができる。 According to another preferred embodiment of the present invention, there is provided a control method executed by a posture estimating device, in which the surface to be measured is parallel to and formed along the road surface on which the moving body travels. an acquiring step of acquiring a measurement point group obtained by measuring a feature with a measuring device attached to the moving body; and obtaining a line on the measurement surface along the running direction of the moving body based on the measurement point group. and an estimating step of estimating the attachment posture of the measuring device to the moving body based on the direction of the line with respect to the direction that the measuring device uses as a reference. By executing this control method, the attitude estimation device can suitably estimate the mounting attitude of the measuring device to the moving body.

本発明の他の好適な実施形態によれば、コンピュータが実行するプログラムであって、被計測面が移動体が走行する走行路面と平行であって前記走行路面に沿って形成された地物を、前記移動体に取り付けられた計測装置により計測した計測点群を取得する取得手段と、前記計測点群に基づき、前記移動体の走行方向に沿った前記被計測面上の線を算出する算出手段と、前記計測装置が基準とする方向に対する前記線の方向に基づき、前記計測装置の前記移動体への取り付け姿勢を推定する推定手段として前記コンピュータを機能させる。コンピュータは、このプログラムを実行することで、計測装置の移動体への取り付け姿勢を好適に推定することができる。好適には、上記プログラムは、記憶媒体に記憶される。 According to another preferred embodiment of the present invention, there is provided a program executed by a computer, wherein a surface to be measured is parallel to a road surface on which a moving object travels, and a feature formed along the road surface is measured. an acquisition means for acquiring a measurement point group measured by a measuring device attached to the moving body; and a calculation for calculating a line on the surface to be measured along the running direction of the moving body based on the measurement point group. and the computer functions as estimation means for estimating the attachment posture of the measuring device to the moving object based on the direction of the line with respect to the direction that the measuring device uses as a reference. By executing this program, the computer can suitably estimate the attachment attitude of the measuring device to the moving object. Preferably, the program is stored in a storage medium.

以下、図面を参照して本発明の好適な各実施例について説明する。 Preferred embodiments of the present invention will be described below with reference to the drawings.

[概略構成]
図1は、本実施例に係る車両システムの概略構成図である。図1に示す車両システムは、車両の運転支援に関する制御を行う車載機1と、ライダ(Lidar:Light Detection and Ranging、または、Laser Illuminated Detection And Ranging)2、ジャイロセンサ3、加速度センサ4、及びGPS受信機5などのセンサ群とを有する。
[Outline configuration]
FIG. 1 is a schematic configuration diagram of a vehicle system according to this embodiment. The vehicle system shown in FIG. 1 includes an in-vehicle device 1 that performs control related to driving support of the vehicle, a lidar (Light Detection and Ranging, or Laser Illuminated Detection And Ranging) 2, a gyro sensor 3, an acceleration sensor 4, and a GPS. and a group of sensors such as the receiver 5 .

車載機1は、ライダ2、ジャイロセンサ3、加速度センサ4、及びGPS受信機5などのセンサ群と電気的に接続し、これらの出力データを取得する。また、道路データ及び道路付近に設けられた地物に関する地物情報などを記憶した地図データベース(DB:DataBase)10を記憶している。そして、車載機1は、上述の出力データ及び地図DB10に基づき、車両の位置の推定を行い、位置推定結果に基づいた自動運転制御などの車両の運転支援に関する制御などを行う。また、車載機1は、ライダ2の出力などに基づいて、ライダ2の姿勢の推定を行う。そして、車載機1は、この推定結果に基づいて、ライダ2が出力する点群データの各計測値を補正する処理などを行う。車載機1は、本発明における「姿勢推定装置」の一例である。 The in-vehicle device 1 is electrically connected to a group of sensors such as the lidar 2, the gyro sensor 3, the acceleration sensor 4, and the GPS receiver 5, and acquires output data from them. It also stores a map database (DB: DataBase) 10 that stores road data and feature information about features provided near roads. Then, the in-vehicle device 1 estimates the position of the vehicle based on the output data and the map DB 10 described above, and performs control related to driving assistance of the vehicle such as automatic driving control based on the position estimation result. Also, the vehicle-mounted device 1 estimates the posture of the rider 2 based on the output of the rider 2 and the like. Based on this estimation result, the in-vehicle device 1 performs processing such as correcting each measurement value of the point cloud data output by the rider 2 . The in-vehicle device 1 is an example of the "attitude estimation device" in the present invention.

ライダ2は、水平方向および垂直方向の所定の角度範囲に対してパルスレーザを出射することで、外界に存在する物体までの距離を離散的に測定し、当該物体の位置を示す3次元の点群情報を生成する。この場合、ライダ2は、照射方向を変えながらレーザ光を照射する照射部と、照射したレーザ光の反射光(散乱光)を受光する受光部と、受光部が出力する受光信号に基づくスキャンデータを出力する出力部とを有する。スキャンデータは、受光部が受光したレーザ光に対応する照射方向と、上述の受光信号に基づき特定される当該レーザ光のその照射方向での物体までの距離とに基づき生成され、車載機1へ供給される。ライダ2は、本発明における「計測装置」の一例である。 The lidar 2 discretely measures the distance to an object existing in the outside world by emitting a pulsed laser over a predetermined angular range in the horizontal and vertical directions, and generates a three-dimensional point indicating the position of the object. Generate group information. In this case, the lidar 2 includes an irradiation unit that irradiates laser light while changing the direction of irradiation, a light receiving unit that receives reflected light (scattered light) of the irradiated laser light, and scan data based on light receiving signals output by the light receiving unit. and an output unit for outputting The scan data is generated based on the irradiation direction corresponding to the laser beam received by the light receiving unit and the distance to the object in the irradiation direction of the laser beam specified based on the above-mentioned light receiving signal, and is sent to the vehicle-mounted device 1. supplied. The rider 2 is an example of a "measuring device" in the present invention.

図2は、車載機1の機能的構成を示すブロック図である。車載機1は、主に、インターフェース11と、記憶部12と、入力部14と、制御部15と、情報出力部16と、を有する。これらの各要素は、バスラインを介して相互に接続されている。 FIG. 2 is a block diagram showing the functional configuration of the vehicle-mounted device 1. As shown in FIG. The in-vehicle device 1 mainly has an interface 11 , a storage section 12 , an input section 14 , a control section 15 and an information output section 16 . These elements are interconnected via bus lines.

インターフェース11は、ライダ2、ジャイロセンサ3、加速度センサ4、及びGPS受信機5などのセンサから出力データを取得し、制御部15へ供給する。また、インターフェース11は、制御部15が生成した車両の走行制御に関する信号を車両の電子制御装置(ECU:Electronic Control Unit)へ供給する。 The interface 11 acquires output data from sensors such as the lidar 2 , the gyro sensor 3 , the acceleration sensor 4 , and the GPS receiver 5 and supplies the data to the control unit 15 . In addition, the interface 11 supplies a signal related to vehicle travel control generated by the control unit 15 to an electronic control unit (ECU) of the vehicle.

記憶部12は、制御部15が実行するプログラムや、制御部15が所定の処理を実行するのに必要な情報を記憶する。本実施例では、記憶部12は、地図DB10と、ライダ設置情報ILとを有する。地図DB10は、例えば、道路データ、施設データ、及び、道路周辺の地物データなどを含むデータベースである。道路データには、経路探索用の車線ネットワークデータ、道路形状データ、交通法規データなどが含まれる。地物データは、道路標識等の看板や停止線等の道路標示、白線等の道路区画線や道路沿いの構造物等の情報(例えば位置情報及び種別情報)を含む。また、地物データは、自車位置推定に用いるための地物の高精度な点群情報などを含んでもよい。その他、地図DBには、位置推定に必要な種々のデータが記憶されてもよい。 The storage unit 12 stores programs executed by the control unit 15 and information necessary for the control unit 15 to execute predetermined processing. In this embodiment, the storage unit 12 has a map DB 10 and rider installation information IL. The map DB 10 is a database containing, for example, road data, facility data, feature data around roads, and the like. The road data includes lane network data for route search, road shape data, traffic regulation data, and the like. The feature data includes information (for example, position information and type information) such as signboards such as road signs, road markings such as stop lines, road division lines such as white lines, and structures along the road. The feature data may also include highly accurate point group information of features for use in estimating the position of the vehicle. In addition, the map DB may store various data necessary for position estimation.

ライダ設置情報ILは、ある基準時(例えばライダ2のアライメント調整直後などの姿勢ずれが生じていない時)におけるライダ2の車両に対する相対的な姿勢及び位置に関する情報である。本実施例では、ライダ2等の姿勢を、ロール角、ピッチ角、ヨー角(即ちオイラー角)により表すものとする。ライダ設置情報ILは、後述するライダ2の姿勢の推定処理が実行された場合に、推定結果に基づき更新されてもよい。 The rider installation information IL is information about the relative attitude and position of the rider 2 with respect to the vehicle at a certain reference time (for example, when there is no attitude deviation such as immediately after alignment adjustment of the rider 2). In this embodiment, the posture of the rider 2 and the like is represented by roll angle, pitch angle, and yaw angle (that is, Euler angle). The rider installation information IL may be updated based on the estimation result when the attitude estimation process of the rider 2, which will be described later, is performed.

入力部14は、ユーザが操作するためのボタン、タッチパネル、リモートコントローラ、音声入力装置等であり、経路探索のための目的地を指定する入力、自動運転のオン及びオフを指定する入力などを受け付ける。情報出力部16は、例えば、制御部15の制御に基づき出力を行うディスプレイやスピーカ等である。 The input unit 14 is a button, a touch panel, a remote controller, a voice input device, etc. for user operation, and accepts input specifying a destination for route search, input specifying automatic driving on and off, etc. . The information output unit 16 is, for example, a display, a speaker, or the like that outputs based on the control of the control unit 15 .

制御部15は、プログラムを実行するCPUなどを含み、車載機1の全体を制御する。制御部15は、インターフェース11から供給される各センサの出力信号及び地図DB10に基づき、自車位置の推定を行い、自車位置の推定結果に基づいて自動運転制御を含む車両の運転支援に関する制御などを行う。このとき、制御部15は、ライダ2の出力データを用いる場合には、ライダ2が出力する計測データを、ライダ設置情報ILに記録されたライダ2の設置情報に含まれる姿勢及び位置を基準として、ライダ2を基準とした座標系から車両を基準とした座標系(以下「基準座標系」)に変換する。さらに、本実施例では、制御部15は、車両に対するライダ2の現在(即ち処理基準時)の姿勢を推定することで、ライダ設置情報ILに記録された姿勢に対する変化量を算出し、当該変化量に基づきライダ2が出力する計測データを補正する。これにより、制御部15は、ライダ2の姿勢にずれが生じた場合であっても、当該ずれの影響を受けないようにライダ2が出力する計測データを補正する。制御部15は、本発明におけるプログラムを実行する「コンピュータ」の一例である。 The control unit 15 includes a CPU that executes programs and the like, and controls the entire in-vehicle device 1 . The control unit 15 estimates the position of the vehicle based on the output signal of each sensor supplied from the interface 11 and the map DB 10, and performs control related to vehicle driving support including automatic driving control based on the estimated result of the vehicle position. etc. At this time, when the output data of the rider 2 is used, the control unit 15 sets the measurement data output by the rider 2 based on the orientation and position included in the installation information of the rider 2 recorded in the rider installation information IL. , the coordinate system based on the rider 2 is converted into a coordinate system based on the vehicle (hereinafter referred to as the "reference coordinate system"). Furthermore, in this embodiment, the control unit 15 estimates the current attitude of the rider 2 with respect to the vehicle (that is, at the time of the processing reference), calculates the amount of change in the attitude recorded in the rider installation information IL, and The measurement data output by the rider 2 is corrected based on the amount. Thereby, even if the attitude of the rider 2 deviates, the control unit 15 corrects the measurement data output by the rider 2 so as not to be affected by the deviation. The control unit 15 is an example of a "computer" that executes programs in the present invention.

[座標系の変換]
ライダ2により取得される3次元点群データの各計測点が示す3次元座標は、ライダ2の位置及び姿勢を基準とした座標系(「ライダ座標系」とも呼ぶ。)で表されており、車両の位置及び姿勢を基準とした座標系(「車両座標系」とも呼ぶ。)に変換する必要がある。ここでは、ライダ座標系と車両座標系との変換について説明する。
[Coordinate system conversion]
The three-dimensional coordinates indicated by each measurement point of the three-dimensional point cloud data acquired by the rider 2 are expressed in a coordinate system (also referred to as a "rider coordinate system") based on the position and orientation of the rider 2, It is necessary to convert to a coordinate system based on the position and orientation of the vehicle (also called a "vehicle coordinate system"). Here, the conversion between the lidar coordinate system and the vehicle coordinate system will be described.

図3は、2次元座標により表された車両座標系とライダ座標系との関係を示す図である。ここでは、車両座標系は、車両の中心を原点とし、車両の進行方向に沿った座標軸「x」と車両の側面方向に沿った座標軸「y」を有する。また、ライダ座標系は、ライダ2の正面方向(矢印A2参照)に沿った座標軸「x」とライダ2の側面方向に沿った座標軸「y」を有する。 FIG. 3 is a diagram showing the relationship between the vehicle coordinate system and the rider coordinate system represented by two-dimensional coordinates. Here, the vehicle coordinate system has the center of the vehicle as the origin, and has a coordinate axis " xb " along the traveling direction of the vehicle and a coordinate axis " yb " along the lateral direction of the vehicle. The lidar coordinate system also has a coordinate axis “x L ” along the front direction of the rider 2 (see arrow A2) and a coordinate axis “y L ” along the lateral direction of the rider 2 .

ここで、車両座標系に対するライダ2のヨー角を「Lψ」、ライダ2の位置を[L、Lとした場合、車両座標系から見た時刻「k」の計測点[x(k)、y(k)]は、回転行列「Cψ」を用いた以下の式(1)によりライダ座標系の座標[x(k)、y(k)]へ変換される。 Here, when the yaw angle of the rider 2 with respect to the vehicle coordinate system is “L ψ ” and the position of the rider 2 is [L x , Ly ] T , the measurement point [x b (k), y b (k)] T is converted to the coordinates [x L (k), y L (k)] T in the lidar coordinate system by the following equation (1) using the rotation matrix “C ψ ” converted.

Figure 2023038220000002
一方、ライダ座標系から車両座標系への変換は、回転行列の逆行列(転置行列)を用いればよい。よって、ライダ座標系で取得した時刻kの計測点[x(k)、y(k)]は、以下の式(2)により車両座標系の座標[x(k)、y(k)]に変換することが可能である。
Figure 2023038220000002
On the other hand, the inverse matrix (transposed matrix) of the rotation matrix may be used for conversion from the lidar coordinate system to the vehicle coordinate system. Therefore, the measurement point [x L (k), y L (k)] T at time k acquired in the rider coordinate system is obtained by the following equation (2), and the coordinates [x b (k), y b (k)] can be transformed into T.

Figure 2023038220000003
図4は、3次元座標により表された車両座標系とライダ座標系との関係を示す図である。ここでは、座標軸x、yに垂直な座標軸を「z」、座標軸x、yに垂直な座標軸を「z」とする。
Figure 2023038220000003
FIG. 4 is a diagram showing the relationship between the vehicle coordinate system and the rider coordinate system represented by three-dimensional coordinates. Here, the coordinate axis perpendicular to the coordinate axes xb and yb is " zb ", and the coordinate axis perpendicular to the coordinate axes xL and yL is " zL ".

車両座標系に対するライダ2のロール角を「Lφ」、ピッチ角を「Lθ」、ヨー角を「Lψ」とし、ライダ2の座標軸xにおける位置が「L」、座標軸yにおける位置が「L」、座標軸zにおける位置が「L」とした場合、車両座標系から見た時刻「k」の計測点[x(k)、y(k)、z(k)]は、ロール、ピッチ、ヨーに対応する各回転行列「Cφ」、「Cθ」、「Cψ」により表される方向余弦行列「C」を用いた以下の式(3)により、ライダ座標系の座標[x(k)、y(k)、z(k)]へ変換される。 The roll angle of the rider 2 with respect to the vehicle coordinate system is “ L φ ”, the pitch angle is “L θ ”, and the yaw angle is L ψ ”. When the position is “L y ” and the position on the coordinate axis z b is “L z ”, the measurement point [x b (k), y b (k), z b ( k)] T is the following equation (3) using the direction cosine matrix “C” represented by the rotation matrices “C φ ”, “C θ ”, and “C ψ ” corresponding to roll, pitch, and yaw to coordinates [x L (k), y L (k), z L (k)] T in the lidar coordinate system.

Figure 2023038220000004
一方、ライダ座標系から車両座標系への変換は、方向余弦行列の逆行列(転置行列)を用いればよい。よって、ライダ座標系で取得した時刻kの計測点[x(k)、y(k)、z(k)]は、以下の式(4)により車両座標系の座標[x(k)、y(k)、z(k)]に変換することが可能である。
Figure 2023038220000004
On the other hand, the inverse matrix (transposed matrix) of the direction cosine matrix may be used for conversion from the rider coordinate system to the vehicle coordinate system. Therefore, the measurement point [x L (k), y L (k), z L (k)] T at the time k acquired in the rider coordinate system is obtained by the following equation (4), the coordinate [x b (k), y b (k), z b (k)] T.

Figure 2023038220000005
以下では、ライダ座標系から車両座標系へ変換するための式(4)に用いられるロール角Lφ、ピッチ角Lθ、ヨー角Lψの各推定方法について順に説明する。
Figure 2023038220000005
Methods for estimating roll angle L φ , pitch angle L θ , and yaw angle L ψ used in equation (4) for transforming from the rider coordinate system to the vehicle coordinate system will be described in order below.

[ロール角の推定]
まず、ライダ2のロール角Lφの推定方法について説明する。車載機1は、走行路の進行方向に対して垂直面(即ち走行路に対して正面)を有する方形(矩形)状の道路標識を、ライダ2により検出すべき対象となる地物(「検出対象地物Ftag」とも呼ぶ。)とみなし、当該道路標識の傾きをライダ2が計測する計測点群に基づき算出することで、ライダ2のロール角Lφを推定する。
[Estimation of roll angle]
First, a method for estimating the roll angle of the rider 2 will be described. The in-vehicle device 1 selects a square (rectangular) road sign having a plane perpendicular to the travel direction of the travel road (that is, the front of the travel road) as a feature to be detected by the rider 2 ("detection The roll angle of the rider 2 is estimated by calculating the inclination of the road sign based on the measured point group measured by the rider 2 .

図5は、ライダ2のロール角を推定する際の検出対象地物Ftagとなる道路標識22付近に車両が走行する場合の車両周辺の俯瞰図を示す。図5において、破線円20は、ライダ2により地物を検出可能な範囲(「ライダ検出範囲」とも呼ぶ。)を示し、破線枠21は、検出対象地物Ftagである道路標識22を検出するための検出ウィンドウを示す。 FIG. 5 shows a bird's-eye view of the surroundings of the vehicle when the vehicle runs near the road sign 22 which is the detection target feature Ftag when estimating the roll angle of the rider 2 . In FIG. 5, a dashed circle 20 indicates a range in which a feature can be detected by the lidar 2 (also referred to as a "lidar detection range"), and a dashed frame 21 detects a road sign 22 that is a detection target feature Ftag. shows the detection window for

この場合、車載機1は、地図DB10を参照することで、走行路の進行方向に対して垂直面を有する方形状の道路標識22がライダ検出範囲内に存在することを認識し、当該道路標識22に関する地物データに基づき破線枠21に示す検出ウィンドウを設定する。この場合、車載機1は、例えば、検出対象地物Ftagとなる道路標識の種別情報などを予め記憶しておき、当該種別情報が示す種別の道路標識がライダ検出範囲内に存在するか否かを地図DB10の地物データを参照して判定する。なお、地図DB10の地物データに地物の大きさ又は/及び形状の情報が含まれている場合には、車載機1は、検出対象地物Ftagとなる道路標識22の大きさ又は/及び形状の情報に基づき検出ウィンドウの大きさ又は/及び形状を決定してもよい。そして、車載機1は、ライダ2が計測する計測点群のうち、設定した検出ウィンドウ内に存在する計測点群(「対象計測点群Ptag」とも呼ぶ。)を、道路標識22の計測点群として抽出する。 In this case, the vehicle-mounted device 1 refers to the map DB 10 to recognize that a rectangular road sign 22 having a plane perpendicular to the travel direction of the travel path exists within the rider detection range, and detects the road sign. A detection window indicated by a dashed frame 21 is set based on the feature data related to 22 . In this case, the in-vehicle device 1 stores, for example, the type information of the road sign serving as the detection target feature Ftag in advance, and determines whether or not the road sign of the type indicated by the type information exists within the rider detection range. is determined by referring to the feature data in the map DB 10 . Note that when the feature data in the map DB 10 includes information on the size and/or shape of the feature, the in-vehicle device 1 determines the size and/or shape of the road sign 22 serving as the detection target feature Ftag. The shape information may be used to determine the size and/or shape of the detection window. Then, the in-vehicle device 1 detects the measurement point group (also referred to as “target measurement point group Ptag”) existing within the set detection window among the measurement point groups measured by the rider 2 as the measurement point group of the road sign 22 . Extract as

図6(A)~(C)は、道路標識22の被計測面を正面視した場合の対象計測点群Ptagとライダ2によるレーザ光の走査線23(即ち、レーザ光の被照射点を時系列に結ぶ線)との位置関係を示す。なお、説明を容易にするため,ライダ2の初期姿勢角Lφ,Lθ,LΨが0度である場合を例にとっている。ここで、図6(A)は、ライダ2にロール方向のずれが生じていない場合の対象計測点群Ptagとライダ2の走査線23との関係を示し、図6(B)、(C)は、ロール方向のずれΔLφが生じている場合の対象計測点群Ptagとライダ2の走査線23との関係を示す。ここで、図6(B)は、車両座標系のy-z平面内における対象計測点群Ptagとライダ2の走査線23との関係を示し、図6(C)は、基準座標系のy‘-z‘平面内における対象計測点群Ptagとライダ2の走査線23との関係を示す。なお、ここでは、説明便宜上、ライダ2の姿勢ずれが生じていないときには、道路標識22の長手方向はy軸と平行であるものとし、車両は平坦な道路上に存在しているものとする。 6A to 6C show target measurement point group Ptag and scanning line 23 of laser light by rider 2 (that is, point irradiated with laser light) when the measured surface of road sign 22 is viewed from the front. line connecting series). For ease of explanation, the case where the initial attitude angles L φ , L θ , and L ψ of the rider 2 are 0 degree is taken as an example. Here, FIG. 6A shows the relationship between the object measurement point group Ptag and the scanning line 23 of the rider 2 when there is no shift in the roll direction of the rider 2, and FIGS. shows the relationship between the object measurement point group Ptag and the scanning line 23 of the rider 2 when there is a shift ΔL φ in the roll direction. Here, FIG. 6B shows the relationship between the object measurement point group Ptag and the scanning line 23 of the rider 2 in the yb - zb plane of the vehicle coordinate system, and FIG. 2 shows the relationship between the object measurement point group Ptag and the scanning line 23 of the rider 2 in the y b '-z b ' plane of . For convenience of explanation, it is assumed that the longitudinal direction of the road sign 22 is parallel to the yb axis and the vehicle is on a flat road when the rider 2 is not displaced. .

図6(A)に示すように、ライダ2のロール角にずれが生じていない場合には、ライダ2は、道路標識22の横方向(即ち水平方向又は長手方向)と平行にスキャンを行う。そして、この場合、対象計測点群Ptagの縦方向における点群の数は、横方向における位置に関わらず同じ数(図6(A)では6個)となる。 As shown in FIG. 6A, when there is no shift in the roll angle of the rider 2, the rider 2 scans the road sign 22 in parallel with the lateral direction (that is, the horizontal direction or the longitudinal direction). In this case, the number of point groups in the vertical direction of the target measurement point group Ptag is the same number (six in FIG. 6A) regardless of the position in the horizontal direction.

一方、ライダ2のロール角にずれが生じている場合には、道路標識22に対して走査線が斜めに傾いている。ここで、道路標識22の長手方向は車両に対して傾いておらず、ライダ2の走査線が車両に対して傾いているため、車両座標系で観察した場合には、図6(B)に示すように、y軸と道路標識22の長手方向とが平行となり、ライダ2の走査線がy軸に対して傾く。一方、基準座標系で観察した場合には、図6(C)に示すように、y‘軸とライダ2の走査線とが平行となり、道路標識22の長手方向がy‘軸に対して傾く。 On the other hand, when the roll angle of the rider 2 is deviated, the scanning line is inclined with respect to the road sign 22 . Here, the longitudinal direction of the road sign 22 is not tilted with respect to the vehicle, and the scanning line of the rider 2 is tilted with respect to the vehicle. As shown, the yb - axis and the longitudinal direction of the road sign 22 are parallel, and the scanning line of the rider 2 is tilted with respect to the yb - axis. On the other hand, when observed in the reference coordinate system, as shown in FIG. 6C, the yb ' axis and the scanning line of the rider 2 are parallel, and the longitudinal direction of the road sign 22 is aligned with the yb ' axis. and tilt.

次に、対象計測点群Ptagの抽出後の処理について説明する。まず、車載機1は、対象計測点群Ptagの各計測点に対する受光強度を所定の閾値により判定することで、所定の閾値以下となる受光強度に対応する計測点を対象計測点群Ptagから除外する。そして、車載機1は、受光強度に基づく除外処理後の対象計測点群Ptagから、外縁を構成する点群(「外縁点群Pout」とも呼ぶ。)を抽出する。例えば、車載機1は、上下左右の少なくとも一方向において、隣接する計測点が存在しない対象計測点群Ptagの計測点を、外縁点群Poutとして抽出する。 Next, processing after extraction of the target measurement point group Ptag will be described. First, the in-vehicle device 1 determines the received light intensity for each measurement point of the target measurement point group Ptag using a predetermined threshold value, thereby excluding the measurement points corresponding to the received light intensity that is equal to or less than the predetermined threshold value from the target measurement point group Ptag. do. Then, the vehicle-mounted device 1 extracts a point group forming an outer edge (also referred to as an "outer edge point group Pout") from the target measurement point group Ptag after exclusion processing based on the received light intensity. For example, the in-vehicle device 1 extracts, as the outer edge point group Pout, the measurement points of the target measurement point group Ptag that do not have adjacent measurement points in at least one of the up, down, left, and right directions.

図7(A)は、ライダ座標系における対象計測点群Ptagを示し、図7(B)は、所定の閾値以下となる受光強度に対応する計測点を除外した後の対象計測点群Ptagを示す。また、図7(C)は、図7(B)に示す対象計測点群Ptagから抽出した外縁点群Poutを示す。図7(A)、(B)に示すように、図7(A)に示す計測点のうち、レーザ光の一部のみが反射したことにより一部が欠けている計測点については、受光強度が所定の閾値以下となり、対象計測点群Ptagから除外されている。また、図7(B)、(C)に示すように、上下左右の少なくとも一方向において隣接する計測点が存在しない計測点が外縁点群Poutとして抽出されている。 FIG. 7A shows the target measurement point group Ptag in the lidar coordinate system, and FIG. 7B shows the target measurement point group Ptag after excluding measurement points corresponding to received light intensities equal to or lower than a predetermined threshold. show. FIG. 7(C) shows the outer edge point group Pout extracted from the target measurement point group Ptag shown in FIG. 7(B). As shown in FIGS. 7A and 7B, of the measurement points shown in FIG. 7A, the received light intensity is is equal to or less than a predetermined threshold, and is excluded from the target measurement point group Ptag. In addition, as shown in FIGS. 7B and 7C, measurement points that do not have adjacent measurement points in at least one of the vertical and horizontal directions are extracted as the outer edge point group Pout.

次に、車載機1は、外縁点群Poutから道路標識22の長手方向の傾きを算出する。ここで、外縁点群Poutは四角形を形成することから、この四角形のそれぞれの辺ごとに外縁点群Poutを分類し、辺ごとに分類した外縁点群Poutから、最小二乗法などの回帰分析手法により各辺の近似直線の傾きを算出する。 Next, the in-vehicle device 1 calculates the inclination of the road sign 22 in the longitudinal direction from the outer edge point group Pout. Here, since the outer edge point group Pout forms a quadrangle, the outer edge point group Pout is classified for each side of this quadrangle, and from the outer edge point group Pout classified for each side, a regression analysis method such as the least squares method Calculate the slope of the approximation straight line for each side.

図8(A)は、四角形の上辺を形成する外縁点群Poutを抽出し,最小2乗法で直線を引いた図を示す。図8(B)は、四角形の底辺を形成する外縁点群Poutを抽出し,最小2乗法で直線を引いた図を示す。図8(C)は、四角形の左辺を形成する外縁点群Poutを抽出し,最小2乗法で直線を引いた図を示す。図8(D)は、四角形の右辺を形成する外縁点群Poutを抽出し,最小2乗法で直線を引いた図を示す。 FIG. 8(A) shows a diagram obtained by extracting the outer edge point group Pout forming the upper side of the quadrangle and drawing a straight line by the method of least squares. FIG. 8B shows a diagram in which the outer edge point group Pout forming the base of the quadrangle is extracted and a straight line is drawn by the method of least squares. FIG. 8(C) shows a diagram obtained by extracting the outer edge point group Pout forming the left side of the quadrangle and drawing a straight line by the method of least squares. FIG. 8(D) shows a diagram in which the outer edge point group Pout forming the right side of the quadrangle is extracted and a straight line is drawn by the method of least squares.

この場合、車載機1は、図8(A)~(D)に示される各直線を算出し、各直線のy‘軸に対する傾き「φ」~「φ」を算出する。そして、車載機1は、以下の式(5)に示すように、これらの傾き「φ」~「φ」の平均を、道路標識22の傾き「φ」として算出する。 In this case, the vehicle-mounted device 1 calculates each straight line shown in FIGS. 8A to 8D, and calculates the inclinations "φ 1 " to "φ 4 " of each straight line with respect to the yb ' axis. Then, the in-vehicle device 1 calculates the average of these inclinations "φ 1 " to "φ 4 " as the inclination "φ" of the road sign 22, as shown in the following equation (5).

Figure 2023038220000006
ここで、四角形の左辺及び右辺は、上辺及び底辺に対して約90°ずれているため、式(5)では、四角形の左辺及び右辺を構成する外縁点群Poutから求めた直線の傾きφ及びφに対して「π/2」だけ補正している。
Figure 2023038220000006
Here, since the left and right sides of the quadrangle are deviated from the top and bottom sides by about 90°, in equation (5), the inclination of the straight line obtained from the outer edge point group Pout that constitutes the left and right sides of the quadrangle is φ 3 and φ4 are corrected by "π/2".

なお、好適には、車載機1は、傾きφを求める場合、四角形の各辺を構成する外縁点群Poutの数に基づき、各傾きφ~φに重み付けをしてもよい。この場合、四角形の上辺を形成する外縁点群Poutの数を「n」、四角形の底辺を形成する外縁点群Poutの数を「n」、四角形の左辺を形成する外縁点群Poutの数を「n」、四角形の右辺を形成する外縁点群Poutの数を「n」とすると、車載機1は、以下の式(6)に基づき重み付け平均を行うことで、傾きφを算出する。 Preferably, when obtaining the inclination φ, the in-vehicle device 1 may weight the inclinations φ 1 to φ 4 based on the number of the outer edge point groups Pout forming each side of the quadrangle. In this case, the number of outer edge point groups Pout forming the upper side of the quadrangle is "n 1 ", the number of outer edge point groups Pout forming the base of the quadrangle is "n 2 ", and the number of outer edge point groups Pout forming the left side of the quadrangle is Assuming that the number is “n 3 ” and the number of the outer edge point group Pout forming the right side of the quadrangle is “n 4 ”, the in-vehicle device 1 performs weighted averaging based on the following formula (6) to obtain the slope φ calculate.

Figure 2023038220000007
他の好適な例では、車載機1は、傾きφを求める場合、ライダ2の水平方向の対象計測点群Ptagの間隔「I」と垂直方向の対象計測点群Ptagの間隔「I」とに基づいて、各傾きφ~φに重み付けをしてもよい。ここで、水平間隔I及び垂直間隔Iは、それぞれ図7(B)に示される間隔となる。この場合、車載機1は、垂直間隔Iが長いほど、四角形の上辺及び底辺の傾きφ及びφの精度が低くなり、水平間隔Iが長いほど、四角形の左辺及び右辺の傾きφ及びφの精度が低くなるとみなし、以下の式(7)に示すように、水平間隔I及び垂直間隔Iの逆数を用いて重み付け平均を行うことで、傾きφを算出する。
Figure 2023038220000007
In another preferred example, when the in-vehicle device 1 obtains the inclination φ, the interval “I H ” between the group of target measurement points Ptag in the horizontal direction of the rider 2 and the interval “ IV ” between the group of target measurement points Ptag in the vertical direction are Each of the slopes φ 1 to φ 4 may be weighted based on and. Here, the horizontal interval IH and the vertical interval IV are the intervals shown in FIG. 7B. In this case, the vehicle-mounted device 1 reduces the accuracy of the slopes φ1 and φ2 of the top and bottom sides of the rectangle as the vertical interval IV increases, and decreases the slopes φ1 and φ2 of the left and right sides of the rectangle as the horizontal interval IH increases. 3 and φ 4 are considered to be less accurate, and the slope φ is calculated by performing a weighted average using the reciprocal of the horizontal interval IH and the vertical interval IV as shown in Equation (7) below.

Figure 2023038220000008
また、車載機1は、四角形の各辺を構成する点群の数n~n及び垂直間隔I及び水平間隔Iの両方を加味した重み付け平均により傾きφを算出してもよい。この場合、車載機1は、以下の式(8)に基づき重み付け平均を行うことで、傾きφを算出する。
Figure 2023038220000008
Further, the in-vehicle device 1 may calculate the inclination φ by a weighted average taking into account the numbers n 1 to n 4 of the point groups forming each side of the quadrangle and both the vertical interval IV and the horizontal interval IH . In this case, the vehicle-mounted device 1 calculates the slope φ by performing weighted averaging based on the following equation (8).

Figure 2023038220000009
また、車載機1は、ジャイロセンサ3及び加速度センサ4の出力に基づき車体のロール角「φ」を算出し、式(5)~(8)のいずれかにより算出した傾きφとの差分をとることで、ライダ2のロール角Lφを算出する。この場合、車載機1は、以下の式(9)に基づきライダ2のロール角Lφを算出する。
Figure 2023038220000009
Further, the in-vehicle device 1 calculates the roll angle “φ 0 ” of the vehicle body based on the outputs of the gyro sensor 3 and the acceleration sensor 4, and calculates the difference from the inclination φ calculated by any of the formulas (5) to (8). Then, the roll angle of the rider 2 is calculated. In this case, the vehicle-mounted device 1 calculates the roll angle of the rider 2 based on the following equation (9).

Figure 2023038220000010
これにより、車載機1は、車両の傾きの影響を排除したライダ2のロール角Lφを好適に算出することができる。
Figure 2023038220000010
As a result, the vehicle-mounted device 1 can suitably calculate the roll angle of the rider 2 excluding the influence of the tilt of the vehicle.

好適には、検出対象地物Ftagである道路標識22が水平方向に対して傾いている可能性や計測誤差等を勘案し、車載機1は、上記のライダ2のロール角Lφの算出を、検出対象地物Ftagとなる多くの道路標識に対して実施し、それらを平均化するとよい。これにより、車載機1は、確からしいライダ2のロール方向の傾きLφを好適に算出することができる。 Preferably, considering the possibility that the road sign 22, which is the detection target feature Ftag, is tilted with respect to the horizontal direction, the measurement error, etc., the vehicle-mounted device 1 calculates the roll angle of the rider 2 as described above. , a number of road signs serving as the detection target feature Ftag, and average them. As a result, the vehicle-mounted device 1 can suitably calculate the likely inclination of the rider 2 in the roll direction.

また、車体のロール角φは平均すると0°と見なせるため,上述の平均化の時間を長くすることにより、車体のロール角度φを取得する必要がなくなる。例えば、十分大きいN個分の傾きφを取得した場合、車載機1は、ライダ2のロール角Lφを、以下の式(10)により定めてもよい。 In addition, since the roll angle φ 0 of the vehicle body can be regarded as 0° on average, it becomes unnecessary to obtain the roll angle φ 0 of the vehicle body by lengthening the above-described averaging time. For example, when obtaining N sufficiently large inclinations φ, the vehicle-mounted device 1 may determine the roll angle L φ of the rider 2 by the following equation (10).

Figure 2023038220000011
上述のNは、車体ロール角φの平均が略0°とみなすことができるサンプル数であり、例えば実験等に基づき予め定められる。
Figure 2023038220000011
The above-mentioned N is the number of samples for which the average of the vehicle body roll angles φ 0 can be regarded as approximately 0°, and is determined in advance based on, for example, experiments.

図9は、ロール角推定処理の手順を示すフローチャートである。 FIG. 9 is a flowchart showing the procedure of roll angle estimation processing.

まず、車載機1は、地図DB10を参照し、車両周辺の検出対象地物Ftagに対して検出ウィンドウを設定する(ステップS101)。この場合、車載機1は、検出対象地物Ftagとして、走行路の進行方向に対して垂直面を有する方形状の道路標識を選定し、現在位置から所定距離以内に存在する上述の道路標識を地図DB10から特定する。そして、車載機1は、特定した道路標識に関する位置情報等を地図DB10から取得することで、検出ウィンドウを設定する。 First, the in-vehicle device 1 refers to the map DB 10 and sets a detection window for the detection target feature Ftag around the vehicle (step S101). In this case, the in-vehicle device 1 selects a square road sign having a plane perpendicular to the travel direction of the travel path as the detection target feature Ftag, and selects the road sign existing within a predetermined distance from the current position. It specifies from map DB10. Then, the in-vehicle device 1 sets a detection window by acquiring position information and the like related to the identified road sign from the map DB 10 .

次に、車載機1は、ステップS101で設定した検出ウィンドウ内のライダ2の計測点群を、検出対象地物Ftagの点群(即ち対象計測点群Ptag)として取得する(ステップS102)。そして、車載機1は、ステップS102で取得した対象計測点群Ptagから、これらの点群の外縁を形成する外縁点群Poutを抽出する(ステップS103)。 Next, the in-vehicle device 1 acquires the measurement point group of the rider 2 within the detection window set in step S101 as the point group of the detection target feature Ftag (that is, the target measurement point group Ptag) (step S102). Then, the in-vehicle device 1 extracts the outer edge point group Pout forming the outer edge of these point groups from the target measurement point group Ptag acquired in step S102 (step S103).

そして、車載機1は、ステップS103で抽出した外縁点群Poutの横方向の傾きφを算出する(ステップS104)。この場合、車載機1は、図8(A)~(D)において説明したように、外縁点群Poutが形成する四角形の各辺に該当する点群から各辺に対応する直線の傾きφ~φを求め、式(5)~(8)のいずれかの式を採用して傾きφを算出する。 Then, the in-vehicle device 1 calculates the lateral inclination φ of the outer edge point group Pout extracted in step S103 (step S104). In this case, as described with reference to FIGS. 8A to 8D, the in-vehicle device 1 obtains the inclination φ 1 ∼φ4 is obtained, and the slope φ is calculated using any one of the formulas (5) to (8).

その後、車載機1は、傾きφの平均化処理又は/及び車体のロール角φとの差分処理により、ライダ2のロール角Lφを算出する(ステップS105)。上述の平均化処理では、車載機1は、ステップS101~S104の処理を複数の検出対象地物Ftagに対して実行することで複数の傾きφを取得し、取得した複数の傾きφの平均値を、傾きLφとして算出する。 After that, the in-vehicle device 1 calculates the roll angle of the rider 2 by averaging the inclination φ and/or subtracting it from the roll angle φ0 of the vehicle body (step S105). In the above-described averaging process, the vehicle-mounted device 1 acquires a plurality of inclinations φ by executing the processes of steps S101 to S104 on a plurality of detection target features Ftag, and calculates the average value of the acquired plurality of inclinations φ. is calculated as the slope L φ .

[ピッチ角の推定]
次に、ライダ2のピッチ角Lθの推定方法について説明する。車載機1は、走行路の幅方向に対して垂直面(即ち走行路に対して横向きの面)を有する方形状の道路標識を検出対象地物Ftagとみなし、当該道路標識の傾きをライダ2が出力する計測点群にもとづき算出することで、ライダ2のピッチ角を推定する。
[Estimation of pitch angle]
Next, a method for estimating the pitch angle of the rider 2 will be described. The in-vehicle device 1 regards a square-shaped road sign having a plane perpendicular to the width direction of the travel road (that is, a plane facing laterally to the travel road) as a detection target feature Ftag, and determines the inclination of the road sign to the rider 2. The pitch angle of the rider 2 is estimated by calculating based on the measurement point group output by .

図10は、ライダ2のピッチ角を推定する際の検出対象地物Ftagとなる道路標識24付近に車両が走行する場合の車両周辺の俯瞰図を示す。図10において、破線円20は、ライダ2により地物を検出可能なライダ検出範囲を示し、破線枠21は、検出対象地物Ftagである道路標識24に対して設定した検出ウィンドウを示す。 FIG. 10 shows a bird's-eye view of the surroundings of the vehicle when the vehicle runs near the road sign 24, which is the detection target feature Ftag when estimating the pitch angle of the rider 2. FIG. In FIG. 10, a dashed line circle 20 indicates a lidar detection range in which a feature can be detected by the lidar 2, and a dashed line frame 21 indicates a detection window set for a road sign 24 that is a detection target feature Ftag.

この場合、車載機1は、地図DB10を参照することで、走行路の幅方向に対して垂直面を有する方形状の道路標識24が破線円20に示されるライダ検出範囲内に存在することを認識し、当該道路標識24に関する位置情報等に基づき破線枠21に示す検出ウィンドウを設定する。この場合、車載機1は、例えば、検出対象地物Ftagとなる道路標識の種別情報などを予め記憶しておき、当該種別情報が示す種別の道路標識がライダ検出範囲内に存在するか否かを地図DB10の地物データを参照して判定する。そして、車載機1は、ライダ2が出力する計測点群のうち、設定した検出ウィンドウ内に存在する計測点群を、対象計測点群Ptagとして抽出する。 In this case, the in-vehicle device 1 refers to the map DB 10 to determine that a rectangular road sign 24 having a plane perpendicular to the width direction of the travel path exists within the rider detection range indicated by the dashed circle 20. A detection window indicated by a dashed frame 21 is set based on the positional information about the road sign 24 and the like. In this case, the in-vehicle device 1 stores, for example, the type information of the road sign serving as the detection target feature Ftag in advance, and determines whether or not the road sign of the type indicated by the type information exists within the rider detection range. is determined by referring to the feature data in the map DB 10 . Then, the in-vehicle device 1 extracts the measurement point group existing within the set detection window from the measurement point group output by the rider 2 as the target measurement point group Ptag.

次に、車載機1は、抽出した対象計測点群Ptagに対して、ロール角の推定方法と同様の処理を実行することで、ライダ2のピッチ角を推定する。 Next, the in-vehicle device 1 estimates the pitch angle of the rider 2 by performing the same process as the roll angle estimation method on the extracted target measurement point group Ptag.

具体的には、まず、車載機1は、対象計測点群Ptagの各計測点に対する受光強度を所定の閾値により判定することで、所定の閾値以下となる受光強度に対応する計測点を対象計測点群Ptagから除外する。そして、車載機1は、受光強度に基づく除外処理後の対象計測点群Ptagから、外縁を構成する外縁点群Poutを抽出する。次に、車載機1は、外縁点群Poutが構成する四角形の各辺の近似直線の傾き「θ」~「θ」を最小二乗法などの回帰分析手法により算出する。そして、車載機1は、傾きθ~θに基づく平均化処理を行うことで、道路標識22の傾き「θ」を算出する。なお、車載機1は、式(6)~(8)と同様、四角形の各辺を構成する点群の数n~nと、垂直間隔I及び水平間隔Iとの少なくとも一方を加味した重み付け平均により傾きθを算出してもよい。 Specifically, first, the in-vehicle device 1 determines the received light intensity for each measurement point of the target measurement point group Ptag by using a predetermined threshold value, and measures the measurement points corresponding to the received light intensity that is equal to or less than the predetermined threshold value. Exclude from point group Ptag. Then, the in-vehicle device 1 extracts the outer edge point group Pout forming the outer edge from the target measurement point group Ptag after the exclusion process based on the received light intensity. Next, the in-vehicle device 1 calculates the inclinations “θ 1 ” to “θ 4 ” of the approximation line of each side of the quadrangle formed by the outer edge point group Pout by a regression analysis technique such as the least squares method. Then, the in-vehicle device 1 calculates the inclination “θ” of the road sign 22 by performing averaging processing based on the inclinations θ 1 to θ 4 . Note that the in-vehicle device 1 determines at least one of the numbers n 1 to n 4 of the point groups forming each side of the quadrangle, the vertical interval I V and the horizontal interval I H as in formulas (6) to (8). You may calculate inclination (theta) by the weighted average which added consideration.

また、車載機1は、ジャイロセンサ3及び加速度センサ4の出力に基づき車体のピッチ角「θ」を算出し、傾きθとの差分をとることで、ライダ2のピッチ角Lθを算出する。この場合、車載機1は、以下の式(11)に基づきライダ2のピッチ方向の傾きLθを算出する。 In addition, the in-vehicle device 1 calculates the pitch angle “θ 0 ” of the vehicle body based on the outputs of the gyro sensor 3 and the acceleration sensor 4, and calculates the pitch angle L θ of the rider 2 by taking the difference from the inclination θ. . In this case, the vehicle-mounted device 1 calculates the inclination L θ of the rider 2 in the pitch direction based on the following equation (11).

Figure 2023038220000012
これにより、車載機1は、車両の傾きの影響を排除したライダ2のピッチ角Lθを好適に算出することができる。また、好適には、検出対象地物Ftagである道路標識24が水平方向に対して傾いている可能性や計測誤差等を勘案し、車載機1は、上記のライダ2のピッチ角Lθの算出を、検出対象地物Ftagとなる多くの道路標識に対して実施し、それらを平均化するとよい。これにより、車載機1は、確からしいライダ2のピッチ角Lθを好適に算出することができる。ここで、車体のピッチ角θは平均すると0°と見なせるため,上述の平均化の時間を長くすることにより、車体のピッチ角度θを取得する必要がなくなる。例えば、N個分の傾きθを取得した場合、ライダ2のピッチ角Lθは、以下の式(12)により表される。
Figure 2023038220000012
As a result, the in-vehicle device 1 can suitably calculate the pitch angle L θ of the rider 2 excluding the influence of the inclination of the vehicle. In addition, preferably, considering the possibility that the road sign 24, which is the detection target feature Ftag, is tilted with respect to the horizontal direction, the measurement error, etc., the vehicle-mounted device 1 determines the pitch angle L θ It is preferable to perform the calculation for many road signs serving as the detection target feature Ftag and average them. As a result, the vehicle-mounted device 1 can suitably calculate the probable pitch angle L θ of the rider 2 . Here, since the pitch angle θ 0 of the vehicle body can be regarded as 0° on average, it becomes unnecessary to obtain the pitch angle θ 0 of the vehicle body by lengthening the above-described averaging time. For example, when N inclinations θ are obtained, the pitch angle L θ of the rider 2 is expressed by the following equation (12).

Figure 2023038220000013
Figure 2023038220000013

図11は、ピッチ角推定処理の手順を示すフローチャートである。 FIG. 11 is a flowchart showing the procedure of pitch angle estimation processing.

まず、車載機1は、地図DB10を参照し、車両周辺の検出対象地物Ftagに対して検出ウィンドウを設定する(ステップS201)。この場合、車載機1は、検出対象地物Ftagとして、走行路の幅方向に対して垂直面を有する方形状の道路標識を選定し、現在位置から所定距離以内に存在する上述の道路標識を地図DB10から特定する。そして、車載機1は、特定した道路標識に関する位置情報等を地図DB10から取得することで、検出ウィンドウを設定する。 First, the in-vehicle device 1 refers to the map DB 10 and sets a detection window for the detection target feature Ftag around the vehicle (step S201). In this case, the in-vehicle device 1 selects a square road sign having a plane perpendicular to the width direction of the travel path as the detection target feature Ftag, and selects the above-described road sign existing within a predetermined distance from the current position. It specifies from map DB10. Then, the in-vehicle device 1 sets a detection window by acquiring position information and the like related to the identified road sign from the map DB 10 .

次に、車載機1は、ステップS201で設定した検出ウィンドウ内のライダ2の計測点群を、検出対象地物Ftagの点群(即ち対象計測点群Ptag)として取得する(ステップS202)。そして、車載機1は、ステップS202で取得した検出対象地物Ftagの点群から、これらの点群の外縁を形成する外縁点群Poutを抽出する(ステップS203)。 Next, the in-vehicle device 1 acquires the measurement point group of the rider 2 within the detection window set in step S201 as the point group of the detection target feature Ftag (that is, the target measurement point group Ptag) (step S202). Then, the in-vehicle device 1 extracts the outer edge point group Pout forming the outer edge of the point group from the point group of the detection target feature Ftag acquired in step S202 (step S203).

そして、車載機1は、ステップS203で抽出した外縁点群Poutの長手方向の傾きθを算出する(ステップS204)。その後、車載機1は、傾きθの平均化処理又は/及び車体のピッチ角θとの差分処理により、ライダ2のピッチ方向の傾きLθを算出する(ステップS205)。上述の平均化処理では、車載機1は、ステップS201~S204の処理を複数の対象計測点群Ptagに対して実行することで複数の傾きθを算出し、これらの平均値を傾きLθとして算出する。 Then, the in-vehicle device 1 calculates the inclination θ in the longitudinal direction of the outer edge point group Pout extracted in step S203 (step S204). After that, the in-vehicle device 1 calculates the inclination L θ of the rider 2 in the pitch direction by averaging the inclination θ and/or subtracting it from the pitch angle θ 0 of the vehicle body (step S205). In the above-described averaging process, the in-vehicle device 1 calculates a plurality of slopes θ by executing the processes of steps S201 to S204 on a plurality of target measurement point groups Ptag, and uses the average value of these slopes as the slope L θ . calculate.

[ヨー角の推定]
次に、ライダ2のヨー角Lψの推定方法について説明する。車載機1は、白線などの区画線を検出対象地物Ftagとみなし、区画線の中心線の方向をライダ2が計測する計測点群に基づき算出することで、ライダ2のヨー角Lψを推定する。
[Estimation of Yaw Angle]
Next, a method for estimating the yaw angle L ψ of the rider 2 will be described. The in-vehicle device 1 regards a marking line such as a white line as a detection target feature Ftag, and calculates the direction of the center line of the marking line based on the measurement point group measured by the rider 2, thereby obtaining the yaw angle L ψ of the rider 2. presume.

図12は、ライダ2のヨー角を推定する際の検出対象地物Ftagとなる区画線に沿って車両が走行する場合の車両周辺の俯瞰図を示す。この例では、車両の左側に連続する区画線である連続線30が存在し、車両の右側に断続的に存在する区画線である破線31が存在している。また、矢印25は、ライダ2にヨー方向のずれが生じていない場合のヨー方向の基準方向を示し,ライダ2の座標軸「x」をライダ2のヨー角LΨだけ回転させた向きであり、車両の進行方向に沿った座標軸「x」と一致する。すなわち、ライダ2のヨー角LΨは、ずれが生じていなければ、車両の走行方向であるとみなすヨー角(「ヨー方向基準角」とも呼ぶ。)を示す。一方、矢印26は、ライダ2にヨー方向のずれがΔLΨ生じた場合のヨー方向基準角を示しており、ヨー方向基準角を修正しないと、車両の走行方向と一致しなくなる。ヨー方向基準角は、例えば予め記憶部12等に記憶されている。 FIG. 12 shows a bird's-eye view of the surroundings of the vehicle when the vehicle travels along the division line that serves as the detection target feature Ftag when estimating the yaw angle of the rider 2 . In this example, a continuous line 30, which is a continuous lane marking, exists on the left side of the vehicle, and a broken line 31, which is an intermittent lane marking, exists on the right side of the vehicle. An arrow 25 indicates the reference direction of the yaw direction when the rider 2 is not displaced in the yaw direction, and is the direction obtained by rotating the coordinate axis "x L " of the rider 2 by the yaw angle L Ψ of the rider 2 . , coincide with the coordinate axis “x b ” along the direction of travel of the vehicle. That is, the yaw angle L Ψ of the rider 2 indicates a yaw angle (also referred to as a "yaw direction reference angle") that is considered to be the running direction of the vehicle if there is no deviation. On the other hand, the arrow 26 indicates the yaw direction reference angle when the rider 2 deviates in the yaw direction ΔL Ψ , and unless the yaw direction reference angle is corrected, it will not match the running direction of the vehicle. The yaw direction reference angle is stored in advance in the storage unit 12 or the like, for example.

この場合、例えば、地図DB10内には、連続線30の離散的な座標位置及び破線31の離散的な座標位置を示す区画線情報が含まれている。そして、車載機1は、この区画線情報を参照し、車両の左前方、左後方、右前方、右後方の各方向において、車両から所定距離(例えば5m)離れた位置から最も近い座標位置を抽出し、抽出した座標位置を中心として矩形領域を、破線枠21A~21Dに示される検出ウィンドウとして設定する。 In this case, for example, the map DB 10 contains lane marking information indicating discrete coordinate positions of the continuous line 30 and discrete coordinate positions of the dashed line 31 . Then, the in-vehicle device 1 refers to the lane marking information, and finds the closest coordinate position from a position a predetermined distance (for example, 5 m) away from the vehicle in each of the left front, left rear, right front, and right rear directions of the vehicle. A rectangular area centered on the extracted coordinate position is set as a detection window indicated by broken-line frames 21A to 21D.

次に、車載機1は、ライダ2が計測する計測点群から、検出ウィンドウ内において、路面上かつ、所定の閾値以上の反射強度なる点群を、対象計測点群Ptagとして抽出する。そして、車載機1は、走査線ごとの対象計測点群Ptagの中心点を求め、検出ウィンドウごとにこれらの中心点を通る直線(矢印27A~27D参照)を、区画線の中心線として算出する。 Next, the in-vehicle device 1 extracts, from the measurement point group measured by the rider 2, points on the road surface and having a reflection intensity equal to or greater than a predetermined threshold within the detection window as a target measurement point group Ptag. Then, the in-vehicle device 1 obtains the center point of the target measurement point group Ptag for each scanning line, and calculates a straight line (see arrows 27A to 27D) passing through these center points for each detection window as the center line of the marking line. .

図13(A)は、破線枠21Aの検出ウィンドウにおける中心点を丸印により示した図であり、図13(B)は、破線枠21Bの検出ウィンドウにおける中心点を丸印により示した図である。また、図13(A)、(B)では、ライダ2によるレーザ光の走査線28が明示されている。なお、区画線に入射するライダ2のレーザ光は下斜め方向に射出されているため、走査線は、車両に近づくほど間隔が短くなっている。 FIG. 13A is a diagram showing the center point of the detection window of the dashed frame 21A with a circle, and FIG. 13B is a diagram showing the center point of the detection window of the dashed frame 21B with a circle. be. Also, in FIGS. 13A and 13B, scanning lines 28 of laser light by the lidar 2 are clearly shown. In addition, since the laser beam of the lidar 2 incident on the marking line is emitted obliquely downward, the distance between the scanning lines becomes shorter as the vehicle approaches the vehicle.

図13(A)、(B)に示すように、車載機1は、各走査線28に対して中心点を算出する。中心点は、計測点が示す座標位置を走査線28ごとに平均した位置であってもよく、各走査線28上の左端及び右端の計測点の中間点であってもよく、各走査線28上の中間に存在する計測点であってもよい。そして、車載機1は、算出した中心点から、最小二乗法などの回帰分析手法により区画線の中心線(矢印27A、27B参照)を検出ウィンドウごとに算出する。 As shown in FIGS. 13A and 13B, the in-vehicle device 1 calculates the center point for each scanning line 28 . The center point may be the position obtained by averaging the coordinate positions indicated by the measurement points for each scanning line 28, or may be the middle point between the leftmost and rightmost measurement points on each scanning line 28. It may be a measuring point existing in the middle of the above. Then, the in-vehicle device 1 calculates center lines (see arrows 27A and 27B) of the partition lines for each detection window from the calculated center points by a regression analysis technique such as the least squares method.

そして、車載機1は、検出ウィンドウごとに算出した区画線の中心線とヨー方向基準角(図12の矢印26参照)とがなす角を、傾き「ψ」~「ψ」として算出する。図14(A)~(D)は、傾きψ~ψをそれぞれ示した図である。図14(A)~(D)に示すように、傾きψ~ψは、区画線の中心線を指し示す矢印27A~27Dと、ヨー方向基準角を指し示す矢印26とがなす角に相当する。 Then, the in-vehicle device 1 calculates angles formed by the center line of the lane marking calculated for each detection window and the yaw direction reference angle (see arrow 26 in FIG. 12) as inclinations "ψ 1 " to "ψ 4 ." . FIGS. 14A to 14D are diagrams showing the slopes ψ 1 to ψ 4 , respectively. As shown in FIGS. 14A to 14D, the inclinations ψ 1 to ψ 4 correspond to angles formed by arrows 27A to 27D pointing the center lines of the compartment lines and arrow 26 pointing the yaw direction reference angle. .

そして、車載機1は、以下の式(13)に示されるように、傾きψ~ψを平均化することで、傾きψを算出する。 Then, the vehicle-mounted device 1 averages the slopes ψ 1 to ψ 4 to calculate the slope ψ as shown in the following equation (13).

Figure 2023038220000014
また、車載機1は、区画線の中心線の算出に用いた中心点の数に基づき傾きψ~ψを重み付けしてもよい。この場合、傾きψとなる区画線の中心線の算出に用いた中心点の数を「n」、傾きψとなる区画線の中心線の算出に用いた中心点の数を「n」、傾きψとなる区画線の中心線の算出に用いた中心点の数を「n」、傾きψとなる区画線の中心線の算出に用いた中心点の数を「n」とすると、車載機1は、以下の式(14)に基づき傾きψを算出する。
Figure 2023038220000014
Further, the vehicle-mounted device 1 may weight the slopes ψ 1 to ψ 4 based on the number of center points used to calculate the center line of the lane marking. In this case, the number of center points used to calculate the center line of the plot line with a slope of ψ 1 is “n 1 ”, and the number of center points used to calculate the center line of the plot line with a slope of ψ 2 is “n 2 ”, the number of center points used to calculate the center line of the plot line with a slope of ψ 3 is “n 3 ”, and the number of center points used to calculate the center line of the plot line with a slope of ψ 4 is “n 4 ”, the vehicle-mounted device 1 calculates the inclination ψ based on the following equation (14).

Figure 2023038220000015
これにより、車載機1は、少ない中心点により算出した区画線(図12では破線31)の中心線の傾きの重みを相対的に低くし、傾きψを的確に求めることができる。よって、図13(A)の検出状況に対して、図13(B)の検出状況では重みが低くなる。なお、図12~図14の説明では、同時に4箇所の区画線に対する傾きψ~ψを算出する例について示したが、少なくとも1箇所の区画線に対する傾きを算出すればよい。
Figure 2023038220000015
As a result, the in-vehicle device 1 relatively lowers the weight of the inclination of the center line of the division line (broken line 31 in FIG. 12) calculated from a small number of center points, and can accurately obtain the inclination ψ. Therefore, the weight is lower in the detection state of FIG. 13(B) than in the detection state of FIG. 13(A). In the description of FIGS. 12 to 14, an example of calculating the slopes ψ 1 to ψ 4 with respect to the four lane markings at the same time was shown, but the slope with respect to at least one lane marking may be calculated.

次に、傾きψからライダ2のヨー角Lψを算出する方法について説明する。白線などの区画線は、道路に沿って描かれているため、車体のヨー角はほぼ一定(即ち走行路と平行)とみなすことができる。よって、車載機1は、ロール角やピッチ角の推定方法と異なり、傾きψを、ライダ2のヨー角のずれΔLψ(即ち「ΔLψ=ψ」)として算出する。ただし、通常の走行では、車線変更や、車線内での車体のふらつきが存在する。よって、車載機1は、多くの区画線に対して中心線の傾きを算出する処理を実行し、それを平均化するとよい。これにより、車載機1は、確からしいライダ2のヨー角のずれΔLψを好適に算出することができる。例えば、N個分の傾きψを取得した場合、ライダ2のヨー角Lψは、以下の式(15)により表される。 Next, a method for calculating the yaw angle L ψ of the rider 2 from the inclination ψ will be described. Since demarcation lines such as white lines are drawn along the road, the yaw angle of the vehicle body can be considered to be substantially constant (that is, parallel to the travel road). Therefore, unlike the method of estimating the roll angle and the pitch angle, the in-vehicle device 1 calculates the inclination ψ as the deviation ΔL ψ of the yaw angle of the rider 2 (that is, “ΔL ψ =ψ”). However, during normal driving, there are lane changes and body swaying within the lane. Therefore, the in-vehicle device 1 preferably executes a process of calculating the inclination of the center line for many lane markings and averages it. As a result, the in-vehicle device 1 can suitably calculate the probable yaw angle deviation ΔL ψ of the rider 2 . For example, when N inclinations ψ are acquired, the yaw angle L ψ of the rider 2 is expressed by the following equation (15).

Figure 2023038220000016
ここで、「LΨ0」は、ヨー角にずれが生じていないときのヨー角LΨ(即ちヨー方向基準角)を示す。
Figure 2023038220000016
Here, "L Ψ0 " indicates the yaw angle L Ψ (that is, the yaw direction reference angle) when there is no deviation in the yaw angle.

図15は、ヨー角推定処理の手順を示すフローチャートである。 FIG. 15 is a flowchart showing the procedure of yaw angle estimation processing.

まず、車載機1は、地図DB10を参照し、区画線に対して1個以上の検出ウィンドウを設定する(ステップS301)。そして、車載機1は、ステップS301で設定した検出ウィンドウ内のライダ2の計測点群を、区画線の点群(即ち対象計測点群Ptag)として取得する(ステップS302)。 First, the in-vehicle device 1 refers to the map DB 10 and sets one or more detection windows for the lane markings (step S301). Then, the in-vehicle device 1 acquires the measured point group of the rider 2 within the detection window set in step S301 as the point group of the lane marking (that is, the target measured point group Ptag) (step S302).

そして、車載機1は、設定した各検出ウィンドウ内の区画線の中心線を算出する(ステップS303)。この場合、車載機1は、ライダ2の走査線ごとに対象計測点群Ptagの中心点を求め、中心点から最小二乗法等に基づき検出ウィンドウごとに区画線の中心線を算出する。そして、車載機1は、予め記憶部12等に記憶したヨー角基準角と、区画線の中心線との角度ψを算出する(ステップS304)。この場合、車載機1は、ステップS301において2つ以上の検出ウィンドウを設定した場合には、検出ウィンドウごとにヨー角基準角と区画線の中心線との角度を求め、これらの角度を平均化又は中心点の数により重み付け平均化することで、上述の角度ψを算出する。 Then, the in-vehicle device 1 calculates the center line of the lane markings within each set detection window (step S303). In this case, the vehicle-mounted device 1 obtains the center point of the target measurement point group Ptag for each scanning line of the lidar 2, and calculates the center line of the marking line for each detection window based on the least squares method or the like from the center point. Then, the in-vehicle device 1 calculates the angle ψ between the yaw angle reference angle stored in advance in the storage unit 12 or the like and the center line of the partition line (step S304). In this case, if two or more detection windows are set in step S301, the vehicle-mounted device 1 obtains the angle between the yaw angle reference angle and the center line of the lane marking for each detection window, and averages these angles. Alternatively, the above angle ψ is calculated by performing weighted averaging based on the number of center points.

そして、車載機1は、異なる区画線を対象にステップS301~S304を実行することで算出した複数の角度ψを平均化し、式(15)に基づき、ライダ2のヨー角Lψを算出する(ステップS305)。 Then, the in-vehicle device 1 averages a plurality of angles ψ calculated by executing steps S301 to S304 for different lane markings, and calculates the yaw angle L ψ of the rider 2 based on the equation (15) ( step S305).

ここで、以上説明したロール角、ピッチ角及びヨー角の推定値に基づく処理の具体例について説明する。図16は、ロール角、ピッチ角及びヨー角の推定値に基づく処理の具体例を示すフローチャートである。 Here, a specific example of processing based on the estimated values of the roll angle, pitch angle, and yaw angle described above will be described. FIG. 16 is a flow chart showing a specific example of processing based on the estimated roll angle, pitch angle, and yaw angle.

まず、車載機1は、図9、図11、又は図15のフローチャートの処理を実行することで、ライダ2のロール角Lφ、ピッチ角Lθ、又はヨー角Lψのいずれかを算出したか否か判定する(ステップS401)。そして、車載機1は、ライダ2のロール角Lφ、ピッチ角Lθ、又はヨー角Lψのいずれかを算出した場合(ステップS401;Yes)、算出した角度がライダ設置情報ILに記録された角度から所定角度以上変化しているか否か判定する(ステップS402)。上述の閾値は、後述するステップS404でのライダ2の計測データの補正処理を行うことで引き続きライダ2の計測データを使用できるか否かを判定するための閾値であり、例えば予め実験等に基づき設定される。 First, the in-vehicle device 1 calculates any of the roll angle L φ , the pitch angle L θ , or the yaw angle L ψ of the rider 2 by executing the processing of the flowcharts of FIGS. It is determined whether or not (step S401). When the in-vehicle device 1 calculates any of the roll angle , the pitch angle , or the yaw angle of the rider 2 (step S401; Yes), the calculated angle is recorded in the rider installation information IL. It is determined whether or not the angle has changed by a predetermined angle or more (step S402). The above-mentioned threshold value is a threshold value for determining whether or not the measurement data of rider 2 can continue to be used by correcting the measurement data of rider 2 in step S404, which will be described later. set.

そして、車載機1は、算出した角度がライダ設置情報ILに記録された角度から所定角度以上変化している場合(ステップS402;Yes)、対象のライダ2の出力データの使用(即ち障害物検知や自車位置推定等への利用)を中止し、対象のライダ2について再度のアライメント調整を行う必要がある旨の警告を情報出力部16により出力する(ステップS403)。これにより、事故等により著しく姿勢・位置のずれが生じたライダ2の計測データを用いることによる安全性低下等を確実に抑制する。 Then, if the calculated angle has changed by a predetermined angle or more from the angle recorded in the rider installation information IL (step S402; Yes), the vehicle-mounted device 1 uses the output data of the target rider 2 (that is, obstacle detection). and vehicle position estimation, etc.), and the information output unit 16 outputs a warning to the effect that alignment adjustment must be performed again for the target rider 2 (step S403). As a result, the use of the measurement data of the rider 2, whose attitude and position have significantly deviated due to an accident or the like, can reliably prevent a decrease in safety or the like.

一方、車載機1は、算出した角度がライダ設置情報ILに記録された角度から所定角度以上変化していない場合(ステップS402;No)、ライダ設置情報ILに記録された角度からの算出した角度の変化量に基づき、ライダ2が出力する点群データの各計測値を補正する(ステップS404)。この場合、車載機1は、例えば、上述の変化量に対する計測値の補正量を示すマップ等を記憶しておき、当該マップ等を参照することで、上述の計測値を補正する。また、変化量の所定の割合の値を計測値の補正量として計測値を補正してもよい。 On the other hand, if the calculated angle has not changed by a predetermined angle or more from the angle recorded in the rider installation information IL (step S402; No), the vehicle-mounted device 1 changes the calculated angle from the angle recorded in the rider installation information IL. Each measurement value of the point cloud data output by the rider 2 is corrected based on the amount of change in (step S404). In this case, the vehicle-mounted device 1 stores, for example, a map or the like indicating the amount of correction of the measured value with respect to the amount of change described above, and refers to the map or the like to correct the above-described measured value. Alternatively, the measured value may be corrected using a value of a predetermined ratio of the amount of change as the correction amount of the measured value.

以上説明したように、本実施例における車載機1は、車両の走行路の進行方向に対して垂直面又は走行路の幅方向に対して垂直面を有する道路標識を、車両に取り付けられたライダ2により計測した対象計測点群Ptagを取得する。そして、車載機1は、対象計測点群Ptagから算出される、ライダ2の設置情報に基づく座標系を基準とした道路標識の長手方向の傾きに基づいて、ライダ2の車両への取り付け姿勢を推定する。これにより、車載機1は、ロール方向及びピッチ方向におけるライダ2の車両への取り付け姿勢を的確に推定することができる。 As described above, the in-vehicle device 1 according to the present embodiment displays a road sign having a plane perpendicular to the traveling direction of the travel path of the vehicle or a plane perpendicular to the width direction of the travel path to the rider attached to the vehicle. Acquire the target measurement point group Ptag measured by 2. Then, the in-vehicle device 1 adjusts the attachment attitude of the rider 2 to the vehicle based on the inclination of the road sign in the longitudinal direction with reference to the coordinate system based on the installation information of the rider 2, which is calculated from the target measurement point group Ptag. presume. As a result, the in-vehicle device 1 can accurately estimate the attachment attitude of the rider 2 to the vehicle in the roll direction and the pitch direction.

また、以上説明したように、本実施例における車載機1は、区画線を車両に取り付けられたライダ2により計測した計測点群を取得し、当該計測点群に基づき、車両の走行方向に沿った区画線の中心線を算出する。そして、車載機1は、ライダ2が基準とするヨー方向基準角に対する区画線の中心線の方向に基づき、ライダ2の車両への取り付け姿勢を推定する。これにより、車載機1は、ヨー方向におけるライダ2の車両の取り付け姿勢を好適に推定することができる。 Further, as described above, the in-vehicle device 1 according to the present embodiment obtains a measurement point group obtained by measuring the lane markings by the rider 2 attached to the vehicle, and based on the measurement point group, moves along the traveling direction of the vehicle. Calculate the center line of the zoning line. Then, the in-vehicle device 1 estimates the attachment attitude of the rider 2 to the vehicle based on the direction of the center line of the lane marking with respect to the yaw direction reference angle that the rider 2 uses as a reference. Thereby, the on-vehicle device 1 can suitably estimate the mounting posture of the rider 2 on the vehicle in the yaw direction.

[変形例]
以下、実施例に好適な変形例について説明する。以下の変形例は、組み合わせて実施例に適用してもよい。
[Modification]
Modifications suitable for the embodiment will be described below. The following modifications may be combined and applied to the embodiment.

(変形例1)
図13及び図15のステップS303の説明では、車載機1は、検出ウィンドウ内における区画線の幅方向における中心点を算出することで区画線の中心線を算出した。これに代えて、車載機1は、検出ウィンドウ内における走査線の右端点又は左端点を抽出し、区画線の右端又は左端を通る直線を算出してもよい。これによっても、車載機1は、走行路と平行となる線を好適に特定して角度ψを算出することができる。
(Modification 1)
In the description of step S303 in FIGS. 13 and 15, the in-vehicle device 1 calculates the center line of the marking line by calculating the center point in the width direction of the marking line within the detection window. Alternatively, the vehicle-mounted device 1 may extract the right end point or left end point of the scanning line within the detection window, and calculate a straight line passing through the right end or left end of the partition line. Also by this, the vehicle-mounted device 1 can suitably identify the line parallel to the travel path and calculate the angle ψ.

(変形例2)
図12~図15で説明したヨー角の推定処理では、車載機1は区間線を検出対象地物Ftagとみなした。これに代えて、又はこれに加えて、車載機1は、縁石などを検出対象地物Ftagとみなしてもよい。このように、車載機1は、区画線に限らず、被計測面が走行路面と平行であって走行路面に沿って形成された任意の地物を検出対象地物Ftagとみなして図12~図15で説明したヨー角の推定処理を実行してもよい。
(Modification 2)
In the yaw angle estimation processing described with reference to FIGS. 12 to 15, the vehicle-mounted device 1 regards the section line as the detection target feature Ftag. Instead of this, or in addition to this, the vehicle-mounted device 1 may regard a curbstone or the like as the detection target feature Ftag. In this way, the in-vehicle device 1 regards any arbitrary feature formed along the running road surface with the surface to be measured parallel to the road surface as the detection target feature Ftag, not limited to the lane markings, as shown in FIGS. The yaw angle estimation process described with reference to FIG. 15 may be executed.

(変形例3)
図16のステップS404において、車載機1は、ライダ2が出力する点群データの各計測値を補正する代わりに、図9、図11、又は図15のフローチャートの処理により算出したロール角、ピッチ角、ヨー角に基づき、ライダ2が出力する点群データの各計測値を車両座標系に変換してもよい。
(Modification 3)
In step S404 of FIG. 16, the in-vehicle device 1 corrects each measurement value of the point cloud data output by the rider 2, and instead of correcting each measurement value, the roll angle and pitch calculated by the processing of the flowchart of FIG. 9, FIG. 11, or FIG. Each measurement value of the point cloud data output by the rider 2 may be converted into the vehicle coordinate system based on the angle and the yaw angle.

この場合、車載機1は、算出したロール角Lφ、ピッチ角Lθ、ヨー角Lψを用いて、式(4)に基づき、ライダ2が出力する点群データの各計測値をライダ座標系から車体座標系に変換し、変換後のデータに基づいて、自車位置推定や自動運転制御などを実行してもよい。 In this case, the in-vehicle device 1 uses the calculated roll angle L φ , pitch angle L θ , and yaw angle L ψ to convert each measurement value of the point cloud data output by the rider 2 to the rider coordinates based on Equation (4). system may be converted into the vehicle body coordinate system, and vehicle position estimation, automatic driving control, and the like may be executed based on the converted data.

他の例では、車載機1は、各ライダ2の姿勢を修正するためのアクチュエータなどの調整機構が各ライダ2に備わっている場合には、図16のステップS404の処理に代えて、ライダ設置情報ILに記録された角度からのずれ分だけライダ2の姿勢を修正するように調整機構を駆動させる制御を行ってもよい。 As another example, if each rider 2 is provided with an adjustment mechanism such as an actuator for correcting the posture of each rider 2, the vehicle-mounted device 1 may perform rider installation instead of the processing of step S404 in FIG. Control may be performed to drive the adjustment mechanism so as to correct the attitude of the rider 2 by the amount of deviation from the angle recorded in the information IL.

(変形例4)
図1に示す車両システムの構成は一例であり、本発明が適用可能な車両システムの構成は図1に示す構成に限定されない。例えば、車両システムは、車載機1を有する代わりに、車両の電子制御装置が図9、図11、図15、図16等に示す処理を実行してもよい。この場合、ライダ設置情報ILは、例えば車両内の記憶部に記憶され、車両の電子制御装置は、ライダ2などの各種センサの出力データを受信可能に構成される。
(Modification 4)
The configuration of the vehicle system shown in FIG. 1 is an example, and the configuration of the vehicle system to which the present invention is applicable is not limited to the configuration shown in FIG. For example, in the vehicle system, instead of having the vehicle-mounted device 1, the electronic control device of the vehicle may execute the processes shown in FIGS. 9, 11, 15, 16 and the like. In this case, the rider installation information IL is stored, for example, in a storage unit within the vehicle, and the electronic control unit of the vehicle is configured to be able to receive output data from various sensors such as the rider 2 .

(変形例5)
車両システムは、ライダ2を複数台備えてもよい。この場合、車載機1は、それぞれのライダ2に対して図9、図11、及び図15のフローチャートの処理を実行することで、各ライダ2のロール角、ピッチ角、及びヨー角を推定する。
(Modification 5)
The vehicle system may include multiple riders 2 . In this case, the in-vehicle device 1 estimates the roll angle, pitch angle, and yaw angle of each rider 2 by executing the processing of the flowcharts of FIGS. 9, 11, and 15 for each rider 2. .

1 車載機
2 ライダ
3 ジャイロセンサ
4 加速度センサ
5 GPS受信機
10 地図DB
1 vehicle-mounted device 2 rider 3 gyro sensor 4 acceleration sensor 5 GPS receiver 10 map DB

Claims (1)

被計測面が移動体が走行する走行路面と平行であって前記走行路面に沿って形成された地物を、前記移動体に取り付けられた計測装置により計測した計測点群を取得する取得手段と、
前記計測点群に基づき、前記移動体の走行方向に沿った前記被計測面上の線を算出する算出手段と、
前記計測装置が基準とする方向に対する前記線の方向に基づき、前記計測装置の前記移動体への取り付け姿勢を推定する推定手段と、
を有する姿勢推定装置。
Acquisition means for acquiring a measurement point group obtained by measuring a feature whose surface to be measured is parallel to a road surface on which the mobile body travels and which is formed along the road surface, by a measuring device attached to the mobile body. ,
a calculation means for calculating a line on the surface to be measured along the running direction of the moving body based on the measurement point group;
estimating means for estimating a mounting posture of the measuring device to the moving object based on the direction of the line with respect to the direction that the measuring device uses as a reference;
A posture estimation device having
JP2022209722A 2018-08-31 2022-12-27 Posture estimation device, control method, program and storage medium Pending JP2023038220A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022209722A JP2023038220A (en) 2018-08-31 2022-12-27 Posture estimation device, control method, program and storage medium
JP2024117034A JP2024150627A (en) 2018-08-31 2024-07-22 Attitude estimation device, control method, program, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018163738A JP2020032986A (en) 2018-08-31 2018-08-31 Posture estimation device, control method, program and storage medium
JP2022209722A JP2023038220A (en) 2018-08-31 2022-12-27 Posture estimation device, control method, program and storage medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018163738A Division JP2020032986A (en) 2018-08-31 2018-08-31 Posture estimation device, control method, program and storage medium

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024117034A Division JP2024150627A (en) 2018-08-31 2024-07-22 Attitude estimation device, control method, program, and storage medium

Publications (1)

Publication Number Publication Date
JP2023038220A true JP2023038220A (en) 2023-03-16

Family

ID=69666819

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2018163738A Ceased JP2020032986A (en) 2018-08-31 2018-08-31 Posture estimation device, control method, program and storage medium
JP2022209722A Pending JP2023038220A (en) 2018-08-31 2022-12-27 Posture estimation device, control method, program and storage medium
JP2024117034A Pending JP2024150627A (en) 2018-08-31 2024-07-22 Attitude estimation device, control method, program, and storage medium

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018163738A Ceased JP2020032986A (en) 2018-08-31 2018-08-31 Posture estimation device, control method, program and storage medium

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024117034A Pending JP2024150627A (en) 2018-08-31 2024-07-22 Attitude estimation device, control method, program, and storage medium

Country Status (1)

Country Link
JP (3) JP2020032986A (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113494911B (en) * 2020-04-02 2024-06-07 宝马股份公司 Method and system for positioning vehicle
JP7482440B2 (en) * 2020-06-25 2024-05-14 パナソニックIpマネジメント株式会社 Information processing device, information processing method, and program
JP2022154840A (en) * 2021-03-30 2022-10-13 本田技研工業株式会社 Detection device, vehicle system, detection method, and program
WO2024101175A1 (en) * 2022-11-11 2024-05-16 ヌヴォトンテクノロジージャパン株式会社 Information processing method, information processing device, and program
WO2024127480A1 (en) * 2022-12-13 2024-06-20 三菱電機株式会社 Location estimation device, location estimation method, and location estimation program
CN116381632B (en) * 2023-06-05 2023-08-18 南京隼眼电子科技有限公司 Self-calibration method and device for radar roll angle and storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009204532A (en) * 2008-02-28 2009-09-10 Aisin Seiki Co Ltd Calibration device and calibration method of range image sensor
JP2010151829A (en) * 2010-02-12 2010-07-08 Toyota Motor Corp Own vehicle positioning system
JP2011196916A (en) * 2010-03-23 2011-10-06 Mitsubishi Electric Corp Measuring vehicle, and road feature measuring system
JP2016206178A (en) * 2015-04-21 2016-12-08 国際航業株式会社 Laser measurement method, laser measurement marker and coordinate calculation program
JP2017111683A (en) * 2015-12-17 2017-06-22 株式会社デンソー Control device and control method
JP2018009868A (en) * 2016-07-13 2018-01-18 株式会社Soken Position estimation device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009204532A (en) * 2008-02-28 2009-09-10 Aisin Seiki Co Ltd Calibration device and calibration method of range image sensor
JP2010151829A (en) * 2010-02-12 2010-07-08 Toyota Motor Corp Own vehicle positioning system
JP2011196916A (en) * 2010-03-23 2011-10-06 Mitsubishi Electric Corp Measuring vehicle, and road feature measuring system
JP2016206178A (en) * 2015-04-21 2016-12-08 国際航業株式会社 Laser measurement method, laser measurement marker and coordinate calculation program
JP2017111683A (en) * 2015-12-17 2017-06-22 株式会社デンソー Control device and control method
JP2018009868A (en) * 2016-07-13 2018-01-18 株式会社Soken Position estimation device

Also Published As

Publication number Publication date
JP2020032986A (en) 2020-03-05
JP2024150627A (en) 2024-10-23

Similar Documents

Publication Publication Date Title
JP2023038220A (en) Posture estimation device, control method, program and storage medium
JP5441549B2 (en) Road shape recognition device
US9389093B2 (en) Traffic signal recognition apparatus
US8410919B2 (en) Driving support apparatus
JP6806891B2 (en) Information processing equipment, control methods, programs and storage media
JP7155284B2 (en) Measurement accuracy calculation device, self-position estimation device, control method, program and storage medium
JP6980010B2 (en) Self-position estimator, control method, program and storage medium
JP2023075184A (en) Output device, control method, program, and storage medium
JP2023118751A (en) Self-position estimation device
JP2022176322A (en) Self-position estimation device, control method, program, and storage medium
JP2013036856A (en) Driving support apparatus
JP2023164553A (en) Position estimation device, estimation device, control method, program and storage medium
JP2023054314A (en) Information processing device, control method, program, and storage medium
JP2023076673A (en) Information processing device, control method, program and storage medium
WO2018212302A1 (en) Self-position estimation device, control method, program, and storage medium
WO2020045057A1 (en) Posture estimation device, control method, program, and storage medium
WO2018212290A1 (en) Information processing device, control method, program and storage medium
US12140697B2 (en) Self-position estimation device, self-position estimation method, program, and recording medium
US20240053440A1 (en) Self-position estimation device, self-position estimation method, program, and recording medium
JP2024161585A (en) Self-location estimation device
CN117849826A (en) External recognition device
JP2024161105A (en) Self-location estimation device, control method, program, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240423