JP6589410B2 - Map generating apparatus and program - Google Patents
Map generating apparatus and program Download PDFInfo
- Publication number
- JP6589410B2 JP6589410B2 JP2015126903A JP2015126903A JP6589410B2 JP 6589410 B2 JP6589410 B2 JP 6589410B2 JP 2015126903 A JP2015126903 A JP 2015126903A JP 2015126903 A JP2015126903 A JP 2015126903A JP 6589410 B2 JP6589410 B2 JP 6589410B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- positional relationship
- relative positional
- track data
- travel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Instructional Devices (AREA)
- Processing Or Creating Images (AREA)
Description
本発明は、地図生成装置及びプログラムに関する。 The present invention relates to a map generation device and a program.
従来より、車両が道路を走行しながら路面の撮影と撮影地点の位置情報との取得を行う技術が知られている(特許文献1)。特許文献1に記載の技術では、画像変換により道路を真上から見た画像に変換し、撮影地点の座標に基づいて変換画像を連結することで路面画像を生成する。また、位置の異なる複数の路面画像の対応点が一致するように、位置精度が高い路面画像の位置に合わせて路面画像を平行移動することにより、路面地図を生成する。 2. Description of the Related Art Conventionally, there has been known a technique for capturing a road surface and acquiring position information of a photographing point while a vehicle travels on a road (Patent Document 1). In the technique described in Patent Document 1, a road surface image is generated by converting a road into an image viewed from directly above by image conversion, and connecting the converted images based on the coordinates of the shooting location. Further, the road surface map is generated by translating the road surface image according to the position of the road surface image with high positional accuracy so that the corresponding points of the plurality of road surface images having different positions coincide with each other.
また、複数の車両の走行により画像データ、測距データ、測位データを取得し、蓄積する技術が知られている(特許文献2)。特許文献2に記載の技術では、蓄積されたデータから同一地点を撮影した画像を持つデータを抽出し、画素値の分散に基づき移動物体を含まない撮影画像を含むデータを特定し、3次元地図データを生成する。 In addition, a technique for acquiring and storing image data, distance measurement data, and positioning data by traveling a plurality of vehicles is known (Patent Document 2). In the technique described in Patent Document 2, data having an image of the same spot is extracted from the accumulated data, data including a captured image that does not include a moving object is identified based on pixel value dispersion, and a three-dimensional map is obtained. Generate data.
また、車両に搭載された測距センサにより走行可能領域を検出し、位置情報、路面標示特徴とともにサーバへ送信する技術が知られている(特許文献3)。特許文献3に記載の技術では、サーバでは、位置情報、および路面標示特徴に基づいて受信された走行可能領域と地図データベースとを統合し、走行可能領域地図の更新を行う。 In addition, a technique is known in which a travelable area is detected by a distance measuring sensor mounted on a vehicle and transmitted to a server together with position information and road marking characteristics (Patent Document 3). In the technique described in Patent Document 3, the server integrates the travelable area and the map database received based on the position information and the road marking feature, and updates the travelable area map.
上記の特許文献1に記載の技術のように、路面画像の対応点が一致するように異なる複数の路面画像を位置合わせするためには、撮影地点の位置情報が高精度である必要があり、通常のナビ用GPSの精度では十分でないという問題がある。 In order to align a plurality of different road surface images so that the corresponding points of the road surface image coincide with each other as in the technique described in Patent Document 1, the position information of the shooting point needs to be highly accurate, There is a problem that the accuracy of normal GPS for navigation is not sufficient.
また、上記の特許文献1に記載の技術では、位置情報と画像の相関に基づいて、同位置のデータを検出して、3次元地図の登録を行う。また、上記の特許文献3に記載の技術では、位置情報と測距センサにより得られる特徴物とに基づき、地図データベースとの位置合わせを行う。上記の特許文献1及び上記特許文献3の技術では、地図に登録される位置情報は、車両の走行データのいずれか、または地図に事前に登録されている位置となる。広域の地図を大きなずれなく生成するためには、地図に登録する絶対位置情報の精度は高くなければならないが、上記の特許文献1及び上記特許文献3の技術では、高精度な絶対位置を決めることが難しい、または事前に高精度な計測を行い、地図を生成しなければならないという問題がある。 Further, in the technique described in Patent Document 1, data of the same position is detected based on the correlation between the position information and the image, and a three-dimensional map is registered. Further, in the technique described in Patent Document 3, the alignment with the map database is performed based on the position information and the characteristic object obtained by the distance measuring sensor. In the techniques of Patent Document 1 and Patent Document 3 described above, the position information registered in the map is one of vehicle travel data or a position registered in advance in the map. In order to generate a wide-area map without a large deviation, the accuracy of absolute position information registered in the map must be high. However, in the techniques of Patent Document 1 and Patent Document 3 described above, a highly accurate absolute position is determined. There is a problem that it is difficult or a high-precision measurement must be performed in advance to generate a map.
本発明は、上記の事情を鑑みてなされたもので、車両の絶対位置について計測誤差が発生している場合であっても、精度よく地図データを生成することができる地図生成装置及びプログラムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and provides a map generation device and a program that can accurately generate map data even when a measurement error occurs with respect to the absolute position of the vehicle. The purpose is to do.
上記目的を達成するために、本発明に係る地図生成装置は、移動体の走行軌跡に沿って登録された複数の走路データであって、かつ移動体に搭載されたセンサから得られた周辺環境情報に基づき生成された複数の走路データを蓄積したデータベースに基づいて、対応する前記走路データの各々について、前記走路データと他の走路データとのペアの各々に対し、前記ペア間の相対位置関係を表す変形量を算出し、前記ペアの各々に対して算出された前記相対位置関係を表す変形量に基づいて、前記走路データと、基準となる仮想的な走路データとの間の相対位置関係を表す変形量を推定する相対関係推定手段と、前記複数の走路データの各々を、前記相対関係推定手段によって前記走路データについて推定された、前記基準となる仮想的な走路データとの間の相対位置関係を表す変形量に応じて変形させ、変形した前記複数の走路データを統合して、地図データに登録する統合手段と、を含んで構成されている。 In order to achieve the above object, a map generation apparatus according to the present invention includes a plurality of travel route data registered along a travel locus of a mobile object, and a surrounding environment obtained from a sensor mounted on the mobile object. Based on a database in which a plurality of road data generated based on information is stored, for each of the corresponding road data, the relative positional relationship between the pairs with respect to each of the pairs of the road data and other road data And a relative positional relationship between the road data and the virtual road data serving as a reference based on the deformation amount representing the relative positional relationship calculated for each of the pairs. A relative relationship estimating means for estimating a deformation amount representing the above, and the virtual running as a reference, each of the plurality of running road data being estimated for the running road data by the relative relationship estimating means. Is deformed according to the deformation quantity representing the relative positional relationship between the data, by integrating the plurality of track data modification is configured to include an integrated means for registering in the map data.
また、本発明のプログラムは、コンピュータを移動体の走行軌跡に沿って登録された複数の走路データであって、かつ移動体に搭載されたセンサから得られた周辺環境情報に基づき生成された複数の走路データを蓄積したデータベースに基づいて、対応する前記走路データの各々について、前記走路データと他の走路データとのペアの各々に対し、前記ペア間の相対位置関係を表す変形量を算出し、前記ペアの各々に対して算出された前記相対位置関係を表す変形量に基づいて、前記走路データと、基準となる仮想的な走路データとの間の相対位置関係を表す変形量を推定する相対関係推定手段、及び前記複数の走路データの各々を、前記相対関係推定手段によって前記走路データについて推定された、前記基準となる仮想的な走路データとの間の相対位置関係を表す変形量に応じて変形させ、変形した前記複数の走路データを統合して、地図データに登録する統合手段として機能させるためのプログラムである。 In addition, the program of the present invention is a plurality of track data registered along a travel locus of a mobile object, and a plurality of programs generated based on surrounding environment information obtained from sensors mounted on the mobile object. For each of the corresponding track data, a deformation amount representing a relative positional relationship between the pairs is calculated for each pair of the track data and other track data, based on a database that stores the track data of Based on the deformation amount representing the relative positional relationship calculated for each of the pairs, the deformation amount representing the relative positional relationship between the track data and the virtual track data serving as a reference is estimated. Relative relationship estimation means, and each of the plurality of track data is estimated with respect to the track data by the relative relationship estimation means, and the reference virtual track data Depending on the deformation amount representing the relative positional relationship between deform, by integrating the plurality of road data obtained by modifying a program for functioning as an integrated unit to be registered in the map data.
本発明に係る地図生成装置によれば、相対関係推定手段によって、移動体の走行軌跡に沿って登録された路面を表す複数の走路データであって、かつ移動体に搭載されたセンサから得られた周辺環境情報に基づき生成された複数の走路データを蓄積したデータベースに基づいて、対応する走路データの各々について、走路データと他の走路データとのペアの各々に対し、ペア間の相対位置関係を表す変形量を算出し、ペアの各々に対して算出された相対位置関係を表す変形量に基づいて、走路データと、基準となる仮想的な走路データとの間の相対位置関係を表す変形量を推定する。 According to the map generation device of the present invention, the relative relationship estimation means obtains from a sensor mounted on the moving body, which is a plurality of traveling road data representing the road surface registered along the traveling locus of the moving body. Relative positional relationship between pairs for each pair of track data and other track data for each corresponding track data based on a database that accumulates multiple track data generated based on surrounding environment information A deformation amount representing the relative positional relationship between the track data and the virtual track data serving as a reference is calculated based on the deformation amount representing the relative positional relationship calculated for each of the pairs. Estimate the amount.
そして、統合手段によって、複数の走路データの各々を、相対関係推定手段によって走路データについて推定された、基準となる仮想的な走路データとの間の相対位置関係を表す変形量に応じて変形させ、変形した複数の走路データを統合して、地図データに登録する。 Then, the integration unit transforms each of the plurality of track data according to the deformation amount that is estimated for the track data by the relative relationship estimation unit and represents the relative positional relationship with the virtual track data serving as a reference. Integrate multiple deformed track data and register it in map data.
このように、移動体の走行軌跡に沿って登録された路面を表す複数の走路データであって、かつ移動体に搭載されたセンサから得られた周辺環境情報に基づき生成された複数の走路データを蓄積したデータベースに基づいて、対応する走路データの各々について、当該走路データと他の走路データとのペアの各々に対し、当該ペア間の相対位置関係を表す変形量を算出し、ペアの各々に対して算出された相対位置関係を表す変形量に基づいて、走路データと、基準となる仮想的な走路データとの間の相対位置関係を表す変形量を推定し、複数の走路データの各々を、走路データについて推定された、基準となる仮想的な走路データとの間の相対位置関係を表す変形量に応じて変形させ、変形した複数の走路データを統合して、地図データに登録することにより、車両の絶対位置について計測誤差が発生している場合であっても、精度よく地図データを生成することができる。 In this way, a plurality of track data representing road surfaces registered along the travel locus of the moving body, and a plurality of track data generated based on the surrounding environment information obtained from the sensor mounted on the mobile body For each of the corresponding track data, the amount of deformation representing the relative positional relationship between the pair is calculated for each of the corresponding track data and each other track data, Based on the deformation amount representing the relative positional relationship calculated with respect to, the deformation amount representing the relative positional relationship between the track data and the virtual track data serving as a reference is estimated, and each of the plurality of track data Is transformed in accordance with the deformation amount representing the relative positional relationship between the estimated virtual track data and the reference virtual track data, and the transformed multiple track data are integrated into map data. By, even when the measurement error for the absolute position of the vehicle has occurred, it is possible to accurately generate the map data.
また、本発明の前記相対関係推定手段は、前記ペアの各々に対して算出された前記相対位置関係を表す変形量を平均して、前記基準となる仮想的な走路データとの間の相対位置関係を表す変形量を推定するようにすることができる。 Further, the relative relationship estimation means of the present invention averages the deformation amount representing the relative positional relationship calculated for each of the pairs, and the relative position between the reference virtual lane data The deformation amount representing the relationship can be estimated.
また、本発明の前記相対関係推定手段は、前記走路データと他の走路データとのペアの各々に対し、前記走路データの部分画像毎に、前記ペア間の前記部分画像の相対位置関係を表す変形量を算出し、前記ペアの各々に対して算出された前記部分画像の前記相対位置関係を表す変形量に基づいて、前記走路データの部分画像毎に、前記走路データと、前記基準となる仮想的な走路データとの間の相対位置関係を表す変形量を推定し、前記統合手段は、前記部分画像毎に、前記複数の走路データの各々の前記部分画像を、前記相対関係推定手段によって前記走路データの部分画像について推定された、前記基準となる仮想的な走路データとの間の相対位置関係を表す変形量に応じて変形させ、変形した前記複数の走路データの前記部分画像を統合して、地図データに登録するようにすることができる。 Further, the relative relationship estimation means of the present invention represents the relative positional relationship of the partial images between the pairs for each partial image of the track data for each pair of the track data and other track data. The amount of deformation is calculated, and based on the amount of deformation representing the relative positional relationship of the partial images calculated for each of the pairs, the road data and the reference for each partial image of the road data A deformation amount representing a relative positional relationship between virtual runway data is estimated, and the integration unit is configured to obtain, for each partial image, the partial images of each of the plurality of runway data by the relative relationship estimation unit. The partial images of the plurality of modified roadway data are integrated by being deformed according to the deformation amount representing the relative positional relationship between the partial image of the roadway data and the virtual roadway data serving as the reference. , It is possible to be registered in the map data.
また、本発明は、分類手段と全体関係推定手段とを更に含み、前記分類手段は、対応する前記走路データの各々を、前記走路データが表す路面の位置に応じて分類し、前記相対関係推定手段は、前記分類手段によって分類された前記走路データの分類毎に、前記分類に属する前記走路データの各々について、前記走路データと他の走路データとのペアの各々に対し、前記ペア間の相対位置関係を表す変形量を算出し、前記ペアの各々に対して算出された前記相対位置関係を表す変形量に基づいて、前記走路データと、基準となる仮想的な走路データとの間の相対位置関係を表す変形量を推定し、前記走路データを、前記推定された変形量に応じて変形させ、前記全体関係推定手段は、前記走路データの各々について、分類毎に、前記変形させた走路データと、前記分類に分類され、かつ、前記変形させた他の走路データとのペアの各々に対し、前記ペア間の相対位置関係を表す変形量を算出し、前記ペアの各々に対して算出された前記相対位置関係を表す変形量に基づいて、前記走路データと、全体の基準となる仮想的な走路データとの間の相対位置関係を表す変形量を推定し、前記統合手段は、前記複数の走路データの各々を、前記相対関係推定手段によって前記走路データについて推定された、前記基準となる仮想的な走路データとの間の相対位置関係を表す変形量、及び前記全体関係推定手段によって前記走路データについて推定された、前記全体の基準となる仮想的な走路データとの間の相対位置関係を表す変形量に応じて変形させ、変形した前記複数の走路データを統合して、地図データに登録するようにすることができる。 The present invention further includes classification means and overall relationship estimation means, wherein the classification means classifies each of the corresponding track data according to the position of the road surface represented by the track data, and the relative relationship estimation. Means for each class of the track data classified by the classifying means, for each of the track data belonging to the classification, relative to each pair of the track data and other track data; A deformation amount representing a positional relationship is calculated, and based on the deformation amount representing the relative positional relationship calculated for each of the pairs, the relative between the track data and the virtual track data serving as a reference A deformation amount representing a positional relationship is estimated, the road data is deformed according to the estimated deformation amount, and the overall relationship estimation unit is configured to deform the road data for each classification. For each pair of runway data and the other runway data that is classified into the classification and deformed, a deformation amount representing a relative positional relationship between the pairs is calculated, and for each of the pairs Based on the calculated deformation amount representing the relative positional relationship, the deformation amount representing the relative positional relationship between the running road data and the virtual running road data serving as an overall reference is estimated, and the integration unit includes: Each of the plurality of runway data is estimated for the runway data by the relative relationship estimation unit, and a deformation amount representing a relative positional relationship between the reference virtual runway data and the overall relationship estimation unit In accordance with the deformation amount representing the relative positional relationship between the overall reference virtual road data estimated with respect to the road data, and integrating the plurality of the changed road data Te, it is possible to be registered in the map data.
また、本発明の前記全体関係推定手段は、前記分類手段によって分類された前記分類に属する前記走路データの数に応じて、前記全体の基準となる仮想的な走路データとの間の相対位置関係を表す変形量を推定するようにすることができる。 Further, the overall relationship estimation means of the present invention is configured such that the relative positional relationship between the overall reference virtual lane data according to the number of the lane data belonging to the classification classified by the classification means. Can be estimated.
また、本発明は、前記移動体の位置情報及び運動情報を取得する車両状態検出手段によって取得された前記移動体の位置情報及び運動情報に基づいて、前記移動体の走行軌跡を生成する走行軌跡生成手段を更に含み、前記データベースは、前記走行軌跡生成手段によって生成された前記移動体の走行軌跡に沿って登録された前記複数の走路データを蓄積するようにすることができる。 In addition, the present invention provides a travel locus that generates a travel locus of the mobile body based on the position information and motion information of the mobile body acquired by the vehicle state detection unit that acquires the position information and motion information of the mobile body. The database may further include a generation unit, and the database may store the plurality of travel path data registered along the travel locus of the moving body generated by the travel locus generation unit.
また、本発明は、前記走路データは、前記移動体の走行軌跡に沿って登録された路面を表す路面画像であって、かつ前記移動体に搭載されたセンサから得られた周辺環境情報に基づき生成された路面画像であるようにすることができる。 Further, according to the present invention, the traveling road data is a road surface image representing a road surface registered along a traveling locus of the moving body, and is based on surrounding environment information obtained from a sensor mounted on the moving body. It can be made to be a generated road surface image.
また、本発明は、前記走路データは、前記移動体の走行軌跡に沿って登録された3次元点群データであって、かつ前記移動体に搭載されたセンサから得られた周辺環境情報に基づき生成された3次元点群データであるようにすることができる。 Further, according to the present invention, the traveling road data is three-dimensional point cloud data registered along a traveling locus of the moving body, and is based on surrounding environment information obtained from a sensor mounted on the moving body. The generated three-dimensional point cloud data can be used.
なお、本発明のプログラムを記憶する記憶媒体は、特に限定されず、ハードディスクであってもよいし、ROMであってもよい。また、CD−ROMやDVDディスク、光磁気ディスクやICカードであってもよい。更にまた、該プログラムを、ネットワークに接続されたサーバ等からダウンロードするようにしてもよい。 The storage medium for storing the program of the present invention is not particularly limited, and may be a hard disk or a ROM. Further, it may be a CD-ROM, a DVD disk, a magneto-optical disk or an IC card. Furthermore, the program may be downloaded from a server or the like connected to the network.
以上説明したように、本発明の地図生成装置及びプログラムによれば、移動体の走行軌跡に沿って登録された路面を表す複数の走路データであって、かつ移動体に搭載されたセンサから得られた周辺環境情報に基づき生成された複数の走路データを蓄積したデータベースに基づいて、対応する走路データの各々について、当該走路データと他の走路データとのペアの各々に対し、当該ペア間の相対位置関係を表す変形量を算出し、ペアの各々に対して算出された相対位置関係を表す変形量に基づいて、走路データと、基準となる仮想的な走路データとの間の相対位置関係を表す変形量を推定し、複数の走路データの各々を、走路データについて推定された、基準となる仮想的な走路データとの間の相対位置関係を表す変形量に応じて変形させ、変形した複数の走路データを統合して、地図データに登録することにより、車両の絶対位置について計測誤差が発生している場合であっても、精度よく地図データを生成することができる、という効果が得られる。 As described above, according to the map generation device and the program of the present invention, a plurality of pieces of road data representing road surfaces registered along the travel locus of the moving body and obtained from the sensor mounted on the mobile body. Between each pair of the corresponding track data and other track data for each corresponding track data based on a database storing a plurality of track data generated based on the surrounding environment information. Calculate the amount of deformation representing the relative positional relationship, and based on the amount of deformation representing the relative positional relationship calculated for each of the pairs, the relative positional relationship between the track data and the reference virtual track data Is estimated, and each of the plurality of track data is deformed according to the deformation amount that is estimated for the track data and that represents the relative positional relationship between the reference virtual track data. By integrating multiple deformed track data and registering it in map data, it is possible to generate map data with high accuracy even when a measurement error occurs in the absolute position of the vehicle Is obtained.
以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、本実施の形態では、車両に搭載され、複数の路面画像から地図データを生成する地図生成装置に、本発明を適用した場合を例に説明する。また、本実施の形態では、移動体が車両である場合を例に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the present embodiment, a case where the present invention is applied to a map generation device that is mounted on a vehicle and generates map data from a plurality of road surface images will be described as an example. In this embodiment, a case where the moving body is a vehicle will be described as an example.
[第1の実施の形態]
<第1の実施の形態に係る地図生成装置10の構成>
図1に示すように、本発明の第1の実施の形態に係る地図生成装置10は、車両の周辺環境を計測する外界観測センサ12と、車両の位置情報及び運動情報を計測する位置・運動計測センサ14と、外界観測センサ12によって取得された周辺環境情報と、位置・運動計測センサ14によって計測された車両の位置情報及び運動情報とに基づいて、地図データを生成するコンピュータ16とを備えている。外界観測センサ12は、センサの一例である。位置・運動計測センサ14は、車両状態検出手段の一例である。
[First Embodiment]
<Configuration of map generation apparatus 10 according to the first embodiment>
As shown in FIG. 1, a map generation apparatus 10 according to the first embodiment of the present invention includes an external field observation sensor 12 that measures a surrounding environment of a vehicle, and a position / movement that measures position information and movement information of the vehicle. A measurement sensor 14, and a computer 16 that generates map data based on the surrounding environment information acquired by the external field observation sensor 12 and the vehicle position information and motion information measured by the position / motion measurement sensor 14. ing. The external field observation sensor 12 is an example of a sensor. The position / motion measurement sensor 14 is an example of vehicle state detection means.
外界観測センサ12は、各時刻の車両の周辺環境を計測する。外界観測センサ12としては、例えば、車両周辺の画像を取得するカメラ、車両周辺の距離情報を計測するレーザレーダなどを用いることができる。本実施の形態では、外界観測センサ12としてカメラを用いる場合を例に説明する。外界観測センサ12は、車両の周辺環境情報として、カメラにより撮像した車両の周辺画像を取得する。 The external field observation sensor 12 measures the surrounding environment of the vehicle at each time. As the external field observation sensor 12, for example, a camera that acquires an image around the vehicle, a laser radar that measures distance information around the vehicle, and the like can be used. In the present embodiment, a case where a camera is used as the external field observation sensor 12 will be described as an example. The external field observation sensor 12 acquires a vehicle surrounding image captured by a camera as vehicle surrounding environment information.
位置・運動計測センサ14は、車両の位置情報及び運動情報として、各時刻の車両の位置、方位、速度情報を計測する。位置・運動計測センサ14としては、例えば、GPS及びIMU(IMU:Internal Measurement Unit(慣性計測装置))を用いることができる。本実施の形態では、位置・運動計測センサ14として、GPS及びIMUを用いる場合を例に説明する。 The position / motion measurement sensor 14 measures vehicle position, orientation, and speed information at each time as vehicle position information and motion information. As the position / motion measurement sensor 14, for example, GPS and IMU (IMU: Internal Measurement Unit (Inertial Measurement Unit)) can be used. In the present embodiment, a case where GPS and IMU are used as the position / motion measurement sensor 14 will be described as an example.
コンピュータ16は、CPU、後述する地図生成処理ルーチンを実現するためのプログラムを記憶したROM、データを一時的に記憶するRAM、及びHDD等の記憶装置で構成され、機能的には次に示すように構成されている。 The computer 16 includes a CPU, a ROM that stores a program for realizing a map generation processing routine that will be described later, a RAM that temporarily stores data, and a storage device such as an HDD. It is configured.
コンピュータ16は、図1に示すように、位置・運動計測センサ14によって計測された車両の位置、方位、及び速度情報に基づいて、車両の走行軌跡を生成する走行軌跡生成部160と、外界観測センサ12によって取得された車両の周辺画像と、走行軌跡生成部160によって生成された車両の走行軌跡とに基づいて、車両の走行軌跡に沿った路面を表す路面画像を生成し、路面画像と走行軌跡との組み合わせを表す走行データを生成する走行データ生成部162と、走行データ生成部162によって生成された走行データの各々を、走行軌跡の位置に対応させて走行データベース166に格納する走行データ蓄積部164と、走行データ生成部162によって生成された走行データの各々が格納される走行データベース166と、各地点に対し、走行データベース166に格納された当該地点の走行データの各々を、路面画像が表す路面の位置に応じて分類する走行データ分類部168と、各地点に対し、分類毎に、当該分類に属する走行データの各々について、路面画像と基準となる仮想的な路面画像との間の相対位置関係を表す変形量を推定する相対関係推定部170と、各地点に対し、当該地点の走行データの各々について、路面画像と全体の基準となる仮想的な路面画像との間の相対位置関係を表す変形量を推定する全体関係推定部172と、走行データベース166に格納された走行データの路面画像の各々を、相対関係推定部170によって当該路面画像について推定された変形量、及び全体関係推定部172によって当該路面画像について推定された変形量に応じて変形させ、変形した複数の路面画像を統合して、地図データベース176に登録する走行データ統合部174と、走行データ統合部174によって登録された地図データが格納される地図データベース176とを備えている。なお、走行データ統合部174は、統合手段の一例であり、走行データ分類部168は、分類手段の一例である。 As shown in FIG. 1, the computer 16 includes a travel trajectory generation unit 160 that generates a travel trajectory of the vehicle based on the vehicle position, orientation, and speed information measured by the position / motion measurement sensor 14, and external field observation. Based on the surrounding image of the vehicle acquired by the sensor 12 and the traveling locus of the vehicle generated by the traveling locus generation unit 160, a road surface image representing the road surface along the traveling locus of the vehicle is generated, and the road surface image and the traveling are generated. A travel data generation unit 162 that generates travel data representing a combination with a trajectory, and travel data storage that stores each of the travel data generated by the travel data generation unit 162 in the travel database 166 in association with the position of the travel trajectory Unit 164, a travel database 166 in which each of the travel data generated by the travel data generation unit 162 is stored, On the other hand, the travel data classification unit 168 that classifies each of the travel data stored in the travel database 166 according to the position of the road surface represented by the road surface image, and for each point, for each classification, For each of the belonging traveling data, a relative relationship estimating unit 170 that estimates a deformation amount representing a relative positional relationship between the road surface image and the reference virtual road surface image, and for each point, the traveling data of the point For each, an overall relationship estimation unit 172 that estimates a deformation amount representing a relative positional relationship between a road surface image and a virtual road surface image that serves as an overall reference, and a road image of travel data stored in the travel database 166. The amount of deformation estimated for the road surface image by the relative relationship estimation unit 170 and the amount of deformation estimated for the road surface image by the overall relationship estimation unit 172, respectively. A travel data integration unit 174 that integrates a plurality of deformed road surface images and registers them in the map database 176, and a map database 176 that stores the map data registered by the travel data integration unit 174. ing. The travel data integration unit 174 is an example of an integration unit, and the travel data classification unit 168 is an example of a classification unit.
走行軌跡生成部160は、位置・運動計測センサ14によって計測された、各時刻の車両の位置、方位、及び速度情報に基づいて、車両の走行軌跡を生成する。走行軌跡は、各時刻での車両の位置、方位、速度情報を含む情報である。 The travel trajectory generation unit 160 generates a travel trajectory of the vehicle based on the vehicle position, direction, and speed information measured by the position / motion measurement sensor 14 at each time. The travel locus is information including vehicle position, direction, and speed information at each time.
走行データ生成部162は、外界観測センサ12によって取得された各時刻の車両の周辺画像と、走行軌跡生成部160によって生成された車両の走行軌跡とに基づいて、車両の走行軌跡に沿った路面を表す路面画像を生成し、走行軌跡と組み合わせて、路面画像に絶対座標を付与する。路面画像は、走路データの一例である。
具体的には、走行データ生成部162は、各時刻の車両の周辺画像について、路面を真上から見た状態の正射影画像に変換し、走行軌跡の各時刻の位置、方位に基づいて、走行軌跡に沿って正射影画像を連結した路面画像を生成する。そして、走行データ生成部162は、路面画像と走行軌跡とを組み合わせて、絶対座標が付与された路面画像を表す走行データを生成する。図2に路面画像の一例を示す。走行データ生成部162は、図2(A)に示すような路面画像を生成する。
The travel data generation unit 162 is based on the surrounding image of the vehicle at each time acquired by the external field observation sensor 12 and the vehicle travel trajectory generated by the travel trajectory generation unit 160 along the road surface along the vehicle travel trajectory. Is generated and combined with the travel locus, absolute coordinates are given to the road image. A road surface image is an example of runway data.
Specifically, the travel data generation unit 162 converts the surrounding image of the vehicle at each time into an orthographic image in a state where the road surface is viewed from directly above, and based on the position and orientation at each time of the travel locus, A road surface image is generated by connecting the orthogonal projection images along the traveling locus. Then, the travel data generation unit 162 generates travel data representing the road surface image to which the absolute coordinates are given by combining the road surface image and the travel locus. FIG. 2 shows an example of a road surface image. The travel data generation unit 162 generates a road surface image as shown in FIG.
走行データ蓄積部164は、走行データ生成部162によって生成された走行データの各々を、後述する走行データベース166に格納する。 The travel data accumulation unit 164 stores each travel data generated by the travel data generation unit 162 in a travel database 166 described later.
走行データベース166には、走行データ生成部162によって生成された走行データの各々が格納される。 Each travel data generated by the travel data generation unit 162 is stored in the travel database 166.
走行データ分類部168は、各地点に対し、走行データベース166に格納された当該地点に対応する走行データの各々を、路面画像が表す路面の位置に応じて分類する。 The travel data classification unit 168 classifies each travel data corresponding to the point stored in the travel database 166 according to the position of the road surface represented by the road surface image.
具体的には、走行データ分類部168は、各地点に対し、まず、図2(B)に示すように、走行データベース166に蓄積された当該地点の各走行データの路面画像を、予め決められた絶対位置の区画毎に分割し、区画毎に分割された区画路面画像を含む区画走行データを生成する。 Specifically, the travel data classification unit 168 first determines a road surface image of each travel data of the point stored in the travel database 166 for each point, as shown in FIG. The vehicle is divided for each absolute position section, and section travel data including a section road surface image divided for each section is generated.
次に走行データ分類部168は、同じ区画の区画走行データを、当該区画走行データに対応する走行データに含まれる走行軌跡から得られる車両の走行経路に応じて分類する。図3に、車両の走行経路に応じて分類された区画走行データの区画路面画像の例を示す。図3では2つの走行経路が示されており、走行データ分類部168は、図3に示すように、車両の走行経路に応じて区画走行データを分類する。 Next, the travel data classification unit 168 classifies the segment travel data of the same section according to the travel route of the vehicle obtained from the travel locus included in the travel data corresponding to the section travel data. In FIG. 3, the example of the division road surface image of the division traveling data classified according to the traveling route of the vehicle is shown. In FIG. 3, two travel routes are shown, and the travel data classification unit 168 classifies the segment travel data according to the travel route of the vehicle as shown in FIG.
具体的には、走行データ分類部168は、同じ区画の区画走行データの各々について、同一経路と判定されるものをまとめていき1つの分類として設定する。2つの区画走行データが同一経路であるか否かの判定は、当該区画走行データに対応する走行データに含まれる走行軌跡間の距離、走行方向により判定することができる。例えば、走行データ分類部168は、走行方向が同一であり、かつ走行軌跡間の距離が予め定められた閾値以下であるという条件に基づいて、2つの区画走行データが同一経路であるか否かを判定することができる。また、走行軌跡の絶対位置の誤差が大きく、同一経路の判定が困難である場合には、区画路面画像の類似性も条件に加えてもよい。 Specifically, the travel data classifying unit 168 collects the sections determined to be the same route for each of the segment travel data of the same section and sets them as one class. Whether or not the two section travel data are the same route can be determined based on the distance between the travel trajectories and the travel direction included in the travel data corresponding to the section travel data. For example, the travel data classification unit 168 determines whether or not the two section travel data are the same route based on the condition that the travel directions are the same and the distance between the travel trajectories is equal to or less than a predetermined threshold. Can be determined. Further, when the error in the absolute position of the travel locus is large and it is difficult to determine the same route, the similarity of the section road surface image may be added to the condition.
相対関係推定部170は、各地点の各区画に対し、分類毎に、走行データ分類部168によって当該分類に分類された区画走行データの区画路面画像の各々について、当該区画路面画像と他の区画路面画像とのペアの各々に対し、ペア間の相対位置関係を表す変形量を算出する。 For each section of each point, the relative relationship estimation unit 170 for each section, for each section road image of the section traveling data classified into the classification by the traveling data classification section 168, the section road surface image and other sections For each pair with the road surface image, a deformation amount representing a relative positional relationship between the pair is calculated.
走行データベース166に格納されている各走行データは、それぞれ絶対位置の誤差を含んでいるため、同一の走行経路と分類された区画走行データ同士であっても、区画路面画像の絶対位置は一致しない。また、絶対位置の誤差は、同一の区画走行データ内であっても時刻で異なるため、異なる区画走行データの区画路面画像の形状も完全には一致しない。そのため、本実施の形態では、区画走行データ間の相対位置関係は、単一の平行移動、回転量ではなく、区画路面画像全体の変形量、または複数地点での平行移動、回転量で表す。 Since each travel data stored in the travel database 166 includes an error in absolute position, the absolute positions of the section road surface images do not match even between the section travel data classified as the same travel route. . Further, since the absolute position error varies with time even within the same segment travel data, the shapes of the segment road surface images of different segment travel data do not completely match. For this reason, in the present embodiment, the relative positional relationship between the section traveling data is represented not by a single translation and rotation amount but by a deformation amount of the entire section road surface image, or a parallel movement and rotation amount at a plurality of points.
図4に、同一の分類に属する区画路面画像の各々について、複数の特徴点での対応位置を求めて、区画路面画像間の相対関係を推定する例を示す。 FIG. 4 shows an example of obtaining the corresponding positions at a plurality of feature points and estimating the relative relationship between the divided road surface images for each of the divided road surface images belonging to the same classification.
図5に、同一の分類に属する区画路面画像の各々について、複数の特徴点での対応を求める方法の一例を示す。例えば、複数の特徴点での対応を求める方法として、図5に示すように、区画路面画像から、走行軌跡に沿って予め定められた間隔、及び予め定められた大きさで部分画像を抽出し、部分画像毎に、他の区画路面画像とマッチングを行い、対応関係を求める方法を用いることができる。 FIG. 5 shows an example of a method for obtaining correspondence at a plurality of feature points for each of the divided road surface images belonging to the same classification. For example, as a method for obtaining correspondence at a plurality of feature points, as shown in FIG. 5, partial images are extracted from a section road surface image with a predetermined interval and a predetermined size along a travel locus. For each partial image, it is possible to use a method of matching with another section road surface image to obtain a correspondence relationship.
部分画像を用いて対応関係を推定する場合、相対関係推定部170は、区画路面画像と他の区画路面画像とのペアの各々に対し、区画路面画像の部分画像毎に、ペア間の部分画像の相対位置関係を表す変形量を算出する。そして、相対関係推定部170は、区画路面画像の各々について、ペアの各々に対して算出された部分画像の相対位置関係を表す変形量に基づいて、当該区画路面画像の部分画像毎に、当該部分画像と、基準となる仮想的な区画路面画像の部分画像との間の相対位置関係を表す変形量を推定する。 When estimating the correspondence using the partial images, the relative relationship estimation unit 170 for each partial image of the divided road surface image, for each pair of the divided road surface image and the other divided road surface images, the partial image between the pairs. The amount of deformation representing the relative positional relationship is calculated. Then, for each of the divided road surface images, the relative relationship estimation unit 170 performs, for each partial image of the divided road surface image, based on the deformation amount representing the relative positional relationship of the partial images calculated for each of the pairs. A deformation amount representing a relative positional relationship between the partial image and the partial image of the virtual section road surface image serving as a reference is estimated.
部分画像毎にマッチングを行う場合、部分画像の中には、図5に示す部分画像3のように、特徴的なパターンを含まない部分画像も存在する。上記図5の部分画像3のように、特徴的なパターンを含まない部分画像が存在する場合には、もう一方の区画路面画像での対応位置を正確に検出することが難しい場合もある。そこで、部分画像の対応関係の連続性を考慮する方法を用いることができる。部分画像iの対応関係を表す変形量をxiとし、部分画像群i=1,...,mの変形量をx={x1,... ,xm}で表す。このとき、以下の式(1)に従って、E(x)を最小化する変形量xを推定する。 When matching is performed for each partial image, some partial images do not include a characteristic pattern, such as the partial image 3 illustrated in FIG. 5. When there is a partial image that does not include a characteristic pattern as in the partial image 3 of FIG. 5 described above, it may be difficult to accurately detect the corresponding position in the other section road surface image. Therefore, a method that considers the continuity of the correspondence between the partial images can be used. The deformation quantity representing the correspondence between the partial image i and x i, partial images i = 1, ..., the amount of deformation of the m x = {x 1, ... , x m} represented by. At this time, the deformation amount x that minimizes E (x) is estimated according to the following equation (1).
ここで、上記式におけるCi(xi)は、部分画像iの対応関係を変形量xiとした場合のマッチングコストを表す。マッチングコストは、部分画像iと、部分画像iを変形量xiで位置、回転角(形状)を変形したときのもう一方の区画路面画像の部分画像との差を表す。上記式におけるマッチングコストの計算には画素値の差の絶対値の和などを用いることができる。また、マッチングコストを計算する際には、エッジ抽出を行ってから差分をとるなどの計算を行ってもよい。 Here, C i (x i ) in the above expression represents the matching cost when the correspondence of the partial image i is the deformation amount x i . Matching cost represents the difference between the partial image i, position the partial image i in deformation amount x i, and the other partial image of one compartment road image when deformed the rotation angle (shape). For the calculation of the matching cost in the above formula, the sum of absolute values of pixel value differences can be used. Further, when calculating the matching cost, calculation such as obtaining a difference after performing edge extraction may be performed.
また、上記式におけるS(xj、xj+1)は、隣り合う部分画像の変形量xj、xj+1の差を表す。変形量が平行移動量の場合には、2つの平行移動ベクトルの距離を用いることができる。回転も含む変形の場合には、回転量の差との重み付き和を用いることができる。 Further, S (x j , x j + 1 ) in the above expression represents the difference between the deformation amounts x j and x j + 1 of the adjacent partial images. When the deformation amount is a translation amount, the distance between two translation vectors can be used. In the case of deformation including rotation, a weighted sum with a difference in rotation amount can be used.
上記式E(x)を最小化するように全ての変形量xを求めることで、特徴的なパターンを含むなどマッチングしやすい部分画像では、マッチングコストが小さくなる変形量が選択され、対応を求めるのが困難な部分画像は隣の部分画像の変形量から変化の少ない、滑らかに接続されるような変形量が推定される。 By obtaining all deformation amounts x so as to minimize the above expression E (x), a deformation amount with a low matching cost is selected for a partial image that includes a characteristic pattern and is easy to match, and a correspondence is obtained. For a partial image that is difficult to correct, the amount of deformation that is smoothly connected with little change is estimated from the amount of deformation of an adjacent partial image.
そして、相対関係推定部170は、各地点の各区画に対し、分類毎に、当該分類に分類された区画走行データの区画路面画像の各々について、ペアの各々に対して算出された相対位置関係を表す変形量に基づいて、当該区画路面画像と、基準となる仮想的な区画路面画像の部分画像との間の相対位置関係を表す変形量を推定する。
具体的には、相対関係推定部170は、同一分類のすべての区画走行データの区画路面画像間の相対位置関係が推定されると、当該分類に分類された区画走行データの区画路面画像の各々について、相対位置関係を表す変形量に基づいて、区画路面画像の部分画像毎に、当該部分画像と、基準となる仮想的な区画路面画像との間の相対位置関係を表す変形量を推定する。例えば、区画走行データ1の区画路面画像から区画走行データ2の区画路面画像への変形量をx1,2={x1 1,2,x2 1,2,...,xm 1,2}で表し、同一分類の区画走行データがk個あるとすると、相対関係推定部170は、区画走行データ1の区画路面画像から基準位置への変形量を、以下の式(2)に従って計算する。なお、区画路面画像から基準位置への変形量は、区画路面画像と基準となる仮想的な区画路面画像との間の相対位置関係を表す変形量に対応する。
Then, the relative relationship estimation unit 170 calculates the relative positional relationship calculated for each of the pairs with respect to each section at each point, for each section, for each section road image of the section traveling data classified into the classification. Is estimated based on the deformation amount representing the relative positional relationship between the section road image and the partial image of the virtual section road image serving as a reference.
Specifically, when the relative positional relationship between the section road surface images of all the section traveling data of the same classification is estimated, the relative relationship estimation unit 170 each of the section road surface images of the section traveling data classified into the classification. For each partial image of the partitioned road surface image, a deformation amount representing the relative positional relationship between the partial image and the reference virtual partitioned road surface image is estimated based on the deformation amount representing the relative positional relationship. . For example, the deformation amount from the section road image of the section travel data 1 to the section road surface image of the section travel data 2 is expressed as x 1,2 = {x 1 1,2 , x 2 1,2 ,..., X m 1, 2 } and assuming that there are k section traveling data of the same classification, the relative relationship estimation unit 170 calculates the deformation amount of the section traveling data 1 from the section road surface image to the reference position according to the following equation (2). To do. Note that the deformation amount from the section road surface image to the reference position corresponds to a deformation amount representing a relative positional relationship between the section road surface image and the reference virtual section road surface image.
なお、xi,i={0,...,0}とする。上記式(2)によって計算される変形量x^1は、すべての区画走行データの区画路面画像の平均を基準位置とするものであり、同様の方法で他の区画走行データの区画路面画像から基準位置への変形量を計算し、計算された基準位置への変形量に従い各区画走行データの区画路面画像を変形すると、すべての区画走行データの区画路面画像が基準位置で一致することになる。 Note that x i, i = {0,..., 0}. The deformation amount x ^ 1 calculated by the above equation (2) is based on the average of the section road surface images of all section travel data as a reference position, and is obtained from the section road surface images of other section travel data in the same manner. When the deformation amount to the reference position is calculated and the section road surface image of each section traveling data is deformed according to the calculated deformation amount to the reference position, the section road surface images of all the section traveling data coincide at the reference position. .
なお、基準位置への変形量として平均でなく、大きく離れたデータを除いた平均や、絶対位置の測位精度に基づく重み付き平均などでもよい。 Note that the amount of deformation to the reference position is not an average, but may be an average excluding data that is far away, a weighted average based on the positioning accuracy of the absolute position, or the like.
また、相対関係推定部170は、区画路面画像の各々について、当該区画路面画像の部分画像を、部分画像について推定された、基準となる仮想的な区画路面画像との間の相対位置関係を表す変形量に応じて変形させる。 Further, the relative relationship estimation unit 170 represents a relative positional relationship between the partial image of the divided road surface image and the reference virtual divided road surface image estimated for the partial image for each of the divided road surface images. Deform according to the amount of deformation.
全体関係推定部172は、各地点の各区画に対し、分類毎に、走行データ分類部168によって当該分類に分類された区画走行データの区画路面画像の各々について、相対関係推定部170によって変形された区画路面画像と、各分類に分類され、かつ、変形された他の区画路面画像とのペアの各々に対し、ペア間の相対位置関係を表す変形量を算出する。 The overall relationship estimation unit 172 is transformed by the relative relationship estimation unit 170 for each segment of each point for each segment road surface image of the segment traveling data classified into the classification by the traveling data classification unit 168 for each classification. For each pair of the divided road surface image and the other divided road surface image classified into each category and deformed, a deformation amount representing a relative positional relationship between the pairs is calculated.
図6に、全体関係推定部172が相対位置関係を推定する方法の一例を示す。具体的には、全体関係推定部172は、図6に示すように、異なる分類の区画走行データの区画路面画像の間の相対位置関係を、相対関係推定部170と同様の方法で推定する。このとき、各区画走行データの区画路面画像は、相対関係推定部170で推定された基準位置への変形量に基づき変形されている。異なる分類間では、走行経路が異なるため、区画路面画像の共通部分が少なく、対応関係を求めることは難しくなるが、相対関係推定部170によって事前に基準位置への変形を適用されたことにより、走行データの位置誤差は低減されているため、変形量の範囲を小さくすることができ、共通部分だけでも対応関係を求めることが容易となる。本実施の形態では、全体関係推定部172は、相対関係推定部170によって設定された部分画像の各々を、共通部分として用いて変形量を算出する。 FIG. 6 shows an example of a method in which the overall relationship estimation unit 172 estimates the relative positional relationship. Specifically, as shown in FIG. 6, the overall relationship estimation unit 172 estimates the relative positional relationship between the section road surface images of the section traveling data of different classifications by the same method as the relative relationship estimation unit 170. At this time, the section road surface image of each section travel data is deformed based on the deformation amount to the reference position estimated by the relative relationship estimation unit 170. Between different classifications, the travel route is different, so there are few common parts of the section road surface image, and it is difficult to obtain the correspondence relationship, but by applying the transformation to the reference position in advance by the relative relationship estimation unit 170, Since the position error of the travel data is reduced, the range of the deformation amount can be reduced, and it is easy to obtain the correspondence only with the common part. In the present embodiment, overall relationship estimating section 172 calculates the deformation amount using each of the partial images set by relative relationship estimating section 170 as a common portion.
そして、全体関係推定部172は、各地点の各区画に対し、分類毎に、当該分類に分類された区画走行データの区画路面画像の各々について、ペアの各々に対して算出された相対位置関係を表す変形量に基づいて、当該区画路面画像と、全体の基準となる仮想的な区画路面画像との間の相対位置関係を表す変形量を推定する。
例えば、分類pの区画走行データiから、分類qの何れか1つの区画走行データjへの変形量をypi,qjとし、分類数がr個あるとすると、分類pの区画走行データiから全体の基準位置への変形量は以下の式で計算される。なお、区画路面画像から全体の基準位置への変形量は、区画路面画像と、全体の基準となる仮想的な区画路面画像との間の相対位置関係を表す変形量に対応する。
Then, the overall relationship estimation unit 172 calculates the relative positional relationship calculated for each of the pairs for each section of each point, for each section of the section road surface image of the section traveling data classified into the section. Is estimated based on the deformation amount indicating the relative positional relationship between the partitioned road surface image and the virtual partitioned road surface image serving as the overall reference.
For example, assuming that the deformation amount from the segment travel data i of the category p to any one of the segment travel data j of the class q is y pi, qj and the number of classifications is r, the segment travel data i of the category p The deformation amount to the entire reference position is calculated by the following formula. The amount of deformation from the section road surface image to the entire reference position corresponds to the amount of deformation representing the relative positional relationship between the section road surface image and the virtual section road surface image serving as the entire reference.
ただし、ypi,pi={0,...,0}とする。また、wqは分類qの重みである。例えば、全ての区画走行データの数に対する、分類qに属する区画走行データの数の割合を、wqとして用いることができる。これにより、各分類に属する区画走行データ数に応じて重み付けした変形量が、全体の基準となる仮想的な区画路面画像との間の相対位置関係を表す変形量になる。 However, y pi, pi = {0, ..., 0}. W q is the weight of the classification q. For example, the ratio of the number of section traveling data belonging to the classification q to the number of all section traveling data can be used as w q . As a result, the amount of deformation weighted according to the number of section traveling data belonging to each classification becomes the amount of deformation representing the relative positional relationship with the virtual section road surface image serving as the entire reference.
走行データ統合部174は、各地点の各区画に対し、分類毎に、当該分類に分類された区画走行データの区画路面画像の各々について、相対関係推定部170によって当該区画路面画像について推定された、基準となる仮想的な区画路面画像との間の相対位置関係を表す変形量、及び全体関係推定部172によって当該区画路面画像について推定された、全体の基準となる仮想的な区画路面画像との間の相対位置関係を表す変形量に応じて変形させ、変形した複数の区画路面画像を統合して、地図データベース176に登録する。 The travel data integration unit 174 estimates the section road surface image for each section of each point by the relative relationship estimation unit 170 for each section road surface image of the section travel data classified into the classification. A deformation amount representing a relative positional relationship with the reference virtual section road image, and an overall reference virtual section road image estimated by the overall relationship estimation unit 172 for the section road image. Are deformed according to the deformation amount representing the relative positional relationship between them, and the deformed plural section road surface images are integrated and registered in the map database 176.
具体的には、走行データ統合部174は、相対関係推定部170によって推定された分類内での相対位置関係、および全体関係推定部172によって推定された分類間の相対位置関係から、区画走行データの絶対位置を修正する。走行データ統合部174は、分類pの区画走行データiの位置の修正は、区画走行データiの区画路面画像の部分画像の各々に対して、以下の変形量zpiを適用することで行う。 Specifically, the travel data integration unit 174 calculates the segment travel data based on the relative positional relationship within the classification estimated by the relative relationship estimation unit 170 and the relative positional relationship between the categories estimated by the overall relationship estimation unit 172. Correct the absolute position of. The travel data integration unit 174 corrects the position of the section travel data i of the classification p by applying the following deformation amount z pi to each partial image of the section road surface image of the section travel data i.
そして、走行データ統合部174は、修正されたすべての区画走行データを統合し、統合された区画走行データの各々を、地図データとして地図データベース176に登録する。走行データ統合部174は、図7に示すような、すべての区画路面画像を統合した路面画像を生成する。統合された路面画像はすべての路面画像を重ねて画素値の平均をとった画像とすることができる。この統合された路面画像、および位置が修正された、すべての走行軌跡データを地図情報としてデータベースに登録する。 Then, the travel data integration unit 174 integrates all of the corrected section travel data, and registers each integrated section travel data as map data in the map database 176. The travel data integration unit 174 generates a road surface image obtained by integrating all the section road surface images as shown in FIG. The integrated road surface image can be an image obtained by superimposing all the road surface images and taking the average of the pixel values. The integrated road surface image and all travel locus data whose positions are corrected are registered in the database as map information.
地図データベース176には、走行データ統合部174によって登録された地図データが格納されている。 The map database 176 stores map data registered by the travel data integration unit 174.
<第1の実施の形態に係る地図生成装置10の作用>
次に、第1の実施の形態に係る地図生成装置10の作用について説明する。地図生成装置10を搭載した車両が走行し、外界観測センサ12によって車両の周辺画像が取得され、位置・運動計測センサ14によって各時刻の車両の位置、方位、速度情報が計測されているときに、走行軌跡生成部160は、位置・運動計測センサ14によって計測された、各時刻の車両の位置、方位、及び速度情報に基づいて、車両の走行軌跡を生成する。また、走行データ生成部162は、外界観測センサ12によって取得された各時刻の車両の周辺画像と、走行軌跡生成部160によって生成された車両の走行軌跡とに基づいて、車両の走行軌跡に沿った路面を表す路面画像を生成し、走行軌跡と組み合わせて、路面画像に絶対座標を付与する。そして、走行データ生成部162は、路面画像と走行軌跡とを組み合わせて、絶対座標が付与された路面画像を表す走行データを生成する。次に、走行データ蓄積部164は、走行データ生成部162によって生成された走行データの各々を、走行データベース166に格納する。
<Operation of Map Generation Device 10 according to First Embodiment>
Next, the operation of the map generation device 10 according to the first embodiment will be described. When a vehicle on which the map generation device 10 is mounted travels, a surrounding image of the vehicle is acquired by the external observation sensor 12, and the position, direction, and speed information of the vehicle at each time is measured by the position / motion measurement sensor 14. The traveling locus generation unit 160 generates a traveling locus of the vehicle based on the position, direction, and speed information of the vehicle at each time measured by the position / motion measurement sensor 14. In addition, the travel data generation unit 162 follows the travel locus of the vehicle based on the surrounding image of the vehicle at each time acquired by the external field observation sensor 12 and the travel locus of the vehicle generated by the travel locus generation unit 160. A road surface image representing the road surface is generated, and absolute coordinates are given to the road surface image in combination with the travel locus. Then, the travel data generation unit 162 generates travel data representing the road surface image to which the absolute coordinates are given by combining the road surface image and the travel locus. Next, the travel data accumulation unit 164 stores each of the travel data generated by the travel data generation unit 162 in the travel database 166.
走行データベース166に複数の走行データが格納されると、地図生成装置10は、予め定められたタイミングで、各地点を対象として、図8に示す地図生成処理ルーチンを実行する。 When a plurality of travel data is stored in the travel database 166, the map generation device 10 executes a map generation processing routine shown in FIG. 8 for each point at a predetermined timing.
ステップS100において、走行データ分類部168は、走行データベース166に格納された対象地点に対応する走行データの各々を、路面画像が表す路面の位置に応じて分類する。ステップS100は、図9に示す走行データ分類処理ルーチンによって実現される。 In step S100, the travel data classification unit 168 classifies each of the travel data corresponding to the target points stored in the travel database 166 according to the position of the road surface represented by the road surface image. Step S100 is realized by a travel data classification process routine shown in FIG.
<走行データ分類処理ルーチン>
ステップS200において、走行データベース166に蓄積された当該対象地点の各走行データの路面画像を、予め決められた絶対位置の区画毎に分割し、区画毎に分割された区画路面画像を含む区画走行データを生成する。
<Running data classification processing routine>
In step S200, the road image of each travel data of the target point stored in the travel database 166 is divided into sections of predetermined absolute positions, and the section travel data including the section road surface image divided for each section. Is generated.
ステップS202において、上記ステップS200で生成された区画走行データの各々について、分類を未決定に設定する。 In step S202, the classification is set as undecided for each of the segment traveling data generated in step S200.
ステップS204において、変数nに1を格納する。 In step S204, 1 is stored in the variable n.
ステップS206において、分類が未決定である区画走行データが存在するか否かを判定する。分類が未決定である区画走行データが存在する場合には、ステップS208へ進む。一方、分類が未決定である区画走行データが存在しない場合には、ステップS216へ進む。 In step S206, it is determined whether or not there is segment traveling data whose classification is not yet determined. If there is segment travel data whose classification has not been determined, the process proceeds to step S208. On the other hand, if there is no section traveling data whose classification is not yet determined, the process proceeds to step S216.
ステップS208において、分類が未決定である区画走行データを1つ選択し、選択した区画走行データを基準データに設定する。 In step S208, one piece of section traveling data whose classification is not determined is selected, and the selected section traveling data is set as reference data.
ステップS210において、上記ステップS208で設定された基準データの分類番号を、上記ステップS204又は後述するステップS214で前回更新されたnに設定する。 In step S210, the classification number of the reference data set in step S208 is set to n updated last time in step S204 or step S214 described later.
ステップS212において、上記ステップS208で設定された基準データに含まれる走行軌跡と、他の区画走行データに含まれる走行軌跡の各々とに基づいて、基準データと走行経路が同一である区画走行データの各々の分類番号を、上記ステップS210で設定された分類番号nに設定し、ステップS214でnをインクリメントして、ステップS206へ戻る。 In step S212, based on the travel trajectory included in the reference data set in step S208 and each travel trajectory included in other segment travel data, the segment travel data having the same travel route as the reference data. Each classification number is set to the classification number n set in step S210, n is incremented in step S214, and the process returns to step S206.
ステップS216において、上記ステップS212で設定された分類結果を結果として出力して、走行データ分類処理ルーチンを終了する。 In step S216, the classification result set in step S212 is output as a result, and the running data classification processing routine is terminated.
次に、地図生成処理ルーチンに戻り、ステップS102において、相対関係推定部170は、対象地点の各区画に対し、上記ステップS100で出力された分類毎に、区画走行データの区画路面画像の各々について、当該区画路面画像と他の区画路面画像とのペアの各々に対し、ペア間の相対位置関係を表す変形量を算出する。そして、相対関係推定部170は、各区画に対し、分類毎に、当該分類に分類された区画走行データの区画路面画像の各々について、ペアの各々に対して算出された相対位置関係を表す変形量に基づいて、当該路面画像と、基準となる仮想的な路面画像との間の相対位置関係を表す変形量を推定する。ステップS102は、図10に示す相対関係推定処理ルーチンによって実現される。 Next, returning to the map generation processing routine, in step S102, the relative relationship estimation unit 170 for each section of the section travel data for each section of the target point, for each classification output in step S100. For each pair of the section road surface image and the other section road surface image, a deformation amount representing a relative positional relationship between the pairs is calculated. And the relative relationship estimation part 170 is a deformation | transformation showing the relative positional relationship calculated with respect to each of a pair about each division road surface image of the division traveling data classified into the said classification | category for every classification with respect to each division. Based on the amount, a deformation amount representing a relative positional relationship between the road surface image and a reference virtual road surface image is estimated. Step S102 is realized by the relative relationship estimation processing routine shown in FIG.
<相対関係推定処理ルーチン>
ステップS300において、1つの区画を設定する。
<Relative relationship estimation processing routine>
In step S300, one section is set.
ステップS302において、1つの分類を設定する。 In step S302, one classification is set.
ステップS304において、上記ステップS300で設定された区画に属する区画走行データであって、かつ上記ステップS302で設定された分類に属する区画走行データの区画路面画像を1つ設定する。 In step S304, one section road surface image of the section traveling data belonging to the section set in step S300 and belonging to the classification set in step S302 is set.
ステップS306において、上記ステップS304で設定された区画路面画像の部分画像群を設定する。 In step S306, a partial image group of the section road surface image set in step S304 is set.
ステップS308において、上記ステップS306で設定された部分画像群に含まれる部分画像の各々に対し設定された区画路面画像とは異なる他の区画路面画像の対応する部分画像とのペアを設定する。そして、設定された区画路面画像の部分画像群に含まれる部分画像の各々について、上記式(1)に従って、ペア間の相対位置関係を表す変形量を算出する。 In step S308, a pair with a corresponding partial image of another section road surface image different from the section road surface image set for each of the partial images included in the partial image group set in step S306 is set. And the deformation | transformation amount showing the relative positional relationship between a pair is calculated according to said Formula (1) about each of the partial image contained in the partial image group of the set division road surface image.
ステップS310において、他の全ての区画路面画像との間で、上記ステップS308の処理を実行したか否かを判定する。他の全ての区画路面画像との間で、上記ステップS308の処理を実行した場合には、ステップS312へ進む。一方、他の全ての区画路面画像との間で、上記ステップS308の処理を実行していない場合には、ステップS308へ戻る。 In step S310, it is determined whether or not the processing in step S308 has been executed with all other divided road surface images. If the process of step S308 is executed with all other section road surface images, the process proceeds to step S312. On the other hand, when the process of step S308 is not executed with all other divided road surface images, the process returns to step S308.
ステップS312において、上記ステップS306で設定された部分画像群に含まれる全ての部分画像の各々について、上記ステップS308で算出された変形量の各々に基づいて、上記式(2)に従って、当該部分画像と、基準となる仮想的な路面画像の部分画像との間の相対位置関係を表す変形量を推定する。 In step S312, for each of all partial images included in the partial image group set in step S306, the partial image is calculated according to the equation (2) based on the deformation amount calculated in step S308. And a deformation amount representing a relative positional relationship between the partial image of the reference virtual road surface image is estimated.
ステップS314において、上記ステップS302で設定された分類に属する全ての区画走行データの区画路面画像について、上記ステップS304〜ステップS312の処理を実行したか否かを判定する。分類に属する全ての区画走行データの区画路面画像について、上記ステップS304〜ステップS312の処理を実行した場合には、ステップS316へ進む。一方、上記ステップS304〜ステップS312の処理を実行していない区画走行データの区画路面画像が存在する場合には、ステップS304へ戻る。 In step S314, it is determined whether or not the processing in steps S304 to S312 has been executed for the section road surface images of all section traveling data belonging to the classification set in step S302. When the processing of step S304 to step S312 is executed for the section road surface images of all section traveling data belonging to the classification, the process proceeds to step S316. On the other hand, if there is a section road surface image of section traveling data that has not been subjected to the processing of step S304 to step S312 above, the process returns to step S304.
ステップS316において、上記ステップS300で設定された区画に属する全ての分類について、上記ステップS302〜ステップS314の処理を実行したか否かを判定する。上記ステップS300で設定された区画に属する全ての分類について、上記ステップS302〜ステップS314の処理を実行した場合には、ステップS318へ進む。一方、上記ステップS302〜ステップS314の処理を実行していない分類が存在する場合には、ステップS302へ戻る。 In step S316, it is determined whether or not the processing in steps S302 to S314 has been executed for all the classifications belonging to the section set in step S300. If the processes in steps S302 to S314 have been executed for all the classifications belonging to the section set in step S300, the process proceeds to step S318. On the other hand, if there is a classification for which the processes in steps S302 to S314 are not executed, the process returns to step S302.
ステップS318において、走行データの全ての区画について、上記ステップS300〜ステップS316の処理を実行したか否かを判定する。全ての区画について、上記ステップS300〜ステップS316の処理を実行した場合には、ステップS320へ進む。一方、上記ステップS300〜ステップS316の処理を実行していない区画が存在する場合には、ステップS300へ戻る。 In step S318, it is determined whether or not the processing in steps S300 to S316 has been executed for all sections of the travel data. When the processes in steps S300 to S316 are executed for all the sections, the process proceeds to step S320. On the other hand, if there is a partition for which the processes in steps S300 to S316 are not performed, the process returns to step S300.
ステップS320において、上記ステップS312で推定された変形量の各々を、結果として出力して相対関係推定処理ルーチンを終了する。 In step S320, each deformation amount estimated in step S312 is output as a result, and the relative relationship estimation processing routine is terminated.
次に、地図生成処理ルーチンに戻り、ステップS104において、相対関係推定部170は、区画路面画像の各々について、当該区画路面画像の部分画像を、上記ステップS102で当該部分画像について推定された、基準となる仮想的な区画路面画像の部分画像との間の相対位置関係を表す変形量に応じて変形させる。 Next, returning to the map generation processing routine, in step S104, the relative relationship estimation unit 170 determines the partial image of the section road surface image for each of the section road surface images, and the reference image estimated for the partial image in step S102. Is deformed in accordance with a deformation amount representing a relative positional relationship with a partial image of the virtual section road surface image.
ステップS106において、全体関係推定部172は、対象地点の各区画に対し、上記ステップS100で出力された分類毎に、区画走行データの区画路面画像の各々について、上記ステップS104で変形された区画路面画像と、複数の分類の各々に分類され、かつ、変形された他の区画路面画像とのペアの各々に対し、ペア間の相対位置関係を表す変形量を算出する。そして、全体関係推定部172は、対象地点の各区画に対し、分類毎に、当該分類に分類された区画走行データの区画路面画像の各々について、ペアの各々に対して算出された相対位置関係を表す変形量に基づいて、当該区画路面画像と、全体の基準となる仮想的な区画路面画像との間の相対位置関係を表す変形量を推定する。ステップS106は、図11に示す全体関係推定処理ルーチンによって実現される。 In step S106, the overall relationship estimation unit 172 for each segment of the target point, for each classification output in step S100, for each segment road surface image of the segment travel data, the segment road surface deformed in step S104. For each pair of an image and another segmented road surface image that is classified into a plurality of classifications and deformed, a deformation amount representing a relative positional relationship between the pairs is calculated. The overall relationship estimation unit 172 then calculates the relative positional relationship calculated for each of the pairs for each division of the target point, for each division, for each division road surface image of the division traveling data classified into the classification. Is estimated based on the deformation amount indicating the relative positional relationship between the partitioned road surface image and the virtual partitioned road surface image serving as the overall reference. Step S106 is realized by the overall relationship estimation processing routine shown in FIG.
<全体関係推定処理ルーチン>
ステップS400において、1つの区画を設定する。
<Overall relationship estimation processing routine>
In step S400, one section is set.
ステップS402において、1つの分類を設定する。 In step S402, one classification is set.
ステップS404において、上記ステップS400で設定された区画に属する区画走行データであって、かつ上記ステップS402で設定された分類に属する区画走行データの区画路面画像を1つ設定する。 In step S404, one section road surface image of the section traveling data belonging to the section set in step S400 and belonging to the classification set in step S402 is set.
ステップS406において、上記ステップS404で設定された区画路面画像の部分画像群を設定する。 In step S406, a partial image group of the section road surface image set in step S404 is set.
ステップS408において、上記ステップS406で設定された部分画像群に含まれる部分画像の各々に対し、1つの分類に属する区画走行データの区画路面画像の対応する部分画像とのペアを設定する。そして、設定された区画路面画像の部分画像群に含まれる部分画像の各々について、上記式(1)に従って、ペア間の相対位置関係を表す変形量を算出する。 In step S408, for each partial image included in the partial image group set in step S406, a pair with a corresponding partial image of a section road surface image of section traveling data belonging to one classification is set. And the deformation | transformation amount showing the relative positional relationship between a pair is calculated according to said Formula (1) about each of the partial image contained in the partial image group of the set division road surface image.
ステップS410において、全ての分類との間で、上記ステップS408の処理を実行したか否かを判定する。全ての分類との間で、上記ステップS408の処理を実行した場合には、ステップS412へ進む。一方、全ての分類との間で、上記ステップS408の処理を実行していない場合には、ステップS408へ戻る。 In step S410, it is determined whether or not the processing in step S408 has been executed with all classifications. If the process of step S408 has been executed for all classifications, the process proceeds to step S412. On the other hand, if the process of step S408 has not been executed with all classifications, the process returns to step S408.
ステップS412において、上記ステップS406で設定された部分画像群に含まれる全ての部分画像の各々について、上記ステップS408で算出された変形量の各々に基づいて、上記式(2)に従って、当該部分画像と、全体の基準となる仮想的な路面画像との間の相対位置関係を表す変形量を推定する。 In step S412, for each of all the partial images included in the partial image group set in step S406, the partial image is calculated according to the equation (2) based on the deformation amount calculated in step S408. And the amount of deformation representing the relative positional relationship between the virtual road surface image serving as the overall reference is estimated.
ステップS414において、上記ステップS402で設定された分類に属する全ての区画走行データの区画路面画像について、上記ステップS404〜ステップS412の処理を実行したか否かを判定する。分類に属する全ての区画走行データの区画路面画像について、上記ステップS404〜ステップS412の処理を実行した場合には、ステップS416へ進む。一方、上記ステップS404〜ステップS412の処理を実行していない区画走行データの区画路面画像が存在する場合には、ステップS404へ戻る。 In step S414, it is determined whether or not the processes in steps S404 to S412 have been executed for the section road surface images of all the section traveling data belonging to the classification set in step S402. If the processing of step S404 to step S412 is executed for the section road surface images of all section traveling data belonging to the classification, the process proceeds to step S416. On the other hand, when there is a section road surface image of the section travel data for which the processes of steps S404 to S412 are not executed, the process returns to step S404.
ステップS416において、上記ステップS400で設定された区画に属する全ての分類について、上記ステップS402〜ステップS414の処理を実行したか否かを判定する。上記ステップS400で設定された区画に属する全ての分類について、上記ステップS402〜ステップS414の処理を実行した場合には、ステップS418へ進む。一方、上記ステップS402〜ステップS414の処理を実行していない分類が存在する場合には、ステップS402へ戻る。 In step S416, it is determined whether or not the processing in steps S402 to S414 has been executed for all the classifications belonging to the section set in step S400. When the processes of steps S402 to S414 have been executed for all the classifications belonging to the section set in step S400, the process proceeds to step S418. On the other hand, if there is a classification for which the processing of step S402 to step S414 is not performed, the process returns to step S402.
ステップS418において、走行データの全ての区画について、上記ステップS400〜ステップS416の処理を実行したか否かを判定する。全ての区画について、上記ステップS400〜ステップS416の処理を実行した場合には、ステップS420へ進む。一方、上記ステップS400〜ステップS416の処理を実行していない区画が存在する場合には、ステップS400へ戻る。 In step S418, it is determined whether or not the processing in steps S400 to S416 has been executed for all sections of the travel data. When the processes in steps S400 to S416 are executed for all the sections, the process proceeds to step S420. On the other hand, if there is a partition for which the processes in steps S400 to S416 are not performed, the process returns to step S400.
ステップS420において、上記ステップS412で推定された変形量の各々を、結果として出力して全体関係推定処理ルーチンを終了する。 In step S420, each deformation amount estimated in step S412 is output as a result, and the overall relationship estimation processing routine is terminated.
次に、地図生成処理ルーチンに戻り、ステップS108において、走行データ統合部174は、対象地点の各区画に対し、分類毎に、当該分類に分類された区画走行データの区画路面画像の各々について、上記ステップS102で推定された変形量、及び上記ステップS106で推定された変形量に応じて変形させ、変形した複数の区画路面画像を統合する。 Next, returning to the map generation processing routine, in step S108, the travel data integration unit 174 for each section of the target point, for each classification, for each of the section road surface image of the section travel data classified into the classification. Deformation is performed according to the deformation amount estimated in step S102 and the deformation amount estimated in step S106, and a plurality of deformed divided road surface images are integrated.
ステップS110において、走行データ統合部174は、上記ステップS108で統合されたデータを地図データベース176に登録して、地図生成処理ルーチンを終了する。 In step S110, the travel data integration unit 174 registers the data integrated in step S108 in the map database 176, and ends the map generation processing routine.
以上説明したように、本実施の形態に係る地図生成装置によれば、車両の走行軌跡に沿って登録された路面を表す複数の路面画像であって、かつ車両に搭載されたセンサから得られた周辺環境情報に基づき生成された複数の路面画像を蓄積したデータベースに基づいて、路面画像の各々について、当該路面画像と、基準となる仮想的な路面画像との間の相対位置関係を表す変形量を推定し、当該路面画像を推定された変形量に応じて変形させ、路面画像と、全体の基準となる仮想的な路面画像との間の相対位置関係を表す変形量を推定し、複数の路面画像の各々を、基準となる仮想的な路面画像との間の相対位置関係を表す変形量、及び全体の基準となる仮想的な路面画像との間の相対位置関係を表す変形量に応じて変形させ、変形した複数の路面画像を統合して、地図データに登録することにより、車両の絶対位置について計測誤差が発生している場合であっても、車両の走行経路を考慮して精度よく地図データを生成することができる。 As described above, according to the map generation device according to the present embodiment, a plurality of road surface images representing road surfaces registered along the traveling locus of the vehicle, and obtained from sensors mounted on the vehicle. Based on a database that stores a plurality of road surface images generated based on the surrounding environment information, for each of the road surface images, a deformation representing a relative positional relationship between the road surface image and a reference virtual road surface image Estimating the amount, deforming the road surface image according to the estimated deformation amount, estimating a deformation amount representing a relative positional relationship between the road surface image and the virtual road surface image serving as an overall reference, and a plurality of Each of the road surface images is transformed into a deformation amount representing a relative positional relationship between the reference virtual road surface image and a deformation amount representing a relative positional relationship between the entire virtual road surface image serving as a reference. Deformed in response, deformed plural By integrating road surface images and registering them in map data, map data can be generated with high accuracy in consideration of the travel route of the vehicle even when a measurement error occurs in the absolute position of the vehicle. it can.
また、位置・運動計測センサが安価であることにより絶対位置の計測に誤差を含む場合であっても、絶対位置の計測に誤差を含むデータから高精度な地図データを生成することができる。 Further, even if the position / motion measurement sensor is inexpensive and includes errors in absolute position measurement, highly accurate map data can be generated from data including errors in absolute position measurement.
絶対位置の計測には走行ごとに誤差が含まれるため、複数回の走行データをまとめて1つの地図を生成するとずれが発生し、正しく地図を生成することができないが、複数の走行データ間の相対位置関係を推定し、走行データ間の相対位置関係を考慮して、全体を統合することで、各走行で生じる位置の誤差を低減し、ずれのない高精度な地図データを生成することができる。 Since the absolute position measurement includes an error for each run, if a single map is generated by combining multiple trip data, a shift occurs and the map cannot be generated correctly. By estimating the relative positional relationship and considering the relative positional relationship between the traveling data, and integrating the whole, it is possible to reduce the positional error that occurs in each traveling and to generate highly accurate map data without any deviation it can.
[第2の実施の形態]
次に、本発明の第2の実施の形態について説明する。なお、第1の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In addition, about the part which becomes the structure similar to 1st Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.
第2の実施の形態では、区画走行データを分類せず、分類間の相対位置関係を推定しない点が、第1の実施の形態と異なっている。 The second embodiment is different from the first embodiment in that the segment traveling data is not classified and the relative positional relationship between the classifications is not estimated.
<第2の実施の形態に係る地図生成装置210の構成>
第2の実施の形態に係る地図生成装置210のコンピュータ216は、図12に示すように、位置・運動計測センサ14によって計測された車両の位置、方位、及び速度情報に基づいて、車両の走行軌跡を生成する走行軌跡生成部160と、外界観測センサ12によって取得された車両の周辺画像と、走行軌跡生成部160によって生成された車両の走行軌跡とに基づいて、車両の走行軌跡に沿った路面を表す路面画像を生成し、路面画像と走行軌跡との組み合わせを表す走行データを生成する走行データ生成部162と、走行データ生成部162によって生成された走行データの各々を、走行軌跡の位置に対応させて走行データベース166に格納する走行データ蓄積部164と、走行データ生成部162によって生成された走行データの各々が格納される走行データベース166と、各地点に対し、当該地点の走行データの各々について、路面画像と基準となる仮想的な路面画像との間の相対位置関係を表す変形量を推定する相対関係推定部270と、走行データベース166に格納された走行データの路面画像の各々を、相対関係推定部170によって当該路面画像について推定された変形量に応じて変形させ、変形した複数の路面画像を統合して、地図データベース176に登録する走行データ統合部274と、走行データ統合部274によって登録された地図データが格納される地図データベース176とを備えている。なお、走行データ統合部274は、統合手段の一例である。
<Configuration of map generation apparatus 210 according to the second embodiment>
As shown in FIG. 12, the computer 216 of the map generation device 210 according to the second embodiment travels the vehicle based on the vehicle position, direction, and speed information measured by the position / motion measurement sensor 14. Based on the travel trajectory generating unit 160 that generates the trajectory, the surrounding image of the vehicle acquired by the external field observation sensor 12, and the travel trajectory of the vehicle generated by the travel trajectory generating unit 160, the travel trajectory along the vehicle A road data representing a road surface is generated, a travel data generating unit 162 that generates travel data representing a combination of the road surface image and the travel trajectory, and each of the travel data generated by the travel data generating unit 162 is represented by the position of the travel trajectory. Of the travel data generated by the travel data storage unit 164 stored in the travel database 166 and the travel data generation unit 162 And a travel database 166 in which each is stored, and for each point, a relative amount that estimates a deformation amount representing a relative positional relationship between a road surface image and a reference virtual road surface image for each of the travel data of the point. Each of the road surface images of the travel data stored in the relationship estimation unit 270 and the travel database 166 is deformed according to the deformation amount estimated for the road surface image by the relative relationship estimation unit 170, and a plurality of deformed road surface images are obtained. A travel data integration unit 274 that is integrated and registered in the map database 176 and a map database 176 that stores the map data registered by the travel data integration unit 274 are provided. The travel data integration unit 274 is an example of an integration unit.
相対関係推定部270は、各地点の各区画に対し、区画走行データの区画路面画像の各々について、当該区画路面画像と他の区画路面画像とのペアの各々に対し、相対関係推定部170と同様に、ペア間の相対位置関係を表す変形量を算出する。そして、相対関係推定部270は、各地点の各区画に対し、区画走行データの区画路面画像の各々について、ペアの各々に対して算出された相対位置関係を表す変形量に基づいて、相対関係推定部170と同様に、当該区画路面画像と、基準となる仮想的な路面画像との間の相対位置関係を表す変形量を推定する。 The relative relationship estimation unit 270, for each segment at each point, for each segment road surface image of the segment travel data, for each pair of the segment road surface image and the other segment road surface image, Similarly, a deformation amount representing the relative positional relationship between the pairs is calculated. Then, the relative relationship estimation unit 270 determines the relative relationship based on the deformation amount representing the relative positional relationship calculated for each of the pairs for each of the divided road surface images of the divided traveling data for each divided portion of each point. Similar to the estimation unit 170, a deformation amount representing a relative positional relationship between the section road image and the reference virtual road image is estimated.
走行データ統合部274は、各地点の各区画に対し、区画走行データの区画路面画像の各々について、相対関係推定部170によって当該区画路面画像について推定された、基準となる仮想的な区画路面画像との間の相対位置関係を表す変形量に応じて変形させ、変形した複数の区画路面画像を統合して、地図データベース176に登録する。 The travel data integration unit 274, for each section at each point, for each section road image of the section travel data, a virtual section road image serving as a reference estimated by the relative relationship estimation unit 170 for the section road surface image. Are deformed according to the deformation amount representing the relative positional relationship between the two and the plurality of deformed section road surface images are integrated and registered in the map database 176.
<第2の実施の形態に係る地図生成装置210の作用>
次に、第2の実施の形態に係る地図生成装置210の作用について説明する。地図生成装置210を搭載した車両が走行し、外界観測センサ12によって車両の周辺画像が取得され、位置・運動計測センサ14によって各時刻の車両の位置、方位、速度情報が計測されているときに、走行軌跡生成部160は、位置・運動計測センサ14によって計測された、各時刻の車両の位置、方位、及び速度情報に基づいて、車両の走行軌跡を生成する。また、走行データ生成部162は、外界観測センサ12によって取得された各時刻の車両の周辺画像と、走行軌跡生成部160によって生成された車両の走行軌跡とに基づいて、車両の走行軌跡に沿った路面を表す路面画像を生成し、走行軌跡と組み合わせて、路面画像に絶対座標を付与する。そして、走行データ生成部162は、路面画像と走行軌跡とを組み合わせて、絶対座標が付与された路面画像を表す走行データを生成する。次に、走行データ蓄積部164は、走行データ生成部162によって生成された走行データの各々を、走行データベース166に格納する。
<Operation of Map Generating Device 210 according to Second Embodiment>
Next, the operation of the map generation device 210 according to the second embodiment will be described. When a vehicle equipped with the map generation device 210 travels, a surrounding image of the vehicle is acquired by the external observation sensor 12, and the position, direction, and speed information of the vehicle at each time is measured by the position / motion measurement sensor 14. The traveling locus generation unit 160 generates a traveling locus of the vehicle based on the position, direction, and speed information of the vehicle at each time measured by the position / motion measurement sensor 14. In addition, the travel data generation unit 162 follows the travel locus of the vehicle based on the surrounding image of the vehicle at each time acquired by the external field observation sensor 12 and the travel locus of the vehicle generated by the travel locus generation unit 160. A road surface image representing the road surface is generated, and absolute coordinates are given to the road surface image in combination with the travel locus. Then, the travel data generation unit 162 generates travel data representing the road surface image to which the absolute coordinates are given by combining the road surface image and the travel locus. Next, the travel data accumulation unit 164 stores each of the travel data generated by the travel data generation unit 162 in the travel database 166.
走行データベース166に複数の走行データが格納されると、地図生成装置10は、予め定められたタイミングで、各地点を対象として、図13に示す地図生成処理ルーチンを実行する。 When a plurality of travel data is stored in the travel database 166, the map generation apparatus 10 executes a map generation processing routine shown in FIG. 13 for each point at a predetermined timing.
ステップS502において、相対関係推定部270は、対象地点の各区画に対し、区画走行データの区画路面画像の各々について、当該区画路面画像と他の区画路面画像とのペアの各々に対し、上記第1の実施の形態で説明したステップS308と同様に、ペア間の相対位置関係を表す変形量を算出する。そして、相対関係推定部170は、対象地点の各区画に対し、区画走行データの区画路面画像の各々について、ペアの各々に対して算出された相対位置関係を表す変形量に基づいて、上記第1の実施の形態で説明したステップS312と同様に、当該区画路面画像と、基準となる仮想的な路面画像との間の相対位置関係を表す変形量を推定する。ステップS502は、図14に示す相対関係推定処理ルーチンによって実現される。 In step S502, the relative relationship estimation unit 270 performs, for each segment of the target point, for each segment road surface image of the segment traveling data, for each pair of the segment road surface image and the other segment road surface image. Similar to step S308 described in the first embodiment, a deformation amount representing the relative positional relationship between the pairs is calculated. Then, the relative relationship estimation unit 170 performs the above-described calculation based on the deformation amount representing the relative positional relationship calculated for each of the pairs for each of the section road surface images of the section travel data for each section of the target point. Similar to step S312 described in the first embodiment, a deformation amount representing a relative positional relationship between the section road surface image and a reference virtual road surface image is estimated. Step S502 is realized by the relative relationship estimation processing routine shown in FIG.
ステップS508において、走行データ統合部274は、対象地点の各区画に対し、区画走行データの区画路面画像の各々について、上記ステップS502で推定された、当該区画路面画像と、基準となる仮想的な路面画像との間の相対位置関係を表す変形量に応じて変形させ、変形した複数の区画路面画像を統合する。 In step S508, the travel data integration unit 274, for each section of the target point, for each section road surface image of the section travel data, the section road surface image estimated in step S502 and a virtual reference as a reference. Deformation is performed according to the amount of deformation representing the relative positional relationship with the road surface image, and a plurality of deformed section road surface images are integrated.
なお、第2の実施の形態に係る地図生成装置210の他の構成及び作用については、第1の実施の形態と同様であるため、説明を省略する。 In addition, about the other structure and effect | action of the map production | generation apparatus 210 which concern on 2nd Embodiment, since it is the same as that of 1st Embodiment, description is abbreviate | omitted.
以上説明したように、本実施の形態に係る地図生成装置によれば、車両の走行軌跡に沿って登録された路面を表す複数の路面画像であって、かつ車両に搭載されたセンサから得られた周辺環境情報に基づき生成された複数の路面画像を蓄積したデータベースに基づいて、対応する路面画像の各々について、当該路面画像と他の路面画像とのペアの各々に対し、当該ペア間の相対位置関係を表す変形量を算出し、ペアの各々に対して算出された相対位置関係を表す変形量に基づいて、路面画像と、基準となる仮想的な路面画像との間の相対位置関係を表す変形量を推定し、複数の路面画像の各々を、路面画像について推定された、基準となる仮想的な路面画像との間の相対位置関係を表す変形量に応じて変形させ、変形した複数の路面画像を統合して、地図データに登録することにより、車両の絶対位置について計測誤差が発生している場合であっても、精度よく地図データを生成することができる。 As described above, according to the map generation device according to the present embodiment, a plurality of road surface images representing road surfaces registered along the traveling locus of the vehicle, and obtained from sensors mounted on the vehicle. Based on a database that stores a plurality of road surface images generated based on the surrounding environment information, for each corresponding road surface image, relative to each pair of the road surface image and another road surface image A deformation amount representing a positional relationship is calculated, and a relative positional relationship between the road surface image and a reference virtual road surface image is calculated based on the deformation amount representing the relative positional relationship calculated for each pair. The deformation amount to be expressed is estimated, and each of the plurality of road surface images is deformed in accordance with the deformation amount representing the relative positional relationship between the reference virtual road surface image and the estimated road surface image. The road image of To, by registering in the map data, even when the measurement error for the absolute position of the vehicle has occurred, it is possible to accurately generate the map data.
[第3の実施の形態]
次に、本発明の第3の実施の形態について説明する。なお、第1又は第2の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described. In addition, about the part which becomes the same structure as 1st or 2nd embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.
第3の実施の形態に係る地図生成装置は、レーザレーダによって計測された3次元点群データに基づいて路面画像を生成し、地図データを生成する点が、第1又は第2の実施の形態と異なっている。 The map generating apparatus according to the third embodiment generates a road surface image based on three-dimensional point cloud data measured by a laser radar, and the point at which map data is generated is the first or second embodiment. Is different.
<第3の実施の形態に係る地図生成装置310の構成>
図15に示すように、本発明の第3の実施の形態に係る地図生成装置310は、車両の周辺環境を計測する外界観測センサ312と、車両の位置情報及び運動情報を計測する位置・運動計測センサ14と、外界観測センサ312によって取得された周辺環境情報と、位置・運動計測センサ14によって計測された車両の位置情報及び運動情報とに基づいて、地図データを生成するコンピュータ316とを備えている。
<Configuration of map generation apparatus 310 according to the third embodiment>
As shown in FIG. 15, a map generation apparatus 310 according to the third embodiment of the present invention includes an external field observation sensor 312 that measures a surrounding environment of a vehicle, and a position / motion that measures position information and motion information of the vehicle. A measurement sensor 14, a computer 316 that generates map data based on the surrounding environment information acquired by the external field observation sensor 312 and the vehicle position information and movement information measured by the position / movement measurement sensor 14. ing.
第3の実施の形態では、外界観測センサ312としてレーザレーダを用いる場合を例に説明する。外界観測センサ312は、車両の周辺環境情報として、レーザレーダにより計測した車両の周辺の3次元点群データを取得する。 In the third embodiment, a case where a laser radar is used as the external field observation sensor 312 will be described as an example. The external field observation sensor 312 acquires three-dimensional point cloud data around the vehicle measured by the laser radar as vehicle surrounding environment information.
コンピュータ316は、CPU、後述する地図生成処理ルーチンを実現するためのプログラムを記憶したROM、データを一時的に記憶するRAM、及びHDD等の記憶装置で構成され、機能的には次に示すように構成されている。 The computer 316 includes a CPU, a ROM that stores a program for realizing a map generation processing routine, which will be described later, a RAM that temporarily stores data, and a storage device such as an HDD. It is configured.
コンピュータ316は、図15に示すように、走行軌跡生成部160と、位置・運動計測センサ14によって計測された車両の位置、方位、及び速度情報と、外界観測センサ312によって取得された車両の周辺の3次元点群データと、走行軌跡生成部160によって生成された車両の走行軌跡とに基づいて、車両の走行軌跡に沿った路面を表す路面画像を生成し、路面画像と走行軌跡との組み合わせを表す走行データを生成する走行データ生成部362と、走行データ蓄積部164と、走行データベース166と、走行データ分類部168と、相対関係推定部170と、全体関係推定部172と、走行データ統合部174と、地図データベース176とを備えている。 As shown in FIG. 15, the computer 316 includes the vehicle trajectory generation unit 160, vehicle position, orientation, and speed information measured by the position / motion measurement sensor 14, and the vehicle periphery acquired by the external field observation sensor 312. A road surface image representing the road surface along the vehicle travel path is generated based on the three-dimensional point cloud data of the vehicle and the vehicle travel path generated by the travel path generation unit 160, and a combination of the road surface image and the travel path Data generation unit 362 for generating travel data representing the travel data, travel data storage unit 164, travel database 166, travel data classification unit 168, relative relationship estimation unit 170, overall relationship estimation unit 172, and travel data integration A unit 174 and a map database 176 are provided.
走行データ生成部362は、図16に示すように、立体物判定部364と、グルーピング部366と、移動物判定部368と、2次元画像生成部370とを備えている。 As illustrated in FIG. 16, the travel data generation unit 362 includes a three-dimensional object determination unit 364, a grouping unit 366, a moving object determination unit 368, and a two-dimensional image generation unit 370.
立体物判定部364は、外界観測センサ312によって取得された車両の周辺の3次元点群データに基づいて、3次元点群データに対して立体物判定を行い、3次元点群データを、路面を表す3次元点群データと立体物を表す3次元点群データとに分類する。3次元点群データの各点が立体物の点であるか否かの判定には、局所的な高さの分布を利用する。 The three-dimensional object determination unit 364 performs three-dimensional object determination on the three-dimensional point cloud data based on the three-dimensional point cloud data around the vehicle acquired by the external field observation sensor 312, and converts the three-dimensional point cloud data to the road surface. Are classified into three-dimensional point group data representing a three-dimensional object and three-dimensional point group data representing a three-dimensional object. A local height distribution is used to determine whether or not each point of the three-dimensional point cloud data is a solid object.
図17に、局所的な高さを推定するための方法の一例を示す。具体的には、立体物判定部364は、外界観測センサ312によって取得された3次元点群データに基づいて、図17に示すように、所定の大きさで区切られた2次元グリッドに3次元点群データの各点を投票する。そして、立体物判定部364は、2次元グリッドの各グリッドに対して、投票された3次元点の高さの分布を計算し、計算された高さが予め定められたしきい値以上であれば、当該グリッドに投票された3次元点は立体物の点であると判定する。一方、立体物判定部364は、計算された高さが予め定められたしきい値より小さければ、当該グリッドに投票された3次元点は路面の点であると判定する。 FIG. 17 shows an example of a method for estimating the local height. Specifically, the three-dimensional object determination unit 364 performs three-dimensional analysis on a two-dimensional grid partitioned by a predetermined size, as shown in FIG. 17, based on the three-dimensional point cloud data acquired by the external field observation sensor 312. Vote for each point in the point cloud data. Then, the three-dimensional object determination unit 364 calculates the distribution of the height of the voted three-dimensional points for each of the two-dimensional grids, and if the calculated height is equal to or greater than a predetermined threshold value. For example, the three-dimensional point voted on the grid is determined to be a three-dimensional object. On the other hand, if the calculated height is smaller than a predetermined threshold value, the three-dimensional object determination unit 364 determines that the three-dimensional point voted on the grid is a road surface point.
グルーピング部366は、立体物判定部364によって立体物の点であると判定された3次元点群データに対し、グルーピングを行い、3次元点群データを複数のグループに分類する。具体的には、グルーピング部366は、立体物判定部364によって立体物の点と判定された3次元点群データの3次元点の各々に対し、3次元空間上での距離が予め定められた値未満の点同士を同じグループに属するとしてまとめ、3次元点群データを複数のグループに分類する。 The grouping unit 366 performs grouping on the three-dimensional point group data determined to be a point of the three-dimensional object by the three-dimensional object determination unit 364, and classifies the three-dimensional point group data into a plurality of groups. Specifically, the grouping unit 366 has predetermined distances in the three-dimensional space for each of the three-dimensional points of the three-dimensional point cloud data determined by the three-dimensional object determination unit 364 as the points of the three-dimensional object. The points less than the value are grouped together as belonging to the same group, and the three-dimensional point cloud data is classified into a plurality of groups.
移動物判定部368は、位置・運動計測センサ14によって計測された車両の位置、方位、及び速度情報と、グルーピング部366によって分類された3次元点群データの複数のグループとに基づいて、当該グループを時刻間で追跡する。そして、移動物判定部368は、当該グループの移動速度及び移動方向と位置・運動計測センサ14によって計測された車両の方位、及び速度情報とを比較し、自車両の運動と異なるグループを移動立物体と判定する。 The moving object determination unit 368 is based on the vehicle position, direction, and speed information measured by the position / motion measurement sensor 14 and the plurality of groups of the three-dimensional point cloud data classified by the grouping unit 366. Track groups across time. Then, the moving object determination unit 368 compares the moving speed and moving direction of the group with the vehicle orientation and speed information measured by the position / motion measurement sensor 14, and moves the group different from the movement of the own vehicle. Judge as an object.
例えば、移動物判定部368は、3次元点群データの複数のグループの各々について、位置・運動計測センサ14によって計測された自車両の速度情報と当該グループの移動速度との差分を算出し、算出された差分が予め定められた第1の閾値以下であって、かつ当該グループの移動方向が自車両の進行方向と同じである場合には、自車両の進行方向と同じ方向に移動する移動立体物であると判定する。 For example, the moving object determination unit 368 calculates, for each of the plurality of groups of the three-dimensional point cloud data, the difference between the speed information of the host vehicle measured by the position / motion measurement sensor 14 and the moving speed of the group, A movement that moves in the same direction as the traveling direction of the host vehicle when the calculated difference is equal to or smaller than a predetermined first threshold and the traveling direction of the group is the same as the traveling direction of the host vehicle. It is determined that the object is a three-dimensional object.
また、移動物判定部368は、3次元点群データの複数のグループの各々について、位置・運動計測センサ14によって計測された自車両の速度情報とグループの移動速度との差分を算出し、算出された差分が予め定められた第2の閾値以上であって、かつ当該グループの移動方向が自車両の進行方向と反対方向である場合には、自車両の進行方向と反対方向に移動する移動立体物であると判定する。 Further, the moving object determination unit 368 calculates, for each of the plurality of groups of the three-dimensional point cloud data, a difference between the speed information of the host vehicle measured by the position / motion measurement sensor 14 and the moving speed of the group. Movement that moves in a direction opposite to the traveling direction of the host vehicle when the difference is equal to or greater than a predetermined second threshold and the moving direction of the group is opposite to the traveling direction of the host vehicle. It is determined that the object is a three-dimensional object.
また、移動物判定部368は、3次元点群データの複数のグループの各々について、位置・運動計測センサ14によって計測された自車両の速度情報とグループの移動速度との差分を算出し、算出された差分が予め定められた第2の閾値未満であって、かつ当該グループの移動方向が自車両の進行方向と反対方向である場合には、静止立体物であると判定する。 Further, the moving object determination unit 368 calculates, for each of the plurality of groups of the three-dimensional point cloud data, a difference between the speed information of the host vehicle measured by the position / motion measurement sensor 14 and the moving speed of the group. If the calculated difference is less than a predetermined second threshold and the moving direction of the group is opposite to the traveling direction of the host vehicle, it is determined that the object is a stationary solid object.
2次元画像生成部370は、移動物判定部368によって静止立体物であると判定されたグループの3次元点群データに基づいて、路面画像を生成する。具体的には、2次元画像生成部370は、移動物判定部368によって静止立体物であると判定されたグループの3次元点群データの各点を、2次元グリッドへ投票することで路面画像を生成する。 The two-dimensional image generation unit 370 generates a road surface image based on the three-dimensional point cloud data of the group determined to be a stationary solid object by the moving object determination unit 368. Specifically, the two-dimensional image generation unit 370 votes each point of the three-dimensional point cloud data of the group determined to be a stationary solid object by the moving object determination unit 368 to the two-dimensional grid, thereby locating the road surface image. Is generated.
図18に、2次元画像生成部370が生成する路面画像の一例を示す。例えば、2次元画像生成部370は、図18(A)に示すように、3次元点群データの静止立体物の点のみをプロットしたエッジ点画像を路面画像として生成することができる。また、2次元画像生成部370は、図18(B)に示すように、3次元点群データの静止立体物の高さまたは反射強度を画素値とした画像を路面画像として生成することができる。 FIG. 18 shows an example of a road surface image generated by the two-dimensional image generation unit 370. For example, as shown in FIG. 18A, the two-dimensional image generation unit 370 can generate an edge point image in which only the points of the stationary solid object of the three-dimensional point group data are plotted as a road surface image. Further, as illustrated in FIG. 18B, the two-dimensional image generation unit 370 can generate, as a road surface image, an image in which the height or reflection intensity of a stationary three-dimensional object of the three-dimensional point cloud data is a pixel value. .
なお、2次元画像生成部370が生成した路面画像から相対位置関係を表す変形量を推定する場合には、外界観測センサにカメラを用いた上記第1又は第2の実施の形態と同様に、上記式(1)のマッチングコストに基づくコスト計算を用いることができる。 In addition, when estimating the deformation | transformation amount showing a relative positional relationship from the road surface image which the two-dimensional image generation part 370 produced | generated, similarly to the said 1st or 2nd embodiment using the camera for the external field observation sensor, Cost calculation based on the matching cost of the above equation (1) can be used.
なお、第3の実施の形態に係る地図生成装置310の他の構成及び作用については、第1の実施の形態と同様であるため、説明を省略する。 In addition, about the other structure and effect | action of the map production | generation apparatus 310 which concern on 3rd Embodiment, since it is the same as that of 1st Embodiment, description is abbreviate | omitted.
以上説明したように、本実施の形態に係る地図生成装置によれば、車両の走行軌跡に沿って登録された路面を表す複数の路面画像であって、かつ車両に搭載されたセンサから得られた3次元点群データに基づき生成された複数の路面画像を蓄積したデータベースに基づいて、対応する路面画像の各々について、当該路面画像と他の路面画像とのペアの各々に対し、当該ペア間の相対位置関係を表す変形量を算出し、ペアの各々に対して算出された相対位置関係を表す変形量に基づいて、路面画像と、基準となる仮想的な路面画像との間の相対位置関係を表す変形量を推定し、複数の路面画像の各々を、路面画像について推定された、基準となる仮想的な路面画像との間の相対位置関係を表す変形量に応じて変形させ、変形した複数の路面画像を統合して、地図データに登録することにより、車両の絶対位置について計測誤差が発生している場合であっても、精度よく地図データを生成することができる。 As described above, according to the map generation device according to the present embodiment, a plurality of road surface images representing road surfaces registered along the traveling locus of the vehicle, and obtained from sensors mounted on the vehicle. Between each pair of the road surface image and another road surface image for each corresponding road surface image based on a database in which a plurality of road surface images generated based on the three-dimensional point cloud data are accumulated. The relative position between the road surface image and the reference virtual road surface image is calculated based on the deformation amount representing the relative positional relationship calculated for each of the pairs. The amount of deformation representing the relationship is estimated, and each of the plurality of road surface images is deformed according to the amount of deformation representing the relative positional relationship between the reference virtual road surface image estimated for the road surface image, and deformed. Multiple road images Integrated, by registering in the map data, even when the measurement error for the absolute position of the vehicle has occurred, it is possible to accurately generate the map data.
なお、第3の実施の形態を、第2の実施の形態に適用させてもよい。 Note that the third embodiment may be applied to the second embodiment.
[第4の実施の形態]
次に、本発明の第4の実施の形態について説明する。なお、第1〜第3の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。
[Fourth Embodiment]
Next, a fourth embodiment of the present invention will be described. In addition, about the part which becomes the structure similar to the 1st-3rd embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.
第4の実施の形態に係る地図生成装置は、レーザレーダによって計測された3次元点群データから地図データを生成する点が、第1〜第3の実施の形態と異なっている。 The map generation apparatus according to the fourth embodiment is different from the first to third embodiments in that map data is generated from three-dimensional point cloud data measured by a laser radar.
<第4の実施の形態に係る地図生成装置410の構成>
図19に示すように、本発明の第4の実施の形態に係る地図生成装置410は、車両の周辺環境を計測する外界観測センサ312と、車両の位置情報及び運動情報を計測する位置・運動計測センサ14と、外界観測センサ312によって取得された周辺環境情報と、位置・運動計測センサ14によって計測された車両の位置情報及び運動情報とに基づいて、地図データを生成するコンピュータ416とを備えている。
<Configuration of Map Generating Device 410 According to Fourth Embodiment>
As shown in FIG. 19, a map generation apparatus 410 according to the fourth embodiment of the present invention includes an external field observation sensor 312 that measures a surrounding environment of a vehicle, and a position / motion that measures vehicle position information and motion information. A measurement sensor 14, a computer 416 that generates map data based on the surrounding environment information acquired by the external field observation sensor 312 and the vehicle position information and motion information measured by the position / motion measurement sensor 14. ing.
第4の実施の形態では、第3の実施の形態と同様に、外界観測センサ312としてレーザレーダを用いる場合を例に説明する。外界観測センサ312は、車両の周辺環境情報として、レーザレーダにより計測した車両の周辺の3次元点群データを取得する。 In the fourth embodiment, as in the third embodiment, a case where a laser radar is used as the external field observation sensor 312 will be described as an example. The external field observation sensor 312 acquires three-dimensional point cloud data around the vehicle measured by the laser radar as vehicle surrounding environment information.
コンピュータ416は、CPU、後述する地図生成処理ルーチンを実現するためのプログラムを記憶したROM、データを一時的に記憶するRAM、及びHDD等の記憶装置で構成され、機能的には次に示すように構成されている。 The computer 416 includes a CPU, a ROM that stores a program for realizing a map generation processing routine described later, a RAM that temporarily stores data, and a storage device such as an HDD. It is configured.
コンピュータ416は、図19に示すように、走行軌跡生成部160と、位置・運動計測センサ14によって計測された車両の位置、方位、及び速度情報と、外界観測センサ312によって取得された車両の周辺の3次元点群データと、走行軌跡生成部160によって生成された車両の走行軌跡とに基づいて、車両の走行軌跡に沿った3次元点群データを生成し、3次元点群データと走行軌跡との組み合わせを表す走行データを生成する走行データ生成部462と、走行データ生成部462によって生成された走行データの各々を、走行軌跡の位置に対応させて走行データベース466に格納する走行データ蓄積部164と、走行データ生成部462によって生成された走行データの各々が格納される走行データベース466と、各地点に対し、走行データベース466に格納された当該地点の走行データの各々を、3次元点群データが表す路面の位置に応じて分類する走行データ分類部468と、各地点に対し、分類毎に、当該分類に属する走行データの各々について、3次元点群データと基準となる仮想的な3次元点群データとの間の相対位置関係を表す変形量を推定する相対関係推定部470と、各地点に対し、当該地点の走行データの各々について、3次元点群データと全体の基準となる仮想的な3次元点群データとの間の相対位置関係を表す変形量を推定する全体関係推定部472と、走行データベース466に格納された走行データの3次元点群データの各々を、相対関係推定部470によって当該3次元点群データについて推定された変形量、及び全体関係推定部472によって当該3次元点群データについて推定された変形量に応じて変形させ、変形した複数の3次元点群データを統合して、地図データベース476に登録する走行データ統合部474と、走行データ統合部474によって登録された地図データが格納される地図データベース476とを備えている。3次元点群データは、走路データの一例である。 As shown in FIG. 19, the computer 416 includes the vehicle trajectory generation unit 160, vehicle position, direction, and speed information measured by the position / motion measurement sensor 14, and the vehicle periphery acquired by the external field observation sensor 312. Based on the three-dimensional point cloud data of the vehicle and the traveling locus of the vehicle generated by the traveling locus generation unit 160, the three-dimensional point cloud data and the traveling locus are generated along the traveling locus of the vehicle. Data generating unit 462 that generates driving data representing a combination of the driving data, and a driving data accumulating unit that stores each of the driving data generated by the driving data generating unit 462 in the driving database 466 in association with the position of the driving locus. 164, a travel database 466 in which each of the travel data generated by the travel data generation unit 462 is stored, The travel data classifying unit 468 classifies each of the travel data stored in the travel database 466 according to the position of the road surface represented by the three-dimensional point cloud data, and for each point, the classification A relative relationship estimating unit 470 that estimates a deformation amount representing a relative positional relationship between the three-dimensional point cloud data and the reference virtual three-dimensional point cloud data, and An overall relationship estimation unit 472 that estimates a deformation amount representing a relative positional relationship between the 3D point cloud data and the virtual 3D point cloud data serving as the overall reference for each of the travel data of the point; For each of the three-dimensional point cloud data of the traveling data stored in the traveling database 466, the deformation amount estimated for the three-dimensional point group data by the relative relationship estimating unit 470 and the overall relationship estimating unit 4 A travel data integration unit 474 that integrates a plurality of deformed three-dimensional point cloud data and registers them in the map database 476; A map database 476 in which the map data registered by the unit 474 is stored. The three-dimensional point cloud data is an example of runway data.
走行データ生成部462は、図20に示すように、立体物判定部364と、グルーピング部366と、移動物判定部368と、データ生成部464とを備えている。 As illustrated in FIG. 20, the travel data generation unit 462 includes a three-dimensional object determination unit 364, a grouping unit 366, a moving object determination unit 368, and a data generation unit 464.
データ生成部464は、移動物判定部368によって静止立体物であると判定されたグループの3次元点群データと、立体物判定部364によって路面を表すと判定された3次元点群データと、走行軌跡生成部160によって生成された車両の走行軌跡とに基づいて、車両の走行軌跡に沿った3次元点群データを生成し、3次元点群データと走行軌跡との組み合わせを表す走行データを生成する。 The data generation unit 464 includes three-dimensional point cloud data of a group determined to be a stationary solid object by the moving object determination unit 368, three-dimensional point group data determined to represent a road surface by the three-dimensional object determination unit 364, Based on the travel locus of the vehicle generated by the travel locus generation unit 160, 3D point cloud data is generated along the travel locus of the vehicle, and travel data representing a combination of the 3D point cloud data and the travel locus is generated. Generate.
走行データ分類部468は、各地点に対し、走行データベース166に格納された当該地点に対応する走行データの各々を、3次元点群データが表す路面の位置に応じて分類する。具体的には、走行データ分類部468は、各地点に対し、走行データベース166に蓄積された当該地点の各走行データの3次元点群データを、予め決められた絶対位置の区画毎に分割し、区画毎に分割された区画3次元点群データを含む区画走行データを生成する。次に、走行データ分類部468は、同じ区画の区画走行データを、当該区画走行データに対応する走行データに含まれる走行軌跡から得られる車両の走行経路に応じて分類する。 The travel data classifying unit 468 classifies each of the travel data corresponding to the point stored in the travel database 166 according to the position of the road surface represented by the three-dimensional point group data. Specifically, the travel data classifying unit 468 divides, for each point, the three-dimensional point cloud data of each travel data stored in the travel database 166 for each predetermined absolute position section. Then, section traveling data including section three-dimensional point cloud data divided for each section is generated. Next, the travel data classification unit 468 classifies the segment travel data of the same section according to the travel route of the vehicle obtained from the travel locus included in the travel data corresponding to the segment travel data.
相対関係推定部470は、各地点の各区画に対し、分類毎に、走行データ分類部468によって当該分類に分類された区画走行データの区画3次元点群データの各々について、当該区画3次元点群データと他の区画3次元点群データとのペアの各々に対し、ペア間の相対位置関係を表す変形量を算出する。 The relative relationship estimation unit 470 performs, for each classification of each section at each point, for each of the section three-dimensional point cloud data of the section traveling data classified into the classification by the traveling data classification unit 468. For each pair of group data and other three-dimensional point group data, a deformation amount representing the relative positional relationship between the pairs is calculated.
図21及び図22に、同一の分類に属する区画3次元点群データの各々について、複数の3次元点での対応を求める方法の一例を示す。例えば、相対関係推定部470は、複数の3次元点での対応を求める方法として、区画3次元点群データの各々について、区画3次元点群データから図21(A)に示すような部分点群を抽出し、部分点群毎に、図21(B)に示すような他の区画3次元点群データの部分点群とマッチングを行い、対応関係を求める。 FIG. 21 and FIG. 22 show an example of a method for obtaining correspondence at a plurality of three-dimensional points for each of the divided three-dimensional point group data belonging to the same classification. For example, the relative relationship estimation unit 470 obtains a partial point as shown in FIG. 21A from the partitioned 3D point cloud data for each of the partitioned 3D point cloud data, as a method for obtaining correspondence at a plurality of 3D points. A group is extracted, and for each partial point group, matching is performed with a partial point group of other divided three-dimensional point group data as shown in FIG.
具体的には、相対関係推定部470は、上記図21で示した2つの部分点群について、図22に示すように、一方の区画3次元点群データの部分点群の各点に対し、もう一方の他の区画3次元点群データの部分点群のうち最も近い点を求める。
そして、相対関係推定部470は、一方の区画3次元点群データの部分点群の各点に対し、当該点と当該点と最も近い点との距離の和をマッチングコストとして計算する。2つの区間走行データの部分領域の点群をA,Bとし、変形量をxとすると、マッチングコストは以下の式により計算される。
Specifically, as shown in FIG. 22, the relative relationship estimation unit 470 performs, for each of the two partial point groups shown in FIG. The closest point is obtained from the partial point group of the other other three-dimensional point group data.
Then, the relative relationship estimation unit 470 calculates, as a matching cost, the sum of the distances between the point and the point closest to the point for each point of the partial point group of one piece of the three-dimensional point group data. The matching cost is calculated by the following equation, where A and B are the point groups of the partial areas of the two section travel data and the deformation amount is x.
dnear(v,B)は、点群Aの点vと、点vに最も近い点群Bの点(w∈B)との距離を表し、上記の式で計算される。なお、|・|2はL2ノルムを表す。また、外れ値に対応するため、dnear(v,B)の上限値を設定してもよい。 d near (v, B) represents the distance between the point v of the point group A and the point (wεB) of the point group B closest to the point v, and is calculated by the above formula. Note that | · | 2 represents the L2 norm. In order to deal with outliers, an upper limit value of d near (v, B) may be set.
そして、相対関係推定部470は、同一の分類に属する区画3次元点群データの各々について、上記式に従って算出されるマッチングコストが最小となる変形量xを推定する。 Then, the relative relationship estimation unit 470 estimates the deformation amount x that minimizes the matching cost calculated according to the above formula for each of the three-dimensional point group data belonging to the same classification.
また、相対関係推定部470は、区画3次元点群データの各々について、当該区画3次元点群データの部分点群を、部分点群について推定された、基準となる仮想的な区画3次元点群データとの間の相対位置関係を表す変形量に応じて変形させる。 In addition, the relative relationship estimation unit 470 determines, for each piece of block three-dimensional point cloud data, a partial point group of the block three-dimensional point cloud data that is a reference virtual block three-dimensional point estimated for the partial point group. Deformation is performed according to the deformation amount representing the relative positional relationship with the group data.
全体関係推定部472は、各地点の各区画に対し、分類毎に、走行データ分類部468によって当該分類に分類された区画走行データの区画3次元点群データの各々について、相対関係推定部470によって変形された区画3次元点群データと、各分類に分類され、かつ、変形された他の区画3次元点群データとのペアの各々に対し、ペア間の相対位置関係を表す変形量を算出する。 The overall relationship estimation unit 472 for each segment of each point, for each category, the relative relationship estimation unit 470 for each of the segment three-dimensional point cloud data of the segment traveling data classified into the classification by the traveling data classification unit 468. For each of the pairs of the section 3D point cloud data deformed by the above and the other section 3D point cloud data classified and deformed in each classification, a deformation amount representing a relative positional relationship between the pairs is set. calculate.
走行データ統合部474は、各地点の各区画に対し、分類毎に、当該分類に分類された区画走行データの区画3次元点群データの各々について、相対関係推定部470によって当該区画3次元点群データについて推定された、基準となる仮想的な区画3次元点群データとの間の相対位置関係を表す変形量、及び全体関係推定部472によって当該区画3次元点群データについて推定された、全体の基準となる仮想的な区画3次元点群データとの間の相対位置関係を表す変形量に応じて変形させ、変形した複数の区画3次元点群データを統合して、地図データとして地図データベース476に登録する。 For each section of each point, the traveling data integration unit 474 performs, for each classification, the relative relationship estimation unit 470 for each section three-dimensional point cloud data of the section traveling data classified into the classification. A deformation amount that is estimated for the group data and represents a relative positional relationship with the virtual section 3D point cloud data serving as a reference, and is estimated for the section 3D point group data by the overall relationship estimation unit 472. A map is obtained as a map data by deforming according to a deformation amount representing a relative positional relationship with the virtual section 3D point cloud data as a whole reference, and integrating the plurality of section 3D point group data which have been deformed. Register in the database 476.
<第4の実施の形態に係る地図生成装置410の作用>
次に、第4の実施の形態に係る地図生成装置410の作用について説明する。地図生成装置410を搭載した車両が走行し、外界観測センサ312によって車両の周辺の3次元点群データが取得され、位置・運動計測センサ14によって各時刻の車両の位置、方位、速度情報が計測されているときに、走行軌跡生成部160は、位置・運動計測センサ14によって計測された、各時刻の車両の位置、方位、及び速度情報に基づいて、車両の走行軌跡を生成する。また、走行データ生成部462は、外界観測センサ312によって取得された各時刻の車両の周辺の3次元点群データと、走行軌跡生成部160によって生成された車両の走行軌跡とに基づいて、車両の走行軌跡に沿った3次元点群データを生成し、走行軌跡と組み合わせて、3次元点群データに絶対座標を付与する。そして、走行データ生成部462は、3次元点群データと走行軌跡とを組み合わせて、絶対座標が付与された3次元点群データを表す走行データを生成する。次に、走行データ蓄積部164は、走行データ生成部462によって生成された走行データの各々を、走行データベース466に格納する。
<Operation of Map Generating Device 410 According to Fourth Embodiment>
Next, the operation of the map generation device 410 according to the fourth embodiment will be described. A vehicle on which the map generation device 410 is mounted travels, the 3D point cloud data around the vehicle is acquired by the external field observation sensor 312, and the position / direction / speed information of the vehicle at each time is measured by the position / motion measurement sensor 14. At this time, the travel locus generation unit 160 generates a travel locus of the vehicle based on the vehicle position, direction, and speed information measured at each time by the position / motion measurement sensor 14. Further, the travel data generation unit 462 is based on the three-dimensional point cloud data around the vehicle at each time acquired by the external field observation sensor 312 and the vehicle travel trajectory generated by the travel trajectory generation unit 160. The three-dimensional point cloud data along the traveling locus is generated and combined with the traveling locus to give absolute coordinates to the three-dimensional point cloud data. Then, the travel data generation unit 462 generates travel data representing the 3D point cloud data to which the absolute coordinates are assigned by combining the 3D point cloud data and the travel locus. Next, the travel data accumulation unit 164 stores each travel data generated by the travel data generation unit 462 in the travel database 466.
走行データベース466に複数の走行データが格納されると、地図生成装置410は、予め定められたタイミングで、各地点を対象として、図23に示す地図生成処理ルーチンを実行する。 When a plurality of travel data is stored in the travel database 466, the map generation device 410 executes a map generation processing routine shown in FIG. 23 for each point at a predetermined timing.
ステップS100において、走行データ分類部468は、走行データベース466に格納された対象地点に対応する走行データの各々を、3次元点群データが表す路面の位置に応じて分類する。ステップS100は、上記図9に示す走行データ分類処理ルーチンによって実現される。 In step S100, the travel data classification unit 468 classifies each of the travel data corresponding to the target point stored in the travel database 466 according to the position of the road surface represented by the three-dimensional point cloud data. Step S100 is realized by the travel data classification process routine shown in FIG.
次に、ステップS602において、相対関係推定部470は、対象地点の各区画に対し、上記ステップS100で出力された分類毎に、区画走行データの区画3次元点群データの各々について、当該区画3次元点群データと他の区画3次元点群データとのペアの各々に対し、ペア間の相対位置関係を表す変形量を算出する。そして、相対関係推定部470は、各区画に対し、分類毎に、当該分類に分類された区画走行データの区画3次元点群データの各々について、ペアの各々に対して算出された相対位置関係を表す変形量に基づいて、当該3次元点群データと、基準となる仮想的な3次元点群データとの間の相対位置関係を表す変形量を推定する。ステップS602は、図24に示す相対関係推定処理ルーチンによって実現される。 Next, in step S602, the relative relationship estimation unit 470 for each section of the target point, for each section three-dimensional point cloud data of the section traveling data, for each classification output in step S100. For each pair of the three-dimensional point group data and the other three-dimensional point group data, a deformation amount representing the relative positional relationship between the pairs is calculated. Then, the relative relationship estimation unit 470 calculates, for each classification, the relative positional relationship calculated for each of the pairs with respect to each of the three-dimensional point cloud data of the section traveling data classified into the classification. Is estimated based on the deformation amount indicating the relative positional relationship between the three-dimensional point cloud data and the reference virtual three-dimensional point cloud data. Step S602 is realized by a relative relationship estimation processing routine shown in FIG.
次に、ステップS604において、相対関係推定部470は、区画3次元点群データの各々について、当該区画3次元点群データの部分点群を、上記ステップS602で当該部分点群について推定された、基準となる仮想的な区画3次元点群データの部分点群との間の相対位置関係を表す変形量に応じて変形させる。 Next, in step S604, the relative relationship estimation unit 470 estimated the partial point cloud of the block 3D point cloud data for each block 3D point cloud data and the partial point cloud in step S602. Deformation is performed according to a deformation amount representing a relative positional relationship with a partial point group of virtual section three-dimensional point group data serving as a reference.
ステップS606において、全体関係推定部472は、対象地点の各区画に対し、上記ステップS100で出力された分類毎に、区画走行データの区画3次元点群データの各々について、上記ステップS604で変形された区画3次元点群データと、複数の分類の各々に分類され、かつ、変形された他の区画3次元点群データとのペアの各々に対し、ペア間の相対位置関係を表す変形量を算出する。そして、全体関係推定部472は、対象地点の各区画に対し、分類毎に、当該分類に分類された区画走行データの区画3次元点群データの各々について、ペアの各々に対して算出された相対位置関係を表す変形量に基づいて、当該区画3次元点群データと、全体の基準となる仮想的な区画3次元点群データとの間の相対位置関係を表す変形量を推定する。ステップS606は、図25に示す全体関係推定処理ルーチンによって実現される。 In step S606, the overall relationship estimation unit 472 transforms each segment three-dimensional point cloud data of the segment travel data in step S604 for each segment of the target point for each classification output in step S100. For each pair of the divided three-dimensional point cloud data and each of the other divided three-dimensional point cloud data classified into a plurality of classifications, a deformation amount representing a relative positional relationship between the pairs is set. calculate. Then, the overall relationship estimation unit 472 calculates, for each division of the target point, for each of the pairs for each classification, for each of the three-dimensional point cloud data of the division traveling data classified into the classification. Based on the deformation amount representing the relative positional relationship, the deformation amount representing the relative positional relationship between the section three-dimensional point cloud data and the virtual section three-dimensional point group data serving as the entire reference is estimated. Step S606 is realized by the overall relationship estimation processing routine shown in FIG.
次に、ステップS608において、走行データ統合部474は、対象地点の各区画に対し、分類毎に、当該分類に分類された区画走行データの区画3次元点群データの各々について、上記ステップS602で推定された変形量、及び上記ステップS606で推定された変形量に応じて変形させ、変形した複数の区画3次元点群データを統合する。 Next, in step S608, the travel data integration unit 474 for each section of the target point, for each classification, for each of the section three-dimensional point cloud data of the section travel data classified into the classification in step S602. Deformation is performed according to the estimated deformation amount and the deformation amount estimated in step S606, and the deformed plurality of section three-dimensional point group data is integrated.
なお、第4の実施の形態に係る地図生成装置410の他の構成及び作用については、第1又は第3の実施の形態と同様であるため、説明を省略する。 In addition, about the other structure and effect | action of the map production | generation apparatus 410 which concern on 4th Embodiment, since it is the same as that of 1st or 3rd Embodiment, description is abbreviate | omitted.
以上説明したように、本実施の形態に係る地図生成装置によれば、車両の走行軌跡に沿って登録された路面を表す複数の3次元点群データであって、かつ車両に搭載されたセンサから得られた周辺環境情報に基づき生成された複数の3次元点群データを蓄積したデータベースに基づいて、対応する3次元点群データの各々について、当該3次元点群データと他の3次元点群データとのペアの各々に対し、当該ペア間の相対位置関係を表す変形量を算出し、ペアの各々に対して算出された相対位置関係を表す変形量に基づいて、3次元点群データと、基準となる仮想的な3次元点群データとの間の相対位置関係を表す変形量を推定し、複数の3次元点群データの各々を、3次元点群データについて推定された、基準となる仮想的な3次元点群データとの間の相対位置関係を表す変形量に応じて変形させ、変形した複数の3次元点群データを統合して、地図データに登録することにより、車両の絶対位置について計測誤差が発生している場合であっても、精度よく地図データを生成することができる。 As described above, according to the map generation device according to the present embodiment, a plurality of three-dimensional point cloud data representing road surfaces registered along the traveling locus of the vehicle, and sensors mounted on the vehicle For each of the corresponding 3D point cloud data based on a database storing a plurality of 3D point cloud data generated based on the surrounding environment information obtained from the 3D point cloud data and other 3D point data For each pair with the group data, a deformation amount representing the relative positional relationship between the pair is calculated, and based on the deformation amount representing the relative positional relationship calculated for each pair, the three-dimensional point group data And a deformation amount representing a relative positional relationship between the reference virtual three-dimensional point cloud data, and each of the plurality of three-dimensional point cloud data is estimated for the three-dimensional point cloud data. A virtual 3D point cloud The data is deformed according to the deformation amount representing the relative positional relationship with the vehicle, and a plurality of deformed three-dimensional point cloud data is integrated and registered in the map data, thereby generating a measurement error for the absolute position of the vehicle. Map data can be generated with high accuracy.
なお、第4の実施の形態を、第2の実施の形態に適用させてもよい。 Note that the fourth embodiment may be applied to the second embodiment.
[第5の実施の形態]
次に、本発明の第5の実施の形態について説明する。なお、第1又は第2の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。
[Fifth Embodiment]
Next, a fifth embodiment of the present invention will be described. In addition, about the part which becomes the same structure as 1st or 2nd embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.
第5の実施の形態に係る地図生成システムでは、地図生成装置が車両に搭載されず、複数の車両から送信された車両情報に基づいて地図データを生成する点が、第1又は第2の実施の形態と異なっている。 In the map generation system according to the fifth embodiment, the map generation device is not mounted on the vehicle, and the map data is generated based on vehicle information transmitted from a plurality of vehicles. The form is different.
<第5の実施の形態に係る地図生成システム500の構成>
図26に示すように、本発明の第5の実施の形態に係る地図生成システム500は、車両に備えられた車載装置502と、車載装置502から送信された車両情報を受信して、車両情報に応じて地図データを生成する地図生成装置510とを備えている。車載装置502と地図生成装置510とは、インターネットなどのネットワーク509を介して接続されている。
<Configuration of Map Generation System 500 According to Fifth Embodiment>
As shown in FIG. 26, a map generation system 500 according to the fifth embodiment of the present invention receives an in-vehicle device 502 provided in a vehicle and vehicle information transmitted from the in-vehicle device 502, and receives vehicle information. And a map generation device 510 for generating map data according to the above. The in-vehicle device 502 and the map generation device 510 are connected via a network 509 such as the Internet.
[車載装置502]
車載装置502は、車両の周辺環境を計測する外界観測センサ12と、車両の位置情報及び運動情報を計測する位置・運動計測センサ14と、外界観測センサ12によって取得された周辺環境情報と、位置・運動計測センサ14によって計測された車両の位置情報及び運動情報とを、車両情報として地図生成装置510へ送信するコンピュータ504とを備えている。車載装置502は車両に搭載される。
[In-vehicle device 502]
The in-vehicle device 502 includes an external observation sensor 12 that measures the surrounding environment of the vehicle, a position / motion measurement sensor 14 that measures position information and movement information of the vehicle, the surrounding environment information acquired by the external observation sensor 12, and a position. A computer 504 that transmits vehicle position information and motion information measured by the motion measurement sensor 14 to the map generation device 510 as vehicle information is provided. The in-vehicle device 502 is mounted on the vehicle.
コンピュータ504は、CPUと、RAMと、各処理ルーチンを実行するためのプログラムを記憶したROMとを備え、機能的には次に示すように構成されている。コンピュータ504は、外界観測センサ12によって取得された周辺環境情報と、位置・運動計測センサ14によって計測された車両の位置情報及び運動情報とを、車両情報として取得する情報取得部506と、情報取得部506によって取得された車両情報を、地図生成装置510へ送信する通信部508とを備えている。 The computer 504 includes a CPU, a RAM, and a ROM that stores a program for executing each processing routine, and is functionally configured as follows. The computer 504 includes an information acquisition unit 506 that acquires, as vehicle information, ambient environment information acquired by the external field observation sensor 12 and vehicle position information and motion information measured by the position / motion measurement sensor 14. A communication unit 508 that transmits the vehicle information acquired by the unit 506 to the map generation device 510.
情報取得部506は、外界観測センサ12によって取得された各時刻の周辺環境情報と、位置・運動計測センサ14によって計測された車両の各時刻の位置情報及び運動情報とを、車両情報として取得する。 The information acquisition unit 506 acquires, as vehicle information, the surrounding environment information at each time acquired by the external field observation sensor 12 and the position information and motion information of the vehicle at each time measured by the position / motion measurement sensor 14. .
通信部508は、情報取得部506によって取得された車両情報を、地図生成装置510へ送信する The communication unit 508 transmits the vehicle information acquired by the information acquisition unit 506 to the map generation device 510.
[地図生成装置510]
地図生成装置510は、CPU、後述する各処理ルーチンを実現するためのプログラム等を記憶したROM、データを一時的に記憶するRAM、記憶手段としてのメモリ、ネットワークインタフェース等を含むサーバで構成されており、機能的には、車載装置502から送信された車両情報を受信し、受信した車両情報を車両情報データベース514に登録する通信部512と、車両情報が格納されている車両情報データベース514と、車両情報データベース514に格納された車両情報に基づいて、車両の走行軌跡を生成する走行軌跡生成部160と、車両情報データベース514に格納された車両情報と、走行軌跡生成部160によって生成された車両の走行軌跡とに基づいて、車両の走行軌跡に沿った路面を表す路面画像を生成し、路面画像と走行軌跡との組み合わせを表す走行データを生成する走行データ生成部162と、走行データ生成部162によって生成された走行データの各々を、走行軌跡の位置に対応させて走行データベース166に格納する走行データ蓄積部164と、走行データ生成部162によって生成された走行データの各々が格納される走行データベース166と、各地点に対し、走行データベース166に格納された当該地点の走行データの各々を、路面画像が表す路面の位置に応じて分類する走行データ分類部168と、各地点に対し、分類毎に、当該分類に属する走行データの各々について、路面画像と基準となる仮想的な路面画像との間の相対位置関係を表す変形量を推定する相対関係推定部170と、各地点に対し、当該地点の走行データの各々について、路面画像と全体の基準となる仮想的な路面画像との間の相対位置関係を表す変形量を推定する全体関係推定部172と、走行データベース166に格納された走行データの路面画像の各々を、相対関係推定部170によって当該路面画像について推定された変形量、及び全体関係推定部172によって当該路面画像について推定された変形量に応じて変形させ、変形した複数の路面画像を統合して、地図データベース176に登録する走行データ統合部174と、走行データ統合部174によって登録された地図データが格納される地図データベース176とを備えている。なお、走行データ統合部174は、統合手段の一例であり、走行データ分類部168は、分類手段の一例である。
[Map generator 510]
The map generation device 510 is configured by a server including a CPU, a ROM that stores a program for realizing each processing routine described later, a RAM that temporarily stores data, a memory as a storage unit, a network interface, and the like. Functionally, it receives vehicle information transmitted from the in-vehicle device 502, registers the received vehicle information in the vehicle information database 514, a vehicle information database 514 in which the vehicle information is stored, Based on the vehicle information stored in the vehicle information database 514, a travel locus generation unit 160 that generates a travel locus of the vehicle, the vehicle information stored in the vehicle information database 514, and the vehicle generated by the travel locus generation unit 160 A road surface image representing the road surface along the vehicle's travel locus is generated based on the travel locus of A travel data generation unit 162 that generates travel data representing a combination of a plane image and a travel locus, and each of the travel data generated by the travel data generation unit 162 is stored in the travel database 166 in association with the position of the travel locus. A travel data storage unit 164 that stores the travel data generated by the travel data generation unit 162, and each travel data stored in the travel database 166 for each point. A travel data classifying unit 168 for classifying according to the position of the road surface represented by the road surface image, and for each point, for each of the travel data belonging to the classification, a virtual road surface image that serves as a reference for the road surface image A relative relationship estimation unit 170 that estimates the amount of deformation representing the relative positional relationship between the , An overall relationship estimation unit 172 that estimates a deformation amount representing a relative positional relationship between a road surface image and a virtual road surface image serving as an overall reference, and a road image of travel data stored in the travel database 166 Are transformed according to the deformation amount estimated for the road surface image by the relative relationship estimation unit 170 and the deformation amount estimated for the road surface image by the overall relationship estimation unit 172, and a plurality of deformed road surface images are integrated. The travel data integration unit 174 registered in the map database 176 and the map database 176 in which the map data registered by the travel data integration unit 174 are stored are provided. The travel data integration unit 174 is an example of an integration unit, and the travel data classification unit 168 is an example of a classification unit.
通信部512は、車両の車載装置502から送信された車両情報を受信する。また、通信部512は、受信した車両情報を車両情報データベース514へ格納する。 Communication unit 512 receives vehicle information transmitted from in-vehicle device 502 of the vehicle. In addition, the communication unit 512 stores the received vehicle information in the vehicle information database 514.
車両情報データベース514には、通信部512により受信した車両情報の各々が格納されている。車両情報は、車両の外界観測センサ12によって取得された各時刻の周辺環境情報と、車両の位置・運動計測センサ14によって計測された車両の各時刻の位置情報及び運動情報とを表す。 Each vehicle information received by the communication unit 512 is stored in the vehicle information database 514. The vehicle information represents the surrounding environment information at each time acquired by the external field observation sensor 12 of the vehicle, and the position information and motion information at each time of the vehicle measured by the vehicle position / motion measurement sensor 14.
走行軌跡生成部160は、車両情報データベース514に格納された車両情報の各々について、車両情報の各時刻の車両の位置、方位、及び速度情報に基づいて、車両の走行軌跡を生成する。 For each piece of vehicle information stored in the vehicle information database 514, the travel locus generation unit 160 generates a vehicle travel locus based on the vehicle position, direction, and speed information at each time in the vehicle information.
走行データ生成部162は、車両情報データベース514に格納された車両情報の各々について、車両情報の各時刻の車両の周辺画像と、走行軌跡生成部160によって生成された車両の走行軌跡とに基づいて、車両の走行軌跡に沿った路面を表す路面画像を生成し、走行軌跡と組み合わせて、路面画像に絶対座標を付与する。 For each piece of vehicle information stored in the vehicle information database 514, the travel data generation unit 162 is based on the surrounding image of the vehicle at each time of the vehicle information and the vehicle travel locus generated by the travel locus generation unit 160. Then, a road surface image representing a road surface along the traveling locus of the vehicle is generated, and absolute coordinates are given to the road surface image in combination with the traveling locus.
なお、第3の実施の形態に係る地図生成システム500の他の構成及び作用については、第1の実施の形態と同様であるため、説明を省略する。 In addition, about the other structure and effect | action of the map generation system 500 which concern on 3rd Embodiment, since it is the same as that of 1st Embodiment, description is abbreviate | omitted.
以上説明したように、本実施の形態に係る地図生成装置によれば、複数の車両から得られた車両情報に基づいて、車両の絶対位置について計測誤差が発生している場合であっても、精度よく地図データを生成することができる。 As described above, according to the map generation device according to the present embodiment, based on the vehicle information obtained from a plurality of vehicles, even when a measurement error occurs for the absolute position of the vehicle, Map data can be generated with high accuracy.
なお、第5の実施の形態を、第3又は第4の実施の形態に適用させてもよい。 Note that the fifth embodiment may be applied to the third or fourth embodiment.
なお、本発明は、各図を用いて説明した実施の形態例に限定されるものではなく、その要旨を逸脱しない範囲において種々変更して適用することが可能である。 Note that the present invention is not limited to the embodiment described with reference to the drawings, and various modifications can be applied without departing from the scope of the invention.
本発明のプログラムは、記憶媒体に格納して提供するようにしてもよい。 The program of the present invention may be provided by being stored in a storage medium.
10,210,310,410,510 地図生成装置
12,312 外界観測センサ
14 位置・運動計測センサ
16,216,316,416,504 コンピュータ
160 走行軌跡生成部
162,362,462 走行データ生成部
164 走行データ蓄積部
166,466 走行データベース
168,468 走行データ分類部
170,270,470 相対関係推定部
172,472 全体関係推定部
174,274,474 走行データ統合部
176,476 地図データベース
364 立体物判定部
366 グルーピング部
368 移動物判定部
370 2次元画像生成部
464 データ生成部
500 地図生成システム
502 車載装置
506 情報取得部
508,512 通信部
509 ネットワーク
514 車両情報データベース
10, 210, 310, 410, 510 Map generation device 12, 312 External field observation sensor 14 Position / motion measurement sensor 16, 216, 316, 416, 504 Computer 160 Travel locus generation unit 162, 362, 462 Travel data generation unit 164 Travel Data storage unit 166, 466 Travel database 168, 468 Travel data classification unit 170, 270, 470 Relative relationship estimation unit 172, 472 Overall relationship estimation unit 174, 274, 474 Travel data integration unit 176, 476 Map database 364 Solid object determination unit 366 Grouping unit 368 Moving object determination unit 370 Two-dimensional image generation unit 464 Data generation unit 500 Map generation system 502 In-vehicle device 506 Information acquisition unit 508, 512 Communication unit 509 Network 514 Vehicle information database
Claims (9)
前記複数の走路データの各々を、前記相対関係推定手段によって前記走路データについて推定された、前記基準となる走路データとの間の相対位置関係を表す変形量に応じて変形させ、変形した前記複数の走路データを統合して、地図データに登録する統合手段と、
を含む地図生成装置であって、
前記相対関係推定手段は、前記ペアの各々に対して算出された前記相対位置関係を表す変形量を平均して、前記基準となる走路データとの間の相対位置関係を表す変形量を推定する、
地図生成装置。 Based on a database in which a plurality of track data registered along a travel locus of a moving body and a plurality of track data generated based on surrounding environment information obtained from sensors mounted on the mobile body are accumulated. For each of the corresponding track data, a deformation amount representing a relative positional relationship between the pair is calculated for each pair of the track data and other track data, and is calculated for each of the pairs. It was based on the deformation amount representing the relative positional relationship, relative to estimate said road data, the amount of deformation that represents the relative positional relationship between the reference and the Do that run path data calculated in accordance with a plurality of track data Relationship estimation means;
Each of the plurality of road data, the relative relationship estimated by the estimating means for said track data, is deformed according to the deformation quantity representing the relative positional relationship between the reference and Do that run path data, deformed Integration means for integrating the plurality of track data and registering the map data;
A map generation device including :
The relative relationship estimation means averages the deformation amount representing the relative positional relationship calculated for each of the pairs, and estimates the deformation amount representing the relative positional relationship with the reference track data. ,
Map generator .
前記複数の走路データの各々を、前記相対関係推定手段によって前記走路データについて推定された、前記基準となる走路データとの間の相対位置関係を表す変形量に応じて変形させ、変形した前記複数の走路データを統合して、地図データに登録する統合手段と、を含む地図生成装置であって、
分類手段と全体関係推定手段とを更に含み、
前記分類手段は、対応する前記走路データの各々を、前記走路データが表す路面の位置に応じて分類し、
前記相対関係推定手段は、前記分類手段によって分類された前記走路データの分類毎に、前記分類に属する前記走路データの各々について、前記走路データと他の走路データとのペアの各々に対し、前記走路データの部分画像毎に、前記ペア間の前記部分画像の相対位置関係を表す変形量を算出し、前記ペアの各々に対して算出された前記部分画像の前記相対位置関係を表す変形量に基づいて、前記走路データの部分画像毎に、前記走路データと、前記基準となる走路データとの間の相対位置関係を表す変形量を推定し、前記走路データを、前記推定された変形量に応じて変形させ、
前記全体関係推定手段は、前記走路データの各々について、分類毎に、前記変形させた走路データと、前記分類に分類され、かつ、前記変形させた他の走路データとのペアの各々に対し、前記ペア間の相対位置関係を表す変形量を算出し、前記ペアの各々に対して算出された前記相対位置関係を表す変形量に基づいて、前記走路データと、複数の走路データに応じて算出された全体の基準となる走路データとの間の相対位置関係を表す変形量を推定し、
前記統合手段は、前記部分画像毎に、前記複数の走路データの各々の前記部分画像を、前記相対関係推定手段によって前記走路データの部分画像について推定された、前記基準となる走路データとの間の相対位置関係を表す変形量、及び前記全体関係推定手段によって前記走路データについて推定された、前記全体の基準となる走路データとの間の相対位置関係を表す変形量に応じて変形させ、変形した前記複数の走路データの前記部分画像を統合して、地図データに登録する、
地図生成装置。 Based on a database in which a plurality of track data registered along a travel locus of a moving body and a plurality of track data generated based on surrounding environment information obtained from sensors mounted on the mobile body are accumulated. For each of the corresponding track data, a deformation amount representing a relative positional relationship between the pair is calculated for each pair of the track data and other track data, and is calculated for each of the pairs. It was based on the deformation amount representing the relative positional relationship, relative to estimate said road data, the amount of deformation that represents the relative positional relationship between the reference and the Do that run path data calculated in accordance with a plurality of track data Relationship estimation means;
Each of the plurality of road data, the relative relationship estimated by the estimating means for said track data, is deformed according to the deformation quantity representing the relative positional relationship between the reference and Do that run path data, deformed An integrated means for integrating the plurality of runway data and registering the map data in map data ,
A classifying means and an overall relationship estimating means;
The classification means classifies each of the corresponding track data according to the position of the road surface represented by the track data,
The relative relationship estimation means, for each class of the track data classified by the classification means, for each of the track data belonging to the classification, for each pair of the track data and other track data, For each partial image of the runway data, a deformation amount representing the relative positional relationship of the partial images between the pairs is calculated, and the deformation amount representing the relative positional relationship of the partial images calculated for each of the pairs. On the basis of the partial image of the road data, the amount of deformation representing a relative positional relationship between the road data and the reference road data is estimated, and the road data is converted into the estimated amount of deformation. Deform according to
The overall relationship estimation means, for each of the track data, for each classification, for each pair of the modified track data and the other track data that is classified in the classification and the other track data. A deformation amount representing a relative positional relationship between the pair is calculated, and calculated based on the road data and a plurality of road data based on the deformation amount representing the relative positional relationship calculated for each of the pairs. Estimate the amount of deformation that represents the relative positional relationship with the entire reference runway data,
The integration unit is configured to determine, for each partial image, between the partial image of each of the plurality of track data and the reference track data estimated for the partial image of the track data by the relative relationship estimation unit. And a deformation amount representing a relative positional relationship between the overall road estimation data estimated by the overall relationship estimating means and the overall reference road data, and deformed. Integrating the partial images of the plurality of runway data and registering it in map data;
Map generator.
前記統合手段は、前記部分画像毎に、前記複数の走路データの各々の前記部分画像を、前記相対関係推定手段によって前記走路データの部分画像について推定された、前記基準となる走路データとの間の相対位置関係を表す変形量に応じて変形させ、変形した前記複数の走路データの前記部分画像を統合して、地図データに登録する
請求項1に記載の地図生成装置。 The relative relationship estimation means calculates, for each partial image of the track data, a deformation amount representing a relative positional relationship of the partial images between the pairs for each pair of the track data and other track data. , based on the deformation amount representing the relative positional relationship between the partial images calculated for each of said pairs, for each partial image of the runway data, and the road data, run path data and that Do with the reference Estimate the amount of deformation representing the relative positional relationship between
The integration means, for each of the partial images, the partial image of each of the plurality of road data, the estimated by the relative relationship estimating means for partial image of the runway data, run path data and that Do with the reference The map generation device according to claim 1, wherein the map generation device is deformed according to a deformation amount representing a relative positional relationship between the two, and the partial images of the plurality of deformed runway data are integrated and registered in map data.
請求項2に記載の地図生成装置。 The overall relationship estimating means, in response to said number of the track data belonging to the classified the classification by the classification unit, estimating a deformation amount that represents the relative positional relationship between the Do that run channel data and reference of the whole The map generation device according to claim 2 .
前記データベースは、前記走行軌跡生成手段によって生成された前記移動体の走行軌跡に沿って登録された前記複数の走路データを蓄積する
請求項1〜請求項4の何れか1項に記載の地図生成装置。 The vehicle further includes travel locus generating means for generating a travel locus of the mobile body based on the position information and motion information of the mobile body acquired by the vehicle state detection means for acquiring the position information and motion information of the mobile body,
The map generation according to any one of claims 1 to 4 , wherein the database accumulates the plurality of travel route data registered along the travel trajectory of the moving body generated by the travel trajectory generation means. apparatus.
移動体の走行軌跡に沿って登録された複数の走路データであって、かつ移動体に搭載されたセンサから得られた周辺環境情報に基づき生成された複数の走路データを蓄積したデータベースに基づいて、対応する前記走路データの各々について、前記走路データと他の走路データとのペアの各々に対し、前記ペア間の相対位置関係を表す変形量を算出し、前記ペアの各々に対して算出された前記相対位置関係を表す変形量に基づいて、前記走路データと、複数の走路データに応じて算出された基準となる走路データとの間の相対位置関係を表す変形量を推定する相対関係推定手段、及び
前記複数の走路データの各々を、前記相対関係推定手段によって前記走路データについて推定された、前記基準となる走路データとの間の相対位置関係を表す変形量に応じて変形させ、変形した前記複数の走路データを統合して、地図データに登録する統合手段
として機能させるためのプログラムであって、
前記相対関係推定手段は、前記ペアの各々に対して算出された前記相対位置関係を表す変形量を平均して、前記基準となる走路データとの間の相対位置関係を表す変形量を推定する、
プログラム。 A computer that stores a plurality of track data registered along the track of a moving object and that stores a plurality of track data generated based on surrounding environment information obtained from sensors mounted on the moving object. Based on each of the corresponding track data, for each pair of the track data and other track data, a deformation amount representing a relative positional relationship between the pair is calculated, and for each of the pairs based on the deformation amount representing the calculated the relative positional relationship, estimation and the road data, the amount of deformation that represents the relative positional relationship between the Do that run path data and calculated reference in accordance with the plurality of track data relative relationship estimating means, and each of the plurality of road data was estimated for the road data by the relative relationship estimation means, the phase between the reference and Do that run path data Depending on the deformation amount representing the positional relationship is deformed, by integrating the plurality of track data modification, a program for functioning as an integrated unit to be registered in the map data,
The relative relationship estimation means averages the deformation amount representing the relative positional relationship calculated for each of the pairs, and estimates the deformation amount representing the relative positional relationship with the reference track data. ,
Program .
前記複数の走路データの各々を、前記相対関係推定手段によって前記走路データについて推定された、前記基準となる走路データとの間の相対位置関係を表す変形量に応じて変形させ、変形した前記複数の走路データを統合して、地図データに登録する統合手段、
分類手段、及び
全体関係推定手段
として機能させるためのプログラムであって、
前記分類手段は、対応する前記走路データの各々を、前記走路データが表す路面の位置に応じて分類し、
前記相対関係推定手段は、前記分類手段によって分類された前記走路データの分類毎に、前記分類に属する前記走路データの各々について、前記走路データと他の走路データとのペアの各々に対し、前記走路データの部分画像毎に、前記ペア間の前記部分画像の相対位置関係を表す変形量を算出し、前記ペアの各々に対して算出された前記部分画像の前記相対位置関係を表す変形量に基づいて、前記走路データの部分画像毎に、前記走路データと、前記基準となる走路データとの間の相対位置関係を表す変形量を推定し、前記走路データを、前記推定された変形量に応じて変形させ、
前記全体関係推定手段は、前記走路データの各々について、分類毎に、前記変形させた走路データと、前記分類に分類され、かつ、前記変形させた他の走路データとのペアの各々に対し、前記ペア間の相対位置関係を表す変形量を算出し、前記ペアの各々に対して算出された前記相対位置関係を表す変形量に基づいて、前記走路データと、複数の走路データに応じて算出された全体の基準となる走路データとの間の相対位置関係を表す変形量を推定し、
前記統合手段は、前記部分画像毎に、前記複数の走路データの各々の前記部分画像を、前記相対関係推定手段によって前記走路データの部分画像について推定された、前記基準となる走路データとの間の相対位置関係を表す変形量、及び前記全体関係推定手段によって前記走路データについて推定された、前記全体の基準となる走路データとの間の相対位置関係を表す変形量に応じて変形させ、変形した前記複数の走路データの前記部分画像を統合して、地図データに登録する、
プログラム。 Based on a database in which a plurality of track data registered along a travel locus of a moving body and a plurality of track data generated based on surrounding environment information obtained from sensors mounted on the mobile body are accumulated. For each of the corresponding track data, a deformation amount representing a relative positional relationship between the pair is calculated for each pair of the track data and other track data, and is calculated for each of the pairs. It was based on the deformation amount representing the relative positional relationship, relative to estimate said road data, the amount of deformation that represents the relative positional relationship between the reference and the Do that run path data calculated in accordance with a plurality of track data relationship estimation hand stage,
Each of the plurality of road data, the relative relationship estimated by the estimating means for said track data, is deformed according to the deformation quantity representing the relative positional relationship between the reference and Do that run path data, deformed Integration means for integrating the plurality of track data and registering the map data ;
Classification means, and
A program for functioning as an overall relationship estimation means ,
The classification means classifies each of the corresponding track data according to the position of the road surface represented by the track data,
The relative relationship estimation means, for each class of the track data classified by the classification means, for each of the track data belonging to the classification, for each pair of the track data and other track data, For each partial image of the runway data, a deformation amount representing the relative positional relationship of the partial images between the pairs is calculated, and the deformation amount representing the relative positional relationship of the partial images calculated for each of the pairs. On the basis of the partial image of the road data, the amount of deformation representing a relative positional relationship between the road data and the reference road data is estimated, and the road data is converted into the estimated amount of deformation. Deform according to
The overall relationship estimation means, for each of the track data, for each classification, for each pair of the modified track data and the other track data that is classified in the classification and the other track data. A deformation amount representing a relative positional relationship between the pair is calculated, and calculated based on the road data and a plurality of road data based on the deformation amount representing the relative positional relationship calculated for each of the pairs. Estimate the amount of deformation that represents the relative positional relationship with the entire reference runway data,
The integration unit is configured to determine, for each partial image, between the partial image of each of the plurality of track data and the reference track data estimated for the partial image of the track data by the relative relationship estimation unit. And a deformation amount representing a relative positional relationship between the overall road estimation data estimated by the overall relationship estimating means and the overall reference road data, and deformed. Integrating the partial images of the plurality of runway data and registering it in map data;
Program .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015126903A JP6589410B2 (en) | 2015-06-24 | 2015-06-24 | Map generating apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015126903A JP6589410B2 (en) | 2015-06-24 | 2015-06-24 | Map generating apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017010393A JP2017010393A (en) | 2017-01-12 |
JP6589410B2 true JP6589410B2 (en) | 2019-10-16 |
Family
ID=57764410
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015126903A Active JP6589410B2 (en) | 2015-06-24 | 2015-06-24 | Map generating apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6589410B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106844762A (en) * | 2017-02-21 | 2017-06-13 | 山东浪潮云服务信息科技有限公司 | A kind of tourism data integration method towards smart travel information system |
JP6934221B2 (en) * | 2017-02-28 | 2021-09-15 | 国立研究開発法人理化学研究所 | Point cloud data division method and point cloud data division device |
JP6910820B2 (en) * | 2017-03-02 | 2021-07-28 | 株式会社トプコン | Point cloud data processing device, point cloud data processing method, point cloud data processing program |
JP6969962B2 (en) | 2017-10-05 | 2021-11-24 | トヨタ自動車株式会社 | Map information providing system for vehicle driving support and / or driving control |
JP7137359B2 (en) * | 2018-05-30 | 2022-09-14 | フォルシアクラリオン・エレクトロニクス株式会社 | Information processing equipment |
CN111553844B (en) | 2020-04-29 | 2023-08-29 | 阿波罗智能技术(北京)有限公司 | Method and device for updating point cloud |
CN114677570B (en) * | 2022-03-14 | 2023-02-07 | 北京百度网讯科技有限公司 | Road information updating method, device, electronic equipment and storage medium |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5388082B2 (en) * | 2006-09-07 | 2014-01-15 | 株式会社豊田中央研究所 | Stationary object map generator |
JP5363752B2 (en) * | 2008-03-18 | 2013-12-11 | 株式会社ゼンリン | Road marking map generation method |
CN102138163B (en) * | 2008-08-29 | 2014-04-30 | 三菱电机株式会社 | Bird's-eye image forming device, bird's-eye image forming method |
-
2015
- 2015-06-24 JP JP2015126903A patent/JP6589410B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017010393A (en) | 2017-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6589410B2 (en) | Map generating apparatus and program | |
JP6760114B2 (en) | Information processing equipment, data management equipment, data management systems, methods, and programs | |
JP5589900B2 (en) | Local map generation device, global map generation device, and program | |
JP6658088B2 (en) | Information processing apparatus, program, and map data updating system | |
US9891057B2 (en) | Information processing device, computer readable storage medium, and map data updating system | |
JP6656886B2 (en) | Information processing apparatus, control method, program, and storage medium | |
CN109154506B (en) | Method and system for determining a global position of a first landmark | |
KR101572851B1 (en) | Method for building map of mobile platform in dynamic environment | |
CN110617821B (en) | Positioning method, positioning device and storage medium | |
JP5388082B2 (en) | Stationary object map generator | |
JP5404861B2 (en) | Stationary object map generator | |
JP6589570B2 (en) | Center processing apparatus, map generation system, and program | |
JP5286653B2 (en) | Stationary object map generator | |
EP3842735B1 (en) | Position coordinates estimation device, position coordinates estimation method, and program | |
CN104677361B (en) | A kind of method of comprehensive location | |
JP2001331787A (en) | Road shape estimating device | |
JP5762131B2 (en) | CALIBRATION DEVICE, CALIBRATION DEVICE CALIBRATION METHOD, AND CALIBRATION PROGRAM | |
JP6543983B2 (en) | Road information generation device and program | |
KR102456151B1 (en) | Sensor fusion system based on radar and camera and method of calculating the location of nearby vehicles | |
US20090226094A1 (en) | Image correcting device and method, and computer program | |
JP2018185239A (en) | Position attitude estimation device and program | |
WO2016157802A1 (en) | Information processing apparatus, information processing system, information processing method, and storage medium | |
WO2020113425A1 (en) | Systems and methods for constructing high-definition map | |
CN116358547B (en) | Method for acquiring AGV position based on optical flow estimation | |
CN113227713A (en) | Method and system for generating environment model for positioning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180423 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190522 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190604 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190802 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190820 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190902 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6589410 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |