JP7467722B2 - Feature Management System - Google Patents

Feature Management System Download PDF

Info

Publication number
JP7467722B2
JP7467722B2 JP2023051608A JP2023051608A JP7467722B2 JP 7467722 B2 JP7467722 B2 JP 7467722B2 JP 2023051608 A JP2023051608 A JP 2023051608A JP 2023051608 A JP2023051608 A JP 2023051608A JP 7467722 B2 JP7467722 B2 JP 7467722B2
Authority
JP
Japan
Prior art keywords
point cloud
feature
cloud data
dimensional
server device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023051608A
Other languages
Japanese (ja)
Other versions
JP2023083310A (en
Inventor
成典 田中
健二 中村
龍一 今井
義典 塚田
喜政 梅▲原▼
順俊 平野
庄治 大月
恭介 田中
義和 川村
博 楠本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intelligent Style Co Ltd
Original Assignee
Intelligent Style Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intelligent Style Co Ltd filed Critical Intelligent Style Co Ltd
Priority to JP2023051608A priority Critical patent/JP7467722B2/en
Publication of JP2023083310A publication Critical patent/JP2023083310A/en
Priority to JP2024010759A priority patent/JP2024039070A/en
Application granted granted Critical
Publication of JP7467722B2 publication Critical patent/JP7467722B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

この発明は、地物を計測した点群データを用いた地物管理システムに関するものである。 This invention relates to a feature management system that uses point cloud data obtained by measuring features.

無人航空機(UAV)や自動車などにレーザ測量装置を搭載し、地表面の形状や地物を計測することが行われている。たとえば、自動車を用いたMMS(モービル・マッピング・システム)では、自動車の天井にGPS受信機、動画撮像カメラ、IMU、レーザスキャナを搭載し、自動車によって道路などを走行しながら計測を行う。動画撮像カメラは、アナログ、ディジタルどちらでもよい。 Laser surveying devices are mounted on unmanned aerial vehicles (UAVs) and automobiles to measure the shape of the earth's surface and features. For example, in an MMS (Mobile Mapping System) using an automobile, a GPS receiver, video camera, IMU, and laser scanner are mounted on the roof of the automobile, and measurements are taken while the automobile is traveling along roads. The video camera can be either analog or digital.

このような計測によって、地表面や地物外形を示す三次元点群データを得ることができる。GPSによって得た位置およびレーザスキャナの走査方向と距離によって、それぞれの三次元点群データには、絶対座標(平面直角座標、緯度・経度・標高など)による位置が付されている。また、動画撮像カメラによって地表面や地物が撮像されて動画データ(静止画データ)が生成される。この動画データには、刻々と変化する撮像位置が紐付けられて記録される。 Three-dimensional point cloud data showing the earth's surface and the outlines of features can be obtained through such measurements. Each piece of three-dimensional point cloud data is given a position in absolute coordinates (plane rectangular coordinates, latitude, longitude, altitude, etc.) based on the position obtained by GPS and the scanning direction and distance of the laser scanner. In addition, the earth's surface and features are captured by a video camera to generate video data (still image data). This video data is linked to and recorded with the capturing position, which changes from moment to moment.

三次元点群データを得ることで、地表面や地物の現状を知ることができ、保守、地図作成などに役立てることができる。 Obtaining 3D point cloud data allows us to understand the current state of the earth's surface and features, which can be useful for maintenance, map creation, etc.

発明者らは、三次元点群データ中の地物に対して、その領域を絶対座標で示すデータや名称などを含む属性データを付与することを提唱している。 The inventors propose assigning attribute data to features in 3D point cloud data, including data indicating their area in absolute coordinates and names.

しかしながら、上記属性データによって、標準化が進みデータ蓄積の豊富化が進んでいるが、その一方で、当該属性データを保守等に利用する際に、効率良く地物を管理することのできるシステムが望まれている。たとえば、各地物の外観を撮像した写真を適切に管理することが望まれている。 However, while the above attribute data has led to progress in standardization and the accumulation of abundant data, there is a demand for a system that can efficiently manage features when using the attribute data for maintenance, etc. For example, there is a demand for a system that can appropriately manage photographs of the exterior of each feature.

この発明は、上記のような問題点を解決して、地物を効率よく管理することのできるシステムを提供することを目的とする。 The purpose of this invention is to provide a system that can solve the above problems and efficiently manage features.

この発明の独立して適用可能な特徴を以下に列挙する。 The independently applicable features of this invention are listed below:

(1)(2)(3)この発明に係る地物管理システムは、サーバ装置と前記サーバ装置と通信可能な端末装置とを備えた地物管理システムであって、前記サーバ装置は、位置の定義された地物を含む三次元点群データを記録する記録部と、前記端末装置から送信されてきた地物を含む撮像画像と撮像位置を受信する受信手段と、前記受信した撮像位置を中心として、前記三次元点群データを、異なる角度から平面投影して、複数の角度からの二次元投影画像を生成し、前記受信した地物を含む撮像画像と前記生成された各二次元投影画像との比較に基づいて、地物の撮像画像と地物の三次元点群データとを対応付ける撮像画像・点群データ対応手段とを備え、前記端末装置は、カメラによって撮像された地物を含む撮像画像を撮像位置とともに地物管理サーバ装置に送信する画像送信手段とを備えたことを特徴としている。 (1)(2)(3)The feature management system according to the present invention is a feature management system including a server device and a terminal device capable of communicating with the server device, the server device including a recording unit that records three-dimensional point cloud data including features whose positions are defined, a receiving means that receives captured images including the features and the captured positions transmitted from the terminal device, and an image/point cloud data matching means that projects the three-dimensional point cloud data onto a plane from different angles with the received captured positions as the center to generate two-dimensional projected images from a plurality of angles, and matches the captured images of the features with the three-dimensional point cloud data of the features based on a comparison between the captured images including the received features and each of the generated two-dimensional projected images, and the terminal device includes an image transmitting means that transmits the captured images including the features captured by a camera together with the captured positions to the feature management server device.

したがって、地物の三次元点群データに対応付けて、当該地物を撮像した写真を記録しておくことができる。 Therefore, photographs of the feature can be recorded in association with the 3D point cloud data of the feature.

(4)この発明に係る地物管理システムは、撮像画像・点群データ対応手段が、前記撮像画像中の地物の外形形状を示す撮像画像外形形状生成手段と、前記各二次元投影画像中の地物の外形形状を示す二次元投影画像外形形状生成手段と、前記撮像画像中の地物の外形形状と前記各二次元投影画像中の地物の外形形状を比較して、外形形状が合致する二次元投影画像を選択し、地物の撮像画像と地物の三次元点群データとを対応付ける手段とを備えることを特徴としている。 (4) The feature management system according to the present invention is characterized in that the captured image/point cloud data correspondence means comprises: captured image outer shape generation means for indicating the outer shape of the feature in the captured image; two-dimensional projected image outer shape generation means for indicating the outer shape of the feature in each of the two-dimensional projected images; and means for comparing the outer shape of the feature in the captured image with the outer shape of the feature in each of the two-dimensional projected images, selecting a two-dimensional projected image whose outer shape matches, and corresponding the captured image of the feature with the three-dimensional point cloud data of the feature.

したがって、角度によって変化が明確な外形形状を用いることで、マッチング処理を容易に行うことができる。 Therefore, by using an external shape that clearly changes depending on the angle, the matching process can be easily performed.

(5)この発明に係る地物管理システムは、サーバ装置の記録部は、地物の外形を囲った外形領域、地物名を記録しており、前記撮像画像・点群データ対応手段は、前記撮像画像中から地物部分を抽出して地物名を推定する地物推定手段を有し、前記受信した撮像位置を中心として、推定した地物名と同じ地物名を有する地物の三次元点群データを、異なる角度から平面投影して、複数の角度からの二次元投影画像を生成し、前記受信した地物部分の撮像画像と前記生成された各二次元投影画像との比較に基づいて、地物の撮像画像と地物の三次元点群データとを対応付けることを特徴としている。 (5) The feature management system according to the present invention is characterized in that the recording unit of the server device records the outline area surrounding the outline of the feature and the feature name, the captured image/point cloud data correspondence means has a feature estimation means for extracting a feature portion from the captured image and estimating the feature name, projects three-dimensional point cloud data of a feature having the same feature name as the estimated feature name onto a plane from different angles with the received imaging position as the center to generate two-dimensional projected images from a plurality of angles, and associates the captured image of the feature with the three-dimensional point cloud data of the feature based on a comparison between the captured image of the received feature portion and each of the generated two-dimensional projection images.

したがって、所定の地物のみを対象としてマッチングを行うことができ、その精度を高めることができる。 Therefore, matching can be performed only on specified features, improving accuracy.

(6)この発明に係る地物管理システムは、サーバ装置の記録部は、地物の外形を囲った外形領域、地物名を記録しており、前記端末装置の画像送信手段は、操作者の入力を受けて、撮像画像中の地物のバウンダリボックスおよび地物名を付与してサーバ装置に送信し、前記撮像画像・点群データ対応手段は、前記受信した撮像位置を中心として、送信されてきた地物名と同じ地物名を有する地物の三次元点群データを、異なる角度から平面投影して、複数の角度からの二次元投影画像を生成し、前記受信した地物部分の撮像画像と前記生成された各二次元投影画像との比較に基づいて、地物の撮像画像と地物の三次元点群データとを対応付けることを特徴としている。 (6) The feature management system according to the present invention is characterized in that the recording unit of the server device records the outline area surrounding the outline of the feature and the feature name, the image transmission means of the terminal device receives input from an operator and assigns the boundary box and feature name of the feature in the captured image and transmits it to the server device, and the captured image/point cloud data correspondence means projects three-dimensional point cloud data of a feature having the same feature name as the transmitted feature name onto a plane from different angles, centered on the received imaging position, to generate two-dimensional projected images from a plurality of angles, and corresponds the captured image of the feature to the three-dimensional point cloud data of the feature based on a comparison between the captured image of the received feature portion and each of the generated two-dimensional projection images.

したがって、所定の地物のみを対象としてマッチングを行うことができ、その精度を高めることができる。 Therefore, matching can be performed only on specified features, improving accuracy.

(7)この発明に係る地物管理システムは、撮影画像・点群データ対応手段が、前記撮像位置の近傍に仮想撮像位置を複数個生成し、各仮想撮像位置を基準として三次元点群データを平面投影した二次元投影画像を生成することを特徴としている。 (7) The feature management system according to the present invention is characterized in that the captured image/point cloud data correspondence means generates a plurality of virtual capture positions in the vicinity of the capture position, and generates a two-dimensional projected image by projecting the three-dimensional point cloud data onto a plane based on each virtual capture position.

したがって、より正確に撮像位置を特定することができる。 This allows the imaging position to be identified more accurately.

(8)この発明に係る地物管理システムは、撮影画像・点群データ対応手段が、地物に対する撮像位置および撮像方向も特定することを特徴としている。 (8) The feature management system according to the present invention is characterized in that the captured image/point cloud data correspondence means also identifies the imaging position and imaging direction for the feature.

したがって、撮像位置だけでなく撮像方向も特定し、この情報を利用することができる。 Therefore, it is possible to identify not only the imaging position but also the imaging direction and utilize this information.

(9)この発明に係る地物管理システムは、端末装置から送信される地物の撮影画像には、撮像方向も付されており、前記撮影画像・点群データ対応手段は、前記撮影方向に基づいて、前記二次元投影画像を生成する角度を絞り込むことを特徴としている。 (9) The feature management system according to the present invention is characterized in that the captured images of the features transmitted from the terminal device are also accompanied by the capturing direction, and the captured image/point cloud data correspondence means narrows down the angles for generating the two-dimensional projection image based on the capturing direction.

したがって、マッチング処理を迅速化することができる。 This allows for faster matching processes.

(10)この発明に係る地物管理システムは、三次元点群データ、前記属性データの外形領域は、絶対座標にて示されることを特徴としている。 (10) The feature management system of the present invention is characterized in that the three-dimensional point cloud data and the outer area of the attribute data are represented in absolute coordinates.

したがって、属性データと三次元点群データとを独立して記録することができ、三次元点群データから生成した属性データを他の三次元点群データのために用いることができる。 Therefore, attribute data and three-dimensional point cloud data can be recorded independently, and attribute data generated from three-dimensional point cloud data can be used for other three-dimensional point cloud data.

(11)この発明に係る地物管理システムは、地物抽出手段が、過去の地物の撮像位置と撮像方向に基づいて、地物の外形領域データまたは地物の三次元点群データを平面に投影し、過去二次元投影画像を生成して、これを第2の端末装置に送信し、当該第2の端末装置は、カメラによる撮像の際に、カメラのファインダー画像に前記位置二次元投影画像を重ねて表示することを特徴としている。 (11) The feature management system according to the present invention is characterized in that the feature extraction means projects the feature's outer shape area data or the feature's three-dimensional point cloud data onto a plane based on the past image capturing position and image capturing direction of the feature, generates a past two-dimensional projection image, and transmits this to a second terminal device, and the second terminal device displays the position two-dimensional projection image superimposed on the camera's viewfinder image when capturing an image with the camera.

したがって、過去の撮像時と同じ位置同じ角度から地物を撮像することが容易となる。 This makes it easy to capture images of features from the same positions and angles as when they were captured previously.

(12)この発明に係る地物管理システムは、サーバ装置が、前記三次元点群データを記録する点群データサーバ装置と、前記外形領域を含む属性データを記録する属性データサーバ装置とを備えることを特徴としている。 (12) The feature management system according to the present invention is characterized in that the server device includes a point cloud data server device that records the three-dimensional point cloud data, and an attribute data server device that records attribute data including the outer region.

したがって、独立して属性データを記録する属性データサーバ装置を設け、これを利用することができる。 Therefore, it is possible to provide and utilize an attribute data server device that independently records attribute data.

(13)この発明に係る地物管理システムは、地物を含む撮像画像を撮像した際の撮像位置を中心として、前記三次元点群データを、異なる角度から平面投影して、複数の角度からの二次元投影画像を生成し、前記撮像画像と前記生成された各二次元投影画像との比較に基づいて、地物の撮像画像と地物の三次元点群データとを対応付けることを特徴としている。 (13) The feature management system of the present invention is characterized in that it projects the three-dimensional point cloud data onto a plane from different angles, centered on the imaging position when the image including the feature was captured, to generate two-dimensional projected images from a plurality of angles, and associates the captured image of the feature with the three-dimensional point cloud data of the feature based on a comparison between the captured image and each of the generated two-dimensional projected images.

したがって、地物の三次元点群データに対応付けて、当該地物を撮像した写真を記録しておくことができる。 Therefore, photographs of the feature can be recorded in association with the 3D point cloud data of the feature.

(14)(15)(16)この発明に係る地物管理システムは、サーバ装置が、位置の定義された第1領域および第2領域の区別がなされた三次元点群データを記録する記録部と、前記端末装置から送信されてきた第1領域および第2領域を含む撮像画像と撮像位置を受信する受信手段と、前記撮像画像に基づいて、第1領域および第2領域を他の部分から区別して抽出する領域推定手段と、前記受信した撮像位置を中心として、第1領域および第2領域の区別された前記三次元点群データを、異なる角度から平面投影して、複数の角度からの二次元投影画像を生成し、前記第1領域および第2領域の区別された撮像画像と前記生成された各二次元投影画像との比較に基づいて、撮影画像と三次元点群データとを対応付ける撮像画像・点群データ対応手段とを備え、前記端末装置は、カメラによって撮像された第1領域および第2領域を含む撮像画像を撮像位置とともに地物管理サーバ装置に送信する画像送信手段とを備えたことを特徴としている。 (14)(15)(16)The feature management system according to the present invention is characterized in that the server device includes a recording unit for recording three-dimensional point cloud data in which a first region and a second region having defined positions are distinguished, a receiving means for receiving an image including the first region and the second region and the image capturing position transmitted from the terminal device, an area estimation means for extracting the first region and the second region from other parts based on the image, and an image/point cloud data matching means for projecting the three-dimensional point cloud data in which the first region and the second region are distinguished from each other on a plane from different angles with the received image capturing position as a center to generate two-dimensional projected images from a plurality of angles, and for matching the captured image with the three-dimensional point cloud data based on a comparison between the captured image in which the first region and the second region are distinguished and each of the generated two-dimensional projected images, and the terminal device includes an image transmitting means for transmitting the captured image including the first region and the second region captured by a camera together with the image capturing position to the feature management server device.

したがって、地物全体ではなくその一部である部分的な領域しか撮像されていなくとも、撮像位置や方向を特定することができる。 Therefore, even if only a partial area of a feature is imaged rather than the entire feature, the imaging position and direction can be identified.

(17)(18)(19)この発明に係る地物管理システムは、サーバ装置が、地物を含む三次元点群データおよび過去の撮像位置、撮像方向を記録する記録部と、前記過去の撮像位置、撮像方向に基づいて、地物の三次元点群データまたはその三次元モデルを平面に投影して過去二次元投影画像を生成し、端末装置に送信する過去二次元投影画像生成手段とを備え、端末装置が、地物を撮像するためのカメラのファインダー画像に、サーバ装置から受信した過去二次元投影画像を透過画像として重ねて表示部に表示する表示手段とを備えたことを特徴としている。 (17)(18)(19)The feature management system according to the present invention is characterized in that the server device includes a recording unit that records three-dimensional point cloud data including the feature and past imaging positions and imaging directions, and a past two-dimensional projection image generating means that projects the three-dimensional point cloud data of the feature or a three-dimensional model thereof onto a plane based on the past imaging positions and imaging directions to generate a past two-dimensional projection image and transmits it to the terminal device, and the terminal device includes a display means that displays the past two-dimensional projection image received from the server device on the display unit by superimposing it as a transparent image on the viewfinder image of a camera for imaging the feature.

したがって、過去の画像を参照しながら撮像位置を合わせて、過去の撮像時と同じ位置・方向にて撮像を行うことができる。 Therefore, the imaging position can be adjusted while referring to previous images, and imaging can be performed in the same position and direction as when the previous images were captured.

(20)この発明に係る地物管理方法は、地物を含む三次元点群データおよび過去の撮像位置、撮像方向を記録しておき、前記過去の撮像位置、撮像方向に基づいて、地物の三次元点群データまたはその三次元モデルを平面に投影して過去二次元投影画像を生成し、カメラのファインダー画像に、過去二次元投影画像を重ねて表示することを特徴としている。 (20) The feature management method according to the present invention is characterized in that it records three-dimensional point cloud data including features and past imaging positions and imaging directions, projects the three-dimensional point cloud data of the features or a three-dimensional model thereof onto a plane based on the past imaging positions and imaging directions to generate a past two-dimensional projection image, and displays the past two-dimensional projection image superimposed on the camera viewfinder image.

したがって、過去の画像を参照しながら撮像位置を合わせて、過去の撮像時と同じ位置・方向にて撮像を行うことができる。 Therefore, the imaging position can be adjusted while referring to previous images, and imaging can be performed in the same position and direction as when the previous images were captured.

(21)(22)この発明に係る地物管理システムは、サーバ装置と当該サーバ装置と通信可能な携帯端末装置とを備えた地物管理システムであって、前記サーバ装置が、地物を含む三次元点群データおよび過去の撮像位置、撮像方向を記録する記録部と、撮像位置、撮像方向を端末装置に送信する送信手段とを備え、前記端末装置は、受信した撮像位置、撮像方向を、表示部において地図上に表示する表示手段を備えたことを特徴としている。 (21)(22) The feature management system according to the present invention is a feature management system including a server device and a mobile terminal device capable of communicating with the server device, the server device including a recording unit that records three-dimensional point cloud data including features and past imaging positions and imaging directions, and a transmission means that transmits the imaging positions and imaging directions to the terminal device, and the terminal device includes a display means that displays the received imaging positions and imaging directions on a map on a display unit.

したがって、過去の撮像位置、撮像方向を容易に知ることができる。 This makes it easy to know the previous imaging position and imaging direction.

(23)(24)(25)この発明に係る地物管理システムは、サーバ装置と当該サーバ装置と通信可能な端末装置とを備えた地物管理システムであって、前記サーバ装置は、道路表示地物を含む反射強度付きの三次元点群データおよび前記道路表示地物の外形を囲った外形領域データを記録しており、前記端末装置は、前記サーバ装置から前記道路表示地物の外形領域データを取得する外形領域データ取得手段と、当該道路表示地物の外形領域データに対応する三次元点群データを、前記サーバ装置から取得する三次元点群データ取得手段と、取得した道路表示地物の外形領域と三次元点群データとを重ねて表示部に表示する表示手段とを備えたことを特徴としている。 (23)(24)(25)The feature management system according to the present invention is a feature management system including a server device and a terminal device capable of communicating with the server device, the server device records three-dimensional point cloud data with reflection intensity including road display features and outline area data surrounding the outline of the road display features, the terminal device includes an outline area data acquisition means for acquiring the outline area data of the road display features from the server device, a three-dimensional point cloud data acquisition means for acquiring three-dimensional point cloud data corresponding to the outline area data of the road display features from the server device, and a display means for displaying the acquired outline area of the road display features and the three-dimensional point cloud data superimposed on a display unit.

したがって、道路表示地物の劣化の程度を容易に判定することができる。 This makes it easy to determine the degree of deterioration of road marking features.

(26)この発明に係る地物管理方法は、道路表示地物を含む反射強度付きの三次元点群データおよび前記道路表示地物の外形を囲った外形領域データを記録しておき、前記道路表示地物の外形領域データを取得し、当該道路表示地物の外形領域データに対応する三次元点群データを取得し、取得した道路表示地物の外形領域と三次元点群データとを重ねて表示部に表示することを特徴としている。 (26) The feature management method according to the present invention is characterized in that it records three-dimensional point cloud data with reflection intensity including a road display feature and outline area data surrounding the outline of the road display feature, acquires the outline area data of the road display feature, acquires three-dimensional point cloud data corresponding to the outline area data of the road display feature, and displays the acquired outline area of the road display feature and the three-dimensional point cloud data superimposed on the display unit.

したがって、道路表示地物の劣化の程度を容易に判定することができる。 This makes it easy to determine the degree of deterioration of road marking features.

「受信手段」は、実施形態においては、ステップS602に対応して属性データサーバ装置60が行う処理がこれに対応する。 In this embodiment, the "receiving means" corresponds to the processing performed by the attribute data server device 60 in response to step S602.

「撮像画像・点群データ対応手段」は、実施形態においては、ステップS701~S707がこれに対応する。 In this embodiment, steps S701 to S707 correspond to the "captured image/point cloud data correspondence means."

「画像送信手段」は、実施形態においては、ステップS602がこれに対応する。 In this embodiment, step S602 corresponds to the "image transmission means."

「外形領域データ取得手段」は、実施形態においては、ステップS651がこれに対応する。 In this embodiment, step S651 corresponds to the "external area data acquisition means."

「三次元点群データ取得手段」は、実施形態においては、ステップS652がこれに対応する。 In this embodiment, step S652 corresponds to the "three-dimensional point cloud data acquisition means."

「表示手段」は、実施形態においては、ステップS653がこれに対応する。 In this embodiment, step S653 corresponds to the "display means."

「プログラム」とは、CPUにより直接実行可能なプログラムだけでなく、ソース形式のプログラム、圧縮処理がされたプログラム、暗号化されたプログラム等を含む概念である。 The term "program" refers not only to programs that can be executed directly by a CPU, but also to source-format programs, compressed programs, encrypted programs, etc.

この発明の一実施形態による地物管理システムの機能ブロック図である。FIG. 1 is a functional block diagram of a feature management system according to an embodiment of the present invention. 地物管理システムのシステム構成である。This shows the system configuration of a feature management system. 携帯端末装置21のハードウエア構成である。2 shows the hardware configuration of the mobile terminal device 21. 属性サーバ装置60のハードウエア構成である。2 shows the hardware configuration of the attribute server device 60. 端末プログラムのフローチャートである。13 is a flowchart of a terminal program. 三次元点群データの例である。1 is an example of three-dimensional point cloud data. 地盤点を検出するための処理を示す図である。FIG. 1 illustrates a process for detecting ground points. 地物の設計データの例である。This is an example of design data for a feature. 地物の平面図に三次元点群データを重ねた状態を示す図である。FIG. 1 is a diagram showing three-dimensional point cloud data superimposed on a plan view of a feature. 地物の三次元点群データ例である。This is an example of 3D point cloud data of geographical features. 属性データの項目例である。13 is an example of attribute data items. 地物の三次元点群データに基づいて地物名を推定する処理を説明するための図である。11 is a diagram for explaining a process of estimating a feature name based on three-dimensional point cloud data of the feature. FIG. 地物管理処理のフローチャートである。13 is a flowchart of a feature management process. 地物管理処理のフローチャートである。13 is a flowchart of a feature management process. 地物管理処理のフローチャートである。13 is a flowchart of a feature management process. ユーザによって撮像された地物の撮像画像である。1 is a captured image of a feature captured by a user. 三次元点群データに基づいて生成した地物の三次元モデルを示す図である。FIG. 1 is a diagram showing a three-dimensional model of a feature generated based on three-dimensional point cloud data. 角度を変えて投影して生成した二次元投影画像の例である。This is an example of a two-dimensional projection image generated by projecting at different angles. 撮像画像から地物の輪郭を抽出した輪郭画像である。This is a contour image obtained by extracting the contours of features from a captured image. 二次元投影画像の地物の輪郭線に基づいて切り出した地物の撮像画像である。This is a captured image of a feature cut out based on the contour line of the feature in a two-dimensional projected image. 撮像位置Pと仮想位置P1、P2・・・P23、P24を示す図である。1 is a diagram showing an imaging position P and virtual positions P1, P2 . . . P23, and P24. ユーザによって地物がマークされた撮像画像を示す図である。FIG. 13 is a diagram showing a captured image in which features are marked by a user. カメラのファインダー画面に前回画像を重ねて表示した例である。This is an example of the previous image being displayed overlaid on the camera's viewfinder screen. 第2の実施形態による地物管理システムの機能ブロック図である。FIG. 11 is a functional block diagram of a feature management system according to a second embodiment. 地物管理処理のフローチャートである。13 is a flowchart of a feature management process. センターラインの輝度つき三次元点群データと外形領域とを重ねて表示した状態を示す図である。FIG. 13 is a diagram showing a state in which luminance-added three-dimensional point cloud data of the center line and an outline region are displayed in an overlapping manner. この発明の第3の実施形態による点群データ管理システムの機能ブロック図である。FIG. 13 is a functional block diagram of a point cloud data management system according to a third embodiment of the present invention. 点群データ管理システムのシステム構成である。This shows the system configuration of a point cloud data management system. 端末装置のハードウエア構成である。This shows the hardware configuration of the terminal device. 地物の三次元点群データの取得と三次元モデル生成のフローチャートである。1 is a flowchart for acquiring 3D point cloud data of features and generating a 3D model. 地物の三次元点群データの取得と三次元モデル生成のフローチャートである。1 is a flowchart for acquiring 3D point cloud data of features and generating a 3D model. 地物の外形形状の表示例である。13 is a display example of the outer shape of a feature. 図33Aは第1の方向からの地物の第1三次元点群データであり、図33Bは第2の方向からの地物の第2三次元点群データである。FIG. 33A is first 3D point cloud data of a feature from a first direction, and FIG. 33B is second 3D point cloud data of a feature from a second direction. 合成された三次元点群データである。This is a composite 3D point cloud data. 図35Aは生成された三次元モデルである。図35Bは、計測方向の表示例である。Fig. 35A shows the generated three-dimensional model, and Fig. 35B shows an example of the measurement direction. 図36Aは第1三次元点群データ、図36Bは第2三次元点群データ、図36Cは合成三次元点群データである。FIG. 36A shows the first three-dimensional point cloud data, FIG. 36B shows the second three-dimensional point cloud data, and FIG. 36C shows the composite three-dimensional point cloud data. 第4の実施形態による点群データ管理システムの機能ブロック図である。FIG. 13 is a functional block diagram of a point cloud data management system according to a fourth embodiment. 経時変化取得のためのフローチャートである。13 is a flowchart for acquiring a change over time. 経時変化取得のためのフローチャートである。13 is a flowchart for acquiring a change over time. 地物の経時変化の表示例である。This is an example of how features change over time. 日時の異なる三次元点群データの選択を求める画面例である。13 is an example of a screen prompting the user to select three-dimensional point cloud data with different dates and times. 第5の実施形態による地物検索システムの機能ブロック図である。FIG. 13 is a functional block diagram of a feature search system according to a fifth embodiment. 地物検索システムのシステム構成である。This is the system configuration of the feature search system. 地物検索のフローチャートである。1 is a flowchart of a feature search. 動画データの構成を示す図である。FIG. 2 is a diagram showing a configuration of video data. 撮像エリアを示す図である。FIG. 動画抽出のフローチャートである。13 is a flowchart of video extraction. 各時刻における撮像軌跡200と地物106との関係を示す図である。FIG. 2 is a diagram showing the relationship between an imaging trajectory 200 and a feature 106 at each time. 検索対象地物にマークが付された画像を示す図である。FIG. 13 is a diagram showing an image in which search target features are marked.

1.第1の実施形態
1.1全体構成
図1に、この発明の一実施形態による地物管理システムの全体構成を示す。サーバ装置210の記録部214には、地物を含む絶対座標による三次元点群データ222が記録されている。
1. First embodiment
1 shows the overall configuration of a feature management system according to an embodiment of the present invention. A recording unit 214 of a server device 210 records three-dimensional point cloud data 222 based on absolute coordinates including features.

携帯端末装置240は、カメラ244を備えている。カメラ244によって撮像された地物の撮像画像は、画像送信手段242によってサーバ装置210に送信される。この際、カメラ244に撮像位置付加機能があれば当該撮像位置(絶対座標による位置)が併せてサーバ装置210に送信される。カメラ244にかかる機能がなければ、GPS等による撮像位置が付されてサーバ装置210に送信される。 The mobile terminal device 240 is equipped with a camera 244. Images of features captured by the camera 244 are transmitted to the server device 210 by the image transmission means 242. At this time, if the camera 244 has an image capture position addition function, the image capture position (position based on absolute coordinates) is also transmitted to the server device 210. If the camera 244 does not have such a function, the image capture position based on GPS or the like is added and transmitted to the server device 210.

サーバ装置210の受信手段216は、撮像画像および撮像位置を受信する。二次元投影画像生成手段218は、撮像位置に基づいて、当該撮像位置から周囲の三次元点群データを見た時の二次元投影画像を複数の角度について生成する。比較手段220は、生成された複数の二次元投影画像のうち、受信した撮像画像と最も良く合致する二次元投影画像を選択する。 The receiving means 216 of the server device 210 receives the captured image and the imaging position. The two-dimensional projection image generating means 218 generates two-dimensional projection images for multiple angles when the surrounding three-dimensional point cloud data is viewed from the imaging position based on the imaging position. The comparing means 220 selects, from the multiple generated two-dimensional projection images, the two-dimensional projection image that best matches the received captured image.

これにより、当該撮像された地物の画像を選択された二次元投影画像の地物と対応付けて記録する。このようにして、三次元点群データに対し、外観状況などを示す撮像画像を関連づけて記録することができる。
As a result, the captured image of the feature is recorded in association with the feature in the selected two-dimensional projected image. In this way, the captured image showing the external appearance or the like can be recorded in association with the three-dimensional point cloud data.

1.2システム構成
図2に、一実施形態による点群データ管理システムのシステム構成を示す。この実施形態では、点群サーバ装置40a、40b・・・40nおよび属性データサーバ装置60によって、サーバ装置が構成されている。
2 shows the system configuration of a point cloud data management system according to an embodiment. In this embodiment, the point cloud server devices 40a, 40b, . . . 40n and the attribute data server device 60 constitute a server device.

インターネット上には点群サーバ装置40a、40b・・・40nが設けられている。また、属性データサーバ装置60も設けられている。これらサーバ装置40a、40b・・・40n、60に、インターネットを介して通信可能に端末装置20a・・・20n、携帯端末装置20a・・・20nが設けられている。 Point cloud server devices 40a, 40b, ... 40n are provided on the Internet. An attribute data server device 60 is also provided. Terminal devices 20a ... 20n and mobile terminal devices 20a ... 20n are provided on these server devices 40a, 40b ... 40n, 60 so as to be able to communicate via the Internet.

携帯端末装置21のハードウエア構成を、図3に示す。CPU(GPU等でもよい。以下同じ)80には、メモリ82、タッチ・ディスプレイ84、不揮発性メモリ86、通信回路92、カメラ88、GPS受信機98が接続されている。通信回路92は、インターネットに接続するためのものである。携帯端末装置21としては、スマートフォン、タブレット、ウエアラブルコンピュータなどを用いることができる。 The hardware configuration of the mobile terminal device 21 is shown in FIG. 3. A memory 82, a touch display 84, a non-volatile memory 86, a communication circuit 92, a camera 88, and a GPS receiver 98 are connected to a CPU (or a GPU, etc.; the same applies below) 80. The communication circuit 92 is for connecting to the Internet. The mobile terminal device 21 may be a smartphone, a tablet, a wearable computer, or the like.

不揮発性メモリ86には、オペレーティングシステム94、携帯端末プログラム96が記録されている。携帯端末プログラム96は、オペレーティングシステム94と協働してその機能を発揮するものである。 The non-volatile memory 86 stores an operating system 94 and a mobile terminal program 96. The mobile terminal program 96 works in conjunction with the operating system 94 to perform its functions.

属性データサーバ装置60のハードウエア構成を、図4に示す。CPU81には、メモリ83、ディスプレイ85、ハードディスク87、DVD-ROMドライブ89、キーボード/マウス91、通信回路93が接続されている。通信回路93は、インターネットに接続するためのものである。 The hardware configuration of the attribute data server device 60 is shown in Figure 4. The CPU 81 is connected to a memory 83, a display 85, a hard disk 87, a DVD-ROM drive 89, a keyboard/mouse 91, and a communication circuit 93. The communication circuit 93 is for connecting to the Internet.

ハードディスク87には、オペレーティングシステム95、属性サーバプログラム97が記録されている。属性サーバプログラム97は、オペレーティングシステム95と協働してその機能を発揮するものである。これらプログラムは、DVD-ROM99に記録されていたものを、DVD-ROMドライブ89を介して、ハードディスク87にインストールしたものである。 The hard disk 87 stores an operating system 95 and an attribute server program 97. The attribute server program 97 performs its functions in cooperation with the operating system 95. These programs were recorded on a DVD-ROM 99 and installed onto the hard disk 87 via the DVD-ROM drive 89.

端末装置20a・・・20n、点群サーバ装置40a、40b・・・40nのハードウエア構成も同様である。ただし、端末装置20aにおいては、属性サーバプログラム97に代えて端末プログラムが記録されている。また、点群サーバ装置40a、40b・・・40nにおいては、属性サーバプログラム97に代えて点群サーバプログラムが記録されている。
The terminal devices 20a to 20n and the point cloud server devices 40a, 40b to 40n have the same hardware configuration. However, in the terminal device 20a, a terminal program is recorded instead of the attribute server program 97. Also, in the point cloud server devices 40a, 40b to 40n, a point cloud server program is recorded instead of the attribute server program 97.

1.3点群データの公開処理
測量事業者は、自動車などに搭載したMMSなどにより道路および地物の三次元点群データおよび動画を生成する。生成された三次元点群データは、たとえば、DVD-ROMなどの記録媒体に記録され、端末装置20のハードディスク87に取り込まれる。
1.3 Disclosure of point cloud data The surveying company generates 3D point cloud data and videos of roads and features using an MMS or the like installed in a vehicle, etc. The generated 3D point cloud data is recorded on a recording medium such as a DVD-ROM, and is imported into the hard disk 87 of the terminal device 20.

ここで、地物とは、たとえば、道路設計基準情報(距離標、道路中心線、測点など)、道路面地物(車道部、歩道部、軌道敷など)、道路面と領域を共有する地物(停止線、区画線、横断歩道、路面標示など)、道路面以外の地物(標識柱、照明柱、信号機、歩道橋など)、道路面を指示する地物(擁壁、橋梁、法面、トンネル、シェッド等)である。なお、道路地物には限らない。 Here, features include, for example, road design standard information (mileposts, road centerlines, measurement points, etc.), road surface features (roadway sections, sidewalks, trackbeds, etc.), features that share an area with the road surface (stop lines, dividing lines, pedestrian crossings, road markings, etc.), features other than the road surface (signposts, lighting poles, traffic lights, footbridges, etc.), and features that indicate the road surface (retaining walls, bridges, slopes, tunnels, sheds, etc.). Note that this is not limited to road features.

測量事業者は、端末プログラムを起動し記録された三次元点群データに基づいて属性データを生成する。図5に、端末プログラム96における属性データ生成処理のフローチャートを示す。 The surveying company starts the terminal program and generates attribute data based on the recorded 3D point cloud data. Figure 5 shows a flowchart of the attribute data generation process in the terminal program 96.

端末装置20aのCPU81は、まず、記録されている三次元点群データを読み出す(ステップS1)。三次元点群データの例を図6に示す。この実施形態では、測定対象の色、レーザの反射強度も含めて計測を行った三次元点群データとしている。また、三次元点群データには、測定方法・測定機器の情報が記録されている。 First, the CPU 81 of the terminal device 20a reads out the recorded three-dimensional point cloud data (step S1). An example of the three-dimensional point cloud data is shown in FIG. 6. In this embodiment, the three-dimensional point cloud data is generated by measuring the color of the object to be measured and the reflection intensity of the laser. The three-dimensional point cloud data also records information on the measurement method and the measurement equipment.

CPU80は、この三次元点群データにおいて、所定距離内にある点同士をクラスタとしてまとめる。これにより、さまざまな大きさのクラスタが形成されることになる。そして、CPU81は、所定体積、所定点群数以下、所定点群密度以下などのクラスタをノイズとして除去する(ステップS2)。 The CPU 80 groups together points within a predetermined distance in the three-dimensional point cloud data into clusters. This results in the formation of clusters of various sizes. The CPU 81 then removes clusters that are below a predetermined volume, a predetermined number of point clouds, or a predetermined point cloud density as noise (step S2).

続いて、CPU81は、Cloth Simulation(クロスシミュレーション)手法などを用いて、地盤点(地表面)の抽出を行う(ステップS2)。地盤点抽出において、まず、CPU80は、三次元点群データの標高値を反転する。たとえば、図7Aに示すような断面の三次元点群データ(図においては点群を線として表している)があれば、図7Bに示すような反転三次元点群データが得られる。 Next, the CPU 81 extracts ground points (ground surface) using a Cloth Simulation method or the like (step S2). In extracting ground points, the CPU 80 first inverts the elevation values of the three-dimensional point cloud data. For example, if there is three-dimensional point cloud data of a cross section as shown in FIG. 7A (the point cloud is shown as a line in the figure), inverted three-dimensional point cloud data as shown in FIG. 7B can be obtained.

次に、CPU81は、反転三次元点群データに対して上方向から布をかけたようにシミュレーションを行う。図7Cに、シミュレーションされた布を破線にて示す。続いてCPU81は、当該シミュレーションされた布が接する三次元点群データを地盤点として抽出する。次に、CPU81は標高値を再反転して、図7Dに示すような地盤点を得る。 Next, the CPU 81 performs a simulation on the inverted three-dimensional point cloud data as if a cloth were draped over it from above. In FIG. 7C, the simulated cloth is shown by a dashed line. The CPU 81 then extracts the three-dimensional point cloud data that the simulated cloth contacts as ground points. Next, the CPU 81 re-inverts the elevation values to obtain ground points as shown in FIG. 7D.

このようにして抽出された地盤点は、概ね正確であるが、図7Dに示すように、地物の存在する近傍100において一部地物を含んでしまうことがある。そこで、抽出された各地盤点によって形成される線の法線方向を算出し、当該法線が上下方向に対して所定角度以上(たとえば30度以上)の部分を地盤点から除く。これにより、図7Eに示すような地盤点を得ることができる。 The ground points extracted in this way are generally accurate, but as shown in Figure 7D, they may contain some features in the vicinity 100 where the features are present. Therefore, the normal direction of the line formed by each extracted ground point is calculated, and the part where the normal line forms a certain angle or more (e.g., 30 degrees or more) with respect to the vertical direction is excluded from the ground points. This makes it possible to obtain ground points such as those shown in Figure 7E.

なお、この実施形態では、地盤点抽出にCloth Simulation(クロスシミュレーション)を用いたが、最下点抽出方法など他の方法によって地盤点を抽出してもよい。 In this embodiment, Cloth Simulation is used to extract ground points, but ground points may be extracted using other methods, such as the lowest point extraction method.

以上のようにして地盤点を抽出すると、CPU81は、三次元点群データから地盤点を取り除く。これにより、地盤の上に存在する地物のみの三次元点群データが得られる(ステップS4)。 After extracting the ground points in the above manner, the CPU 81 removes the ground points from the three-dimensional point cloud data. This results in three-dimensional point cloud data of only the features that exist on the ground (step S4).

次に、CPU81は、ハードディスク87に記録されている地物の平面的配置を示す設計データを読み出す。この設計データは、上記三次元点群データを計測した地物の設計時の図面である。図8に、設計図の例を示す。CPU80は、この設計データに基づいて、各地物の平面形状を抽出する(ステップS5)。この実施形態では、地物の平面外形形状を内包する矩形として平面形状を抽出するようにしている。なお、各地物の平面外形形状をそのまま平面形状として抽出するようにしてもよい。 Next, the CPU 81 reads out design data that indicates the planar arrangement of the features recorded on the hard disk 87. This design data is a drawing of the features at the time of design, obtained by measuring the above-mentioned three-dimensional point cloud data. An example of a design drawing is shown in FIG. 8. The CPU 80 extracts the planar shape of each feature based on this design data (step S5). In this embodiment, the planar shape is extracted as a rectangle that contains the planar outer shape of the feature. Note that the planar outer shape of each feature may also be extracted as the planar shape as it is.

続いて、CPU81は、この平面形状に地物のみの三次元点群データを重ねる。平面形状の基となった設計データの絶対座標と、三次元点群データの絶対座標を合致させて重ね合わせを行う。なお、この際、平面形状の高さ方向の位置を、三次元点群データの地盤点(地表面)の高さ(標高)に合わせるようにする。合致させた状態を示すのが図9である。図9においては、図7、図8の地物のうち歩道橋の部分のみを示している。枠線300で示すのが歩道橋(地物)の平面外形形状を囲う矩形の平面形状であり、この平面形状300と歩道橋(地物)の三次元点群データの位置が合致していることがわかる。なお、平面外形形状は、本来平面で表されるものであるが、図9においては、分かりやすくするため高さを持たせて示している。 Next, the CPU 81 overlays the three-dimensional point cloud data of only the feature on this planar shape. The absolute coordinates of the design data on which the planar shape is based are matched with the absolute coordinates of the three-dimensional point cloud data to perform the overlay. At this time, the height position of the planar shape is matched with the height (altitude) of the ground point (ground surface) of the three-dimensional point cloud data. The matched state is shown in FIG. 9. In FIG. 9, only the footbridge portion of the features in FIG. 7 and FIG. 8 is shown. The frame line 300 shows the rectangular planar shape that surrounds the planar outer shape of the footbridge (feature), and it can be seen that the position of this planar shape 300 and the three-dimensional point cloud data of the footbridge (feature) match. Note that the planar outer shape is originally represented as a plane, but in FIG. 9, it is shown with a height for ease of understanding.

CPU81は、各地物について、地物の平面形状に対応する三次元点群データのうち最も標高の高いものを選択する。その高さを平面形状に与えて、地物の領域を決定する。これにより、図10に示すように、地物を囲う立体形状(直方体)を特定することができる。CPU81は、このようにして生成した立体形状を外形領域データとして記録する。この実施形態では、平面形状と水平方位高の絶対座標による位置と高さとによって外形領域データを記録するようにしている。 For each feature, the CPU 81 selects the one with the highest elevation from the three-dimensional point cloud data corresponding to the planar shape of the feature. This height is applied to the planar shape to determine the area of the feature. This makes it possible to identify a three-dimensional shape (rectangular prism) that surrounds the feature, as shown in FIG. 10. The CPU 81 records the three-dimensional shape generated in this way as outline area data. In this embodiment, the outline area data is recorded based on the planar shape and the position and height based on the absolute coordinates of the horizontal azimuth and height.

次に、CPU81は、三次元点群データに各地物の領域を重ねて、ディスプレイ84に表示する。操作者は、この画面をみて各地物の領域をマウス91によって選択する。これにより、地物名などの属性データの入力画面が表示されるので、操作者がこの入力を行う。また、外形領域データの立体形状の頂点の座標に基づいて、中心位置(その他、地物を代表する位置を用いてもよい)の座標を算出し地物の座標位置とする。このようにして、属性データを生成し記録することができる。図11に、この実施形態における属性データの項目を示す。作成日時は、三次元点群データの作成日時(計測日時)である。地物名は、地物の名称である。地物領域は、上記地物の外形を示す外形データである。地物位置は、上記にて算出した中心位置である。この実施形態では、三次元点群データは、XML形式にて記録するようにしている。 Next, the CPU 81 displays the area of each feature on the display 84 by overlaying it on the three-dimensional point cloud data. The operator looks at this screen and selects the area of each feature with the mouse 91. This displays an input screen for attribute data such as the feature name, and the operator inputs the data. In addition, based on the coordinates of the vertices of the three-dimensional shape of the outer shape area data, the coordinates of the center position (or a position representative of the feature may be used) are calculated and set as the coordinate position of the feature. In this way, attribute data can be generated and recorded. Figure 11 shows the items of attribute data in this embodiment. The creation date and time is the creation date and time (measurement date and time) of the three-dimensional point cloud data. The feature name is the name of the feature. The feature area is the outer shape data that indicates the outer shape of the feature. The feature position is the center position calculated above. In this embodiment, the three-dimensional point cloud data is recorded in XML format.

なお、上記では、地物名を操作者が入力するようにしているが、三次元点群データに基づいて地物名を推定するようにしてもよい。たとえば、図12に示すように、地物の三次元点群データ6を異なる角度の平面に投影して、当該投影した画像と地物名を学習データとして深層学習プログラム(その他の機械学習プログラムを用いてもよい)を学習させる。さまざまな地物について学習を行い、学習済みの地物推定プログラムを得る。この地物推定プログラムに、地物の推定を行う対象の三次元点群データを与え、自動的に地物名を推定して付与するようにしてもよい。あるいは、推定した地物名を表示し、操作者に確認をさせるようにしてもよい。 In the above, the operator inputs the feature name, but the feature name may be estimated based on the three-dimensional point cloud data. For example, as shown in FIG. 12, the three-dimensional point cloud data 6 of the feature is projected onto a plane at a different angle, and the projected image and the feature name are used as learning data to train a deep learning program (or other machine learning programs may be used). Learning is performed on various features to obtain a trained feature estimation program. The feature estimation program may be provided with three-dimensional point cloud data for which the feature is to be estimated, and the feature name may be automatically estimated and assigned. Alternatively, the estimated feature name may be displayed to the operator for confirmation.

また、三次元点群データ6と外形領域がずれている可能性もあるので、ディスプレイ85に表示し、両者の位置が合致するように操作者がマウスなどで位置合わせをするようにしてもよい。 In addition, since there is a possibility that the three-dimensional point cloud data 6 and the outer region are misaligned, they may be displayed on the display 85, and the operator may align them using a mouse or the like so that their positions match.

以上のようにして属性データを得ることができる。 This is how you can obtain attribute data.

なお、上記では、平面データに高さを与えることによって地物の外形領域を決定するようにしている。しかし、設計データなどの平面データが無い場合には、三次元点群データ自体から外形領域を決定するようにしてもよい。 In the above example, the outline area of the feature is determined by assigning height to the planar data. However, if there is no planar data such as design data, the outline area may be determined from the 3D point cloud data itself.

たとえば、次のようにして外形領域を決定する。三次元空間を小さな立方体グリッドで分割し、上下左右斜めに隣接するグリッドに点が存在する場合、これらを一つにまとめていく。たとえば、コネクテッド・コンポーネントを用いた空間ラベリングの手法を用いることができる。 For example, the outline region is determined as follows: The three-dimensional space is divided into small cubic grids, and if there are points in adjacent grids above, below, left, right, or diagonally, these are merged together. For example, a spatial labeling technique using connected components can be used.

点の存在するグリッドとしてまとめられた各領域について、所定体積、所定点群数以下、所定点群密度以下などの領域はノイズであるとして除去する。残った各領域が地物に対応する領域となる。各領域について、その外形を囲う直方体を設定する。この直方体が地物の外形領域である。 For each area organized as a grid containing points, areas with a certain volume, a certain number of points, or a certain density of points are removed as noise. The remaining areas correspond to features. For each area, a rectangular prism is set that surrounds the area. This rectangular prism is the outline of the feature.

以上のようにして、端末装置20において三次元点群データに対応する属性データを生成することができる。測量事業者は、納品先にこの三次元点群データと属性データを納品する。 In this way, attribute data corresponding to the three-dimensional point cloud data can be generated on the terminal device 20. The surveying business delivers this three-dimensional point cloud data and attribute data to the delivery destination.

また、測量事業者の判断により、属性データのみを属性データサーバ装置60にアップロードすることができる。これにより、三次元点群データを必要とする企業が、属性データサーバ装置60にアクセスして属性データを参照することができる。属性データに、対応する三次元点群データの提供企業の情報を記録しておけば、三次元点群データを必要とする企業が、これに基づいて測量事業者に三次元点群データの入手依頼を行うことができる。 Furthermore, at the discretion of the surveying company, only the attribute data can be uploaded to the attribute data server device 60. This allows companies that require three-dimensional point cloud data to access the attribute data server device 60 and refer to the attribute data. If information about the company providing the corresponding three-dimensional point cloud data is recorded in the attribute data, companies that require three-dimensional point cloud data can use this information to request the surveying company to obtain the three-dimensional point cloud data.

また、三次元点群データを点群サーバ装置40にアップロードするようにしてもよい。三次元点群データの依頼者が地方公共団体などである場合、所定の点群サーバ装置40にアップロードするように求めることもある。これにより、三次元点群データと属性データが、インターネット上で公開されることになる。 The three-dimensional point cloud data may also be uploaded to the point cloud server device 40. If the requester of the three-dimensional point cloud data is a local government or the like, they may request that it be uploaded to a specific point cloud server device 40. This makes the three-dimensional point cloud data and attribute data publicly available on the Internet.

さらに、三次元点群データや属性データの外形領域データは、絶対座標にて示されている。したがって、異なる事業者が、それぞれ異なる点群サーバ装置にアップロードした同一地物についての三次元点群データが複数個ある場合、少なくとも一つの属性データがアップロードされていれば、これら複数の三次元点群データを取得することができる。たとえば、同一地物について、事業者によって異なる方向からの三次元点群データがある場合、両者を取得することで、より完全な三次元点群データを得ることができる。
Furthermore, the three-dimensional point cloud data and the outer area data of the attribute data are shown in absolute coordinates. Therefore, when there are multiple three-dimensional point cloud data for the same feature uploaded to different point cloud server devices by different businesses, these multiple three-dimensional point cloud data can be acquired as long as at least one attribute data is uploaded. For example, when there are three-dimensional point cloud data for the same feature from different directions by different businesses, more complete three-dimensional point cloud data can be obtained by acquiring both.

1.4地物管理処理
図13に、地物管理処理のフローチャートを示す。たとえば損傷の生じている地物の近くに行って、ユーザ(当該地物の管理担当者など)が携帯端末装置21のカメラ88にて、地物を撮像する(ステップS601)。携帯端末装置21のCPU80(以下、携帯端末装置21と省略することがある)は、ユーザの操作に応じて、このようにして生成された撮像画像を、属性データサーバ装置60に送信する(ステップS602)。この際、携帯端末装置21は、撮像時にGPS受信機98にて取得した位置(撮像位置)を、併せて送信する。図16に、撮像画像の例を示す。
1.4 Feature Management Processing Figure 13 shows a flowchart of the feature management processing. For example, a user (such as a person in charge of managing a feature) goes near a damaged feature and takes an image of the feature with the camera 88 of the mobile terminal device 21 (step S601). The CPU 80 of the mobile terminal device 21 (hereinafter, sometimes abbreviated as the mobile terminal device 21) transmits the captured image thus generated to the attribute data server device 60 in response to the user's operation (step S602). At this time, the mobile terminal device 21 also transmits the position (imaging position) acquired by the GPS receiver 98 at the time of imaging. An example of a captured image is shown in Figure 16.

これを受けた属性データサーバ装置60のCPU81(以下属性データサーバ装置60と省略することがある)は、当該撮像位置の近傍の地物の属性データを取得する(ステップS701)。属性データには、地物の種別(地物名)や地物の位置が記録されているので、撮像位置から所定距離内にある地物を抽出する。 The CPU 81 of the attribute data server device 60 (hereinafter sometimes abbreviated as the attribute data server device 60) receives this and acquires attribute data of features in the vicinity of the imaging position (step S701). Since the attribute data records the type of feature (feature name) and the location of the feature, features within a specified distance from the imaging position are extracted.

次に、属性データサーバ装置60は、抽出した地物の外形領域に基づいて、各点群サーバ装置40a、40b・・・40nに対して、当該外形領域に含まれる三次元点群データ(すなわち地物の三次元点群データ)を記録していれば送信するように依頼する(ステップS702)。 Next, based on the extracted contour area of the feature, the attribute data server device 60 requests each point cloud server device 40a, 40b, ... 40n to transmit the three-dimensional point cloud data (i.e., three-dimensional point cloud data of the feature) contained in the contour area if it has been recorded (step S702).

点群サーバ装置40a、40b・・・40nのうち、対応する三次元点群データを記録保持している点群サーバ装置40は、これに応じて当該地物の三次元点群データを属性データサーバ装置60に返信する(ステップS801)。 Among the point cloud server devices 40a, 40b, ... 40n, the point cloud server device 40 that has recorded and stored the corresponding three-dimensional point cloud data responds by returning the three-dimensional point cloud data of the feature to the attribute data server device 60 (step S801).

属性データサーバ装置60は、受信した地物の三次元点群データに基づいて外形を表す三次元モデル(絶対座標にて特定される三次元モデル)を生成する(ステップS703)。なお、この三次元モデルは、予め生成して記録しておいてもよい。各地物について生成された三次元モデルの例を、図17に示す。 The attribute data server device 60 generates a three-dimensional model (a three-dimensional model specified by absolute coordinates) that represents the outer shape based on the received three-dimensional point cloud data of the feature (step S703). Note that this three-dimensional model may be generated and recorded in advance. An example of a three-dimensional model generated for each feature is shown in FIG. 17.

次に、各地物について生成された三次元モデルについて、図17に示す撮像位置PHを中心として、角度を変えながら二次元投影画像を生成する(ステップS704)。生成された二次元投影画像の例を図18A、B、Cに示す。図18は、3つの角度からの二次元投影画像のみを示しているが、他の角度からの二次元投影画像も同様に生成される。 Next, for the 3D model generated for each feature, a 2D projection image is generated while changing the angle, centered on the imaging position PH shown in FIG. 17 (step S704). Examples of the generated 2D projection images are shown in FIGS. 18A, 18B, and 18C. Although FIG. 18 shows only 2D projection images from three angles, 2D projection images from other angles are generated in the same manner.

続いて、属性データサーバ装置60は、撮像画像に写し出された地物の輪郭画像を生成する。撮像画像から、そこに写し出された所定のオブジェクト(ここでは地物)の輪郭を抽出する処理は、たとえばMask R-CNN(https://github.com/matterport/Mask_RCNN)によって行うことができる。図19に輪郭画像を示す。 The attribute data server device 60 then generates a contour image of the feature captured in the captured image. The process of extracting the contour of a specific object (here, the feature) captured in the captured image can be performed, for example, by Mask R-CNN (https://github.com/matterport/Mask_RCNN). Figure 19 shows the contour image.

属性データサーバ装置60は、図19の輪郭化された撮像画像と、図18に示す各二次元投影画像とを比較し、最も良くマッチングするものを選択する(ステップS705)。このマッチングには、たとえばSIFT、SURF、KAZE、A-KAZEを用いることができる。たとえば、図18Bの二次元投影画像が選択されたものとする。このマッチングにより、図18Bを生成した際の角度に基づいて、撮像方向も得ることができる。 The attribute data server device 60 compares the contoured captured image of FIG. 19 with each of the two-dimensional projected images shown in FIG. 18, and selects the one that matches best (step S705). For this matching, for example, SIFT, SURF, KAZE, or A-KAZE can be used. For example, it is assumed that the two-dimensional projected image of FIG. 18B is selected. Through this matching, the imaging direction can also be obtained based on the angle at which FIG. 18B was generated.

次に、属性データサーバ装置60は、選択された二次元投影画像の中にある地物の外形を抽出する。さらに、この外形に基づいて撮像画像を切り取り、地物のみの撮像画像を得る(ステップS706)。切り取って得られた地物画像を図20に示す。 Next, the attribute data server device 60 extracts the outline of the feature in the selected two-dimensional projection image. Furthermore, the captured image is cropped based on this outline to obtain an image of only the feature (step S706). The resulting cropped image of the feature is shown in Figure 20.

属性データサーバ装置60は、地物画像および撮像位置、撮像方向を当該地物の属性データに対応付けて記録する(ステップS707)。 The attribute data server device 60 records the feature image, the imaging position, and the imaging direction in association with the attribute data of the feature (step S707).

したがって、各端末装置20a・・・20nや各携帯端末装置21a・・・21nから、属性データサーバ装置60にアクセスして、各地物の撮像画像を閲覧・取得することができる。これによって、各地物の管理を容易に行うことができる。また、現場において撮像を行う者も、自ら地物の三次元点群データに対する紐付けを行う必要なく、対応づけを自動的に行うことができる。
Therefore, the attribute data server device 60 can be accessed from each of the terminal devices 20a to 20n and each of the mobile terminal devices 21a to 21n to view and obtain captured images of each feature. This makes it easy to manage each feature. Also, the person taking the images at the site does not need to link the images to the three-dimensional point cloud data of the features himself, and the correspondence can be performed automatically.

1.5その他
(1)上記実施形態では、二次元投影画像を生成する際に、携帯端末装置21から受信した撮像位置をそのまま用いている。しかし、その位置精度に問題がある場合には、図21に示すように、受信した撮像位置Pの周りに仮想位置P1、P2・・・P23、P24を設定し、それぞれを中心として二次元投影画像を生成するようにしてもよい。
1.5 Other
(1) In the above embodiment, when generating a two-dimensional projection image, the imaging position received from the mobile terminal device 21 is used as is. However, if there is a problem with the positional accuracy, as shown in Fig. 21, virtual positions P1, P2...P23, P24 may be set around the received imaging position P, and two-dimensional projection images may be generated with each of them as the center.

これらによって生成された二次元投影画像について撮像画像とのマッチングを行い、最も良く合致する二次元投影画像を選択する。選択された二次元投影画像に対応する仮想位置を、修正された撮像位置として記録する。 The two-dimensional projection images generated in this way are matched with the captured images, and the two-dimensional projection image that best matches is selected. The virtual position corresponding to the selected two-dimensional projection image is recorded as the corrected captured position.

また、平面的な位置(緯度経度)だけでなく、高さ(標高)についても受信した高さに対して上下に変化させて仮想位置を設定するようにしてもよい。 In addition to the planar position (latitude and longitude), the height (altitude) may also be changed up or down relative to the received height to set the virtual position.

(2)上記実施形態では、撮像画像の地物の輪郭と、二次元投影画像の地物の輪郭(三次元モデル)とを比較してマッチングを行うようにしている。しかし、三次元点群データを二次元投影し、点群データと撮像画像とを比較するようにしてもよい。この場合、撮像画像がカラーであれば、二次元投影した点群データも計測時の色データに基づいてカラーとし、色も含めたマッチングを行うことで合致度の判定精度を高めることができる。 (2) In the above embodiment, matching is performed by comparing the contours of features in the captured image with the contours of features in the two-dimensional projected image (three-dimensional model). However, it is also possible to project three-dimensional point cloud data into two dimensions and compare the point cloud data with the captured image. In this case, if the captured image is in color, the two-dimensionally projected point cloud data can also be made color based on the color data at the time of measurement, and matching including color can be performed to improve the accuracy of determining the degree of match.

(3)上記実施形態では、撮像位置から所定範囲内にある地物の全てについて二次元投影画像を生成し、撮像画像全体とマッチングを行うようにしている。しかし、撮像画像中に地物が実質的に一つだけ撮像されているような場合には、撮像画像中の地物名を特定し、特定された地物名の三次元点群データのみを対象として二次元投影画像を生成し、地物の撮像画像とのマッチングを行うようにしてもよい。 (3) In the above embodiment, two-dimensional projection images are generated for all features within a specified range from the imaging position, and are then matched with the entire captured image. However, if substantially only one feature is captured in the captured image, it is also possible to identify the name of the feature in the captured image, generate a two-dimensional projection image for only the three-dimensional point cloud data for the identified feature name, and match it with the captured image of the feature.

この場合、たとえば、図22に示すように、携帯端末装置21を操作して、ユーザが撮像画像中から注目する地物の部分にマークを付して、属性データサーバ装置60に送信するようにしてもよい。この際、ユーザは、携帯端末装置21を操作し、地物名(予め定められた地物名のプルダウンメニューから選択することが好ましい)を入力し、併せて送信する。 In this case, for example, as shown in FIG. 22, the user may operate the mobile terminal device 21 to mark the portion of the feature that catches the user's attention in the captured image, and transmit the mark to the attribute data server device 60. At this time, the user operates the mobile terminal device 21 to input the feature name (preferably selected from a pull-down menu of predetermined feature names), and transmits the name as well.

属性サーバ装置60においては、撮像位置から所定範囲内にある地物のうち、送られてきた地物名のものを選択し、二次元投影画像を生成する。この時、各地物ごとに異なる角度からの二次元投影画像を生成する。 The attribute server device 60 selects the feature with the name sent from among the features within a specified range from the imaging position, and generates a two-dimensional projection image. At this time, a two-dimensional projection image from a different angle is generated for each feature.

マッチングにおいては、ユーザが選択した地物の撮像画像と、各地物の二次元投影画像とを比較する。最も良く合致した地物の二次元投影画像に対応付けて地物の撮像画像を記録する。 In matching, the captured image of the feature selected by the user is compared with the two-dimensional projected image of each feature. The captured image of the feature is recorded in association with the two-dimensional projected image of the feature that best matches.

なお、マッチングは、三次元モデルを用いてもよいし、点群データにて行うようにしてもよい。 The matching can be done using a three-dimensional model or point cloud data.

また、上記では、ユーザが地物名を入力するようにしている。しかし、携帯端末装置21または属性データサーバ装置60において、撮像された画像中のオブジェクトを識別し、地物名を判別するようにしてもよい。各地物の画像と地物名とを学習データとして学習したディープラーニング等の学習モデルを用い、画像中の地物を抽出してその地物名を得ることができる(たとえば、YOLO、Mask R-CNNなどのプログラムを用いることができる)。この場合、ユーザが撮像画像中から地物を選択し、選択された地物の地物名を携帯端末装置21または属性データサーバ装置60が自動的に判定するようにすることが好ましい。 In the above, the user inputs the feature name. However, the mobile terminal device 21 or the attribute data server device 60 may identify objects in the captured image and determine the feature name. Using a learning model such as deep learning that learns the image and feature name of each feature as learning data, the features in the image can be extracted and their names obtained (for example, programs such as YOLO and Mask R-CNN can be used). In this case, it is preferable that the user selects a feature from the captured image and the mobile terminal device 21 or the attribute data server device 60 automatically determines the feature name of the selected feature.

(4)上記実施形態では、撮像位置から所定範囲内にある地物について二次元投影画像を生成し、撮像画像とマッチングを行うようにしている。そのマッチングにおいては、画像情報のみを用いている。 (4) In the above embodiment, a two-dimensional projection image is generated for features within a specified range from the imaging position, and then matched with the captured image. Only image information is used in the matching.

しかし、撮像画像中の各地物の地物名をユーザが入力し、あるいは携帯端末装置21や属性データサーバ装置60にて自動判定(上述のYOLO等を用いる)し、当該地物名も含めてマッチングを行うようにしてもよい。 However, the user may input the names of the features in the captured image, or the mobile terminal device 21 or the attribute data server device 60 may automatically determine the names (using YOLO, etc., as described above) and perform matching including the names of the features.

また、複数の地物が撮像画像中にある場合画像から各地物名を特定し、一方、
属性データから各地物の地物名を取得し、これら地物名の位置関係(画像上での順番)も含めてマッチングを行うようにしてもよい。
In addition, when multiple features are present in a captured image, the names of each feature are identified from the image, while
The names of each feature may be obtained from the attribute data, and matching may be performed including the positional relationships (order on the image) of these feature names.

(5)上記実施形態では、三次元点群データおよび属性データにおいて絶対座標を用いて表現するようにしている。しかし、三次元点群データと属性データが対応付けられていれば、必ずしも絶対座標である必要はない。 (5) In the above embodiment, the three-dimensional point cloud data and attribute data are expressed using absolute coordinates. However, as long as the three-dimensional point cloud data and attribute data correspond to each other, absolute coordinates are not necessarily required.

(6)上記実施形態では、撮像位置の周囲に地物が多く存在すればマッチングの精度が向上する。しかし、道路と法面しか撮像画像中に写っていないような場合であっても、撮像位置を特定することができる。 (6) In the above embodiment, the accuracy of matching improves if there are many features around the imaging position. However, even if only the road and the slope are captured in the captured image, the imaging position can be identified.

たとえば、標識などの地物のない山間の道路において事故が生じ、その現場の撮像写真に基づいて、事故現場を特定する場合になどにも用いることができる。この場合、撮像画像を画像セグメンテーション手法の一つであるSegNetなどの深層学習によって学習されたモデルにて、道路面と法面に分離する。一方、三次元点群データにて各位置からの道路面と法面を分離した二次元平面画像を生成する。両者が最も良く合致する点が、撮像位置(事故現場)であると判定することができる。 For example, it can be used when an accident occurs on a mountain road where there are no signs or other features, and the accident site can be identified based on a photograph of the scene. In this case, the captured image is separated into the road surface and slopes using a model trained by deep learning such as SegNet, an image segmentation method. Meanwhile, a two-dimensional planar image is generated that separates the road surface and slopes from each position using the three-dimensional point cloud data. The point where the two match best can be determined to be the capture location (accident site).

また、一つの地物において同じような構造が複数箇所ある場合(たとえば橋の橋桁)に、各箇所ごとに上述の仮想撮像位置、撮像方向を設定して二次元投影画像を生成してマッチングを行うことにより、撮像された位置が特定できる。これにより、いずれの箇所(複数あるうちのいずれの橋桁)が撮像されたのかを特定することができる。 In addition, when a feature has multiple similar structures (for example, bridge girders), the imaged location can be identified by setting the above-mentioned virtual imaging position and imaging direction for each location, generating a two-dimensional projection image, and performing matching. This makes it possible to identify which location (which of the multiple bridge girders) was imaged.

(7)上記実施形態では、携帯端末装置21から撮像画像、撮像位置を属性データサーバ装置60に送信するようにしている。しかし、携帯端末装置21に地磁気センサ(方位を取得)、ジャイロセンサ(ピッチ、ロール等の傾き)などを設けて、撮像方向も送信するようにしてもよい。属性データサーバ装置60では、受信した撮像方向に基づいて、その前後の角度についてのみ二次元平面画像を生成する。これにより、マッチング精度を高めることができる。 (7) In the above embodiment, the mobile terminal device 21 transmits the captured image and the capture position to the attribute data server device 60. However, the mobile terminal device 21 may be provided with a geomagnetic sensor (to obtain orientation) and a gyro sensor (to obtain pitch, roll, and other inclinations) so that the capture direction may also be transmitted. Based on the received capture direction, the attribute data server device 60 generates a two-dimensional planar image only for the angles before and after the capture direction. This can improve matching accuracy.

(8)上記実施形態では、カメラにて地物を撮像する際に、過去の履歴は用いられていなかった。しかし、カメラにて地物を撮像する際に、その撮像位置、撮像方向を属性データサーバ装置60に送信し、過去に近傍において同様の方向から撮像された結果が保存されていれば、これを取得するようにしてもよい。属性データサーバ装置60は、過去の撮像位置、撮像方向に基づいて二次元投影画像を生成し、これを携帯端末装置21に送信する。過去二次元投影画像を受信した携帯端末装置21は、図23に示すように、その過去画像IMをカメラのファインダー画面に透過画像として重ねて表示する。図23では、一部の地物の過去画像IMのみを表示しているが、過去画像全体を表示するようにしてもよい。 (8) In the above embodiment, past history was not used when capturing images of features with a camera. However, when capturing images of features with a camera, the capturing position and capturing direction may be transmitted to the attribute data server device 60, and if a result of capturing an image from a similar direction in the vicinity in the past has been saved, this may be acquired. The attribute data server device 60 generates a two-dimensional projection image based on the past capturing position and capturing direction, and transmits this to the mobile terminal device 21. The mobile terminal device 21 that receives the past two-dimensional projection image displays the past image IM superimposed as a transparent image on the camera's finder screen, as shown in FIG. 23. Although FIG. 23 shows only past images IM of some features, the entire past image may be displayed.

これにより、過去に撮像した位置と同じ位置にて撮像を行う必要がある場合に、その位置や方向を合致させるのが容易となる。たとえば、特定の地物の経時変化を観測する場合などに有効である。 This makes it easy to match the position and direction when it is necessary to capture an image at the same location as one captured previously. For example, this is useful when observing changes over time of a particular feature.

なお、過去の二次元投影画像に代えて、過去の撮像画像を透過画像として重ねて表示するようにしてもよい。 In addition, instead of a past two-dimensional projection image, a past captured image may be displayed superimposed as a transparent image.

さらに、過去の画像を重ねて表示することに代えて、あるいはこれに加えて、地図上に過去の撮像時の撮像位置と撮像方向を示すようにしてもよい。この際、現在の撮像位置と撮像方向も示すことで、過去の撮像位置と撮像方向に合致させて撮像を行うことが容易となる。 Furthermore, instead of or in addition to displaying past images on top of each other, the imaging position and imaging direction at the time of past imaging may be shown on the map. In this case, by also showing the current imaging position and imaging direction, it becomes easier to capture images that match the past imaging position and imaging direction.

(9)上記実施形態では、撮像画像中の地物を特定してその輪郭と、三次元点群データの輪郭とに基づいてマッチングを行うようにしている。しかし、撮像画像中から、地物及び地物以外の全ての輪郭(エッジ)を抽出し、これと三次元点群データの輪郭とをマッチングさせるようにしてもよい。撮像画像からのエッジ抽出には、たとえば、プレウイット・フィルタ、ソーベル・フィルタ、ラプラシアン・フィルタ、LoGフィルタ、DoGフィルタ、Canny方、Hough変換などを用いることができる。 (9) In the above embodiment, features in the captured image are identified and matching is performed based on their contours and the contours of the three-dimensional point cloud data. However, it is also possible to extract all contours (edges) of features and other than features from the captured image and match these with the contours of the three-dimensional point cloud data. For example, a Prewitt filter, a Sobel filter, a Laplacian filter, a LoG filter, a DoG filter, a Canny method, a Hough transform, etc. can be used to extract edges from the captured image.

(10)上記実施形態では、第1点群サーバ装置40a、第2点群サーバ装置40bが別のサーバ装置として構築されていたが、単一のサーバ装置として構築されていてもよい。 (10) In the above embodiment, the first point cloud server device 40a and the second point cloud server device 40b are configured as separate server devices, but they may be configured as a single server device.

(11)上記実施形態では、第1点群サーバ装置40a、第2点群サーバ装置40bと属性データサーバ装置60とが別のサーバ装置として構築されていたが、単一のサーバ装置として構築されていてもよい。 (11) In the above embodiment, the first point cloud server device 40a, the second point cloud server device 40b, and the attribute data server device 60 are constructed as separate server devices, but they may also be constructed as a single server device.

(12)上記実施形態では、属性データサーバ装置によってステップS702、S703、S704、S705、S706の処理を行っている。しかし、これを携帯端末装置や端末装置において実行し、抽出した地物の画像を属性データサーバ装置に送信して記録するようにしてもよい。 (12) In the above embodiment, steps S702, S703, S704, S705, and S706 are performed by the attribute data server device. However, this may be performed by a mobile terminal device or a terminal device, and the extracted images of the features may be transmitted to the attribute data server device for recording.

(13)上記実施形態では、携帯端末装置によって地物を撮像し、撮像した画像を送信するようにしている。しかし、カメラなどで撮像した画像をPC等の端末装置に取り込んで、送信するようにしてもよい。 (13) In the above embodiment, the mobile terminal device captures images of features and transmits the captured images. However, images captured by a camera or the like may be imported into a terminal device such as a PC and transmitted.

(14)上記実施形態および変形例は、その本質に反しない限り、他の実施形態と組み合わせて実行可能である。
(14) The above-described embodiments and variations can be implemented in combination with other embodiments as long as this does not go against the essence of the invention.

2.第2の実施形態
2.1全体構成
図24に、第2の実施形態による地物管理システムの機能ブロック図を示す。この実施形態においては、属性サーバ装置211と三次元点群サーバ装置213とによってサーバ装置が構成されている。
2. Second embodiment
24 shows a functional block diagram of a feature management system according to the second embodiment. In this embodiment, an attribute server device 211 and a three-dimensional point cloud server device 213 constitute a server device.

端末装置260の外形領域データ取得手段262は、属性サーバ装置211から道路表示物(地物)の外形領域データ224を取得する。この外形領域データは、センターラインなど道路標示物の設置時のものを用いることが好ましい。 The outer region data acquisition means 262 of the terminal device 260 acquires the outer region data 224 of the road markings (land features) from the attribute server device 211. It is preferable to use the outer region data at the time of installation of road markings such as center lines.

三次元点群データ取得手段264は、外形領域データ224に基づいて当該外形領域に含まれる道路表示物の三次元点群データ222を取得する。この三次元点群データ222には、各点の輝度も含まれている。 The three-dimensional point cloud data acquisition means 264 acquires three-dimensional point cloud data 222 of road objects included in the outer region based on the outer region data 224. This three-dimensional point cloud data 222 also includes the brightness of each point.

表示手段266は、上記取得した外形領域データによる外形領域と三次元点群データの各点を輝度付き(輝度が高いと明るく低いと暗く)で表示する。これにより、道路表示物の設置時の状況が外形領域として示され、現在の状況が三次元点群データの輝度として示される。したがって、道路表示物の補修の必要性、補修箇所などを知ることができる。
The display means 266 displays the outline region based on the acquired outline region data and each point of the three-dimensional point cloud data with brightness (higher brightness means brighter, and lower brightness means darker). This allows the condition of the road marking at the time of installation to be displayed as the outline region, and the current condition to be displayed as the brightness of the three-dimensional point cloud data. This allows the user to know the necessity of repairs to the road marking, the repair locations, etc.

2.2システム構成
システム構成は、第1の実施形態において示した図2と同様である。また、点群サーバ装置40、属性データサーバ装置60、端末装置20、携帯端末装置21のハードウエア構成も、第1の実施形態と同様である。
2.2 System Configuration The system configuration is the same as that shown in Fig. 2 in the first embodiment. The hardware configurations of the point cloud server device 40, the attribute data server device 60, the terminal device 20, and the mobile terminal device 21 are also the same as those in the first embodiment.

2.3地物管理処理
図25に、地物管理処理のフローチャートを示す。図において、端末装置として示しているのは端末プログラムのフローチャート、属性データサーバ装置として示しているのは属性データサーバプログラムのフローチャート、点群サーバ装置として示しているのは点群サーバプログラムのフローチャートである。
2.3 Feature Management Processing A flowchart of the feature management processing is shown in Figure 25. In the figure, the terminal device is shown as a flowchart of the terminal program, the attribute data server device is shown as a flowchart of the attribute data server program, and the point cloud server device is shown as a flowchart of the point cloud server program.

まず、端末装置20bのCPU81(以下端末装置20bと省略することがある)は、属性データサーバ装置60にアクセスし、所望の道路表示物の存在する場所を指定する(ステップS651)。場所の指定は、たとえば緯度経度などで範囲を指定して行う。住所を入力するようにし、これを緯度経度の範囲に変換してもよい。 First, the CPU 81 of the terminal device 20b (hereinafter sometimes abbreviated as terminal device 20b) accesses the attribute data server device 60 and specifies the location where the desired road object is located (step S651). The location is specified by specifying a range using, for example, latitude and longitude. An address may be input and converted into a latitude and longitude range.

これを受けて、属性サーバ装置60のCPU(以下属性サーバ装置と省略することがある)は、属性データを検索し当該指定された場所内にある道路表示物の外形領域データを抽出する(ステップS751)。ここで、道路表示物とは、地物の一つであり、道路面に表示された識別マークである。たとえば、センターライン、横断歩道などである。 In response to this, the CPU of the attribute server device 60 (hereinafter sometimes abbreviated as the attribute server device) searches the attribute data and extracts the outer area data of the road markings within the specified location (step S751). Here, a road marking is one of the features, and is an identification mark displayed on the road surface. For example, it is a center line, a crosswalk, etc.

属性サーバ装置60は、抽出した外形領域データ(平面形状データとその絶対座標における位置と高さ)、地物名(センターライン、横断歩道など)などを端末装置20bに送信する。外形領域データが複数抽出されている場合には、これら複数の外形領域データを送信する。 The attribute server device 60 transmits the extracted outer region data (planar shape data and its position and height in absolute coordinates), feature names (center line, pedestrian crossing, etc.) to the terminal device 20b. If multiple outer region data are extracted, these multiple outer region data are transmitted.

端末装置20bは、各点群サーバ装置40a・・・40nにアクセスし、受信した外形領域データの三次元点群データを返信するように要求する(ステップS652)。なお、同一の道路表示物について複数の外形領域データが存在する場合には、端末装置20bにおいて外形領域データの測定日時を表示し、ユーザに選択させるようにしてもよい。ユーザは、最も古い、あるいは道路表示物の設置時の外形領域データを選択する。端末装置20bは、選択された外形領域データに基づいて、三次元点群データを要求する。 The terminal device 20b accesses each point cloud server device 40a...40n and requests that the three-dimensional point cloud data of the received outer region data be returned (step S652). If multiple outer region data exist for the same road display object, the terminal device 20b may display the measurement date and time of the outer region data and allow the user to select. The user selects the oldest outer region data or the outer region data from when the road display object was installed. The terminal device 20b requests three-dimensional point cloud data based on the selected outer region data.

これを受けて、点群サーバ装置40a・・・40nのうち、当該外形領域データに含まれる三次元点群データを記録している点群サーバ装置は、当該三次元点群データを、各外形領域データに対応付けて端末装置20bに送信する(ステップS851)。 In response to this, among the point cloud server devices 40a...40n, the point cloud server device that has recorded the three-dimensional point cloud data included in the external region data transmits the three-dimensional point cloud data to the terminal device 20b in association with each external region data (step S851).

端末装置20bは、受信した外形領域データに三次元点群データの輝度を重ねて表示する(ステップS653)。その表示例を図26に示す。ここでは、センターラインの道路表示物を例として示す。外形領域データに基づいて表示されているのが外形領域600である。高輝度領域602は、輝度の高い三次元点群データによって表示される領域である。三次元点群データは点であるが、図26においては、集合しているため領域として示されている。 The terminal device 20b displays the received outline region data by overlaying the brightness of the three-dimensional point cloud data (step S653). An example of this display is shown in FIG. 26. Here, a road display object of a center line is shown as an example. The outline region 600 is displayed based on the outline region data. The high brightness region 602 is an area displayed by the three-dimensional point cloud data with high brightness. Although the three-dimensional point cloud data is a point, in FIG. 26 it is shown as an area since it is a collection.

外形領域600の中が、全て高輝度領域602にて埋まっていれば、当該センターラインは剥がれ等がなく健全であると判断できる。センターラインに、剥がれや傷などがあれば当該部分のレーザの反射強度は低くなる。したがって、図26に示すように、外形領域600の中に、低輝度領域604が表示されることになる。これにより、補修の必要なセンターラインや補修箇所を知ることができる。
If the entire outline region 600 is filled with high-brightness regions 602, it can be determined that the center line is sound and has no peeling or other defects. If there is peeling or damage on the center line, the reflection intensity of the laser in that area will be low. Therefore, as shown in Figure 26, low-brightness regions 604 are displayed within the outline region 600. This makes it possible to know the center line that needs repair and the repair locations.

2.4その他
(1)上記実施形態では、平面的な領域を持つ矩形の地物(道路表示物)を対象として説明を行った。しかし、立体的な領域をつ直方体の地物であって、表面が他の部分よりも反射強度の高い地物を対象として、同様の処理を行うことができる。
2.4 Other
(1) In the above embodiment, a rectangular feature (road object) having a planar area has been described as the target. However, the same processing can be performed on a rectangular feature having a three-dimensional area, the surface of which has a higher reflectance than the other parts.

(2)上記実施形態では、矩形の道路表示物を対象としている。しかし、外形領域データとして道路表示物に沿った形状(たとえば道路上に表示された文字の形状)を外形形状データとして記録していれば、そのような形状の道路表示物にも適用することができる。 (2) The above embodiment is directed to rectangular road objects. However, if a shape that conforms to the road object (for example, the shape of characters displayed on the road) is recorded as the outer shape data in the outer shape area data, it can also be applied to road objects of such shapes.

(3)上記実施形態では、三次元点群データの輝度を、外形形状と比較するようにしている。しかし、三次元点群データ自体(輝度値なし)を表示して、外形形状と比較するようにしてもよい。 (3) In the above embodiment, the brightness of the three-dimensional point cloud data is compared with the external shape. However, the three-dimensional point cloud data itself (without brightness values) may be displayed and compared with the external shape.

(4)上記実施形態では、第1点群サーバ装置40a、第2点群サーバ装置40bが別のサーバ装置として構築されていたが、単一のサーバ装置として構築されていてもよい。 (4) In the above embodiment, the first point cloud server device 40a and the second point cloud server device 40b are configured as separate server devices, but they may be configured as a single server device.

(5)上記実施形態では、第1点群サーバ装置40a、第2点群サーバ装置40bと属性データサーバ装置60とが別のサーバ装置として構築されていたが、単一のサーバ装置として構築されていてもよい。 (5) In the above embodiment, the first point cloud server device 40a, the second point cloud server device 40b, and the attribute data server device 60 are constructed as separate server devices, but they may also be constructed as a single server device.

(6)上記実施形態および変形例は、その本質に反しない限り、他の実施形態と組み合わせて実行可能である。
(6) The above-described embodiments and variations can be implemented in combination with other embodiments as long as this does not go against the essence of the invention.

3.第3の実施形態
3.1全体構成
図27に、この発明の第3の実施形態による点群データ管理システムの全体構成を示す。第1点群サーバ装置40aには、地物を含む絶対座標による第1方向からの第1三次元点群データファイルが記録されている。第2点群サーバ装置40bには、地物を含む絶対座標による第2方向からの第2三次元点群データファイルが記録されている。属性データサーバ装置60には、地物の外形を囲った絶対座標による外形領域データが記録されている。
3. Third embodiment
3.1 Overall Configuration Fig. 27 shows the overall configuration of a point cloud data management system according to a third embodiment of the present invention. A first three-dimensional point cloud data file from a first direction based on absolute coordinates including features is recorded in the first point cloud server device 40a. A second three-dimensional point cloud data file from a second direction based on absolute coordinates including features is recorded in the second point cloud server device 40b. An outer shape area data based on absolute coordinates that surrounds the outer shape of features is recorded in the attribute data server device 60.

端末装置20は、これらサーバ装置と通信可能である。端末装置20の三次元点群データ取得手段22は、所望の地物の外形領域データを、属性データサーバ装置60から取得する。三次元点群データ取得手段22は、取得した地物の外形領域データに基づいて、第1点群サーバ装置40aにアクセスし、当該領域に含まれる三次元点群データを第1三次元点群データとして取得する。さらに、三次元点群データ取得手段22は、取得した地物の外形領域データに基づいて、第1点群サーバ装置40bにアクセスし、当該領域に含まれる三次元点群データを第2三次元点群データとして取得する。 The terminal device 20 is capable of communicating with these server devices. The three-dimensional point cloud data acquisition means 22 of the terminal device 20 acquires the contour area data of the desired feature from the attribute data server device 60. The three-dimensional point cloud data acquisition means 22 accesses the first point cloud server device 40a based on the acquired contour area data of the feature, and acquires the three-dimensional point cloud data included in the area as the first three-dimensional point cloud data. Furthermore, the three-dimensional point cloud data acquisition means 22 accesses the first point cloud server device 40b based on the acquired contour area data of the feature, and acquires the three-dimensional point cloud data included in the area as the second three-dimensional point cloud data.

三次元モデル構築手段24は、上記取得した第1三次元点群データと第2三次元点群データに基づいて、当該地物の三次元形状を構築する。このように、絶対座標の付された外形領域データであることを利用して、インターネット上などに分散して記録されている、対象となる地物の異なる方向からの三次元点群データを集めることができる。したがって、より完全な地物の三次元モデルを形成することができる。
The three-dimensional model construction means 24 constructs the three-dimensional shape of the feature based on the first three-dimensional point cloud data and the second three-dimensional point cloud data acquired above. In this way, by utilizing the fact that the outer shape area data is assigned absolute coordinates, it is possible to collect three-dimensional point cloud data from different directions of the target feature that is recorded in a dispersed manner on the Internet, etc. Therefore, it is possible to form a more complete three-dimensional model of the feature.

3.2システム構成
図28に、第3の実施形態による点群データ管理システムのシステム構成を示す。インターネット上には点群サーバ装置40a、40b・・・40nが設けられている。また、属性データサーバ装置60も設けられている。これらサーバ装置40a、40b・・・40n、60に、インターネットを介して通信可能に端末装置20a、20b・・・20nが設けられている。
3.2 System Configuration Fig. 28 shows the system configuration of a point cloud data management system according to the third embodiment. Point cloud server devices 40a, 40b, ..., 40n are provided on the Internet. An attribute data server device 60 is also provided. These server devices 40a, 40b, ..., 40n, 60 are provided with terminal devices 20a, 20b, ..., 20n that are capable of communicating via the Internet.

端末装置20のハードウエア構成を、図29に示す。CPU80には、メモリ82、ディスプレイ84、ハードディスク86、DVD-ROMドライブ88、キーボード/マウス90、通信回路92が接続されている。通信回路92は、インターネットに接続するためのものである。 The hardware configuration of the terminal device 20 is shown in FIG. 29. The CPU 80 is connected to a memory 82, a display 84, a hard disk 86, a DVD-ROM drive 88, a keyboard/mouse 90, and a communication circuit 92. The communication circuit 92 is for connecting to the Internet.

ハードディスク86には、オペレーティングシステム94、端末プログラム96が記録されている。端末プログラム96は、オペレーティングシステム94と協働してその機能を発揮するものである。これらプログラムは、DVD-ROM98に記録されていたものを、DVD-ROMドライブ88を介して、ハードディスク86にインストールしたものである。 The hard disk 86 stores an operating system 94 and a terminal program 96. The terminal program 96 works in conjunction with the operating system 94 to perform its functions. These programs were recorded on a DVD-ROM 98 and installed onto the hard disk 86 via the DVD-ROM drive 88.

点群サーバ装置40、属性データサーバ装置60も、同様のハードウエア構成である。ただし、点群サーバ装置40においては、端末プログラム96に代えて、点群サーバプログラムが記録されている。また、属性データサーバ装置60においては、端末プログラム96に代えて、属性データサーバプログラムが記録されている。
The point cloud server device 40 and the attribute data server device 60 have the same hardware configuration. However, in the point cloud server device 40, a point cloud server program is recorded instead of the terminal program 96. In addition, in the attribute data server device 60, an attribute data server program is recorded instead of the terminal program 96.

3.3三次元モデル構築処理
次に、上記のようにして公開された複数の三次元点群データに基づいて、三次元モデルを構築する処理について説明する。
3.3 Three-dimensional Model Construction Process Next, a process for constructing a three-dimensional model based on a plurality of three-dimensional point cloud data published as described above will be described.

以下では、特定の地物についての三次元モデルを構築する場合について説明する。 The following describes how to build a 3D model of a specific feature.

図30、図31に、三次元モデル構築のフローチャートを示す。図において、端末装置として示しているのは端末プログラムのフローチャート、属性データサーバ装置として示しているのは属性データサーバプログラムのフローチャート、点群サーバ装置として示しているのは点群サーバプログラムのフローチャートである。 Figures 30 and 31 show flowcharts for constructing a three-dimensional model. In the figures, the terminal device is shown as a flowchart for the terminal program, the attribute data server device is shown as a flowchart for the attribute data server program, and the point cloud server device is shown as a flowchart for the point cloud server program.

まず、端末装置20bのCPU80(以下端末装置20bと省略することがある)は、属性データサーバ60にアクセスし、所望の地物の存在する場所を指定する(ステップS11)。場所の指定は、たとえば緯度経度などで範囲を指定して行う。住所、地名を入力(あるいは検索)するようにし、これを緯度経度の範囲に変換してもよい。また、地図上でクリックや選択した範囲を緯度経度の範囲に変換してもよい。 First, the CPU 80 of the terminal device 20b (hereinafter sometimes abbreviated as terminal device 20b) accesses the attribute data server 60 and specifies the location where the desired feature is located (step S11). The location is specified by specifying a range using, for example, latitude and longitude. An address or place name may be entered (or searched), and this may be converted into a latitude and longitude range. Also, an area clicked or selected on the map may be converted into a latitude and longitude range.

これを受けて、属性サーバ装置60のCPU(以下属性サーバ装置と省略することがある)は、属性データを検索し当該指定された場所内(場所外の近傍を含めてもよい)にある外形領域データを抽出する(ステップS21)。属性サーバ装置60は、抽出した外形領域データ(平面形状データとその絶対座標における位置と高さ)、地物名などを端末装置20bに送信する。 In response to this, the CPU of the attribute server device 60 (hereinafter sometimes abbreviated as the attribute server device) searches the attribute data and extracts the contour area data within the specified location (which may include the vicinity outside the location) (step S21). The attribute server device 60 transmits the extracted contour area data (planar shape data and its position and height in absolute coordinates), feature names, etc. to the terminal device 20b.

端末装置20bは、受信した外形領域データに基づいて外形領域と地物名をディスプレイ84に表示する(ステップS12)。表示例を、図32に示す。各地物の外形領域102~112が示され、その近傍に地物名が示されている。 The terminal device 20b displays the outline area and the feature name on the display 84 based on the received outline area data (step S12). An example of the display is shown in FIG. 32. The outline areas 102-112 of each feature are shown, and the feature name is shown in their vicinity.

ユーザは、端末装置20bのマウス90を操作し、所望の地物の外形領域を選択する。ここでは、建物の外形領域110が選択されたものとして説明を進める。この選択を受けて、端末装置20bは、建物の外形領域110の外形領域データを指定して、三次元点群データの要求を各点群サーバ装置40a~40nに送信する(ステップS13)。 The user operates the mouse 90 of the terminal device 20b to select the outline region of the desired feature. Here, the explanation will proceed assuming that the outline region 110 of the building has been selected. In response to this selection, the terminal device 20b specifies the outline region data of the outline region 110 of the building and transmits a request for three-dimensional point cloud data to each of the point cloud server devices 40a to 40n (step S13).

この要求を受けた各点群サーバ装置40a~40nは、当該外形領域110内の三次元点群データを自らが保持しているかどうかを判断し、保持していれば返送する。ここでは、点群サーバ装置40a~40nのうち、点群サーバ装置40a、40bの2つが、建物の外形領域110の三次元点群データを保持しているものとして説明を進める。 Each point cloud server device 40a-40n that receives this request determines whether it holds the three-dimensional point cloud data for the outer region 110, and if so, returns it. Here, the explanation will proceed assuming that two of the point cloud server devices 40a-40n, point cloud server devices 40a and 40b, hold the three-dimensional point cloud data for the outer region 110 of the building.

点群サーバ装置40aのCPU(以下、点群サーバ装置40aと省略することがある)は、当該建物の外形領域110の三次元点群データを、端末装置20bに返信する(ステップS31)。 The CPU of the point cloud server device 40a (hereinafter sometimes abbreviated as point cloud server device 40a) returns the three-dimensional point cloud data of the exterior area 110 of the building to the terminal device 20b (step S31).

同様に、点群サーバ装置40bのCPU(以下、点群サーバ装置40bと省略することがある)は、当該建物の外形領域110の三次元点群データを、端末装置20bに返信する(ステップS41)。 Similarly, the CPU of the point cloud server device 40b (hereinafter sometimes abbreviated as point cloud server device 40b) returns the three-dimensional point cloud data of the exterior area 110 of the building to the terminal device 20b (step S41).

なお、点群サーバ装置40a、40bは、指定された外形領域110に対して、計測誤差を考慮して広くした領域の三次元点群データを送信するようにしている。計測誤差は、計測方法・機器によって異なるので、当該三次元点群データがどのような計測方法・機器によって計測されたのかにより異なる。したがって、計測方法・機器により上記の広くした領域は異なる。 The point cloud server devices 40a and 40b transmit three-dimensional point cloud data of an area that is wider than the specified outer area 110 to take into account measurement errors. Measurement errors differ depending on the measurement method and equipment, and therefore differ depending on the measurement method and equipment used to measure the three-dimensional point cloud data. Therefore, the above-mentioned wider area differs depending on the measurement method and equipment.

端末装置20bは、点群サーバ装置40aからの三次元点群データ(第1三次元点群データ)と、点群サーバ装置40bからの三次元点群データ(第2三次元点群データ)とを受信する。図33Aに第1三次元点群データ、図33Bに第2三次元点群データの例を示す。図33A、図33Bに示すように、第1三次元点群データは、紙面に向かって、直方体の手前側から計測したものである。第2三次元点群データは、紙面に向かって、直方体の後ろ側から計測したものである。 The terminal device 20b receives three-dimensional point cloud data (first three-dimensional point cloud data) from the point cloud server device 40a and three-dimensional point cloud data (second three-dimensional point cloud data) from the point cloud server device 40b. An example of the first three-dimensional point cloud data is shown in FIG. 33A, and an example of the second three-dimensional point cloud data is shown in FIG. 33B. As shown in FIG. 33A and FIG. 33B, the first three-dimensional point cloud data was measured from the front side of the rectangular parallelepiped facing the paper. The second three-dimensional point cloud data was measured from the rear side of the rectangular parallelepiped facing the paper.

端末装置20bは、第1三次元点群データと第2三次元点群データの位置を合わせて合成し、図34に示すような合成三次元点群データを生成する(ステップS14)。この図からも明らかなように、第1三次元点群データ、第2三次元点群データ単独の場合よりも、情報量の多い(手前側と後ろ側からの計測データの双方を持つ)三次元点群データを得ることができる。 The terminal device 20b aligns and synthesizes the first three-dimensional point cloud data and the second three-dimensional point cloud data to generate synthesized three-dimensional point cloud data as shown in FIG. 34 (step S14). As is clear from this figure, it is possible to obtain three-dimensional point cloud data with a larger amount of information (having both measurement data from the front and rear) than when the first three-dimensional point cloud data and the second three-dimensional point cloud data are used alone.

このようにして得られた合成三次元点群データは、様々な用途に用いることができる。この実施形態では、合成三次元点群データに基づいて、地物の三次元モデルを生成するようにしている。 The composite 3D point cloud data obtained in this manner can be used for various purposes. In this embodiment, a 3D model of the feature is generated based on the composite 3D point cloud data.

端末装置20bは、合成三次元点群データに基づいて、地物の外形面を生成する(ステップS15)。この処理は、たとえば、三次元凸包アルゴリズム(http:/www.qhull.org/download/)によって行うことができる。図35Aに、生成された地物の三次元モデルを示す。第1三次元点群データのみで生成した三次元モデル、第2三次元点群データのみで生成した三次元モデルよりも完成度の高い三次元モデルを生成することができる。端末装置20bは、これをディスプレイ84に表示するとともに、ハードディスク86に記録する(ステップS15)。 The terminal device 20b generates the outer surface of the feature based on the composite 3D point cloud data (step S15). This process can be performed, for example, by a 3D convex hull algorithm (https://www.qhull.org/download/). Figure 35A shows the generated 3D model of the feature. It is possible to generate a 3D model that is more complete than a 3D model generated using only the first 3D point cloud data and a 3D model generated using only the second 3D point cloud data. The terminal device 20b displays this on the display 84 and records it on the hard disk 86 (step S15).

この実施形態によれば、同一地物について、インターネット上に点在する複数の三次元点群データを容易に検索し、これを合成して合成三次元点群データを得ることができる。また、同一地物についての複数の三次元点群データのうちいずれか一つに基づいて、一つの属性データが生成されていれば、上記の検索や合成を行うことができる。これは、属性データが三次元点群データとは独立しており、属性データの外形領域データが絶対座標にて定義されているからである。
According to this embodiment, it is possible to easily search for multiple 3D point cloud data scattered on the Internet for the same feature, and to obtain composite 3D point cloud data by synthesizing the data. Also, if one attribute data is generated based on any one of the multiple 3D point cloud data for the same feature, the above search and synthesis can be performed. This is because the attribute data is independent of the 3D point cloud data, and the outer shape area data of the attribute data is defined in absolute coordinates.

3.4その他
(1)上記実施形態では、2つの三次元点群データを取得して合成三次元点群データを得ている。しかし、3つ以上の三次元点群データを取得して合成三次元点群データを生成してもよい。
3.4 Other
(1) In the above embodiment, two pieces of three-dimensional point cloud data are acquired to generate the composite three-dimensional point cloud data. However, three or more pieces of three-dimensional point cloud data may be acquired to generate the composite three-dimensional point cloud data.

(2)上記実施形態では、一つの地物についての合成三次元点群データを得るようにしている。しかし、複数の地物についての合成三次元点群データを得るようにしてもよい。また、所定範囲内にある地物全てについての合成三次元データを得るようにしてもよい。このような例を、図36A、図36B、図36Cに示す。図36Aが第1三次元点群データ、図36Bが第2三次元点群データ、図36Cが合成三次元点群データである。 (2) In the above embodiment, composite 3D point cloud data is obtained for one feature. However, composite 3D point cloud data may be obtained for multiple features. Also, composite 3D data may be obtained for all features within a specified range. Such examples are shown in Figures 36A, 36B, and 36C. Figure 36A shows the first 3D point cloud data, Figure 36B shows the second 3D point cloud data, and Figure 36C shows the composite 3D point cloud data.

(3)上記実施形態においては、計測方向の異なる三次元点群データを合成している。しかし、地物までの計測距離の異なる三次元点群データや計測機器の異なる(たとえば、MMSとUAVによる計測)三次元点群データを合成してもよい。 (3) In the above embodiment, 3D point cloud data with different measurement directions is synthesized. However, 3D point cloud data with different measurement distances to features or 3D point cloud data with different measurement instruments (for example, measurements by MMS and UAV) may also be synthesized.

(4)上記実施形態においては、ステップS21において、場所に対して属性データが一つだけ見いだされた場合について説明した。しかし、異なる測定事業者が同一の場所について三次元点群データを作成し、それぞれが属性データをアップロードしている場合や、同一の事業者であっても、異なる時期に同一の場所について三次元点群データを作成し、それぞれが属性データをアップロードしている場合がある。このような場合には、指定された場所に対して複数の属性データが見いだされる。この場合、属性データサーバ装置60は、複数の属性データがある旨を端末装置20bに送信する。端末装置20bは、複数の属性データについて作成日時、作成機器などをディスプレイ84に表示し、操作者に選択させる。選択された属性データに基づいて、外形領域を送信する(ステップS21)。 (4) In the above embodiment, a case where only one piece of attribute data is found for a location in step S21 has been described. However, there are cases where different measurement companies create 3D point cloud data for the same location and each uploads attribute data, or cases where the same company creates 3D point cloud data for the same location at different times and each uploads attribute data. In such cases, multiple pieces of attribute data are found for the specified location. In this case, the attribute data server device 60 transmits to the terminal device 20b that multiple pieces of attribute data exist. The terminal device 20b displays the creation date and time, creation device, etc. for the multiple pieces of attribute data on the display 84 and allows the operator to select one. Based on the selected attribute data, the outer shape area is transmitted (step S21).

(5)上記実施形態では、端末装置20bが三次元点群データ要求を行っている(ステップS13)。しかし、属性データサーバ装置60がこれを行い、その結果を端末装置20bに送信するようにしてもよい。 (5) In the above embodiment, the terminal device 20b makes the 3D point cloud data request (step S13). However, the attribute data server device 60 may make this request and transmit the result to the terminal device 20b.

(6)上記実施形態では、端末装置20bにおいて三次元点群データの合成や三次元モデルの生成を行っている。しかし、いずれか一方または双方を、属性データサーバ装置60にて行い、その結果を端末装置20bに送信するようにしてもよい。 (6) In the above embodiment, the synthesis of the 3D point cloud data and the generation of the 3D model are performed in the terminal device 20b. However, either or both of these may be performed in the attribute data server device 60, and the results may be transmitted to the terminal device 20b.

(7)上記実施形態では、ステップS14において、端末装置20bが三次元点群データを取得した際に、いずれの方向から計測したものであるかを表示していない。しかし、これを明確にするために、取得した三次元点群データに付されているデータに基づいて、図35Bに示すように、矢印にて、地物に対する計測方向と距離を表示するようにしてもよい。矢印の根元が計測位置、矢印の方向が計測方向である。図35Bの場合であれば、2カ所から計測された三次元点群データが存在することが明確となる。 (7) In the above embodiment, when the terminal device 20b acquires the three-dimensional point cloud data in step S14, it does not display from which direction the data was measured. However, to make this clearer, as shown in FIG. 35B, an arrow may be used to display the measurement direction and distance relative to the feature, based on the data attached to the acquired three-dimensional point cloud data. The base of the arrow indicates the measurement position, and the direction of the arrow indicates the measurement direction. In the case of FIG. 35B, it is clear that there is three-dimensional point cloud data measured from two locations.

したがって、この画面表示に基づいて、次に計測を行う場合、合成三次元点群データの品質を向上するのであれば、矢印とは異なる方向から計測することが好ましいことが分かる。また、地物の時間的な変化を知りたいのであれば、矢印と同じ位置、方向から計測を行うのが好ましい。 Therefore, based on this screen display, it is clear that the next time a measurement is made, it is preferable to measure from a direction other than that shown by the arrow if the quality of the composite 3D point cloud data is to be improved. Also, if it is desired to know the changes over time of features, it is preferable to make measurements from the same position and direction as shown by the arrow.

(8)上記実施形態では、第1・第2の三次元点群データを単純に合成して合成三次元点群データを生成している。しかし、三次元点群データのうち、同一箇所について第1三次元点群データと第2三次元点群データが存在する場合、当該箇所においては、測定精度の高い三次元点群データのみを採用して合成三次元点群データを生成するようにしてもよい。 (8) In the above embodiment, the first and second three-dimensional point cloud data are simply combined to generate the composite three-dimensional point cloud data. However, when the first three-dimensional point cloud data and the second three-dimensional point cloud data exist for the same location in the three-dimensional point cloud data, only the three-dimensional point cloud data with high measurement accuracy for that location may be used to generate the composite three-dimensional point cloud data.

(9)上記実施形態では、第1点群サーバ装置40a、第2点群サーバ装置40bが別のサーバ装置として構築されていたが、単一のサーバ装置として構築されていてもよい。 (9) In the above embodiment, the first point cloud server device 40a and the second point cloud server device 40b are configured as separate server devices, but they may be configured as a single server device.

(10)上記実施形態では、第1点群サーバ装置40a、第2点群サーバ装置40bと属性データサーバ装置60とが別のサーバ装置として構築されていたが、単一のサーバ装置として構築されていてもよい。 (10) In the above embodiment, the first point cloud server device 40a, the second point cloud server device 40b, and the attribute data server device 60 were constructed as separate server devices, but they may also be constructed as a single server device.

(11)上記実施形態および変形例は、その本質に反しない限り、他の実施形態と組み合わせて実行可能である。
(11) The above-described embodiments and variations can be implemented in combination with other embodiments as long as this does not go against the essence of the invention.

4.第4の実施形態
4.1全体構成
図37に、この発明の第2の実施形態による点群データ管理システムの全体構成を示す。第1点群サーバ装置40aには、地物を含む絶対座標による第1日時における第1三次元点群データファイルが記録されている。第2点群サーバ装置40bには、地物を含む絶対座標による第2日時における第2三次元点群データファイルが記録されている。属性データサーバ装置60には、地物の外形を囲った絶対座標による外形領域データが記録されている。
4. Fourth embodiment
4.1 Overall Configuration Fig. 37 shows the overall configuration of a point cloud data management system according to a second embodiment of the present invention. A first three-dimensional point cloud data file at a first date and time based on absolute coordinates including features is recorded in the first point cloud server device 40a. A second three-dimensional point cloud data file at a second date and time based on absolute coordinates including features is recorded in the second point cloud server device 40b. Outline area data based on absolute coordinates that surrounds the outline of the features is recorded in the attribute data server device 60.

端末装置20は、これらサーバ装置と通信可能である。端末装置20の三次元点群データ取得手段22は、所望の地物の外形領域データを、属性データサーバ装置60から取得する。三次元点群データ取得手段22は、取得した地物の外形領域データに基づいて、第1点群サーバ装置40aにアクセスし、当該領域に含まれる三次元点群データを第1三次元点群データとして取得する。さらに、三次元点群データ取得手段22は、取得した地物の外形領域データに基づいて、第1点群サーバ装置40bにアクセスし、当該領域に含まれる三次元点群データを第2三次元点群データとして取得する。 The terminal device 20 is capable of communicating with these server devices. The three-dimensional point cloud data acquisition means 22 of the terminal device 20 acquires the contour area data of the desired feature from the attribute data server device 60. The three-dimensional point cloud data acquisition means 22 accesses the first point cloud server device 40a based on the acquired contour area data of the feature, and acquires the three-dimensional point cloud data included in the area as the first three-dimensional point cloud data. Furthermore, the three-dimensional point cloud data acquisition means 22 accesses the first point cloud server device 40b based on the acquired contour area data of the feature, and acquires the three-dimensional point cloud data included in the area as the second three-dimensional point cloud data.

経時変化取得手段25は、取得した第1日時における第1三次元点群データと第2日時における第2三次元点群データとに基づいて、第1日時と第2日時における地物の形状変化を算出する。
The time-dependent change acquisition means 25 calculates the change in shape of the feature between the first date and time and the second date and time based on the acquired first three-dimensional point cloud data at the first date and time and the acquired second three-dimensional point cloud data at the second date and time.

4.2システム構成
システム構成は、第3の実施形態と同じである。
4.2 System Configuration The system configuration is the same as in the third embodiment.

4.3経時変化算出処理
次に、公開された複数の三次元点群データに基づいて、地物の経時変化を取得する処理について説明する。
4.3 Calculation of Changes over Time Next, a process for obtaining changes over time of features based on multiple published 3D point cloud data will be described.

図38、図39に、地物の経時変化取得のフローチャートを示す。図において、端末装置として示しているのは端末プログラムのフローチャート、属性データサーバ装置として示しているのは属性データサーバプログラムのフローチャート、点群サーバ装置として示しているのは点群サーバプログラムのフローチャートである。 Figures 38 and 39 show flowcharts for acquiring changes over time in features. In the figures, the terminal device is shown as a flowchart of the terminal program, the attribute data server device is shown as a flowchart of the attribute data server program, and the point cloud server device is shown as a flowchart of the point cloud server program.

まず、端末装置20bのCPU80(以下端末装置20bと省略することがある)は、属性データサーバ60にアクセスし、所望の地物の存在する場所を指定する(ステップS11)。場所の指定は、たとえば緯度経度などで範囲を指定して行う。住所、地名を入力(あるいは検索)するようにし、これを緯度経度の範囲に変換してもよい。また、地図上でクリックや選択した範囲を緯度経度の範囲に変換してもよい。 First, the CPU 80 of the terminal device 20b (hereinafter sometimes abbreviated as terminal device 20b) accesses the attribute data server 60 and specifies the location where the desired feature is located (step S11). The location is specified by specifying a range using, for example, latitude and longitude. An address or place name may be entered (or searched), and this may be converted into a latitude and longitude range. Also, an area clicked or selected on the map may be converted into a latitude and longitude range.

これを受けて、属性サーバ装置60のCPU(以下属性サーバ装置と省略することがある)は、属性データを検索し当該指定された場所内にある外形領域データを抽出する(ステップS21)。属性サーバ装置60は、抽出した外形領域データ(平面形状データとその絶対座標における位置と高さ)、地物名などを端末装置20bに送信する。 In response to this, the CPU of the attribute server device 60 (hereinafter sometimes abbreviated as the attribute server device) searches the attribute data and extracts the contour area data within the specified location (step S21). The attribute server device 60 transmits the extracted contour area data (planar shape data and its position and height in absolute coordinates), feature name, etc. to the terminal device 20b.

端末装置20bは、受信した外形領域データに基づいて外形領域と地物名をディスプレイ84に表示する(ステップS12)。表示例を、図32に示す。各地物の外形領域102~112が示され、その近傍に地物名が示されている。 The terminal device 20b displays the outline area and the feature name on the display 84 based on the received outline area data (step S12). An example of the display is shown in FIG. 32. The outline areas 102-112 of each feature are shown, and the feature name is shown in their vicinity.

ユーザは、端末装置20bのマウス90を操作し、所望の地物の外形領域を選択する。ここでは、建物の外形領域110が選択されたものとして説明を進める。この選択を受けて、端末装置20bは、建物の外形領域110の外形領域データを指定して、三次元点群データの要求を各点群サーバ装置40a~40nに送信する(ステップS13)。 The user operates the mouse 90 of the terminal device 20b to select the outline region of the desired feature. Here, the explanation will proceed assuming that the outline region 110 of the building has been selected. In response to this selection, the terminal device 20b specifies the outline region data of the outline region 110 of the building and transmits a request for three-dimensional point cloud data to each of the point cloud server devices 40a to 40n (step S13).

この要求を受けた各点群サーバ装置40a~40nは、当該外形領域110内の三次元点群データを自らが保持しているかどうかを判断し、保持していれば返送する。ここでは、点群サーバ装置40a~40nのうち、点群サーバ装置40a、40bの2つが、建物の外形領域110の三次元点群データを保持しているものとして説明を進める。 Each point cloud server device 40a-40n that receives this request determines whether it holds the three-dimensional point cloud data for the outer region 110, and if so, returns it. Here, the explanation will proceed assuming that two of the point cloud server devices 40a-40n, point cloud server devices 40a and 40b, hold the three-dimensional point cloud data for the outer region 110 of the building.

点群サーバ装置40aのCPU(以下、点群サーバ装置40aと省略することがある)は、当該建物の外形領域110の三次元点群データを、端末装置20bに返信する(ステップS31)。 The CPU of the point cloud server device 40a (hereinafter sometimes abbreviated as point cloud server device 40a) returns the three-dimensional point cloud data of the exterior area 110 of the building to the terminal device 20b (step S31).

同様に、点群サーバ装置40bのCPU(以下、点群サーバ装置40bと省略することがある)は、当該建物の外形領域110の三次元点群データを、端末装置20bに返信する(ステップS41)。 Similarly, the CPU of the point cloud server device 40b (hereinafter sometimes abbreviated as point cloud server device 40b) returns the three-dimensional point cloud data of the exterior area 110 of the building to the terminal device 20b (step S41).

端末装置20bは、点群サーバ装置40aからの三次元点群データ(第1三次元点群データ)と、点群サーバ装置40bからの三次元点群データ(第2三次元点群データ)とを受信する。ここで、第1三次元点群データと第2三次元点群データは、実質的に同じ方向から地物を計測したものである。ただし、その計測日時が異なっている。 The terminal device 20b receives three-dimensional point cloud data (first three-dimensional point cloud data) from the point cloud server device 40a and three-dimensional point cloud data (second three-dimensional point cloud data) from the point cloud server device 40b. Here, the first three-dimensional point cloud data and the second three-dimensional point cloud data are measurements of features from substantially the same direction. However, the measurement dates and times are different.

端末装置20bは、第1三次元点群データに基づいて地物の第1日時における三次元モデルを生成する(ステップS17)。また、第2三次元点群データに基づいて地物の第2日時における三次元モデルを生成する(ステップS17)。 The terminal device 20b generates a three-dimensional model of the feature at the first date and time based on the first three-dimensional point cloud data (step S17). Also, the terminal device 20b generates a three-dimensional model of the feature at the second date and time based on the second three-dimensional point cloud data (step S17).

端末装置20bは、生成した第1日時の三次元モデルと第2日時の三次元モデルを、ディスプレイ84に比較可能に表示する(ステップS18)。たとえば、図40に示すように、第1日時の三次元モデル120と第2日時の三次元モデル122を表示する。その下には、地物名と計測年月日が示されている。したがって、図40の例であれば、2010年2月24日におけるビルの外形と、2019年3月5日におけるビルの外形が変化していることが比較して分かる。 The terminal device 20b displays the generated three-dimensional model for the first date and time and the three-dimensional model for the second date and time on the display 84 so that they can be compared (step S18). For example, as shown in FIG. 40, a three-dimensional model 120 for the first date and time and a three-dimensional model 122 for the second date and time are displayed. Below that, the name of the feature and the date of measurement are displayed. Therefore, in the example of FIG. 40, it can be seen by comparing the changes in the external shape of the building on February 24, 2010 and on March 5, 2019.

なお、比較を容易にするために、両者を異なる色で重ねて表示するようにしてもよい。 To make comparison easier, the two may be displayed overlapping each other in different colors.

また、たとえば、第1日時において地物が存在せず、第2日時において地物が存在するような状況があれば(たとえば、道路標識が新たに設置されたなど)、第2日時において当該場所の計測データがあれば地物の三次元点群データを得ることができる。ただし、第1日時において当該場所の計測データがあったとしても、地物の三次元点群データは得られない。したがって、これに基づく三次元モデルを表示することで、第1日時には地物がなく、第2日時には地物が存在することが明確となる。 In addition, for example, if there is a situation where a feature does not exist at the first date and time but does exist at the second date and time (for example, a new road sign has been installed), then if there is measurement data for that location at the second date and time, then 3D point cloud data for the feature can be obtained. However, even if there is measurement data for that location at the first date and time, 3D point cloud data for the feature cannot be obtained. Therefore, by displaying a 3D model based on this, it becomes clear that there was no feature at the first date and time but that there is a feature at the second date and time.

なお、上記のような経時比較の目的からは、地物に対する計測方向が同じ(あるいは類似した)三次元点群データを用いることが好ましい。
For the purpose of the above-mentioned time-series comparison, it is preferable to use three-dimensional point cloud data in which the measurement direction relative to the feature is the same (or similar).

4.4その他
(1)上記実施形態では、2つの日時における三次元点群データによってそれぞれ三次元モデルを生成し、比較を行うようにしている。しかし、3つ以上の日時における三次元点群データを取得して、それぞれ三次元モデルを生成し、比較を行うようにしてもよい。
4.4 Other
(1) In the above embodiment, a 3D model is generated using 3D point cloud data at two dates and times, and then a comparison is performed. However, 3D point cloud data at three or more dates and times may be acquired, and a 3D model may be generated for each of the 3D models, and then a comparison may be performed.

(2)上記実施形態では、一つの地物についての経時比較を行うようにしている。しかし、複数の地物についての経時比較を行うようにしてもよい。また、所定範囲内にある地物全てについての経時比較を行うようにしてもよい。 (2) In the above embodiment, a comparison over time is performed for one feature. However, a comparison over time may be performed for multiple features. Also, a comparison over time may be performed for all features within a specified range.

(3)上記実施形態では、端末装置20bが三次元点群データ要求を行っている(ステップS13)。しかし、属性データサーバ装置60がこれを行い、その結果を端末装置20bに送信するようにしてもよい。 (3) In the above embodiment, the terminal device 20b makes the 3D point cloud data request (step S13). However, the attribute data server device 60 may make this request and transmit the result to the terminal device 20b.

(6)上記実施形態では、端末装置20bにおいて三次元モデルの生成を行っている。しかし、属性データサーバ装置60にて行い、その結果を端末装置20bに送信するようにしてもよい。 (6) In the above embodiment, the three-dimensional model is generated in the terminal device 20b. However, it may be generated in the attribute data server device 60, and the result may be transmitted to the terminal device 20b.

(7)上記実施形態では、ステップS17において、端末装置20bが三次元点群データを取得した際に、各三次元点群データがいつ計測されたものであるかを表示していない。しかし、これを明確にするために、取得した三次元点群データに付されているデータに基づいて、図41に示すように、各三次元点群データの測定日時を表示するようにしてもよい。多くの日時の三次元点群データが存在する場合には、このような表示を行うことが好ましい。ユーザは、これを見て、比較したい年月日を所定数選択し、三次元モデルを表示させることができる。 (7) In the above embodiment, when the terminal device 20b acquires the three-dimensional point cloud data in step S17, it does not display when each piece of three-dimensional point cloud data was measured. However, to make this clearer, the measurement date and time of each piece of three-dimensional point cloud data may be displayed based on the data attached to the acquired three-dimensional point cloud data, as shown in FIG. 41. When there is three-dimensional point cloud data with many dates and times, it is preferable to display it in this manner. The user can view this, select a certain number of dates that they wish to compare, and display the three-dimensional model.

(8)上記実施形態および変形例は、その本質に反しない限り、他の実施形態と組み合わせて実行可能である。たとえば、同一日時(同一月や同一年でもよい)において異なる方向からの複数の三次元点群データがある場合には、合成三次元点群データを生成して三次元モデルを生成し、これを他の日時の三次元モデルと比較するようにしてもよい。 (8) The above embodiment and modified examples can be implemented in combination with other embodiments as long as they are not contrary to the essence of the embodiment and modified examples. For example, when there are multiple 3D point cloud data from different directions at the same date and time (or the same month or year), composite 3D point cloud data may be generated to generate a 3D model, which may then be compared with the 3D model at another date and time.

(9)上記実施形態では、第1点群サーバ装置40a、第2点群サーバ装置40bが別のサーバ装置として構築されていたが、単一のサーバ装置として構築されていてもよい。 (9) In the above embodiment, the first point cloud server device 40a and the second point cloud server device 40b are configured as separate server devices, but they may be configured as a single server device.

(10)上記実施形態では、第1点群サーバ装置40a、第2点群サーバ装置40bと属性データサーバ装置60とが別のサーバ装置として構築されていたが、単一のサーバ装置として構築されていてもよい。 (10) In the above embodiment, the first point cloud server device 40a, the second point cloud server device 40b, and the attribute data server device 60 were constructed as separate server devices, but they may also be constructed as a single server device.

(11)上記実施形態では、検索された動画データを端末装置において再生するようにしている。この際、当該動画を撮像した近傍の地図や三次元点群データなどを併せて表示するようにしてもよい。また、動画の再生に合致するように、時間とともに変化する撮像位置から見た三次元点群データを表示するようにしてもよい。 (11) In the above embodiment, the searched video data is played back on the terminal device. At this time, a map of the vicinity where the video was captured, three-dimensional point cloud data, etc. may be displayed together. Also, three-dimensional point cloud data as seen from an imaging position that changes over time may be displayed to match the playback of the video.

(12)上記実施形態では、2つの時点の地物の三次元モデルを比較表示するようにしている。しかし、両者について、三次元モデルの外形線の法線ベクトルを表示して、表面の角度変化を分かりやすくしてもよい。 (12) In the above embodiment, three-dimensional models of features at two points in time are displayed for comparison. However, the normal vectors of the outlines of the three-dimensional models may also be displayed for both to make the angle changes of the surface easier to understand.

また、微小エリア(25cm立方領域)に区分して、当該エリア内の点の数を比較して表示してもよい。これにより、地物表面の粗さ度合いを比較することができる。 It is also possible to divide the area into small areas (25 cm cubic areas) and compare and display the number of points within each area. This allows the degree of roughness of the surface of features to be compared.

さらにまた、各点や各エリアの反射強度を比較してもよい。これによって、表面の滑らかさを比較することができる。 Furthermore, the reflection intensity of each point or area can be compared, allowing the smoothness of the surface to be compared.

また、三次元モデルの体積を比較するようにしてもよい。これにより、植栽などの成長、葉の付き具合などを比較できる。 You can also compare the volumes of three-dimensional models. This allows you to compare the growth of plants, the amount of leaves, etc.

(13)上記実施形態および変形例は、その本質に反しない限り、他の実施形態と組み合わせて実行可能である。
(13) The above-described embodiments and variations can be implemented in combination with other embodiments as long as this does not go against the essence of the invention.

5.第5の実施形態
5.1全体構成
図42に、この発明の第5の実施形態による地物検索システムの機能ブロック図を示す。地物検索サーバ装置150の記録部158には、三次元点群データの地物名、外形領域、位置などの属性データ、動画データが記録されている。
5. Fifth embodiment
5.1 Overall Configuration Fig. 42 shows a functional block diagram of a feature search system according to the fifth embodiment of the present invention. The recording unit 158 of the feature search server device 150 records attribute data such as feature names, outer area, and positions of the three-dimensional point cloud data, as well as video data.

地物検索サーバ装置150の属性データ送信手段150は、記録部158に記録されている三次元点群データに対応する地物名または外形領域を読み出して、端末装置40に送信する。端末装置40の地物属性データ表示手段182は受信した地物の地物名または外形領域を、表示部188に表示する。 The attribute data transmission means 150 of the feature search server device 150 reads out the feature name or outer area corresponding to the three-dimensional point cloud data recorded in the recording unit 158 and transmits it to the terminal device 40. The feature attribute data display means 182 of the terminal device 40 displays the feature name or outer area of the received feature on the display unit 188.

端末装置40を操作する操作者は、マウス90を用いて表示された地物の地物名または外形領域を見て、動画を検索したい地物を選択する。選択情報送信手段184は、いずれの地物が選択されたかを、地物検索サーバ装置150に送信する。 The operator operating the terminal device 40 uses the mouse 90 to view the feature name or outline area of the displayed feature and select the feature for which he or she wishes to search for video. The selection information transmission means 184 transmits to the feature search server device 150 which feature has been selected.

地物検索サーバ装置150の地物位置取得手段154は、選択された地物の位置を取得する。動画データ送信手段156は、動画データを時間順に探索し、地物位置の近傍の撮像位置情報が付された部分を抽出する。抽出した動画データを、端末装置40に送信する。端末装置40の動画再生手段186は、受信した動画データを表示部188において再生する。 The feature position acquisition means 154 of the feature search server device 150 acquires the position of the selected feature. The video data transmission means 156 searches the video data in chronological order and extracts the portion with the imaging position information near the feature position. The extracted video data is transmitted to the terminal device 40. The video playback means 186 of the terminal device 40 plays the received video data on the display unit 188.

これにより、膨大な量の動画データ中から、所望の地物が撮像されている箇所を容易に検索して表示することができる。
This makes it possible to easily search for and display locations where desired features are captured from a huge amount of video data.

5.2システム構成
図43に、第3の実施形態による点群データ管理システムのシステム構成を示す。インターネット上には点群サーバ装置40a、40b・・・40nが設けられている。また、地物検索サーバ装置62も設けられている。点群サーバ装置40a、40b・・・40nには、計測された地物の三次元点群データと計測時に撮像された動画データ(撮像位置情報付き)が記録されている。地物検索サーバ装置62には、図11に示すような属性データが記録されている。これらサーバ装置40a、40b・・・40n、60に、インターネットを介して通信可能に端末装置20a、20b・・・20nが設けられている。
5.2 System Configuration Figure 43 shows the system configuration of a point cloud data management system according to the third embodiment. Point cloud server devices 40a, 40b, ..., 40n are provided on the Internet. A feature search server device 62 is also provided. The point cloud server devices 40a, 40b, ..., 40n store three-dimensional point cloud data of measured features and video data (with image capture position information) captured during measurement. The feature search server device 62 stores attribute data as shown in Figure 11. The server devices 40a, 40b, ..., 40n, 60 are provided with terminal devices 20a, 20b, ..., 20n that are capable of communicating via the Internet.

端末装置20のハードウエア構成は、図29と同様である。点群サーバ装置40、地物検索サーバ装置62も、同様のハードウエア構成である。ただし、点群サーバ装置40においては、端末プログラム96に代えて、点群サーバプログラムが記録されている。また、地物検索サーバ装置62においては、端末プログラム96に代えて、地物検索サーバプログラムが記録されている。
The hardware configuration of the terminal device 20 is the same as that shown in Fig. 29. The point cloud server device 40 and the feature search server device 62 also have the same hardware configuration. However, in the point cloud server device 40, a point cloud server program is recorded instead of the terminal program 96. Also, in the feature search server device 62, a feature search server program is recorded instead of the terminal program 96.

5.3地物検索処理
図44に、地物検索のフローチャートを示す。図において、端末装置として示しているのは端末プログラムのフローチャート、地物検索サーバ装置として示しているのは地物検索サーバプログラムのフローチャートである。
5.3 Feature Search Processing A flowchart for feature search is shown in Figure 44. In the figure, what is shown as the terminal device is a flowchart of a terminal program, and what is shown as the feature search server device is a flowchart of a feature search server program.

まず、端末装置20bのCPU80(以下端末装置20bと省略することがある)は、地物検索サーバ装置62にアクセスし、所望の地物の存在する場所を指定する(ステップS11)。場所の指定は、たとえば緯度経度などで範囲を指定して行う。住所、地名を入力(あるいは検索)するようにし、これを緯度経度の範囲に変換してもよい。また、地図上でクリックや選択した範囲を緯度経度の範囲に変換してもよい。 First, the CPU 80 of the terminal device 20b (hereinafter sometimes abbreviated as terminal device 20b) accesses the feature search server device 62 and specifies the location where the desired feature is located (step S11). The location is specified by specifying a range using, for example, latitude and longitude. An address or place name may be entered (or searched), and this may be converted into a latitude and longitude range. Also, an area clicked or selected on the map may be converted into a latitude and longitude range.

これを受けて、地物検索サーバ装置62のCPU(以下地物検索サーバ装置62と省略することがある)は、属性データを検索し当該指定された場所内にある外形領域データを抽出する(ステップS51)。地物検索サーバ装置62は、抽出した外形領域データ(平面形状データとその絶対座標における位置と高さ)、地物名などを端末装置20bに送信する。 In response to this, the CPU of the feature search server device 62 (hereinafter sometimes abbreviated as feature search server device 62) searches the attribute data and extracts the outline area data within the specified location (step S51). The feature search server device 62 transmits the extracted outline area data (planar shape data and its position and height in absolute coordinates), feature name, etc. to the terminal device 20b.

端末装置20bは、受信した外形領域データに基づいて外形領域と地物名をディスプレイ84に表示する(ステップS12)。表示例を、図32に示す。各地物の外形領域102~112が示され、その近傍に地物名が示されている。 The terminal device 20b displays the outline area and the feature name on the display 84 based on the received outline area data (step S12). An example of the display is shown in FIG. 32. The outline areas 102-112 of each feature are shown, and the feature name is shown in their vicinity.

ユーザは、端末装置20bのマウス90を操作し、所望の地物の外形領域を選択する。ここでは、標識の外形領域106が選択されたものとして説明を進める。この選択を受けて、端末装置20bは、標識の外形領域106の外形領域データを指定して、この標識が撮像されている動画の部分を検索する指示を、地物検索サーバ装置62に送信する(ステップS19)。 The user operates the mouse 90 of the terminal device 20b to select the outline region of the desired feature. Here, the explanation will proceed assuming that the outline region 106 of the sign has been selected. In response to this selection, the terminal device 20b specifies the outline region data of the sign's outline region 106 and transmits an instruction to the feature search server device 62 to search for the part of the video in which this sign is captured (step S19).

地物検索サーバ装置62は、指定された地物の属性データを読み出し、地物の位置(絶対座標による位置)を取得する(ステップS52)。次に、地物検索サーバ装置62は、この地物位置に基づいて、撮像動画データ162において当該地物が撮像されている部分を抽出する(ステップS53)。 The feature search server device 62 reads the attribute data of the specified feature and obtains the location of the feature (position in absolute coordinates) (step S52). Next, the feature search server device 62 extracts the portion of the captured video data 162 in which the feature is captured based on this feature location (step S53).

図45に、撮像動画データ162のデータ構成を示す。動画本体データ170に関連づけて、撮像時刻を示すタイムスタンプTS1、TS2・・・が関連づけて記録されている。また、撮像したカメラ(もしくはカメラを搭載した車など)の位置が絶対座標にて記録されている。また、図示していないが、撮像動画データ162には、当該動画全体としての撮像エリア情報が関連づけられて記録されている。 Figure 45 shows the data structure of the captured video data 162. Time stamps TS1, TS2, ... indicating the time of capture are associated and recorded in association with the main video data 170. The position of the camera (or the car equipped with the camera) that captured the video is also recorded in absolute coordinates. Although not shown, the captured video data 162 is also associated and recorded with information on the imaging area of the video as a whole.

図46に撮像エリア情報の考え方を示す。実線で示すのが撮像経路Rである。開始点Sから撮像を開始し、終了点Eまで撮像を行ったことが示されている。この撮像経路Rを外包する破線にて示すのが撮像エリアARである。撮像エリアARは、たとえば、対角の絶対座標(撮像エリア情報)によって特定される。 Figure 46 shows the concept of imaging area information. The imaging path R is shown by a solid line. It shows that imaging started from a starting point S and continued to an end point E. The imaging area AR is shown by a dashed line that circumscribes this imaging path R. The imaging area AR is specified, for example, by the absolute coordinates of the diagonal (imaging area information).

図47に、ステップS53の動画部分の抽出処理の詳細を示す。地物検索サーバ装置62は、検索対象である地物の位置に基づいて、当該計測位置が撮像エリア内に含まれる動画データ162を選択する(ステップS531)。このようにして選択された動画データ162には、地物を撮像した部分が含まれる可能性がある。地物検索サーバ装置62は、選択された動画データ162のそれぞれについて、当該撮像された部分があるかどうかを検索する。 Figure 47 shows details of the video portion extraction process in step S53. Based on the position of the feature to be searched, the feature search server device 62 selects video data 162 whose measurement position is included in the imaging area (step S531). The video data 162 selected in this way may include a portion in which the feature is imaged. The feature search server device 62 searches each of the selected video data 162 to see if the imaged portion is present.

ステップS533において、地物検索サーバ装置62は、動画データ162に記録された撮像位置を時刻順に読み出す(ステップS533)。図45の例であれば、撮像位置PS1、PS2・・・PSnを読み出すことになる。 In step S533, the feature search server device 62 reads out the imaging positions recorded in the video data 162 in chronological order (step S533). In the example of Figure 45, imaging positions PS1, PS2, ... PSn would be read out.

地物検索サーバ装置62は、読み出した撮像位置PS1、PS2・・・PSnのうち、最も地物の位置に近い撮像位置PSfを特定する(ステップS534)。地物検索サーバ装置62は、最も近い撮像位置PSfと地物位置との距離が所定値以下であるかどうかを判断する(ステップS535)。所定値以下であれば、当該箇所に地物が撮像されていることになる。地物検索サーバ装置62は、特定した撮像位置PSfの前後所定時間分の動画データを抽出する(ステップS536)。撮像位置PSfと地物位置との距離が所定値を超えていれば、動画部分の抽出は行わない。 The feature search server device 62 identifies the imaging position PSf that is closest to the location of the feature among the retrieved imaging positions PS1, PS2, ..., PSn (step S534). The feature search server device 62 determines whether the distance between the closest imaging position PSf and the feature position is equal to or less than a predetermined value (step S535). If it is equal to or less than the predetermined value, it means that the feature has been captured at that location. The feature search server device 62 extracts video data for a predetermined time before and after the identified imaging position PSf (step S536). If the distance between the imaging position PSf and the feature position exceeds the predetermined value, the video portion is not extracted.

以上の処理を、ステップS531にて選択した動画全てについて行う(ステップS532、S537)。 The above process is performed for all videos selected in step S531 (steps S532, S537).

以上のようにして、動画データの部分を抽出すると、地物検索サーバ装置62は、これを端末装置20bに送信する(ステップS54)。 Once the video data portion has been extracted in this manner, the feature search server device 62 transmits it to the terminal device 20b (step S54).

端末装置20bは、これを受けて、ディスプレイ84に抽出した動画データの部分を表示する(ステップS20)。なお、複数の動画データがある場合には、再生前に、撮像日時とともに動画データを一覧表示し、ユーザに選択させて再生することが好ましい。 In response to this, the terminal device 20b displays the extracted portion of the video data on the display 84 (step S20). Note that if there is more than one video data, it is preferable to display a list of the video data together with the shooting date and time before playback, and allow the user to select one to play.

ユーザは、この動画を見て、検索対象とした地物の状況を画像として把握することができる。たとえば、図32の画面表示にて特定することが可能な地物の状態(ボルトやナットに付された緩み検出マーク(たとえば合いマーク)の確認、外観劣化状況の確認など)を知りたい時などに用いることができる。 The user can view this video and understand the condition of the feature that was the subject of the search as an image. For example, this can be used when wanting to know the condition of the feature that can be identified using the screen display in Figure 32 (checking looseness detection marks (e.g., match marks) on bolts and nuts, checking the deterioration of the appearance, etc.).

なお、上記の検出マークの確認や、外観劣化状況の確認は、画像処理やAIによって端末装置が行うようにしてもよい。
In addition, the above detection marks and the appearance deterioration status may be checked by the terminal device using image processing or AI.

5.4その他
(1)上記実施形態では、属性データの地物位置および動画データの撮像位置を絶対座標にて示している。したがって、動画データのそれぞれに対応する属性データを用意しなくとも、属性データが一つあれば複数の動画データから地物を検索することができる。
5.4 Other
(1) In the above embodiment, the feature positions in the attribute data and the capture positions in the video data are expressed in absolute coordinates. Therefore, even if attribute data corresponding to each piece of video data is not prepared, one piece of attribute data is enough to search for features in multiple pieces of video data.

なお、各動画データに対応して属性データを設ける場合であれば、地物位置および撮像位置は、両データ間で整合が取れていればよく絶対座標とする必要はない。また、動画データに対応した属性データがある場合には、地物位置と撮像位置に基づく検索ではなく、地物の三次元点群データを作成した日時と撮影日時に基づく検索を行うこともできる。 If attribute data is provided for each video data, the feature position and image capture position do not need to be absolute coordinates as long as they are consistent between the two data. Also, if there is attribute data for the video data, it is possible to perform searches based on the date and time when the 3D point cloud data of the feature was created and the date and time when it was photographed, rather than searches based on the feature position and image capture position.

(2)上記実施形態では、図32に示すように外形領域と地物名とによって検索したい地物を特定するようにしている。しかし、外形領域を表示せず、地物名だけを表示してユーザに選択させるようにしてもよい。 (2) In the above embodiment, the feature to be searched for is specified by the outline area and the feature name as shown in FIG. 32. However, it is also possible to display only the feature name without displaying the outline area and to allow the user to select it.

(3)上記実施形態では、地物が撮像されている動画の部分を抽出して再生するようにしている。しかし、これに加えて、動画中の地物にマークを施して再生するようにしてもよい。 (3) In the above embodiment, the portion of the video in which the feature is captured is extracted and played back. However, in addition to this, the feature may be marked in the video and played back.

地物検索サーバ装置62は、以下のような処理を行うことで、これを実現することができる。たとえば、図48に示すような地物の外形領域があるとき、標識106を検索対象としたとする。この外形領域が配置された空間に、動画を撮像した際の軌跡200を描く。この軌跡200には時刻が付されているので各点における撮像時刻を知ることができる。各撮像時刻t1、t2・・・において、対象とする地物106がいずれの方向に、どのような距離で存在するかを判定する。 The feature search server device 62 can achieve this by carrying out the following process. For example, suppose there is an outline area of a feature as shown in FIG. 48, and a sign 106 is the search target. In the space in which this outline area is located, a trajectory 200 is drawn when a video is captured. Since time is added to this trajectory 200, it is possible to know the image capture time at each point. At each image capture time t1, t2, ..., it is determined in which direction and at what distance the target feature 106 exists.

この方向と距離に基づいて、撮像動画の対応する同時刻において、地物106がどのように撮像されるかを算出する。このようにして生成した地物106の外形領域の各時刻における見え方を、抽出した動画に重ねて、端末装置20bに送信する。 Based on this direction and distance, it calculates how the feature 106 is captured at the corresponding time in the captured video. The appearance of the outer region of the feature 106 generated in this way at each time is superimposed on the extracted video and transmitted to the terminal device 20b.

端末装置20bにおいてこれを再生すると、図49に示すように、画像中の目的とする地物を囲うように外形領域の枠が表示されることになる。したがって、ユーザは、目的とする地物を容易に動画中から見いだすことができる。 When this is played back on the terminal device 20b, as shown in FIG. 49, a frame of the outline area is displayed to surround the desired feature in the image. Therefore, the user can easily find the desired feature in the video.

(4)上記実施形態では、点群サーバ装置40と検索サーバ装置62とが別のサーバ装置として構築されていたが、単一のサーバ装置として構築されていてもよい。 (4) In the above embodiment, the point cloud server device 40 and the search server device 62 are constructed as separate server devices, but they may also be constructed as a single server device.

(5)上記実施形態では、動画を検索する場合について説明した。しかし、同様の処理にて、撮像場所と撮像時間の付された静止画を検索することもできる。 (5) In the above embodiment, a case where videos are searched for is described. However, still images with the shooting location and shooting time can also be searched for using the same process.

(6)上記実施形態および変形例は、その本質に反しない限り、他の実施形態と組み合わせて実行可能である。
(6) The above-described embodiments and variations can be implemented in combination with other embodiments as long as this does not go against the essence of the invention.

Claims (6)

サーバ装置と当該サーバ装置と通信可能な携帯端末装置とを備えた地物管理システムであって、
前記サーバ装置は、
地物を含む三次元点群データおよび過去の撮像位置、撮像方向を記録する記録部と、
前記過去の撮像位置、撮像方向に基づいて、地物の三次元点群データまたはその三次元モデルを平面に投影して過去二次元投影画像を生成し、端末装置に送信する過去二次元投影画像生成手段とを備え、
前記端末装置は、
地物を撮像するためのカメラのファインダー画像に、サーバ装置から受信した過去二次元投影画像を透過画像として重ねて表示部に表示する表示手段とを備えたことを特徴とする地物管理システム。
A feature management system including a server device and a mobile terminal device capable of communicating with the server device,
The server device includes:
a recording unit that records three-dimensional point cloud data including features, as well as past imaging positions and imaging directions;
a past two-dimensional projection image generating means for generating a past two-dimensional projection image by projecting the three-dimensional point cloud data of the feature or the three-dimensional model thereof onto a plane based on the past imaging positions and imaging directions, and transmitting the generated past two-dimensional projection image to a terminal device;
The terminal device
A feature management system comprising: a display means for displaying, on a display unit, a past two-dimensional projection image received from a server device superimposed as a transparent image on a viewfinder image of a camera for capturing images of the feature.
地物を含む三次元点群データおよび過去の撮像位置、撮像方向を記録する記録部と、
前記過去の撮像位置、撮像方向に基づいて、地物の三次元点群データまたはその三次元モデルを平面に投影して過去二次元投影画像を生成し、携帯端末装置に送信する過去二次元投影画像生成手段と、
を備えたサーバ装置。
a recording unit that records three-dimensional point cloud data including features, as well as past imaging positions and imaging directions;
a past two-dimensional projection image generating means for generating a past two-dimensional projection image by projecting the three-dimensional point cloud data of the feature or the three-dimensional model thereof onto a plane based on the past imaging positions and imaging directions, and transmitting the past two-dimensional projection image to a mobile terminal device;
A server device comprising:
請求項2のサーバ装置において、
当該サーバ装置は、互いに通信可能な複数の装置を有しており、
前記複数の装置は前記三次元点群データを記録した点群サーバ装置と、前記過去二次元投影画像生成手段を有し、前記過去の撮像位置、撮像方向を記録した属性サーバ装置とを備えることを特徴とするサーバ装置。
3. The server device according to claim 2,
The server device has a plurality of devices that can communicate with each other,
The plurality of devices are characterized in that they include a point cloud server device that records the three-dimensional point cloud data, and an attribute server device that has the past two-dimensional projection image generation means and records the past imaging positions and imaging directions.
コンピュータによってサーバ装置を実現するためのサーバプログラムであって、コンピュータを、
記録部に記録された地物を含む三次元点群データおよび過去の撮像位置、撮像方向に基づいて、地物の三次元点群データまたはその三次元モデルを平面に投影して過去二次元投影画像を生成し、端末装置に送信する過去二次元投影画像生成手段として機能させるためのサーバプログラム。
A server program for implementing a server device by a computer, the server program comprising:
A server program for functioning as a past two-dimensional projection image generation means that projects the three-dimensional point cloud data of the feature or its three-dimensional model onto a plane based on the three-dimensional point cloud data including the feature recorded in the recording unit and the past imaging positions and imaging directions, thereby generating a past two-dimensional projection image and transmitting it to a terminal device.
請求項4のサーバプログラムにおいて、
前記サーバ装置は、互いに通信可能な複数の装置を有しており、
前記複数の装置は前記三次元点群データを記録した点群サーバ装置と、前記過去二次元投影画像生成手段を有し、前記過去の撮像位置、撮像方向を記録した属性サーバ装置とを備えることを特徴とするサーバプログラム。
The server program according to claim 4,
The server device has a plurality of devices that can communicate with each other,
A server program characterized in that the plurality of devices include a point cloud server device that records the three-dimensional point cloud data, and an attribute server device that has the past two-dimensional projection image generation means and records the past imaging positions and imaging directions.
地物を含む三次元点群データおよび過去の撮像位置、撮像方向を記録しておき、
前記過去の撮像位置、撮像方向に基づいて、地物の三次元点群データまたはその三次元モデルを平面に投影して過去二次元投影画像を生成し、
カメラのファインダー画像に、過去二次元投影画像を重ねて表示することを特徴とする地物管理方法。

Record three-dimensional point cloud data including features, as well as past imaging positions and imaging directions,
generating a past two-dimensional projection image by projecting the three-dimensional point cloud data of the feature or the three-dimensional model thereof onto a plane based on the past imaging positions and imaging directions;
A feature management method characterized in that a past two-dimensional projected image is superimposed and displayed on a camera viewfinder image.

JP2023051608A 2019-03-29 2023-03-28 Feature Management System Active JP7467722B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023051608A JP7467722B2 (en) 2019-03-29 2023-03-28 Feature Management System
JP2024010759A JP2024039070A (en) 2019-03-29 2024-01-29 Feature management system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019065920A JP7307908B2 (en) 2019-03-29 2019-03-29 Feature management system
JP2023051608A JP7467722B2 (en) 2019-03-29 2023-03-28 Feature Management System

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019065920A Division JP7307908B2 (en) 2019-03-29 2019-03-29 Feature management system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024010759A Division JP2024039070A (en) 2019-03-29 2024-01-29 Feature management system

Publications (2)

Publication Number Publication Date
JP2023083310A JP2023083310A (en) 2023-06-15
JP7467722B2 true JP7467722B2 (en) 2024-04-15

Family

ID=72716588

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019065920A Active JP7307908B2 (en) 2019-03-29 2019-03-29 Feature management system
JP2023051608A Active JP7467722B2 (en) 2019-03-29 2023-03-28 Feature Management System
JP2024010759A Pending JP2024039070A (en) 2019-03-29 2024-01-29 Feature management system

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019065920A Active JP7307908B2 (en) 2019-03-29 2019-03-29 Feature management system

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024010759A Pending JP2024039070A (en) 2019-03-29 2024-01-29 Feature management system

Country Status (1)

Country Link
JP (3) JP7307908B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012168098A (en) 2011-02-16 2012-09-06 Aisin Aw Co Ltd Photographic position specification system, photographic position specification program, and method for specifying photographic position
US20140368621A1 (en) 2012-02-29 2014-12-18 JVC Kenwood Corporation Image processing apparatus, image processing method, and computer program product
WO2017164288A1 (en) 2016-03-24 2017-09-28 日本電気株式会社 System, terminal, method, and program for displaying images
JP2018077837A (en) 2016-10-28 2018-05-17 Jfeスチール株式会社 Position recognition method and system, and abnormality determination method and system
JP2018165726A (en) 2014-11-19 2018-10-25 首都高技術株式会社 Point group data utilization system
CN108871314A (en) 2018-07-18 2018-11-23 江苏实景信息科技有限公司 A kind of positioning and orientation method and device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012168098A (en) 2011-02-16 2012-09-06 Aisin Aw Co Ltd Photographic position specification system, photographic position specification program, and method for specifying photographic position
US20140368621A1 (en) 2012-02-29 2014-12-18 JVC Kenwood Corporation Image processing apparatus, image processing method, and computer program product
JP2018165726A (en) 2014-11-19 2018-10-25 首都高技術株式会社 Point group data utilization system
WO2017164288A1 (en) 2016-03-24 2017-09-28 日本電気株式会社 System, terminal, method, and program for displaying images
JP2018077837A (en) 2016-10-28 2018-05-17 Jfeスチール株式会社 Position recognition method and system, and abnormality determination method and system
CN108871314A (en) 2018-07-18 2018-11-23 江苏实景信息科技有限公司 A kind of positioning and orientation method and device

Also Published As

Publication number Publication date
JP2020165778A (en) 2020-10-08
JP2024039070A (en) 2024-03-21
JP7307908B2 (en) 2023-07-13
JP2023083310A (en) 2023-06-15

Similar Documents

Publication Publication Date Title
JP7553903B2 (en) Point Cloud Data Management System
KR100912715B1 (en) Method and apparatus of digital photogrammetry by integrated modeling for different types of sensors
US9798928B2 (en) System for collecting and processing aerial imagery with enhanced 3D and NIR imaging capability
US8958980B2 (en) Method of generating a geodetic reference database product
KR102200299B1 (en) A system implementing management solution of road facility based on 3D-VR multi-sensor system and a method thereof
US20100118116A1 (en) Method of and apparatus for producing a multi-viewpoint panorama
US20070061076A1 (en) Navigation and inspection system
CN111540048A (en) Refined real scene three-dimensional modeling method based on air-ground fusion
KR20110044217A (en) Method of displaying navigation data in 3d
JP2011170599A (en) Outdoor structure measuring instrument and outdoor structure measuring method
CA3040599C (en) Method and system for generating environment model and for positioning using cross-sensor feature point referencing
JP2009140402A (en) Information display device, information display method, information display program, and recording medium with recorded information display program
WO2010068185A1 (en) Method of generating a geodetic reference database product
CN111220156B (en) Navigation method based on city live-action
JP7467722B2 (en) Feature Management System
TW201024664A (en) Method of generating a geodetic reference database product
Cho 3D organization of 2D urban imagery
Hamruni The use of oblique and vertical images for 3D urban modelling
US20220390252A1 (en) Use of predefined (pre-built) graphical representations of roads for autonomous driving of vehicles and display of route planning
WO2024062602A1 (en) Three-dimensionalization system, three-dimensionalization method, and recording medium for recording program
Al-Hanbali et al. Building 3D GIS modeling applications in Jordan: methodology and implementation aspects
Praschl et al. Towards an Automated System for Reverse Geocoding of Aerial Photographs
Barazzetti et al. Recognizing landscapes: can we change the point of view of geographic data
CN118864778A (en) Virtual-actual fusion method, device, equipment and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240319

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240401

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240403

R150 Certificate of patent or registration of utility model

Ref document number: 7467722

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150