JP5473683B2 - Feature detection system - Google Patents
Feature detection system Download PDFInfo
- Publication number
- JP5473683B2 JP5473683B2 JP2010051920A JP2010051920A JP5473683B2 JP 5473683 B2 JP5473683 B2 JP 5473683B2 JP 2010051920 A JP2010051920 A JP 2010051920A JP 2010051920 A JP2010051920 A JP 2010051920A JP 5473683 B2 JP5473683 B2 JP 5473683B2
- Authority
- JP
- Japan
- Prior art keywords
- feature
- camera image
- points
- unit
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Processing Or Creating Images (AREA)
Description
この発明は、レーザ点群とカメラ画像とを用いて、例えば道路周辺に設けられた地物を検出する地物検出システムに関する。 The present invention relates to a feature detection system that detects, for example, a feature provided around a road using a laser point cloud and a camera image.
近年、GPS受信機、ジャイロスコープ、レーザ、カメラ等を搭載した車両を走行させながら、周辺のカメラ画像やレーザ測量データを3次元で連続的に取得するモービルマッピングシステムが発展している。モービルマッピングシステムは、高精度地図作成等の技術への適用が主に期待されている。 2. Description of the Related Art In recent years, mobile mapping systems have been developed that continuously acquire surrounding camera images and laser survey data in three dimensions while driving a vehicle equipped with a GPS receiver, gyroscope, laser, camera, and the like. The mobile mapping system is mainly expected to be applied to technologies such as high-precision map creation.
高精度な地図を作成するには、モービルマッピングシステムによって取得した映像やレーザ測量データから、屋外の建物や広告といった地物を検出し、必要な情報を抜き出す必要がある。
ここで、レーザ測量は、車両からの距離を主に求めるものであり、そこから位置(点)を求めるので、その位置は車両の位置に依存する。位置測量技術は、GPS衛星等を利用して、高精度な測位を行うことが可能となっている。
In order to create a highly accurate map, it is necessary to detect features such as outdoor buildings and advertisements from video and laser survey data acquired by the mobile mapping system and extract necessary information.
Here, the laser survey mainly obtains the distance from the vehicle, and the position (point) is obtained therefrom, and the position depends on the position of the vehicle. The position surveying technique can perform highly accurate positioning using a GPS satellite or the like.
なお、レーザ測量では、レーザの反射により、何かがあることは分かるものの、その対象が何であるかは分からないので、地物の判別にはカメラ画像等を必要とする。すなわち、レーザ測量データの集合(点の集合、以下「点群」と称する)、カメラ画像およびカメラ画像の撮影位置に基づいて、点群がカメラ画像のどの位置にマッピングされるかを求めることにより、点群がどの地物に属するかを判別することができる。 In laser surveying, it is known that there is something due to the reflection of the laser, but it is not known what the object is, so a camera image or the like is required to identify the feature. That is, by determining to which position in the camera image the point cloud is mapped based on a set of laser survey data (a set of points, hereinafter referred to as “point cloud”), a camera image, and a shooting position of the camera image. The feature to which the point cloud belongs can be determined.
一方、点群が地物にどの程度乗るか、すなわちレーザが地物にどの程度当たっているかは、測量状況に依存する。また、点群は、離散的に存在するので、地物全体を網羅することができない場合がある。そのため、点群、カメラ画像およびカメラ画像の撮影位置だけでは、地物の検出を十分に行うことができないという問題があった。 On the other hand, how much the point cloud rides on the feature, that is, how much the laser hits the feature depends on the surveying situation. Moreover, since the point cloud exists discretely, there are cases where the entire feature cannot be covered. Therefore, there has been a problem that the feature cannot be sufficiently detected only by the point cloud, the camera image, and the shooting position of the camera image.
このような問題を解決するために、カメラ画像上において地物の範囲に相当する多角形の領域を指定し、指定した多角形の領域に含まれる点群を抽出して、抽出した点群から地物の含まれる実平面を算出する3次元モデル構築システムが知られている(例えば、特許文献1参照)。 In order to solve such a problem, a polygonal area corresponding to the range of the feature is designated on the camera image, a point cloud included in the designated polygonal area is extracted, and the extracted point cloud is used. A three-dimensional model construction system that calculates a real plane including a feature is known (see, for example, Patent Document 1).
しかしながら、従来技術には、以下のような課題がある。
従来の3次元モデル構築システムでは、指定した多角形の領域が実際の地物よりも大きい場合、例えば図7に示されるように、対象とする地物の後方にある別の地物に当たった点群が、実平面の候補として加えられる恐れがある。その結果、地物の含まれる実平面が曲がったり、ずれたりするという問題がある。
However, the prior art has the following problems.
In the conventional 3D model construction system, when the specified polygonal area is larger than the actual feature, for example, as shown in FIG. 7, it hits another feature behind the target feature. A point cloud may be added as a candidate for the real plane. As a result, there is a problem that the actual plane including the feature is bent or displaced.
この発明は、上記のような課題を解決するためになされたものであり、地物の含まれる実平面を高精度に算出し、地物の位置および大きさを正確に検出することができる地物検出システムを得ることを目的とする。 The present invention has been made in order to solve the above-described problems, and can calculate a real plane including a feature with high accuracy and accurately detect the position and size of the feature. The object is to obtain an object detection system.
この発明に係る地物検出システムは、対象とする地物の周辺のカメラ画像が記憶された画像記憶手段と、地物の周辺のレーザ測量データが、点群データとしてカメラ画像と関連づけて記憶された測量データ記憶手段と、画像記憶手段に記憶されたカメラ画像を表示する表示手段と、表示手段に表示されたカメラ画像上の2点を指定する指定手段と、指定手段で指定された2点の中点から所定の距離の範囲内に含まれる点群を測量データ記憶手段から抽出し、抽出した点群から地物の含まれる平面を算出するとともに、指定手段で指定された2点を算出された平面上にマッピングして、地物の位置および大きさを検出する地物検出手段とを備えたものである。 The feature detection system according to the present invention stores image storage means in which camera images around a target feature and laser survey data around the feature are associated with the camera image as point cloud data. Surveying data storage means, display means for displaying the camera image stored in the image storage means, designation means for designating two points on the camera image displayed on the display means, and two points designated by the designation means A point cloud included within a predetermined distance from the middle point is extracted from the survey data storage means, the plane containing the feature is calculated from the extracted point cloud, and the two points designated by the designation means are calculated. And a feature detection means for detecting the position and size of the feature by mapping on the plane.
この発明に係る地物検出システムによれば、地物検出手段は、指定手段で指定された2点の中点から所定の距離の範囲内に含まれる点群を測量データ記憶手段から抽出し、抽出した点群から対象とする地物の含まれる平面を算出するとともに、指定手段で指定された2点を算出された平面上にマッピングして、地物の位置および大きさを検出する。
そのため、地物の含まれる実平面を高精度に算出し、地物の位置および大きさを正確に検出することができる。
According to the feature detection system of the present invention, the feature detection means extracts from the survey data storage means a point group included within a predetermined distance from the midpoint of the two points designated by the designation means, A plane including the target feature is calculated from the extracted point group, and two points designated by the designation unit are mapped on the calculated plane to detect the position and size of the feature.
Therefore, it is possible to calculate the actual plane including the feature with high accuracy and accurately detect the position and size of the feature.
以下、この発明の地物検出システムの好適な実施の形態につき図面を用いて説明するが、各図において同一、または相当する部分については、同一符号を付して説明する。 Hereinafter, preferred embodiments of the feature detection system of the present invention will be described with reference to the drawings. In the drawings, the same or corresponding parts will be described with the same reference numerals.
まず、屋外の地物の含まれる実平面を算出する際、地物の端点を使用すると、上述したように、算出される実平面が、実際のものから曲がったり、ずれたりするという問題がある。そのため、地物のできる限り中側の点を使用することが望ましい。すなわち、中側の点のみで実平面を算出することができれば、外側の点(端点)を使用しないほうが、むしろ誤差が少なくなると考えられる。 First, when calculating an actual plane that includes outdoor features, if the end points of the feature are used, the calculated actual plane may be bent or deviated from the actual one as described above. . Therefore, it is desirable to use the middle point of the feature as much as possible. That is, if the real plane can be calculated using only the middle point, it is considered that the error is rather reduced if the outer point (end point) is not used.
ただし、地物の中側の点を指定するだけでは、地物の範囲を算出することができないので、地物の範囲を別途指定する必要がある。地物の中側の点および地物の範囲の2つの情報があれば、地物の占有する範囲を算出することができる。 However, since the range of the feature cannot be calculated simply by specifying the point inside the feature, it is necessary to separately specify the range of the feature. If there are two pieces of information on the inside point of the feature and the range of the feature, the range occupied by the feature can be calculated.
そこで、以下の実施の形態では、地物の両端の2点を指定することにより、地物の範囲、すなわち地物の位置および大きさを算出(検出)するシステムを提案する。両端の2点の中点は、地物の中に入るので、この中点を中心として一定範囲を点群の範囲とすることにより、不必要な点群を排除することができ、結果的に地物の含まれる実平面を高精度に算出することができる。ここで、一定範囲とは、例えば中点から両端点までの距離をベースにして、この距離の半分までとするといったものが考えられる。 Therefore, in the following embodiment, a system for calculating (detecting) a range of a feature, that is, a position and a size of the feature by designating two points at both ends of the feature is proposed. Since the midpoints of the two points at both ends fall within the feature, unnecessary points can be eliminated by setting a certain range around the midpoint as the range of the point cloud. A real plane including the feature can be calculated with high accuracy. Here, the fixed range may be, for example, up to half of this distance based on the distance from the middle point to both end points.
また、実平面を算出した後、指定した2点を実平面上にマッピングする。これにより、指定した点の実位置を算出することができる。このとき、指定した位置が多少ずれていても、実平面の算出には影響がない。また、ずれの影響は、地物の大きさのみに現れるが、この影響は軽微である。 Further, after calculating the real plane, the two specified points are mapped on the real plane. Thereby, the actual position of the designated point can be calculated. At this time, even if the designated position is slightly deviated, the calculation of the actual plane is not affected. In addition, the effect of displacement appears only on the size of the feature, but this effect is minor.
なお、地物の形状が矩形である場合には、地物の対角線の両端の2点を指定することにより、地物の位置および大きさ(幅、高さ)を一意に求めることができる。同様に、他の形状であっても、地物を覆う矩形領域の範囲を算出することができる。 When the shape of the feature is rectangular, the position and size (width, height) of the feature can be uniquely obtained by designating two points on both ends of the diagonal line of the feature. Similarly, the range of a rectangular region that covers a feature can be calculated for other shapes.
また、広告のように、車両等から見えることを前提に配置されている地物であれば、レーザ測量時に、他の物体に邪魔されていないこと、すなわちレーザ測量において送出されたレーダが、広告全体に当たっていると期待することができる。この場合には、実平面の算出に使用される点群が確実に広告上にあると期待することができるので、結果的に地物の含まれる実平面を高精度に算出することができる。 Also, if the feature is located on the premise that it can be seen from a vehicle or the like as in an advertisement, it is not obstructed by other objects during laser surveying, that is, the radar sent in laser surveying is You can expect to hit the whole thing. In this case, it can be expected that the point group used for calculation of the real plane is surely on the advertisement, and as a result, the real plane including the feature can be calculated with high accuracy.
実施の形態1.
図1は、この発明の実施の形態1に係る地物検出システムを示すブロック構成図である。図1において、この地物検出システムは、画像データ11(画像記憶手段)、点群データ12(測量データ記憶手段)、車両パラメータ13、画像指定部21、点指定部22(指定手段)、表示部23(表示手段)、地物検出装置30(地物検出手段)および領域出力結果データ41を備えている。
1 is a block diagram showing a feature detection system according to
また、地物検出装置30は、画像描画部31、点群抽出部32、実平面算出部33および領域算出部34を有している。
なお、地物検出装置30は、CPUとプログラムを格納したメモリとを有するマイクロプロセッサ(図示せず)で構成されており、地物検出装置30を構成する各ブロックは、メモリにソフトウェアとして記憶されている。
以下、上記構成の地物検出システムの各部位の機能について説明する。
The
The
Hereinafter, the function of each part of the feature detection system configured as described above will be described.
画像データ11には、上述したモービルマッピングシステムで使用される車両に搭載されたカメラにより撮影されたカメラ画像が収められている。なお、各カメラ画像は、撮影時刻とともに収められている。
The
点群データ12には、上述したモービルマッピングシステムで使用される車両に搭載されたレーザにより測量されたレーザ測量データが収められている。なお、レーザ測量データは、各点群の座標値および測量時刻として収められている。
ここで、座標系は、平面直角座標系を用い、x座標およびy座標がそれぞれ緯度方向および経度方向の原点からの距離を示し、z座標が標高を示す。平面直角座標系については、国土地理院、平面直角座標系(平成十四年国土交通省告示第九号)(https://www.gsi.go.jp/LAW/heimencho.html)に示されているので、詳細な説明は省略する。
The
Here, a plane rectangular coordinate system is used as the coordinate system, the x coordinate and the y coordinate indicate the distance from the origin in the latitude direction and the longitude direction, respectively, and the z coordinate indicates the altitude. The plane Cartesian coordinate system is shown in the Geospatial Information Authority of Japan, Plane Cartesian Coordinate System (Ministry of Land, Infrastructure, Transport and Tourism Notification No. 9 of 2004) (https://www.gsi.go.jp/LAW/heimencho.html). Therefore, detailed description is omitted.
車両パラメータ13には、画像データ11および点群データ12を取得した車両およびカメラのパラメータが収められている。具体的には、カメラ撮影時の車両の位置および向きや、カメラの車両上の配置、カメラの焦点距離等のデータが収められている。
The
画像指定部21は、オペレータの操作により、画像データ11内の各カメラ画像の中から、表示部23に表示するカメラ画像を指定する。カメラ画像を指定する手段としては、例えば図2に示されるように、画像データ11内の各カメラ画像を表示部23にサムネイル表示して、その中から表示するものを選択して等倍表示するといった方法が考えられる。
The
点指定部22は、オペレータの操作により、画像指定部21で指定されたカメラ画像上の2点を指定する。このとき、表示部23に表示されたカメラ画像上の上下左右端の数%程度の範囲を指定対象外としてもよい。
The
画像描画部31は、画像指定部21により指定されたカメラ画像、点指定部22により指定されたカメラ画像上の2点、および後述する領域算出部34で算出された領域等を表示部23に表示する。
The
点群抽出部32は、画像指定部21により指定されたカメラ画像、および点指定部22により指定されたカメラ画像上の2点に基づいて、車両パラメータ13を参照しながら、点群データ12から実平面算出部33での実平面の算出に必要な点群を抽出する。なお、点群抽出部32の詳細な動作については、後述する。
The point
実平面算出部33は、点群抽出部32によって抽出された点群から、地物の含まれる実平面を算出する。実平面算出部33での処理によって、地物と実在の位置(点群)とが結び付けられる。
The real
領域算出部34は、実平面算出部33によって算出された実平面上における対象とする地物の範囲を算出し、領域出力結果データ41に出力する。領域算出部34での処理によって、地物の位置および大きさ(幅、高さ)を算出することができる。
領域出力結果データ41は、領域算出部34によって算出された地物の位置および大きさを保存する。
The
The region
続いて、上記構成の地物検出システムの動作について説明する。
画像指定部21によってカメラ画像が指定されると、カメラ画像およびその撮影時刻が、画像データ11から一意に決定される。この情報および領域算出部34で算出された領域は、画像描画部31によって、表示部23に重ねて表示される。算出された領域がカメラ画像の外にまたがる場合には、カメラ画像内に収まる範囲のみ表示される。
Next, the operation of the feature detection system configured as described above will be described.
When a camera image is designated by the
なお、領域算出部34で領域が算出されていない場合には、領域は表示されない。また、算出された領域を表示するか否かを、画像指定部21により指定してもよい。領域を表示しないことが指定された場合には、領域算出部34で領域が算出された後であっても、表示部23には、カメラ画像のみが表示される。
In addition, when the area is not calculated by the
表示部23にカメラ画像が表示された後、点指定部22によって、カメラ画像上の2点が指定される。なお、2点を指定する順序は問わない。
点指定部22によってカメラ画像上の2点が指定された後、その2点の座標(カメラ画像上のX座標、Y座標)と、表示部23に表示されているカメラ画像の撮影時刻とに基づいて、点群データ12から実平面算出部33での実平面の算出に必要な点群が、点群抽出部32によって抽出される。
After the camera image is displayed on the
After two points on the camera image are designated by the
ここで、図3のフローチャートを参照しながら、点群抽出部32での処理を詳細に説明する。
まず、点群抽出部32は、カメラ画像の撮影時刻から一定の時間範囲内に測量された点群のみを、点群データ12から抽出する(ステップS1)。このとき、主に使用されるデータは、カメラ画像の撮影時刻近傍の点群である。
Here, the processing in the point
First, the point
次に、点群抽出部32は、抽出された各点群をカメラ画像上にマッピングした場合の位置算出を実行する(ステップS2)。なお、上記ステップS1において、点群をカメラ画像の撮影時刻近傍のものに制限した理由は、このステップS2において、対象とする地物の前後にある物体に当たったものを含むことを防止するためである。カメラ画像の撮影時刻近傍の点群であれば、マッピングされた点群がカメラ画像上の地物の中にある場合に、地物に実際に当たった点群である可能性が高い。
Next, the point
各点群のカメラ画像上の位置の算出においては、まず、点群内の各点のカメラ位置からの相対位置(x1,y1,z1)が、車両パラメータ13に納められたカメラ撮影時の車両の位置および向きと、車両上のカメラの位置および向きとから算出される。その後、カメラの焦点距離f、カメラの1画素あたりの距離pmおよびカメラの光軸中心座標(xc,yc)に基づいて、点群のカメラ画像上の位置が、図4(a)、(b)に示されるように算出され、算出された点群のカメラ画像上の位置(x,y)は、次式(1)で表される。
In the calculation of the position of each point cloud on the camera image, first, the camera photographing in which the relative position (x 1 , y 1 , z 1 ) from the camera position of each point in the point cloud is stored in the
続いて、点群抽出部32は、ステップS2で算出された各点群のカメラ画像上の位置のうち、点指定部22で指定された2点の中点に近い点を複数点選択する(ステップS3)。このとき、選択する点数は、最低3点とする。なお、点を選択する際、指定された2点のカメラ画像上の座標を利用して、選択する範囲を、例えば「中点から2点間のX(Y)座標幅の±1/4に収まる範囲」のように制限してもよい。これにより、点指定部22での点の指定に多少ずれがあった場合でも、誤差を吸収することができる。
Subsequently, the point
ここで、点群抽出部32によって選択された点が3点未満である場合には、エラーとして以降の処理は実行せず、画像指定部21によるカメラ画像指定に戻る。一方、点群抽出部32によって選択された点が3点以上である場合には、実平面算出部33によって、得られた点を含む実平面(地物の含まれる実平面)が算出される。
Here, when the number of points selected by the point
なお、実際には、得られた点には誤差が乗っているので、すべての点が乗るような平面が算出される場合は少ない。そこで、最小二乗法等を用いて、最も近い平面が算出される。このようにして得られた平面が、対象とする地物の含まれる実平面となる。 Actually, since the obtained point has an error, there are few cases where a plane on which all the points are calculated is calculated. Therefore, the nearest plane is calculated using a least square method or the like. The plane thus obtained is an actual plane including the target feature.
実平面算出部33によって実平面が算出された後、領域算出部34によって、対象とする地物の範囲が算出される。具体的には、まず、領域算出部34は、点指定部22によって指定された2点を、実平面算出部33によって算出された実平面上にマッピングした場合の位置算出を実行する。この位置算出は、上記式(1)を満たすとともに、算出する点の位置(x,y,z)が実平面算出部33によって算出された実平面の式を満たすので、一意に定まる。
After the real plane is calculated by the real
次に、領域算出部34は、点指定部22によって指定された2点の実平面上の位置を算出した後、図5(a)に示されるように、2点間の(x,y)平面における距離を幅とし、2点間の標高差を高さとする。また、領域算出部34は、標高が2点の中間となり、かつxy平面に平行な平面πに対して、点指定部22によって指定された2点とそれぞれ対称となる点を算出する。すなわち、領域算出部34は、図5(b)に示されるように、指定された2点A、Bと対称となる点A'、B'を算出し、点A、B'、B、A'の4点で囲まれる矩形領域を地物の範囲とする。
Next, after calculating the positions of the two points designated by the
領域算出部34による領域算出の後、画像描画部31により、算出された領域が表示部23に表示されるとともに、画像指定部21によるカメラ画像指定待ち状態に移行する。また、このとき、領域算出部34によって算出された地物の範囲(幅、高さおよび矩形の頂点4点)が領域出力結果データ41に出力される。
After the area calculation by the
以上により、カメラ画像および点群によって、地物の位置および大きさを検出することができる。また、領域算出部34により算出された領域を、表示部23に表示されたカメラ画像上に重ねて表示することにより、オペレータの目による確認も同時に行うことができる。
As described above, the position and size of the feature can be detected from the camera image and the point group. Further, the region calculated by the
なお、上述したように、地物の中側の点および地物の範囲の2つの情報があれば、地物の占有する範囲を算出することができるが、扱う情報である点群等には誤差が乗っているので、必ずしも精度が高い保証はない。一方、モービルマッピングシステムでは、連続的に地物周辺の情報を取得するので、同一の地物が複数のカメラ画像中に出現する可能性が高い。そこで、あるカメラ画像での範囲算出結果を別のカメラ画像上にマッピングすることにより、算出結果の精度を判定することができる。 As described above, if there are two pieces of information on the inside point of the feature and the range of the feature, the range occupied by the feature can be calculated. Since there is an error, there is no guarantee that the accuracy is high. On the other hand, in the mobile mapping system, since information around the feature is continuously acquired, the possibility that the same feature appears in a plurality of camera images is high. Therefore, the accuracy of the calculation result can be determined by mapping the range calculation result in one camera image onto another camera image.
具体的には、画像指定部21によって別のカメラ画像が指定された場合、上記のように領域が表示されたカメラ画像の上に、新たな別のカメラ画像が表示される。領域を算出したカメラ画像以外のカメラ画像であって、同じ地物が写っている別のカメラ画像上に、算出された領域を重ねることにより、算出された領域の正確さを確認することができる。
Specifically, when another camera image is designated by the
このように、複数のカメラ画像に写っている地物に関して、それぞれのカメラ画像で領域を算出し、算出された領域を別のカメラ画像に重ね合わせる処理を実行することにより、オペレータが最もよく重なり合っているものを判断することで、正確な地物の位置および大きさを選択することができる。これにより、計算だけでは拾いきれない誤差を吸収することができる。 As described above, regarding the features reflected in a plurality of camera images, the operator can best overlap each other by calculating a region in each camera image and superimposing the calculated region on another camera image. By determining what is, it is possible to select the exact position and size of the feature. As a result, errors that cannot be picked up only by calculation can be absorbed.
以上のように、実施の形態1によれば、地物検出手段は、指定手段で指定された2点の中点から所定の距離の範囲内に含まれる点群を測量データ記憶手段から抽出し、抽出した点群から対象とする地物の含まれる平面を算出するとともに、指定手段で指定された2点を算出された平面上にマッピングして、対象とする地物の位置および大きさを検出する。
そのため、地物の含まれる実平面を高精度に算出し、地物の位置および大きさを正確に検出することができる。
As described above, according to the first embodiment, the feature detection unit extracts from the survey data storage unit a point group included within a predetermined distance from the midpoint between the two points designated by the designation unit. The plane containing the target feature is calculated from the extracted point cloud, and the two points specified by the specifying means are mapped on the calculated plane, so that the position and size of the target feature are determined. To detect.
Therefore, it is possible to calculate the actual plane including the feature with high accuracy and accurately detect the position and size of the feature.
なお、上記実施の形態1において、領域算出部34は、地物の位置を算出するとともに、カメラ画像内の地物の範囲を算出する。このとき、領域算出部34は、カメラ画像から地物の範囲を切り出して別途保存してもよい。この場合、図6に示されるように、図1に示した地物検出システムに加えて、地物の範囲に応じて切り出したカメラ画像を収めるための領域画像データ42を別途設け、領域算出部34は、切り出したカメラ画像を領域画像データ42に出力する。
地物の位置と切り出したカメラ画像とを別途表示することにより、地物の検出状況を確認することが容易になる。
In the first embodiment, the
By separately displaying the position of the feature and the cut-out camera image, it is easy to check the feature detection status.
また、上記実施の形態1では、点指定部22により、画像指定部21で指定されたカメラ画像上の2点を指定することで、地物の検出を実行した。ここでは、地物の幅および高さを算出するために2点を指定しているが、地物の位置のみを算出する場合には、必ずしも2点を指定する必要はなく、地物の中心座標(位置)のみを指定してもよい。このとき、上記実施の形態1で示した、点指定部22で指定された2点の中点の代わりに、指定した1点を利用し、点群抽出部32および実平面算出部33での処理を実行することによって、地物の位置を算出することができる。
In the first embodiment, the feature is detected by designating the two points on the camera image designated by the
地物の中心座標(位置)のみを指定する場合には、上述したように、地物の幅および高さを算出することはできないが、ある程度の範囲のカメラ画像を、例えば図6に示した領域画像データ42に別途保存しておき、オペレータの目で、地物が何であるかを判断できるようにすることができる。このとき、上記ある程度の範囲は、対称とする地物によって異なるが、例えば屋外広告(看板等)であるならば、指定した1点から1〜2メートル範囲のカメラ画像(カメラ画像としての大きさは位置により異なる)を収めておくことで、オペレータが判断できると考えられる。
When only the center coordinates (position) of a feature are specified, as described above, the width and height of the feature cannot be calculated, but a camera image of a certain range is shown in FIG. 6, for example. It can be separately stored in the
11 画像データ、12 点群データ、13 車両パラメータ、21 画像指定部、22 点指定部、23 表示部、30 地物検出装置、31 画像描画部、32 点群抽出部、33 実平面算出部、34 領域算出部、41 領域出力結果データ、42 領域画像データ。 11 image data, 12 point group data, 13 vehicle parameters, 21 image designation unit, 22 point designation unit, 23 display unit, 30 feature detection device, 31 image drawing unit, 32 point group extraction unit, 33 real plane calculation unit, 34 area calculation unit, 41 area output result data, 42 area image data.
Claims (3)
前記地物の周辺のレーザ測量データが、点群データとして前記カメラ画像と関連づけて記憶された測量データ記憶手段と、
前記画像記憶手段に記憶されたカメラ画像を表示する表示手段と、
前記表示手段に表示されたカメラ画像上の2点を指定する指定手段と、
前記指定手段で指定された2点の中点から所定の距離の範囲内に含まれる点群を前記測量データ記憶手段から抽出し、抽出した点群から前記地物の含まれる平面を算出するとともに、前記指定手段で指定された2点を算出された前記平面上にマッピングして、前記地物の位置および大きさを検出する地物検出手段と、
を備えたことを特徴とする地物検出システム。 Image storage means for storing camera images around the target feature;
Surveying data storage means for storing laser survey data around the feature in association with the camera image as point cloud data;
Display means for displaying a camera image stored in the image storage means;
Designation means for designating two points on the camera image displayed on the display means;
A point group included within a predetermined distance from the midpoint of the two points specified by the specifying unit is extracted from the survey data storage unit, and a plane including the feature is calculated from the extracted point group. , Feature detection means for mapping the two points designated by the designation means on the calculated plane and detecting the position and size of the feature;
A feature detection system comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010051920A JP5473683B2 (en) | 2010-03-09 | 2010-03-09 | Feature detection system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010051920A JP5473683B2 (en) | 2010-03-09 | 2010-03-09 | Feature detection system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011185777A JP2011185777A (en) | 2011-09-22 |
JP5473683B2 true JP5473683B2 (en) | 2014-04-16 |
Family
ID=44792251
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010051920A Active JP5473683B2 (en) | 2010-03-09 | 2010-03-09 | Feature detection system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5473683B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5535025B2 (en) * | 2010-10-08 | 2014-07-02 | 三菱電機株式会社 | Outdoor feature detection system, program for outdoor feature detection system, and recording medium for program for outdoor feature detection system |
JP7113611B2 (en) * | 2017-11-30 | 2022-08-05 | 大成建設株式会社 | LOCATION IDENTIFICATION APPARATUS, LOCATION IDENTIFICATION PROGRAM AND LOCATION IDENTIFICATION METHOD, PHOTOGRAPHED IMAGE REGISTRATION APPARATUS, PHOTOGRAPHED IMAGE REGISTRATION PROGRAM AND PHOTOGRAPHIED IMAGE REGISTRATION METHOD |
CN109271944B (en) | 2018-09-27 | 2021-03-12 | 百度在线网络技术(北京)有限公司 | Obstacle detection method, obstacle detection device, electronic apparatus, vehicle, and storage medium |
CN111288890A (en) * | 2020-02-13 | 2020-06-16 | 福建农林大学 | Road sign dimension and height automatic measurement method based on binocular photogrammetry technology |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3125550B2 (en) * | 1993-12-24 | 2001-01-22 | 日産自動車株式会社 | Vehicle forward recognition device and vehicle travel control device |
JP4521584B2 (en) * | 2004-03-31 | 2010-08-11 | 直裕 穂積 | Sonic velocity measuring method using ultrasonic microscope, sonic velocity measuring device, sonic velocity image acquiring method using ultrasonic microscope, and diagnostic imaging device thereof |
JP4779431B2 (en) * | 2005-05-11 | 2011-09-28 | 日本電気株式会社 | Object recognition device |
JP4863006B2 (en) * | 2006-12-28 | 2012-01-25 | パルステック工業株式会社 | 3D shape measurement method |
WO2008099915A1 (en) * | 2007-02-16 | 2008-08-21 | Mitsubishi Electric Corporation | Road/feature measuring device, feature identifying device, road/feature measuring method, road/feature measuring program, measuring device, measuring method, measuring program, measured position data, measuring terminal, measuring server device, drawing device, drawing method, drawing program, and drawing data |
-
2010
- 2010-03-09 JP JP2010051920A patent/JP5473683B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2011185777A (en) | 2011-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11629962B2 (en) | Methods and systems for generating and using localization reference data | |
US11085775B2 (en) | Methods and systems for generating and using localisation reference data | |
US20110110557A1 (en) | Geo-locating an Object from Images or Videos | |
KR101444685B1 (en) | Method and Apparatus for Determining Position and Attitude of Vehicle by Image based Multi-sensor Data | |
JP2009294214A (en) | Method and system for navigation based on topographic structure | |
EP3061065A1 (en) | Augmented image display using a camera and a position and orientation sensor unit | |
KR101011813B1 (en) | Installaion for displaying overlap line of adjoined digital aerial photograph | |
US20160169662A1 (en) | Location-based facility management system using mobile device | |
JP2012083157A (en) | Outdoor feature detection system, program for the same, and record media of program for the same | |
JP5311465B2 (en) | Stereo matching processing system, stereo matching processing method, and program | |
JP5473683B2 (en) | Feature detection system | |
JP6135972B2 (en) | Orientation method, orientation program, and orientation device | |
KR101323971B1 (en) | A method for automatic generation of tunnel information using a mobile mapping system | |
JP2011112556A (en) | Search target position locating device, method, and computer program | |
CA2704656C (en) | Apparatus and method for modeling building | |
JP2011164701A (en) | Object display control device and object display control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120827 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130726 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130730 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130926 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131015 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131202 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140204 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5473683 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |