JP4751886B2 - Image judgment method - Google Patents

Image judgment method Download PDF

Info

Publication number
JP4751886B2
JP4751886B2 JP2007525463A JP2007525463A JP4751886B2 JP 4751886 B2 JP4751886 B2 JP 4751886B2 JP 2007525463 A JP2007525463 A JP 2007525463A JP 2007525463 A JP2007525463 A JP 2007525463A JP 4751886 B2 JP4751886 B2 JP 4751886B2
Authority
JP
Japan
Prior art keywords
subject
height
information
feature point
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007525463A
Other languages
Japanese (ja)
Other versions
JPWO2007010596A1 (en
Inventor
麻子 北浦
誠也 清水
誠生 増井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2007010596A1 publication Critical patent/JPWO2007010596A1/en
Application granted granted Critical
Publication of JP4751886B2 publication Critical patent/JP4751886B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • G06V20/38Outdoor scenes
    • G06V20/39Urban scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • G06V20/38Outdoor scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、カメラにより撮影された映像及び画像における所定の被写体の映り具合を判定する画像判定方法などに関するものであり、特に、カメラと被写体との間に他建造物などが存在する場合であっても、当該他建造物を考慮して最適な映像及び画像データを選択することができる画像判定方法に関するものである。 The present invention relates to an image determination method for determining the appearance of a predetermined subject in video and images taken by a camera, and particularly to a case where another building exists between the camera and the subject. However, the present invention relates to an image determination method capable of selecting optimal video and image data in consideration of the other building.

従来、所定の被写体にかかる映像データなどを利用するユーザ(以下、単にユーザと表記する)が、当該被写体の映像データ及び画像を取得する場合には、異なる位置に設置された複数のカメラを利用して被写体を様々な方向から撮影し、撮影した映像及び画像群の中から最適なデータ、つまり、最も被写体の映り具合のよいデータをユーザ自身が閲覧選択し、選択した映像及び画像データを利用していた。   Conventionally, when a user who uses video data concerning a predetermined subject (hereinafter simply referred to as a user) acquires video data and images of the subject, a plurality of cameras installed at different positions are used. The subject can be photographed from various directions, and the user himself / herself browses and selects the most suitable data from the photographed video and image group, that is, the data that best reflects the subject, and uses the selected video and image data. Was.

しかし、上述した手法では、複数のカメラが撮影する被写体の映像及び画像データの数が増えると、ユーザが一つ一つ各映像及び画像データを閲覧しながらチェックし、最適な映像中の画像フレーム及び画像データ(以下、単に画像と表記する)をユーザ自身が選択する必要があるため、ユーザにかかる負担が大きいという問題があった。   However, in the above-described method, when the number of video images and image data of subjects captured by a plurality of cameras increases, the user checks each video and image data one by one to check the image frame in the optimal video. In addition, since the user himself / herself needs to select image data (hereinafter simply referred to as an image), there is a problem that the burden on the user is large.

そこで、ユーザにかかる負担を軽減させるべく、カメラの撮影位置と方向と、被写体の位置を使い、カメラの撮影空間と被写体の位置関係に基づいて、最適な映像及び画像データを自動的に選択可能とする技術が公開されている(例えば、特許文献1、特許文献2参照)。これらの技術によれば、図22に示すように、カメラAが撮影した画像に対して、カメラAの位置を頂点とし、撮影方向を中心として焦点距離などから算出したカメラ画角で広がる楕円錐、または四角錘の空間を撮影空間として定義し、その撮影空間内にある被写体ABを該当画像に映っていると判定し、空間外にある被写体Cは映っていないと判定する。   Therefore, in order to reduce the burden on the user, the optimal video and image data can be automatically selected based on the camera's shooting space and subject's positional relationship using the camera's shooting position and direction and subject position. (See, for example, Patent Document 1 and Patent Document 2). According to these techniques, as shown in FIG. 22, with respect to an image captured by the camera A, an elliptical cone having a position at the camera A as a vertex and spreading at a camera angle of view calculated from a focal length or the like with the imaging direction as the center. Alternatively, a square pyramid space is defined as an imaging space, and it is determined that the subject AB in the imaging space is reflected in the corresponding image, and that the subject C outside the space is not reflected.

また、映像及び画像の映り具合を判定する手法としては、カメラAの画像に映っていると判定した被写体ABに対して、カメラAからの距離をそれぞれ求めて、距離が近い被写体Bを映りが良いと判定し、距離が遠い被写体Aについては映りが悪いと判定する。   Further, as a method for determining the degree of projection of the video and the image, the distance from the camera A is obtained for each subject AB determined to be reflected in the image of the camera A, and the subject B with a short distance is reflected. It is determined that the subject is good, and it is determined that the subject A with a long distance is poorly reflected.

また、他の映像及び画像の映り具合を判定する手法としては、カメラの撮影空間に存在する被写体ABの中でも特に、撮影空間の楕円錐または四角錘の中心軸近くに存在する被写体Aの映り具合が良いと判定するという手法も存在する。   In addition, as a method for determining the degree of reflection of other images and images, the state of reflection of the subject A existing near the central axis of the elliptical pyramid or the quadrangular pyramid in the shooting space, among the subjects AB existing in the shooting space of the camera. There is also a method of determining that the quality is good.

特開2001−34250号公報JP 2001-34250 A 特開2003−179908号公報JP 2003-179908 A

しかしながら、かかる従来の技術では、必ずしも最適な映像及び画像データを選択することができないという問題があった。   However, such a conventional technique has a problem that it is not always possible to select optimal video and image data.

なぜなら、図23に示すように、たとえばカメラAと被写体ABとの間に他建造物体群が存在し、被写体ABがこれらの他建造物物体群に隠れてしまい、カメラAが被写体ABを適切に撮影できない場合であっても、従来の手法では、被写体ABに対する最適な画像データとして、カメラAによって撮影された画像を誤選択してしまうからである。   This is because, as shown in FIG. 23, for example, there is another building object group between the camera A and the subject AB, the subject AB is hidden behind these other building object groups, and the camera A appropriately controls the subject AB. This is because even if the image cannot be captured, the conventional method erroneously selects the image captured by the camera A as the optimal image data for the subject AB.

この誤選択は、被写体の映り具合を判定して画像を選択する手法であっても起こり、従来の技術は、カメラと被写体との間に存在する他建造物を考慮していないため、最適な画像データを適切に選択することができない。   This erroneous selection occurs even in a method of selecting an image by determining the appearance of the subject, and the conventional technique does not take into account other buildings existing between the camera and the subject. Image data cannot be selected properly.

すなわち、カメラと被写体との間に他建造物などが存在する場合であっても、当該他建造物を考慮して最適な画像データを自動で選択可能とすることが極めて重要な課題となっている。   In other words, even when another building exists between the camera and the subject, it is extremely important to be able to automatically select the optimum image data in consideration of the other building. Yes.

この発明は、上述した従来技術による問題点を解消するためになされたものであり、カメラと被写体との間に他建造物などが存在する場合であっても、当該他建造物を考慮して最適な画像データを自動で選択することができる画像判定方法を提供することを目的とする。 The present invention has been made in order to solve the above-described problems caused by the prior art, and even when other buildings exist between the camera and the subject, the other buildings are taken into consideration. An object of the present invention is to provide an image determination method capable of automatically selecting optimal image data.

上述した課題を解決し、目的を達成するため、本発明は、コンピュータが、被写体の存在領域にかかわる情報に基づく被写体の形状に関する複数の特徴点のうち、第一の特徴点を抽出する工程と、前記第一の特徴点の位置および前記被写体を撮影するカメラの視点位置を結ぶ第一の線分と、他の被写体の存在領域に関する情報とに基づいて、該第一の線分上に該他の被写体が存在するか否かを判定する工程と、前記第一の特徴点とは異なる第二の特徴点に対する第二の線分に基づいて、前記他の被写体が前記第二の線分上に存在するか否かを判定する工程と、判定した結果に基づいて、前記カメラによる前記被写体の撮影が前記他の被写体によって遮蔽されている割合を算出する工程とを実行することを特徴とする。 In order to solve the above-described problems and achieve the object, the present invention includes a step in which a computer extracts a first feature point from among a plurality of feature points related to the shape of a subject based on information relating to a region where the subject exists. , On the first line segment based on the first line segment connecting the position of the first feature point and the viewpoint position of the camera that captures the subject, and information on the existence area of the other subject. Based on the step of determining whether or not another subject exists and the second line segment for the second feature point different from the first feature point, the other subject is the second line segment. A step of determining whether or not the image is present above and a step of calculating a ratio at which the photographing of the subject by the camera is shielded by the other subject based on the result of the determination. To do.

本発明によれば、コンピュータが、被写体の存在領域にかかわる情報に基づく被写体の形状に関する複数の特徴点のうち、第一の特徴点を抽出する工程と、前記第一の特徴点の位置および前記被写体を撮影するカメラの視点位置を結ぶ第一の線分と、他の被写体の存在領域に関する情報とに基づいて、該第一の線分上に該他の被写体が存在するか否かを判定する工程と、前記第一の特徴点とは異なる第二の特徴点に対する第二の線分に基づいて、前記他の被写体が前記第二の線分上に存在するか否かを判定する工程と、判定した結果に基づいて、前記カメラによる前記被写体の撮影が前記他の被写体によって遮蔽されている割合を算出する工程とを実行するので、被写体と障害物とがどの程度重なっているのかを判定することができる。また、所定の被写体の映り具合の良い最適な画像データを選択することができる。 According to the present invention, the computer extracts a first feature point from among a plurality of feature points related to the shape of the subject based on information relating to the region where the subject exists, the position of the first feature point, and the Whether or not the other subject exists on the first line segment is determined based on the first line segment that connects the viewpoint positions of the camera that shoots the subject and information on the existence area of the other subject. And determining whether or not the other subject exists on the second line segment based on a second line segment for a second feature point different from the first feature point And a step of calculating a rate at which the photographing of the subject by the camera is shielded by the other subject based on the determined result, and how much the subject and the obstacle overlap. Can be determined. Also, it is possible to select optimal image data with a good image quality of a predetermined subject.

以下に、本発明における画像判定方法の実施例について説明する。 Examples of the image determination method according to the present invention will be described below.

まず、本発明における画像判定方式の原理について説明する。図1は、本発明における画像判定方式の原理を示す原理図である。同図は、映像および画像内で対象となる被写体(以下、判定対象被写体)がどのような他物体遮蔽を受けているかという映り具合を、他物体遮蔽指標として算出する画像判定方式100の構成を示すと同時に、画像判定方式100が利用するデータ類を示す。   First, the principle of the image determination method in the present invention will be described. FIG. 1 is a principle diagram showing the principle of an image determination method according to the present invention. The figure shows a configuration of an image determination method 100 that calculates, as an other object occlusion index, how much other object occlusion is received by a subject (hereinafter referred to as an object to be determined) in a video and an image. At the same time, the data used by the image determination method 100 is shown.

画像判定方式100は、映像および画像内での具体的な他物体遮蔽による映り具合判定を開始する前処理として、主に判定対象被写体に関する処理を行う被写体形状推定部120と、被写体特徴点抽出部130を有し、この前処理の結果を用いて映像または画像の各画像フレームにおける映り具合判定そのものを処理する、他物体遮蔽判定部140と、他物体遮蔽指標算出部150とを有する。利用データ類は、画像判定方式100を適用する判定対象被写体に関するデータである、被写体領域位置情報110dと、映像及び画像を撮影したカメラに関するカメラデータ110eと、当方式の前処理および本処理で利用する建造物・地表高さマップ情報110がある。   The image determination method 100 includes a subject shape estimation unit 120 that mainly performs processing related to a determination target subject, and a subject feature point extraction unit as pre-processing for starting the video and image specific image occlusion determination by blocking other objects. 130, and includes an other object occlusion determination unit 140 and an other object occlusion index calculation unit 150 that process the image quality determination itself in each image frame of a video or an image using the result of the preprocessing. Usage data includes subject area position information 110d, which is data relating to a determination target subject to which the image determination method 100 is applied, camera data 110e relating to a camera that has captured a video and an image, and preprocessing and main processing of this method. There is building / surface height map information 110 to be performed.

被写体領域位置情報110dは、判定対象被写体の存在領域の位置情報である。存在領域は、一点、楕円、矩形、多角形、など、様々な指定がありうるが、例えば、存在領域を多角形とする場合には、その形状を構成する各頂点の緯度経度などの位置座標値、各頂点から多角形を構成するために必要な構造情報(トポロジ)等からなる。存在領域は、判定対象被写体の各マップ上の占有領域を特定するために用いる。   The subject area position information 110d is position information of the existence area of the determination target subject. The existence area can have various designations such as a single point, an ellipse, a rectangle, and a polygon. For example, when the existence area is a polygon, position coordinates such as the latitude and longitude of each vertex constituting the shape. It consists of value, structure information (topology) necessary for constructing a polygon from each vertex. The existence area is used to specify an occupied area on each map of the determination target subject.

建造物・地表高さマップ情報110bは、人工建造物や樹木等の自然物(以下、建造物と記載)の高さ、建造物を除いた純粋な地表の高さ、などの各種高さ情報を、その測定位置と共にマップとした情報である。このマップ情報の具体的な保持例については、実施例1以降で詳しく述べるが、これらの各種高さは別々に保持しても良いし、足した高さを保持しても良い。また、ここでは、位置情報から各種高さを取得できるという意味で、理解のためマップと表現しているが、実際に装置に実装する場合は、テーブルリストとして保持することも可能である。図2は、建造物・地表高さマップ情報110bの一例を示す図である。   The building / surface height map information 110b includes various height information such as the height of a natural object (hereinafter referred to as a building) such as an artificial structure or a tree, and the height of a pure surface excluding the structure. The information is a map together with the measurement position. Specific examples of holding the map information will be described in detail in the first and subsequent embodiments. However, these various heights may be held separately or the added heights may be held. Here, the map is expressed for the purpose of understanding that various heights can be acquired from the position information. However, when actually mounted on the apparatus, it can be stored as a table list. FIG. 2 is a diagram illustrating an example of the building / surface height map information 110b.

カメラデータ110eは、本発明を適用する、映像及び画像の各画像フレームに関係する撮影カメラの情報であり、カメラ位置、撮影方向、焦点距離などのカメラパラメータ、また、それらから算出できる画角などの情報である。本発明では、映像および画像の各画像フレームを直接判定に利用するのではなく、それらに関連するカメラデータ110eを画像判定に用い、判定結果が良いカメラデータ110eに対応する映像データを、最終的に判定対象被写体にかかわる最適な映像データとして選択する。   The camera data 110e is information of a shooting camera related to each image frame of a video and an image to which the present invention is applied, camera parameters such as a camera position, a shooting direction, a focal length, and an angle of view that can be calculated from them. Information. In the present invention, each image frame of the video and the image is not directly used for the determination, but the camera data 110e related to them is used for the image determination, and the video data corresponding to the camera data 110e having a good determination result is finally obtained. Are selected as the optimum video data related to the subject to be judged.

被写体形状推定部120は、被写体領域位置情報110dと建造物・地表高さマップ情報110bをつき合わせて、判定対象被写体の存在領域の高さを取得することで、被写体形状を推定する。なお、判定対象被写体の概形状を抽出する方法は、上述した方法に限られるものではなく、CAD(computer aided design)データのような詳細な3次元データを用いて、判定対象被写体の概形状を抽出してもよい。   The subject shape estimation unit 120 estimates the subject shape by combining the subject region position information 110d and the building / surface height map information 110b to obtain the height of the region where the determination target subject exists. The method of extracting the approximate shape of the determination target subject is not limited to the above-described method, and the approximate shape of the determination target subject is determined using detailed three-dimensional data such as CAD (computer aided design) data. It may be extracted.

被写体特徴点抽出部130は、被写体形状推定部120で推定した形状を元に、判定対象被写体を代表する特徴点の位置及び高さを算出する。判定対象被写体の位置及び形状を代表する特徴点であれば、その算出方法は特に問わないものとする。例えば、実施例1で述べるように、形状を任意の幅でメッシュ分割してメッシュ格子点を利用してもよいし、ランダムに形状内から特徴点を取得してもよいし、形状の重心一点を特徴点にしてもよい。   The subject feature point extraction unit 130 calculates the position and height of the feature point representing the determination target subject based on the shape estimated by the subject shape estimation unit 120. The calculation method is not particularly limited as long as it is a feature point representing the position and shape of the determination target subject. For example, as described in the first embodiment, the shape may be divided into meshes with an arbitrary width and mesh grid points may be used, feature points may be randomly acquired from within the shape, or one center of gravity of the shape May be used as a feature point.

他物体遮蔽判定部140は、被写体特徴点抽出部130で抽出した特徴点と、カメラデータ110eである判定対象のカメラ位置とを結ぶ線分上の各ポイントに対して、建造物・地表高さマップ情報110b内の高さ情報を取得し、その高さと線分の高さを比較することで、線分を超える被写体物体の存在を検知する。さらに、被写体領域位置情報110dの判定対象被写体の存在領域内に被写体物体が存在したポイント位置があるか否かを判定することで、被写体物体が判定対象被写体であるか否か、すなわち、他物体であるか否かを判定する。なお、調査した線分上のポイント全てで線分を超える被写体物体が存在しなかった場合は、該当特徴点は、何にも遮られないと判定する。他物体遮蔽判定部140は、これらの判定で特徴点を、他物体によって遮られた、判定対象被写体自身によって遮られた、何にも遮られない、の3種類に分類する。   The other object occlusion determination unit 140 performs the building / surface height for each point on a line segment connecting the feature point extracted by the subject feature point extraction unit 130 and the camera position of the determination target that is the camera data 110e. By acquiring the height information in the map information 110b and comparing the height with the height of the line segment, the presence of the subject object exceeding the line segment is detected. Further, it is determined whether or not the subject object is the determination target subject by determining whether or not there is a point position where the subject object exists in the determination target subject existing area of the subject region position information 110d. It is determined whether or not. If there is no subject object exceeding the line segment at all points on the investigated line segment, it is determined that the corresponding feature point is not obstructed by anything. The other object occlusion determination unit 140 classifies the feature points in these determinations into three types: occluded by other objects, occluded by the determination target subject itself, and not obstructed by anything.

他物体遮蔽指標算出部150は、他物体遮蔽判定部140で判定した、特徴点ごとの判定分類結果を用いて、該当カメラの関係する映像及び画像における、判定対象被写体の他物体遮蔽に関する映り具合を表す指標値を、最終的に算出する。   The other object occlusion index calculation unit 150 uses the determination classification result for each feature point determined by the other object occlusion determination unit 140, and the image condition related to the other object occlusion in the video and image related to the corresponding camera. An index value representing is finally calculated.

このように、画像判定方式100は判定対象被写体の特徴点を抽出し、抽出した特徴点および他の被写体の高さなどを基にして、カメラから見た特徴点がどのくらい他の被写体によって隠れているかを推定し、その画像における判定対象被写体の映り具合を判定するので、ユーザは判定結果を基にして、複数のカメラによって撮影された複数の映像及び画像データの中から最適な映像及び画像データを効率よく選択することができる。   As described above, the image determination method 100 extracts the feature points of the determination target subject, and how much the feature points viewed from the camera are hidden by other subjects based on the extracted feature points and the heights of the other subjects. And the user determines the appearance of the subject to be determined in the image, and based on the determination result, the user selects the optimum video and image data from a plurality of videos and image data captured by a plurality of cameras. Can be selected efficiently.

次に、本発明における画像判定方式の原理図の具体的な実施例として、画像判定方式を搭載した装置(以下、画像判定装置)の構成例である実施例1を、図面に基づいて詳細に説明する。図3は、本実施例1における画像判定装置の構成を示す機能ブロック図である。同図に示すように、この画像判定装置10は、図1で示した本発明の原理図に加えて、入力装置40および表示装置50、ベクトル地図情報110a、従来被写体内在判定部60、映像データ110c、表示処理部160を有する。また、建造物・地表高さマップ情報110bの一例として、建造物こみ地表高さマップ情報100baと、地表高さマップ情報110bbを有する。   Next, as a specific example of the principle diagram of the image determination method in the present invention, Example 1, which is a configuration example of a device (hereinafter referred to as an image determination device) equipped with an image determination method, will be described in detail with reference to the drawings. explain. FIG. 3 is a functional block diagram illustrating the configuration of the image determination apparatus according to the first embodiment. As shown in the figure, in addition to the principle diagram of the present invention shown in FIG. 1, the image determination device 10 includes an input device 40 and a display device 50, vector map information 110a, a conventional subject presence determination unit 60, video data. 110 c and a display processing unit 160. In addition, as an example of the building / ground surface height map information 110b, the building / land surface height map information 100ba and the ground surface height map information 110bb are included.

入力装置40は、キーボードやマウスなどの入力装置であり、出力装置50は、ディスプレイなどの表示装置である。   The input device 40 is an input device such as a keyboard and a mouse, and the output device 50 is a display device such as a display.

ベクトル地図情報110aは、図4で示すような、一般的なベクトル地図であり、建造物などの被写体が存在する地図上の領域を示す。本実施例1では、ユーザが、このベクトル地図を利用して判定対象被写体領域の位置を指定し、指定された領域位置に合致するベクトル図形をそのまま被写体領域位置情報110dとして利用する一例を示す。   The vector map information 110a is a general vector map as shown in FIG. 4, and indicates an area on the map where a subject such as a building exists. In the first embodiment, an example is shown in which the user designates the position of the determination target subject area using this vector map, and uses the vector graphic that matches the designated area position as it is as the subject area position information 110d.

図5は、本実施例1の画像判定方式を搭載した装置が、画像判定方式の利用開始に伴い、表示装置50に表示させるベクトル地図を使った表示の一例を示す図である。ユーザは、表示装置50に表示されたベクトル地図を基にして、判定対象被写体を指定して、ベクトル地図上のベクトル形状を選択し、その形状の各点の緯度経度等の位置情報、すなわち判定対象被写体領域の輪郭点を、被写体領域位置情報110dとみなす。この際、ユーザは、入力装置40を利用して表示装置50に表示されたベクトル地図上に存在する判定対象被写体をなぞって指定し、その位置にあるベクトル形状を選択する。   FIG. 5 is a diagram illustrating an example of display using a vector map that is displayed on the display device 50 when the apparatus equipped with the image determination method of the first embodiment starts using the image determination method. Based on the vector map displayed on the display device 50, the user designates a determination target subject, selects a vector shape on the vector map, and position information such as latitude and longitude of each point of the shape, that is, determination The contour point of the target subject area is regarded as the subject area position information 110d. At this time, the user uses the input device 40 to trace and specify the determination target subject existing on the vector map displayed on the display device 50, and selects the vector shape at that position.

なお、ベクトル地図情報110aを用いて被写体領域位置情報110dを取得する方法は、図5に示した方法に限定されるものではなく、例えば、図6に示すように、判定対象被写体を円で囲んで近隣のベクトル形状を指定してもよいし、図7に示すように、判定対象被写体を多角形で囲んで近隣のベクトル形状を指定してもよい。また、名前や住所、電話番号などと、ベクトル地図上のベクトル図形をあらかじめ対応付けしたものを用意しておき、名前や住所、電話番号などでベクトル図形を指定してもよい。   Note that the method of acquiring the subject region position information 110d using the vector map information 110a is not limited to the method shown in FIG. 5, and for example, as shown in FIG. The neighboring vector shape may be designated by, or as shown in FIG. 7, the neighboring vector shape may be designated by enclosing the determination target subject with a polygon. Alternatively, names, addresses, telephone numbers, and the like that are associated with vector graphics on a vector map in advance may be prepared, and vector graphics may be designated by names, addresses, telephone numbers, and the like.

もちろん、本実施例1のようにベクトル地図情報110aを使わずに写体領域位置情報110dを取得することも可能であり、判定対象となる被写体領域の輪郭を、緯度経度の数値で直接指定したり、または、図4のベクトル地図の代わりに、周辺領域を上空から撮影した写真や描いた絵などを表示し、図4に類似した入力装置で輪郭を描画しながら、入力装置内の描画位置を直接緯度経度に変換することで指定してもよい。   Of course, it is also possible to acquire the object region position information 110d without using the vector map information 110a as in the first embodiment, and the contour of the subject region to be determined is directly designated by the latitude and longitude numerical values. Or, instead of the vector map of FIG. 4, a picture taken in the surrounding area or a picture drawn is displayed, and a drawing position in the input device is drawn while drawing an outline with the input device similar to FIG. May be specified by directly converting to latitude and longitude.

建造物・地表高さマップ情報110bは、本実施例1では一例として、建造物を含む地表の高さのデジタル地図である、建造物こみ地表高さマップ情報110baと、純粋な地面の高さのデジタル地図である、地表の高さマップ情報110bbから構成する。建造物こみ地表高さマップ情報110baは、建造物がある位置は建造物の高さ、建造物がない場合は純粋な地面の高さを、位置と共に保持した情報である。この構成及び内容は一例であり、建造物のうち人工物だけの高さマップ、建造物のうち樹木のみの高さマップ、地表のみの高さマップ、など、各要素をそれぞれを分割保持して代用してもよいし、さらにこれらを行政区分単位等で分割保持してもよい。   In the first embodiment, the building / surface height map information 110b is, for example, a digital map of the height of the ground surface including the building, which is a digital map of the height of the ground surface including the building, and the height of the pure ground. It is composed of the height map information 110bb of the ground surface, which is a digital map. The building litter surface height map information 110ba is information that holds the height of the building when the building is located, and the height of the pure ground when there is no building, together with the location. This configuration and content is an example, and each element is divided and held, such as a height map of only artifacts in a building, a height map of only trees in a building, a height map of only the ground surface, etc. These may be substituted, and these may be divided and held in administrative division units or the like.

カメラデータ110eは、図示しない複数のカメラによって映像及び画像を撮影した時のカメラの位置や方向、画角等のカメラデータを合わせたデータ群である。   The camera data 110e is a data group in which camera data such as the position and direction of the camera and the angle of view when a video and an image are captured by a plurality of cameras (not shown).

映像データ110cは、図示しない複数のカメラによって撮影された映像及び画像そのものである。映像データ110cとカメラデータ110eは、相互関係がとれるように保持する。本実施例1の画像判定装置10は、映像データ110cを直接判定するのではなく、関連するカメラデータ110eを使った画像判定方式100を搭載することで、入力装置40よりユーザによって指定された判定対象被写体にかかわる最適な映像データをこの映像データ110cから選択することを目的としている。   The video data 110c is video and images taken by a plurality of cameras (not shown). The video data 110c and the camera data 110e are held so as to have a mutual relationship. The image determination apparatus 10 according to the first embodiment does not directly determine the video data 110c, but includes the image determination method 100 using the related camera data 110e, so that the determination specified by the user from the input device 40 is performed. The object is to select the optimum video data relating to the target subject from the video data 110c.

従来被写体内在判定部60は、従来技術の項で述べた、カメラデータ110eを使って対応する映像データ110c内に判定対象被写体が映っているかを間接的に調べる処理部である。まず、カメラデータ110eのカメラ位置や撮影方向、画角を用いて、カメラの撮影空間を楕円錘または四角錘などで定義する。次に、被写体領域位置情報110dの判定対象被写体の存在領域の位置情報を用いて、撮影空間内部に判定対象被写体が存在するか否かを判定する。具体的には、判定対象被写体のベクトル形状の各点の位置と撮影空間の位置を比較することで、ベクトル形状の一部または全部が撮影空間に含まれるか否かを判定する。撮影空間に含まれる場合は、判定対象被写体が撮影空間内部に存在するとみなし、該当するカメラデータ110e及び対応する映像データ110cを、判定対象被写体が映っているデータであると判定する。   The conventional subject presence determination unit 60 is a processing unit that indirectly checks whether the determination target subject is reflected in the corresponding video data 110c using the camera data 110e described in the section of the prior art. First, using the camera position, shooting direction, and angle of view of the camera data 110e, the shooting space of the camera is defined by an elliptical pyramid or a square pyramid. Next, it is determined whether or not the determination target subject exists in the photographing space using the position information of the existence region of the determination target subject in the subject region position information 110d. Specifically, by comparing the position of each point of the vector shape of the subject to be determined with the position of the imaging space, it is determined whether a part or all of the vector shape is included in the imaging space. If it is included in the shooting space, it is determined that the determination target subject exists in the shooting space, and the corresponding camera data 110e and the corresponding video data 110c are determined to be data showing the determination target subject.

なお、従来技術では、実際には、判定被写体領域の形状(輪郭の複数点)ではなく、判定被写体の位置(一点)を使って、撮影空間内部に存在するか否かを判定することが多い。本実施例は、本手法の被写体領域位置情報110dを、ベクトル地図情報110aから求めたため、判定対象被写体領域の形状(複数点)としているが、図1の本発明の原理図で示したように、被写体領域位置情報110dは、特に一点か複数点かを問わないため、従来のような一点として、撮影空間内部か否かの判定を行うことも可能である。   Note that, in the prior art, in practice, it is often determined whether or not the object exists within the imaging space by using the position (one point) of the determination subject instead of the shape of the determination subject region (a plurality of contour points). . In this embodiment, the subject region position information 110d of the present method is obtained from the vector map information 110a, and thus the shape (plural points) of the subject region to be determined is used. As shown in the principle diagram of the present invention in FIG. Since the subject area position information 110d does not matter whether it is one point or a plurality of points, it is possible to determine whether the subject area position information is inside the photographing space as one point as in the past.

本実施例1では、画像判定方式110へカメラデータ110eをそのまま渡さず、従来被写体内在判定部60を通し、判定対象被写体が各カメラの撮影範囲内にないカメラデータは渡さないことで、そもそも映像内に判定対象被写体が映っていないカメラデータに関しては画像判定方式110の入力とせず、他物体遮蔽による映り具合判定を行わないことを意図している。   In the first embodiment, the camera data 110e is not passed as it is to the image determination method 110, but is passed through the conventional subject presence determination unit 60, and camera data whose determination target subject is not within the shooting range of each camera is not passed. The camera data in which the subject to be judged is not shown is not input to the image judgment method 110, and it is intended not to make a judgment on the image quality due to the shielding of other objects.

被写体形状推定部120は、ベクトル地図情報110aから取得した被写体領域位置情報110dの、判定対象被写体領域の輪郭の位置情報と、建造物・地表高さマップ情報110b内の建造物こみ地表高さマップ情報110baを突合せ、輪郭の各ポイントの位置に関わる建造物こみの地表の高さを調べることで、判定対象被写体の概形状の上面を抽出する。同様にして、建造物・地表高さマップ情報110b内の地表高さマップ情報110bbと突合せ、輪郭の各ポイントの位置に関わる地表の高さを調べることで、判定対象被写体の概形状の下面を抽出する。高さ的には、この上面と下面の間が、概形状になる。   The object shape estimation unit 120 includes the position information of the contour of the determination target object area in the object area position information 110d acquired from the vector map information 110a, and the building ground surface height map in the building / surface height map information 110b. The upper surface of the approximate shape of the subject to be determined is extracted by matching the information 110ba and examining the height of the ground surface of the building in relation to the position of each point of the contour. Similarly, the lower surface of the rough shape of the subject to be determined is checked by matching the surface height map information 110bb in the building / surface height map information 110b and examining the height of the ground surface related to the position of each point of the contour. Extract. In terms of height, an approximate shape is formed between the upper surface and the lower surface.

図8は、被写体形状推定部120が判定対象被写体の概形状を取得する処理を説明するための説明図である。同図に示すように、判定対象被写体の概形状は、対応するベクトル図形(太線で示した図形。同図では、分かりやすく解説するため、判定対象被写体以外のベクトル図形も細い線で示している)の輪郭上の任意のポイントの緯度経度値と、当該緯度経度値に対応する建造物こみの地表高さマップ情報110ba、及び地表高さマップ情報110bbの高さをそれぞれ加えることで、判定対象被写体の概形状とする。被写体形状推定部120は、抽出した判定対象被写体の形状情報を被写体特徴点抽出部130に渡す。   FIG. 8 is an explanatory diagram for explaining processing in which the subject shape estimation unit 120 acquires the approximate shape of the determination target subject. As shown in the figure, the approximate shape of the subject to be judged is the corresponding vector figure (the figure indicated by a thick line. In the figure, the vector figure other than the subject to be judged is also indicated by a thin line for easy understanding. ) By adding the latitude / longitude value of an arbitrary point on the contour of), the height of the ground height map information 110ba of the building lump corresponding to the latitude / longitude value, and the height of the ground height map information 110bb, respectively. The approximate shape of the subject. The subject shape estimation unit 120 passes the extracted shape information of the determination target subject to the subject feature point extraction unit 130.

なお、判定対象被写体の概形状を抽出する方法は、上述した方法に限られるものではなく、被写体の輪郭上の各ポイントの高さをそれぞれ正確に求めずに、例えば、被写体の輪郭形状の中心位置を求めて、その中心位置での高さを、当該被写体にかかわる高さとして代用してもよい。   Note that the method of extracting the approximate shape of the subject to be determined is not limited to the above-described method, and the height of each point on the contour of the subject is not accurately determined, for example, the center of the contour shape of the subject. The position may be obtained, and the height at the center position may be used as the height related to the subject.

被写体特徴点抽出部130は、被写体形状推定部120から判定対象被写体の概形状情報を取得し、建造物・地表高さマップ情報110bの建造物の高さ及び地表の高さを適宜調べながら、判定対象被写体の特徴点を抽出する。以下に、被写体特徴点抽出部130の処理について具体的に説明する。図9は、被写体特徴点抽出部130の処理を説明するための説明図である。   The subject feature point extraction unit 130 acquires the approximate shape information of the determination target subject from the subject shape estimation unit 120, and appropriately checks the height of the building and the height of the ground in the building / ground height map information 110b. Extract feature points of the subject to be determined. Hereinafter, the processing of the subject feature point extraction unit 130 will be specifically described. FIG. 9 is an explanatory diagram for explaining processing of the subject feature point extraction unit 130.

同図に示すように、被写体特徴点抽出部130は、まず、判定対象被写体の概形状にかかる側面および上面を任意の間隔でメッシュ状に分割する。分割する間隔は、一つの規定値(例えば、5mなど)を用いてもよいし、複数の数値(例えば、1m、5m、10mなど)を用意し、それぞれの数値で分割してもよい。   As shown in the figure, the subject feature point extraction unit 130 first divides a side surface and an upper surface of the approximate shape of the determination target subject into meshes at arbitrary intervals. As the interval to be divided, one specified value (for example, 5 m) may be used, or a plurality of numerical values (for example, 1 m, 5 m, 10 m, etc.) may be prepared and divided by each numerical value.

次に、被写体特徴点抽出部130は、分割したメッシュのうち、特に上面の各格子点の高さを、建造物・地表高さマップ情報110bの建造物の高さ、すなわち建造物こみ地表高さマップ情報110baの高さを適宜調べながら、算出する。なお、この高さは、被写体形状推定部120の対象被写体の輪郭上の各ポイントの高さと同様、それぞれ正確に求めるのではなく、輪郭形状の中心位置などの代表位置の高さを、メッシュの各格子点の共通の高さとして代用してもよい。   Next, the subject feature point extraction unit 130 determines the height of each lattice point on the upper surface of the divided mesh, in particular, the height of the building in the building / surface height map information 110b, that is, the height of the building indentation. The height is calculated while appropriately checking the height of the map information 110ba. Note that this height is not calculated accurately, as is the height of each point on the contour of the target object of the subject shape estimation unit 120, but the height of the representative position such as the center position of the contour shape is calculated. You may substitute as a common height of each lattice point.

さらに、被写体特徴点抽出部130は、分割したメッシュのうち、側面の各格子点の高さを、建造物上面の高さ(=建造物こみ地表高さマップ情報110baの高さ)及び下接地面の高さ(=地表の高さマップ情報110bbの高さ)を、指定メッシュ間隔で補間した値とする。   Furthermore, the subject feature point extraction unit 130 sets the height of each lattice point on the side surface of the divided meshes to the height of the upper surface of the building (= the height of the building incineration ground surface height map information 110ba) and the subordinate. The height of the ground (= the height of the ground surface height map information 110bb) is set to a value interpolated at a specified mesh interval.

本実施例1の被写体特徴点抽出部130は、このようにして判定対象被写体の概形状の側面および上面を任意の間隔で分割したメッシュの各格子点と、概形状の頂点群を、その分割間隔に対する特徴点群とする。被写体特徴点抽出部130は、抽出した特徴点群の情報と被写体の形状情報とを他物体遮蔽判定部140に渡す。   The subject feature point extraction unit 130 according to the first embodiment divides the lattice points of the mesh and the vertex groups of the approximate shape by dividing the side surfaces and the upper surface of the approximate shape of the determination target subject at arbitrary intervals in this way. A feature point group for the interval. The subject feature point extraction unit 130 passes the extracted feature point group information and subject shape information to the other object occlusion determination unit 140.

なお、被写体特徴点抽出部130が特徴点を抽出する手法は、上述した手法に限られるものではなく、判定対象被写体側面または上面内に含まれる点として、高さ、緯度、経度のランダム値を取得し、取得した各ランダム値を特徴点としてもよい。   Note that the method by which the subject feature point extraction unit 130 extracts feature points is not limited to the above-described method, and random values of height, latitude, and longitude are used as points included in the side surface or upper surface of the determination target subject. The acquired random values may be used as feature points.

また、メッシュ分割ではなく、ストリップ分割によって判定対象被写体を分割し、このストリップの各格子点と概形状の頂点群とを特徴点群としてもよい。また、概形状の側面及び上面に限らず、概形状の内部の点を特徴点としてもかまわない。更に、被写体特徴点抽出部130にかかわる計算量を軽減させるべく、単一の特徴点を抽出してもよい。この場合は、例えば、判定対象被写体の重心(全頂点位置群の加算平均位置)の点を特徴点とする。また、概形状に対してまんべんなく特徴点群を求めずに、より目に入りやすい建物の上層部など、任意の場所の特徴点数を増やすように算出してもよい。   Further, the subject to be determined may be divided by strip division instead of mesh division, and each lattice point of the strip and the vertex group of the approximate shape may be used as the feature point group. Further, not only the side surface and the upper surface of the approximate shape but also points inside the approximate shape may be used as the feature points. Further, a single feature point may be extracted in order to reduce the amount of calculation related to the subject feature point extraction unit 130. In this case, for example, the point of the center of gravity (additional average position of all vertex position groups) of the determination target subject is used as the feature point. Further, it may be calculated so that the number of feature points in an arbitrary place, such as an upper layer part of a building that is more easily seen, is increased without obtaining the feature point group evenly with respect to the approximate shape.

他物体遮蔽判定部140は、被写体特徴点抽出部130からの判定対象被写体の形状情報および特徴点群の情報と、建造物・地表高さマップ情報110bと、カメラデータ110eのうちで従来被写体内在判定部60を通して判定被写体が映っていると判定されたカメラデータとの3つの情報を基にして、カメラと判定対象被写体の各特徴点との間に存在する被写体物体があるかを調べ、さらにその被写体物体が判定対象被写体自身であるかどうかを判定することで、他物体による隠れを推定する処理部である。   The other object occlusion determination unit 140 includes the shape information and feature point group information of the determination target subject from the subject feature point extraction unit 130, the building / surface height map information 110b, and the camera data 110e. Based on the three pieces of information of the camera data determined that the determination subject is reflected through the determination unit 60, it is determined whether there is a subject object existing between the camera and each feature point of the determination target subject. It is a processing unit that estimates whether or not the subject object is a determination target subject itself, thereby estimating hiding by another object.

図10は、他物体遮蔽判定部140の処理を説明するための説明図である。同図に示すように、他物体遮蔽判定部140は、カメラ位置と特徴点とを線分で結び、結んだ線を越える被写体が存在するか否かを判定する。具体的には、カメラ位置と特徴点との線分に沿いながら、建造物・地表高さマップ情報110bの建造物こみの地表の高さマップ情報110baを使って、建造物の高さを調べていき、線分よりも建造物の高さの方が高いポイントがないか探す。次に、そのポイントが判定対象被写体自身であるかどうかを、判定対象被写体の形状情報から判定し、判定対象被写体自身でない場合は、他の物体であると判定する。   FIG. 10 is an explanatory diagram for explaining the processing of the other object occlusion determination unit 140. As shown in the figure, the other object occlusion determination unit 140 connects the camera position and the feature point with a line segment, and determines whether or not there is a subject that exceeds the connected line. Specifically, while following the line between the camera position and the feature point, the height of the building is examined using the height map information 110ba of the building litter of the building / surface height map information 110b. Go and look for a point where the height of the building is higher than the line segment. Next, whether or not the point is the determination target subject itself is determined from the shape information of the determination target subject, and if it is not the determination target subject itself, it is determined that it is another object.

他物体遮蔽判定部140は、例えば、図9の(a)に示すように、特徴点とカメラ位置との線分よりも高いポイントMが、建造物こみの地表高さマップ情報110ba上で見つかり、かつ、ポイントMは判定被写体のポイントでなかった場合に、「カメラと判定被写体の特徴点の間には、他物体が存在する」と判定する。このような場合には、カメラ位置と当該線分をなす特徴点を、他物体に遮られる特徴点(以下、特徴点(B)と表記する)とする。   For example, as shown in FIG. 9A, the other object occlusion determination unit 140 finds a point M higher than the line segment between the feature point and the camera position on the ground height map information 110ba of the building litter. When the point M is not a point of the determination subject, it is determined that “another object exists between the camera and the feature point of the determination subject”. In such a case, a feature point that forms a line segment with the camera position is a feature point that is obstructed by another object (hereinafter referred to as a feature point (B)).

また、他物体遮蔽判定部140は、図10の(b)に示すように、特徴点とカメラ位置との線分よりも高いポイントが、建造物こみの地表高さマップ情報110ba上で見つからない場合に、「カメラと判定被写体の特徴点の間には、他物体が存在しない」と判定する。このような場合には、カメラ位置と当該線分をなす特徴点を、他物体に遮られない特徴点(以下、特徴点(A)と表記する)とする。   Further, as shown in FIG. 10B, the other object occlusion determination unit 140 cannot find a point higher than the line segment between the feature point and the camera position on the surface height map information 110ba of the building litter. In this case, it is determined that “no other object exists between the feature points of the camera and the determination subject”. In such a case, a feature point that forms a line segment with the camera position is a feature point that is not obstructed by another object (hereinafter referred to as a feature point (A)).

また、他物体遮蔽判定部140は、図10の(c)に示すように、特徴点とカメラ位置との線分よりも高いポイントNが、建造物こみの地表高さマップ情報110ba上で見つかり、かつ、ポイントNが被写体内のポイントであった場合に、「カメラと判定被写体の特徴点の間には、他物体が存在しない」と判定する。このような場合には、カメラ位置と当該線分をなす特徴点を、自分自身で遮られる特徴点(以下、特徴点(C)と表記する)とする。   Further, as shown in FIG. 10C, the other object occlusion determination unit 140 finds a point N higher than the line segment between the feature point and the camera position on the ground surface height map information 110ba of the building litter. When the point N is a point in the subject, it is determined that “no other object exists between the camera and the feature point of the determination subject”. In such a case, a feature point that forms a line segment with the camera position is a feature point that is blocked by itself (hereinafter referred to as a feature point (C)).

他物体遮蔽判定部140は、特徴点群それぞれに対して上述した判定を行い、特徴点(A)の個数、特徴点(B)の個数、特徴点(C)の個数をカウントし、各特徴点(A)〜(C)の個数にかかわる情報を、個数情報として、他物体遮蔽指標算出部150に渡す。   The other object occlusion determination unit 140 performs the above-described determination for each feature point group, counts the number of feature points (A), the number of feature points (B), and the number of feature points (C), Information relating to the number of points (A) to (C) is passed to the other object occlusion index calculation unit 150 as number information.

他物体遮蔽指標算出部150は、他物体遮蔽判定部140から個数情報を取得し、取得した個数情報を基にして、他物体によって判定対象被写体が遮られている割合を他物体遮蔽指標として算出する処理部である。他物体によって遮られている割合を算出する具体的な式の一例は、他物体によって遮られている割合=特徴点(B)の個数÷(全特徴点の個数(A+B+C)−特徴点(C)の個数)によって表される。本実施例1の他物体遮蔽指標算出部150は、この算出した他物体によって遮られている割合を、判定対象被写体が他物体遮蔽指標として、そのまま利用し、表示処理部160に渡す。   The other object occlusion index calculation unit 150 acquires the number information from the other object occlusion determination unit 140, and calculates, as the other object occlusion index, the ratio that the determination target subject is obstructed by the other object based on the acquired number information. Is a processing unit. An example of a specific formula for calculating the ratio of obstruction by other objects is the ratio of obstruction by other objects = number of feature points (B) ÷ (number of all feature points (A + B + C) −feature points (C )). The other object occlusion index calculation unit 150 of the first embodiment uses the calculated ratio of occlusion by the other object as it is as the other object occlusion index and passes it to the display processing unit 160.

なお、他物体によって遮られている割合、及び、最終的な他物体遮蔽指標の算出方法は、上述した手法に限定されるものではなく、例えば、特徴点による重要度の違いを考慮し、重み付けをした計算をしてもよい。すなわち、他物体遮蔽判定部140から個数情報以外に、それぞれの特徴点の位置情報などを取得しておき、ランドマークとなるような建物の場合、目印となる特徴的な形状部分の特徴点を重視したり、建物が立てこんでいる区域の場合、建物の下層部の隠れは、重要でないとして、上層部の特徴点を重視することなどの重みを加味し、最終的な他物体遮蔽指標を算出することも考えられる。   Note that the ratio of obstruction by other objects and the method for calculating the final other object occlusion index are not limited to the above-described methods. For example, weighting is performed in consideration of differences in importance depending on feature points. You may make a calculation with In other words, in addition to the number information, the position information of each feature point is acquired from the other object occlusion determination unit 140, and in the case of a building that becomes a landmark, a feature point of a characteristic shape portion that becomes a landmark is obtained. In the case of an area where buildings are stood up, the hiding of the lower part of the building is not important. It is also possible to calculate.

表示処理部160は、他物体遮蔽指標算出部150から判定対象被写体の他物体遮蔽指標値を取得し、取得した指標値に基づいて、判定対象カメラデータ110eに対応する映像データ110cを探して、表示装置50で再生表示する処理部である。図11は、表示処理部160が物体遮蔽指標を利用して映像及び画像データを表示するインタフェースの一例を示す図である。   The display processing unit 160 acquires the other object occlusion index value of the determination target subject from the other object occlusion index calculation unit 150, and searches for video data 110c corresponding to the determination target camera data 110e based on the acquired index value. The processing unit reproduces and displays on the display device 50. FIG. 11 is a diagram illustrating an example of an interface in which the display processing unit 160 displays video and image data using an object occlusion index.

本発明の実施例1における表示処理部160は、図11に示すように、映像データ(a、b、e)及び画像データ(c、d、f〜k)を他物体遮蔽指標の値で昇順(数値が小さいものから大きいものへの順。この例では、数値が小さいものほど他物体による遮られる割合が低いとする)に並べる。さらに、判定対象被写体がより良く映っているものを推薦する意図のもと、他物体遮蔽指標の値が所定値未満の映像及び画像データを判定対象被写体に対して最適な映像及び画像データとみなし、例えば該当する図11の(a)〜(e)の映像及び画像のサムネイル画像をカラーで表示する。一方で、他物体遮蔽指標の値が所定値以上の映像及び画像データを判定対象被写体に対して適切でない映像及び画像データとみなし、例えば該当する図11の(f)〜(k)の映像及び画像のサムネイル画像を白黒で表示する。   As shown in FIG. 11, the display processing unit 160 according to the first embodiment of the present invention processes the video data (a, b, e) and the image data (c, d, f to k) in ascending order according to the values of the other object occlusion indices. (In order of decreasing numerical value to increasing numerical value. In this example, the smaller the numerical value, the lower the percentage obstructed by other objects). Furthermore, with the intention of recommending a subject that better reflects the judgment target subject, video and image data with other object occlusion index values less than a predetermined value are regarded as optimal video and image data for the judgment subject subject. For example, the corresponding images and thumbnail images of FIGS. 11A to 11E are displayed in color. On the other hand, video and image data whose other object occlusion index value is equal to or greater than a predetermined value are regarded as video and image data that are not appropriate for the subject to be determined. For example, the corresponding video and image data shown in FIGS. Display thumbnail images in black and white.

なお、本実施例1の図11では、元の映像及び画像データ単位で結果を表示しているが、映像データを他物体遮蔽指標の数値の小さい部分、すなわち判定対象被写体の他物体による映り具合の良い部分だけ抽出することで、複数の映像ショットに分け、それらを表示してもよい。また、推薦したい映像及び画像のファイル名をリストに羅列したり、推薦度合いの高いものを大きくより画面に近くなるような3次元CGで表示したり、任意の表示方法を行ってもかまわない。   In FIG. 11 of the first embodiment, the result is displayed in units of the original video and image data. By extracting only the good part, it may be divided into a plurality of video shots and displayed. In addition, the file names of videos and images to be recommended may be listed in a list, or highly recommended items may be displayed in a three-dimensional CG that is larger and closer to the screen, or an arbitrary display method may be used.

本発明の実施例1における表示処理部160は、出力装置50で表示した図11に対して、入力装置40を介してユーザが映像データを選択した場合には、選択映像及び画像データの閲覧再生などを開始する。図12は、図11において映像データ(a)が選択された場合の表示画面の一例を示す図である。図12では、映像の画像フレーム群のうち、従来被写体内在判定部60によってカメラの撮影領域に判定被写体が存在する判定された画像フレームであり、かつ本手法である画像判定方式100によって他物体遮蔽指標が低い(他物体による遮蔽が少ない)と判定された画像フレームの部分を、白黒濃淡バー上に白く表示している。ユーザはこの濃淡バー上で白い部分のみを選択することで、本手法が推薦する、判定被写体が他の物体に遮られることなく映っている映像フレームのみを再生閲覧することができる。なお、図12に示すように、他物体遮蔽指標から求めた判定被写体の映り具合を濃淡バーで表示してもよいし、他物体遮蔽指標の値を具体的な数字で表示してもよい。また、図11の段階で遮られ率の低い画像フレームのみを集めた映像ショットに分けた場合などには、図12で再生する映像ショットは全編を通して映りが良いと考えられるので、特に他物体遮蔽指標値や映り具合を表示しなくてもかまわない。   The display processing unit 160 according to the first embodiment of the present invention browses and reproduces the selected video and image data when the user selects video data via the input device 40 with respect to FIG. And so on. FIG. 12 is a diagram showing an example of a display screen when the video data (a) is selected in FIG. In FIG. 12, among the image frame groups of the video, the conventional object presence determination unit 60 determines the image frame in which the determination subject exists in the shooting area of the camera, and the other object occlusion is performed by the image determination method 100 which is the present method. The portion of the image frame that is determined to have a low index (low shielding by other objects) is displayed in white on the black and white shading bar. By selecting only a white portion on the shading bar, the user can reproduce and view only a video frame that is recommended by the present method and that shows the determination subject without being blocked by other objects. Note that, as shown in FIG. 12, the reflected state of the determination subject obtained from the other object shielding index may be displayed with a light and dark bar, or the value of the other object shielding index may be displayed with a specific number. In addition, in the case of dividing the video shot into only the image frames with a low blocking rate at the stage of FIG. 11, the video shot to be reproduced in FIG. It is not necessary to display the index value and the image quality.

次に、本実施例1における画像判定装置10の処理手順について説明する。図13は、本実施例1に示した画像判定装置10の処理手順を示すフローチャートである。同図に示すように、画像判定装置10は、画像判定方式100の処理である部分(S102〜S106)と、画像判定方式100の前後で利用するデータを揃えると同時に入力及び出力を制御する部分(S101、S104,S107)に分かれる。   Next, a processing procedure of the image determination apparatus 10 in the first embodiment will be described. FIG. 13 is a flowchart illustrating a processing procedure of the image determination apparatus 10 illustrated in the first embodiment. As shown in the figure, the image determination apparatus 10 aligns data used before and after the image determination method 100 (S102 to S106) and a portion that controls input and output at the same time. (S101, S104, S107).

まず、入力装置40経由で、表示装置50上に表示されたベクトル地図情報110a内の判定対象被写体に関係する領域を指定することで、被写体領域位置情報110dを指定ベクトル形状情報から取得する(ステップS101)。   First, the subject region position information 110d is acquired from the designated vector shape information by designating a region related to the determination target subject in the vector map information 110a displayed on the display device 50 via the input device 40 (step S1). S101).

そして、被写体形状推定部120が、被写体領域位置情報110dと、建造物・地表高さマップ情報110bから被写体の概形状を特定し(ステップS102)、被写体特徴点抽出部130が特徴点群を抽出する(ステップS103)。   Then, the subject shape estimation unit 120 specifies the approximate shape of the subject from the subject region position information 110d and the building / surface height map information 110b (step S102), and the subject feature point extraction unit 130 extracts the feature point group. (Step S103).

次に、従来被写体内在判定部60が、カメラデータ110eと被写体領域位置情報110dを使って、判定対象被写体が映っているカメラデータを振り分ける(ステップS104)。   Next, the conventional subject presence determination unit 60 uses the camera data 110e and the subject area position information 110d to sort the camera data in which the determination target subject is shown (step S104).

続いて、他物体遮蔽判定部140が、判定済みの各カメラデータと判定被写体の特徴点群、建造物・地表高さマップ情報110bを用いて、各特徴点における他物体遮蔽判定処理を実行する(ステップS105)。   Subsequently, the other object occlusion determination unit 140 executes the other object occlusion determination process at each feature point by using the determined camera data, the feature point group of the determined subject, and the building / surface height map information 110b. (Step S105).

続いて、他物体遮蔽指標算出部150が、他物体による遮蔽指標値を算出し(ステップS106)、表示処理部160が、遮蔽指標を基にして映像データ110cを出力する(ステップS107)。   Subsequently, the other object occlusion index calculation unit 150 calculates an occlusion index value by the other object (step S106), and the display processing unit 160 outputs the video data 110c based on the occlusion index (step S107).

次に、図13のステップS105で示した他物体遮蔽判定処理について説明する。図14は、図13のステップS105で示した他物体遮蔽判定処理を示すフローチャートである。同図に示すように、他物体遮蔽判定部140は、特徴点(A)、(B)、(C)のカウントを初期化(各特徴点(A)〜(B)にかかる個数を0に設定)し(ステップS201)、全ての特徴点を選択したか否かを判定する(ステップS202)。   Next, the other object occlusion determination process shown in step S105 of FIG. 13 will be described. FIG. 14 is a flowchart showing the other object occlusion determination process shown in step S105 of FIG. As shown in the figure, the other object occlusion determination unit 140 initializes the counts of feature points (A), (B), and (C) (the number of feature points (A) to (B) is set to 0). It is determined (step S201), and it is determined whether all feature points have been selected (step S202).

全ての特徴点を選択した場合には(ステップS203,Yes)、個数情報を他物体遮蔽指標算出部150に渡す(ステップS204)。一方、全ての特徴点を選択していない場合には(ステップS203,No)、未選択の特徴点を選択し(ステップS205)、カメラ位置を始点、選択した特徴点を終点とした線分を作成する(ステップS206)。   When all the feature points have been selected (step S203, Yes), the number information is passed to the other object occlusion index calculation unit 150 (step S204). On the other hand, if not all feature points have been selected (No at step S203), unselected feature points are selected (step S205), and a line segment with the camera position as the start point and the selected feature point as the end point is selected. Create (step S206).

そして、他物体遮蔽判定部140は、作成した線分の高さを上回る被写体が存在するか否かを判定し(ステップS207)、線分を上回る被写体が存在しない場合には(ステップS208,No)、特徴点(A)のカウントに1を加算し(ステップS209)、ステップS202に移行する。   Then, the other object occlusion determination unit 140 determines whether or not there is a subject exceeding the height of the created line segment (step S207), and when there is no subject exceeding the line segment (step S208, No) ), 1 is added to the count of the feature point (A) (step S209), and the process proceeds to step S202.

一方、線分を上回る被写体が存在する場合には(ステップS208,Yes)、線分の高さを上回った被写体は、判定対象被写体か否かを判定し(ステップS210)、線分の高さを上回った被写体が判定対象被写体で無い場合には(ステップS211,No)、特徴点(B)のカウントに1を加算し(ステップS212)、ステップS202に移行する。   On the other hand, if there is a subject exceeding the line segment (step S208, Yes), it is determined whether or not the subject exceeding the line segment height is the subject to be determined (step S210), and the line segment height is determined. If the subject exceeding the threshold is not the determination subject (step S211, No), 1 is added to the count of the feature point (B) (step S212), and the process proceeds to step S202.

一方、線分の高さを上回った被写体が判定対象被写体である場合には(ステップS211,Yes)、特徴点(C)のカウントに1を加算し(ステップS213)、ステップS202に移行する。   On the other hand, when the subject exceeding the height of the line segment is the subject to be determined (step S211, Yes), 1 is added to the count of the feature point (C) (step S213), and the process proceeds to step S202.

このように、他物体遮蔽判定部140が、個数情報を作成し、他物体遮蔽指標算出部150がこの個数情報を利用してた物体遮蔽指標を算出し、表示処理部160が他物体遮蔽指標を基にして映像データ110cを表示装置50に表示させるので、ユーザは効率よく、最適な映像データを選択することができる。   As described above, the other object occlusion determination unit 140 creates the number information, the other object occlusion index calculation unit 150 calculates the object occlusion index using the number information, and the display processing unit 160 performs the other object occlusion index. Since the video data 110c is displayed on the display device 50 based on the above, the user can efficiently select the optimal video data.

上述してきたように、本実施例1の画像判定装置10は、被写体形状推定部120が被写体領域位置情報110d、建造物・地表高さマップ情報110bを基にして、指定された判定対象被写体の形状を抽出し、被写体特徴点抽出部130が、判定対象被写体の形状を基にして特徴点を抽出し、他物体遮蔽判定部140が、カメラデータ110e、判定対象被写体形状、特徴点と建造物・地表高さマップ情報110bを基にして他物体遮蔽に関する特徴点の分類個数情報を作成し、他物体遮蔽指標算出部150が、個数情報を基にしてカメラデータごとの他物体遮蔽指標を算出する。算出した各カメラデータ毎の他物体遮蔽指標は、本実施例1で示すように表示処理部160が、関連する映像データ110cを表示装置50に表示する際の、判定被写体の他物体遮蔽に関する映り具合に対する推薦度として利用することができるため、カメラと、判定対象被写体との間に他物体が存在する場合にでも、最適な映像データを選択することができる。   As described above, in the image determination device 10 according to the first embodiment, the subject shape estimation unit 120 uses the subject region position information 110d and the building / surface height map information 110b to specify the designated determination target subject. The shape is extracted, the subject feature point extraction unit 130 extracts the feature point based on the shape of the determination target subject, and the other object occlusion determination unit 140 detects the camera data 110e, the determination target subject shape, the feature point, and the building. Classifying number information of feature points related to other object occlusion is created based on the ground surface height map information 110b, and the other object occlusion index calculating unit 150 calculates another object occlusion index for each camera data based on the number information. To do. As shown in the first embodiment, the calculated other object occlusion index for each camera data is a reflection of the other object occlusion of the determination subject when the display processing unit 160 displays the related video data 110c on the display device 50. Since it can be used as the degree of recommendation for the condition, the optimum video data can be selected even when another object exists between the camera and the determination target subject.

なお、本実施例1にかかわる建造物・地表高さマップ情報110bは、建造物こみの地表高さマップ情報110ba以外に、純粋な地表の高さである地表高さマップ情報110bbを含んでいたが、建造物こみの地表高さマップ情報110baのみで地表高さマップ情報110bbを代用することができる。本実施例1で、地表高さマップ情報110bbは、被写体形状推定部120が、被写体形状の下面、すなわち地表との接地面の高さを求めるために利用している。そこで、被写体形状推定部120が、被写体領域位置情報110dと建造物こみの地表高さマップ情報110baを基にして、被写体の下接地面、すなわち被写体位置における地表の高さ情報を取得する一例を示す。   It should be noted that the building / surface height map information 110b according to the first embodiment includes the surface height map information 110bb which is the height of the pure ground, in addition to the surface height map information 110ba of the building litter. However, the ground surface height map information 110bb can be substituted only by the ground surface height map information 110ba of the building litter. In the first embodiment, the ground surface height map information 110bb is used by the subject shape estimation unit 120 to obtain the height of the lower surface of the subject shape, that is, the contact surface with the ground surface. Therefore, an example in which the subject shape estimation unit 120 acquires the lower surface of the subject, that is, the height information of the ground surface at the subject position, based on the subject region position information 110d and the ground height map information 110ba of the building dust. Show.

被写体形状推定部120は、建造物こみの高さマップ情報110baと被写体領域位置情報110dとをつき合わせ、建造物こみの高さマップ情報内で被写体領域に含まず、かつ被写体領域よりも十分大きな領域(建造物同士が地表をみせずに完全に接して存在することは稀なので、この十分大きな領域のどこかに、建造物が無く地表が現れているポイントが存在する可能性が高い)に対応する建造物こみの地表の高さを取得する。そして、被写体形状推定部120は、取得した高さのうち、最も低い高さを擬似的な該当領域全体の地表面の高さとする。なお、高さを取得する領域が広すぎて、擬似的な地表面の高さとみなしたポイントが、被写体の存在する領域から離れると、被写体の存在する領域の地表面との誤差が大きくなるので、単純に最も低い高さを採用するのではなく、被写体からの距離を使って重み付けをして採用してもよい。   The subject shape estimation unit 120 matches the building height map information 110ba with the subject region position information 110d, and does not include the subject height in the building height map information and is sufficiently larger than the subject region. In an area (there is rarely a point where there is no building somewhere in this sufficiently large area, since it is rare for buildings to touch each other without looking at the ground) Get the surface height of the corresponding building litter. Then, the subject shape estimation unit 120 sets the lowest height among the acquired heights as the height of the ground surface of the entire pseudo corresponding area. In addition, if the area where the height is acquired is too wide and the point considered as the height of the pseudo ground surface is far from the area where the subject exists, the error with the ground surface of the area where the subject exists increases. Instead of simply adopting the lowest height, the distance from the subject may be used for weighting.

このように、被写体形状推定部120が、建造物こみの高さマップ情報110baと被写体領域位置情報110dとを利用して、地表面の高さを取得するので、地表の高さマップ情報110bbを建造物・地表高さマップ情報110に含める必要性が無くなり、情報記録容量やマップ情報の取得経費、及びマップ情報を最新に保つための更新の手間および経費を節約することができる。   In this way, the subject shape estimation unit 120 acquires the height of the ground surface using the building dust height map information 110ba and the subject region position information 110d, so the ground surface height map information 110bb is obtained. There is no need to include it in the building / surface height map information 110, and it is possible to save the information recording capacity, the acquisition cost of the map information, and the time and effort of updating to keep the map information up-to-date.

また、建造物・地表高さマップ情報110bの建造物こみの地表高さマップ情報110baを利用して、ベクトル地図情報110aを代用して、被写体領域位置情報110dを取得することができる。ここで、建造物こみの地表高さマップ情報110baを利用して、判定被写体領域位置情報10dを取得する一例を示す。   In addition, the object area position information 110d can be obtained by using the ground height map information 110ba of the building litter of the building / surface height map information 110b and substituting the vector map information 110a. Here, an example is shown in which the determination subject region position information 10d is acquired using the ground surface height map information 110ba of the building trash.

図15は、建造物こみの地表高さマップ情報110baから被写体領域位置情報110dを取得する手法を説明するための説明図である。同図に示すように、従来の被写体内在判定と同様、判定対象被写体を代表位置一点で入力装置40などから指定する。まず、この代表位置一点を、その緯度経度などの値を使い、建造物こみ地表高さマップ情報110ba上の代表点として設定する。   FIG. 15 is an explanatory diagram for explaining a method of acquiring the subject area position information 110d from the ground height map information 110ba of the building litter. As shown in the figure, the subject to be judged is designated from the input device 40 or the like at one representative position, as in the conventional subject presence judgment. First, this representative position point is set as a representative point on the building litter surface height map information 110ba using a value such as latitude and longitude.

そして、代表点から周辺に向かって、円状に、所定間隔及び角度ごとに移動しながら、移動先の各ポイントに対応する建造物こみ地表の高さを取得する。各ポイントの高さを取得する際に、一つ前に取得したポイントの高さ(または、代表点の高さ)と比較し、高さが大幅に変化する場所(例えば、代表点の高さの1/4以下となる場所)を探し、大幅に変化した場所を判定対象被写体領域の外縁点として登録する(図15の例では、P1とP2が外縁点として登録される)。時計周りに角度をずらしながら、周辺に向けて外縁点を探して登録していった場合には、登録順に外縁点をつなぎ合わせたものが、被写体領域位置情報110dの判定被写体領域である。   And the height of the building litter ground surface corresponding to each point of the movement destination is acquired while moving from the representative point toward the periphery in a circular shape at predetermined intervals and angles. When obtaining the height of each point, the location where the height changes significantly compared to the height of the previous point (or the height of the representative point) (for example, the height of the representative point) And a place that has changed significantly is registered as an outer edge point of the determination subject region (in the example of FIG. 15, P1 and P2 are registered as outer edge points). When the outer edge points are searched for and registered toward the periphery while shifting the angle clockwise, the determined subject area of the subject area position information 110d is obtained by connecting the outer edge points in the registration order.

なお、ここでは、建造物・地表高さマップ情報110bのうち、建造物こみ地表高さマップ情報110baのみを使って、被写体領域位置情報110dを取得する例を示したが、地表高さマップ情報110bbも用いて高さの差分を求めれば、高さが大幅に変化する場所が、地表に起伏があるために、建造物の高さはそのままでも、建造物こみの地表の高さが変わった場所(傾斜地の段々形のマンションなど)なのか、地表に起伏がなく、建造物自体の高さが変わった場所なのかをより正確に推定することが可能でる。この場合、前者の場合は外縁点とはせず、後者の場合のみを外縁点とすることで、より正確な判定対象被写体領域を取得することができる。   In addition, although the example which acquires object area | region position information 110d was shown using only the building litter surface height map information 110ba among the building and ground surface height map information 110b here, surface height map information was shown. If the difference in height is also calculated using 110bb, the location where the height changes greatly, because the ground surface has undulations, the height of the ground of the building litter has changed even though the height of the building remains unchanged It is possible to more accurately estimate whether it is a place (such as a stepped apartment on an inclined land) or a place where the ground surface has no undulations and the height of the building itself has changed. In this case, in the former case, the outer edge point is not used, and only the latter case is used as the outer edge point, whereby a more accurate determination target subject region can be acquired.

このように、ベクトル図情報を使わず、判定被写体の代表位置一点から、建造物・地表高さマップ情報110bを利用して、自動的に被写体領域位置情報110dを取得することができるので、予めベクトル地図情報110aを用意、記録させる必要性を無くすことができ記録容量を節約することができとともに、従来技術と同程度の簡単な指定方法で、被写体領域位置情報110dを自動取得することができる。   As described above, the object region position information 110d can be automatically acquired from the representative position of the determination subject using the building / surface height map information 110b without using the vector diagram information. The need to prepare and record the vector map information 110a can be eliminated, the recording capacity can be saved, and the subject region position information 110d can be automatically acquired by a simple designation method similar to that of the prior art. .

次に、本実施例2における画像判定方式を搭載した装置(画像判定装置)について説明する。本実施例2における画像判定装置は、実施例1の建造物・地表高さマップ110bの高さデータ群を、属するマップ領域毎に階層的に区切ってクラスタリングし、クラスタリング結果の領域内で、最高の高さ、最低の高さを算出する。そして、画像判定装置は、領域ごとの最高の高さを利用して、効率よく他物体遮蔽判定を行い、他物体遮蔽指標を算出する。   Next, an apparatus (image determination apparatus) equipped with the image determination method according to the second embodiment will be described. The image determination apparatus according to the second embodiment performs clustering by hierarchically dividing the height data group of the building / surface height map 110b according to the first embodiment for each map area to which the image belongs, and the highest in the clustering result area. The minimum height is calculated. Then, the image determination apparatus efficiently performs other object occlusion determination using the highest height for each region, and calculates an other object occlusion index.

図16は、本実施例2における画像判定装置20の構成を示す機能ブロック図である。同図に示すように、この画像判定装置20は、高さクラスタリング部210および内部動作が異なる他物体遮蔽判定部220を有する。その他の構成および動作は、実施例1に示した画像判定装置20と同様であるので、同一の構成要素には同一の符号を付して説明を省略する。   FIG. 16 is a functional block diagram illustrating the configuration of the image determination device 20 according to the second embodiment. As shown in the figure, the image determination apparatus 20 includes a height clustering unit 210 and another object occlusion determination unit 220 having different internal operations. Since other configurations and operations are the same as those of the image determination device 20 shown in the first embodiment, the same components are denoted by the same reference numerals, and description thereof is omitted.

高さクラスタリング部210は、建造物・地表高さマップ情報110bを基にして、マップ上に含まれる高さ群のうち、最高高さおよび最低高さを所定領域ごとに特定する(以下、特定した情報をクラスタリング情報と表記する)処理部である。図17は、高さクラスタリング部210が算出するクラスタリング情報を説明するための説明図である。   The height clustering unit 210 specifies the maximum height and the minimum height for each predetermined area among the height group included on the map based on the building / surface height map information 110b (hereinafter, specified). The information is expressed as clustering information). FIG. 17 is an explanatory diagram for explaining the clustering information calculated by the height clustering unit 210.

同図に示すように、建造物・地表高さマップ情報110bの情報が、高さの測定単位である最小領域単位毎の高さデータで構成されている場合を考える。高さクラスタリング部210は、まず、近隣の最小領域単位を4つずつ纏めた統合領域を作成し、その領域内に含まれる4つの最小領域単位の高さを比較して、統合領域内での最高高さを特定する。図17の例では、2m〜4mの高さをもつ最小領域単位群A211〜A214を纏めてA21という領域を作成し、最高の高さは4mとして特定する。同様に5m〜6mの高さの最小領域単位群A221〜A224を纏めたA22と、9m〜12mの高さの最小領域単位群A231〜A234を纏めたA23と、13m〜16mの高さの最小領域単位群A241〜A244を纏めたA24、の3つの領域を作成し、それぞれの最高高さ(6m、12m、16m)を特定する。   As shown in the figure, consider the case where the information of the building / surface height map information 110b is composed of height data for each minimum area unit, which is a height measurement unit. First, the height clustering unit 210 creates an integrated region in which four neighboring minimum region units are grouped together, compares the heights of the four minimum region units included in the region, and compares the heights in the integrated region. Specify the maximum height. In the example of FIG. 17, the area A21 is created by grouping the minimum area unit groups A211 to A214 having a height of 2 m to 4 m, and the maximum height is specified as 4 m. Similarly, A22 which summarizes the minimum area unit groups A221 to A224 having a height of 5 m to 6 m, A23 which summarizes the minimum area unit groups A231 to A234 having a height of 9 m to 12 m, and a minimum of 13 m to 16 m in height. Three regions A24, which are a group of region unit groups A241 to A244, are created, and the maximum height (6 m, 12 m, 16 m) is specified.

次に、高さクラスタリング部210は、近隣領域A21〜A24の四つを纏めて新たな領域A2を作成し、各領域A21〜A24の最高高さを比較して、領域A2の最高高さ(16m)を特定する。図17の例では、同様にして所定領域A1、A3、A4を作成し、その最高高さを特定する。   Next, the height clustering unit 210 creates a new area A2 by collecting four neighboring areas A21 to A24, compares the maximum heights of the areas A21 to A24, and compares the maximum height of the area A2 ( 16m). In the example of FIG. 17, predetermined areas A1, A3, and A4 are created in the same manner and the maximum height is specified.

高さクラスタリング部210は、纏めた統合領域の面積が規定面積以上、または、クラスタリングによる統合階層が規定階層以上になるまで、領域統合および最高高さ特定を繰り返し行う。高さクラスタリング部210は、他物体遮蔽判定部220に算出したクラスタリング情報を渡す。   The height clustering unit 210 repeatedly performs region integration and maximum height identification until the area of the integrated region that has been collected is equal to or greater than a specified area, or the integrated hierarchy by clustering is equal to or greater than the specified layer. The height clustering unit 210 passes the calculated clustering information to the other object occlusion determination unit 220.

なお、本実施例2では、高さクラスタリング部210は、近隣の4つの小領域を統合して1つの大領域を作成する例を示しているが、統合する小領域の数は4つでなくても良いし、逆に大領域を分割しながら作成してもかまわない。さらに、一律に統合するのではなく、市街地等の検索用途の多い地域か否かや、高低差の変化の激しい場所か否か、等で階層数や統合領域数を変えて作成してもよい。また、高さクラスタリング部210のクラスタリング処理は、判定対象被写体とは無関係に実施することができるため、毎回処理を行うのではなく、クラスタリングしたデータを、建造物・地表高さマップ情報110bとして保持し、利用することもできる。   In the second embodiment, the height clustering unit 210 has shown an example in which four small areas in the vicinity are integrated to create one large area. However, the number of small areas to be integrated is not four. Alternatively, it may be created while dividing a large area. Furthermore, instead of integrating them uniformly, it may be created by changing the number of hierarchies or the number of integrated areas depending on whether it is an area with many search uses such as an urban area, or whether it is a place where the height difference changes rapidly. . Further, since the clustering process of the height clustering unit 210 can be performed regardless of the subject to be determined, the clustered data is held as the building / surface height map information 110b instead of performing the process every time. And can be used.

他物体遮蔽判定部220は、被写体特徴点抽出部130によって抽出された特徴点とクラスタリング情報とを基にして、特徴点(A)、(B)、(C)にかかわる個数情報を作成する処理部である。   The other object occlusion determination unit 220 creates number information related to the feature points (A), (B), and (C) based on the feature points extracted by the subject feature point extraction unit 130 and the clustering information. Part.

図18は、特徴点とクラスタリング情報とを基にして、個数情報を作成する処理を説明するための説明図である。なお、図18では、カメラ位置から判定対象被写体への線分Tが、緯度に沿って伸びている場合について説明する。また、図18に示すように、カメラ位置と判定対象被写体との間には、クラスタリングを行った領域A、Bが含まれている場合について説明する。   FIG. 18 is an explanatory diagram for explaining a process of creating number information based on feature points and clustering information. FIG. 18 illustrates a case where the line segment T from the camera position to the determination target subject extends along the latitude. In addition, as shown in FIG. 18, a case will be described in which clustered regions A and B are included between the camera position and the determination target subject.

まず、他物体遮蔽判定部220は、線分Tを、領域A、Bに沿って2分割し、分割線分をそれぞれTA、TBとする。そして、他物体遮蔽判定部220は、各分割線分TA、TBの最小の高さTAMin、TBMinと、領域A、B内で最大の高さAMax、BMaxとを比較する。   First, the other object shielding determination unit 220 divides the line segment T into two along the areas A and B, and sets the divided line segments as TA and TB, respectively. Then, the other object shielding determination unit 220 compares the minimum heights TAMin and TBMin of the dividing line segments TA and TB with the maximum heights AMMax and BMax in the areas A and B.

線分の高さが、領域A、Bの高さよりも高い場合、つまり、TAMin>AMaxかつTBMin>BMaxの場合には、他物体遮蔽判定部220は、当該線分に対応する特徴点を特徴点(A)と判定する。これは、領域A、B内に存在する全ての被写体の高さよりも線分Tのほうが高いことを意味するからである。   When the height of the line segment is higher than the heights of the regions A and B, that is, when TAMin> AMMax and TBMin> BMax, the other object occluding determination unit 220 has a feature point corresponding to the line segment. The point (A) is determined. This is because the line segment T is higher than the heights of all subjects existing in the areas A and B.

一方、線分の高さが、領域AまたはBの高さ以下の場合、つまり、TAMin≦AMaxまたはTBMin≦BMaxの場合には(図17の例では、TBMin≦BMaxである)、他物体遮蔽判定部220は、領域B内の対応する領域(B1〜B4のいづれかの領域)を利用して、線分Tと、対応する領域に含まれる被写体の高さとを比較する。   On the other hand, when the height of the line segment is equal to or less than the height of the area A or B, that is, when TAMin ≦ AMMax or TBMin ≦ BMax (in the example of FIG. 17, TBMin ≦ BMax), the other object is shielded. The determination unit 220 compares the line segment T with the height of the subject included in the corresponding area by using the corresponding area in the area B (any one of B1 to B4).

例えば、線分Tが、領域B1、B2に対応する場合(線分Tが、領域B1、B2上を通過する場合等)は、上述した手法を利用して、線分Tよりも高い被写体高さが存在するか否かを判定する。ここで、仮に、B1、B2が最小領域単位である場合について説明すると、線分Tよりも高い被写体高さが領域B1、B2に存在しない場合には、線分Tに対応する特徴点を特徴点(A)と判定する。   For example, when the line segment T corresponds to the areas B1 and B2 (when the line segment T passes over the areas B1 and B2, etc.), the subject height higher than the line segment T is used using the above-described method. It is determined whether or not there exists. Here, a case where B1 and B2 are units of the minimum area will be described. When a subject height higher than the line segment T does not exist in the areas B1 and B2, feature points corresponding to the line segment T are characterized. The point (A) is determined.

一方、線分Tよりも高い被写体高さが領域B1またはB2に存在する場合には、線分Tに対応する特徴点を特徴点(B)または特徴点(C)と判定する。該当領域が判定対象被写体の場合には、特徴点(C)となり、該当領域が判定対象被写体でない場合には、特徴点(B)となる。   On the other hand, when a subject height higher than the line segment T exists in the region B1 or B2, the feature point corresponding to the line segment T is determined as the feature point (B) or the feature point (C). When the corresponding area is a determination target subject, it is a feature point (C), and when the corresponding area is not a determination target subject, it is a feature point (B).

他物体遮蔽判定部220は、上述した手法により、判定対象被写体にかかわる特徴点群それぞれを、特徴点(A)、(B)、(C)に分類し、分類した情報を個数情報として遮られ率算出部150に渡す。   The other object occlusion determination unit 220 classifies each feature point group related to the determination target subject into feature points (A), (B), and (C) by the above-described method, and the classified information is blocked as the number information. Pass to the rate calculator 150.

このように、他物体遮蔽判定部220は、クラスタリング情報を基にして、必要なときにだけ、下位部の細かな領域単位および各測定ポイント毎の詳細な高さと線分の高さとを比較するので、他物体遮蔽判定処理にかかわる負担を軽減させることができる。   In this manner, the other object occluding determination unit 220 compares the detailed height of each subordinate region unit and each measurement point with the height of the line segment only when necessary based on the clustering information. Therefore, it is possible to reduce the burden on the other object occlusion determination process.

上述してきたように、本実施例2における画面判定装置20は、高さクラスタリング部210が、建造物・地表高さマップ情報110bを基にして、各被写体の中で最も高い被写体の高さを所定範囲ごとに特定したクラスタリング情報を作成し、他物体遮蔽判定部220が、クラスタリング情報を利用して、特徴点群にかかわる個数情報を作成するので、効率よく最適な映像データを選択することができる。   As described above, in the screen determination apparatus 20 according to the second embodiment, the height clustering unit 210 determines the height of the highest subject among the subjects based on the building / surface height map information 110b. The clustering information specified for each predetermined range is created, and the other object occlusion determination unit 220 creates the number information related to the feature point group using the clustering information, so that the optimum video data can be selected efficiently. it can.

なお、高さクラスタリング部210で統合領域を作成する際に、最高高さと同時に、各統合領域の最低高さを算出して利用してもよい。本発明の実施例1で述べた、建造物・地表高さマップ情報110bの建造物こみ地表高さマップ情報110baのみで、地表高さマップ情報110bbを代用する手法で、被写体形状推定部120で行う、被写体の下面、すなわち地表との接地面の高さを算出する手法を、クラスタリングによる各統合領域の最低高さを利用することで、より簡単に行うことができる。すなわち、本発明の実施例1では、判定被写体領域より十分大きな領域内で、建造物こみ地表高さマップ情報110baを調べて、最低の高さを算出して擬似的な該当領域全体の地表の高さとみなす手法を述べたが、該当領域の位置から、該当領域を含むクラスタリング統合領域群を求め、それらの最低高さを比較することで、効率よく該当領域の最低高さを算出することができる。   Note that when the integrated region is created by the height clustering unit 210, the minimum height of each integrated region may be calculated and used simultaneously with the maximum height. In the object shape estimation unit 120, the method described in the first embodiment of the present invention uses only the building litter surface height map information 110ba of the building / surface height map information 110b and substitutes the ground surface height map information 110bb. The technique for calculating the height of the lower surface of the subject, that is, the contact surface with the ground surface, can be more easily performed by using the minimum height of each integrated region by clustering. In other words, in the first embodiment of the present invention, in the area sufficiently larger than the determination subject area, the building-decomposed ground surface height map information 110ba is examined, the minimum height is calculated, and the ground surface of the entire pseudo relevant area is calculated. Although the technique considered to be the height was described, it is possible to efficiently calculate the minimum height of the corresponding area by obtaining the clustering integrated area group including the corresponding area from the position of the corresponding area and comparing the minimum heights thereof. it can.

次に、実施例3における画像判定方式を搭載した装置(画像判定装置)について説明する。図19は、本実施例3における画像判定装置の概念を説明するための説明図である。図19の左側に示すように、時期T1にカメラAを利用して被写体Aを撮影し、時期T2にカメラBを利用して被写体Bを撮影し、時期T3にカメラCを利用して被写体Cを撮影し、画像判定装置が、いずれの映像データに対しても、映り具合がよい(他物体遮蔽指標が所定値以下)と判定したにもかかわらず、映像データの映り具合が悪いとユーザに判断された場合に、画像判定装置は、各カメラA〜Cの撮影領域の重複部分に、遮蔽物が発生したと判定し、建造物・地表高さマップ情報などを修正する。   Next, an apparatus (image determination apparatus) equipped with the image determination method according to the third embodiment will be described. FIG. 19 is an explanatory diagram for explaining the concept of the image determination device according to the third embodiment. As shown on the left side of FIG. 19, subject A is photographed using camera A at time T1, subject B is photographed using camera B at time T2, and subject C is photographed using camera C at time T3. The image determination device determines that the image quality is good for any video data (the other object occlusion index is equal to or less than a predetermined value), but the video data is bad for the user. When the determination is made, the image determination apparatus determines that an obstruction has occurred in the overlapping portion of the imaging areas of the cameras A to C, and corrects the building / surface height map information and the like.

また、図19の右側に示すように、時期T4に被写体Aを撮影し、時期T5に被写体Bを撮影し、時期T6に被写体Cを撮影し、画像判定装置が、いずれの映像データに対しても、映り具合が悪い(他物体遮蔽指標が所定値より上)と判定したにもかかわらず、映像データの映り具合がよいとユーザに判断された場合に、画像判定装置は、各カメラA〜Cの撮影領域の重複部分に存在していた遮蔽物が消滅したと判定し、建造物・地表高さマップ情報などを修正する。   Further, as shown on the right side of FIG. 19, the subject A is photographed at time T4, the subject B is photographed at time T5, and the subject C is photographed at time T6. Even if it is determined that the image quality is poor (the other object occlusion index is higher than a predetermined value), the image determination apparatus determines that each of the cameras A to It is determined that the shield that existed in the overlapping portion of the C imaging region has disappeared, and the building / surface height map information and the like are corrected.

このように、実施例3における画像判定装置は、他物体遮蔽指標にかかわるユーザからの応答によって、建造物・地表高さマップ情報などを修正するので、他物体遮蔽指標にかかわる信頼性を向上させることができる。また、建造物・地表高さマップ情報を定期的に更新する必要がなくなるので、コストを大幅に削減することができる。   As described above, the image determination apparatus according to the third embodiment corrects the building / surface height map information and the like according to the response from the user related to the other object occlusion index, thereby improving the reliability related to the other object occlusion index. be able to. In addition, since it is not necessary to regularly update the building / surface height map information, the cost can be greatly reduced.

図20は、本実施例3における画像判定装置30の構成を示す機能ブロック図である。同図に示すように、この画像判定装置30は、高さマップ補正処理部330と、建造物・地表高さマップ情報110bの関連情報として高さマップ補正情報310aとを有する。その他の構成および動作は、実施例1に示した画像判定装置と同様であるので、同一の構成要素には同一の符号を付して説明を省略する。   FIG. 20 is a functional block diagram illustrating the configuration of the image determination device 30 according to the third embodiment. As shown in the figure, the image determination apparatus 30 includes a height map correction processing unit 330 and height map correction information 310a as related information of the building / surface height map information 110b. Since other configurations and operations are the same as those of the image determination apparatus shown in the first embodiment, the same components are denoted by the same reference numerals, and description thereof is omitted.

建造物・地表高さマップ情報110bは、関連する情報として高さマップ補正情報310aを有する。なお、建造物・地表高さマップ情報の一例である、建造物こみ地表高さマップ情報110ba、地表高さマップ情報110bbに関する説明は、実施例1と同様であるため説明を省略する。ここで、本実施例3では、一例として高さマップ補正情報310aを、建造物・地表高さマップ情報110bの一部としたが、相互に対応がとれれば、別の情報として独立保持してもかまわない。   The building / surface height map information 110b includes height map correction information 310a as related information. In addition, since the description regarding the building litter surface height map information 110ba and the ground surface height map information 110bb, which is an example of the building / surface height map information, is the same as that of the first embodiment, the description thereof is omitted. Here, in the third embodiment, the height map correction information 310a is part of the building / surface height map information 110b as an example. It doesn't matter.

高さマップ補正情報310aは、建造物・地表高さマップ情報110bのうち、特に建造物に関連した高さ情報、すなわちここでは、建造物こみの地表高さマップ情報110baにかかわる修正情報である。図21は、高さマップ補正情報310aのデータ構造の一例を示す図である。同図に示すように、この高さマップ補正情報310aは、補正エリアテーブルと、補正エリア形状テーブルと、補正エリア頂点テーブルとを有する。   The height map correction information 310a is, among the building / surface height map information 110b, particularly height information related to the building, that is, correction information related to the surface height map information 110ba of the building trash here. . FIG. 21 is a diagram illustrating an example of the data structure of the height map correction information 310a. As shown in the figure, the height map correction information 310a includes a correction area table, a correction area shape table, and a correction area vertex table.

補正エリアテーブルは、「ID」、「種別」、「変化発生推定時期(MIN)」、「変化発生推定時期(MAX)」、「推定形状ID」、「MBR(MIN)緯度経度」、「MBR(MAX)緯度経度」、「所属3次元メッシュID」を有する。   The correction area table includes “ID”, “type”, “change occurrence estimated time (MIN)”, “change occurrence estimated time (MAX)”, “estimated shape ID”, “MBR (MIN) latitude / longitude”, “MBR”. (MAX) latitude / longitude ”and“ affiliation 3D mesh ID ”.

ここで、「ID(identification)」は、補正データ領域を識別するための情報であり、「種別」は、補正データ領域の高さが高すぎるという誤りから、ある高さの領域(建造物)の消滅を察知したのか、低すぎるという誤りから、ある高さの領域(建造物)の発生を察知したか、の情報であり、「変化発生推定時期(MIN)」および「変化発生時期推定時期(MAX)」は、建造物が変化(消滅または発生)した時期を示す情報である。   Here, “ID (identification)” is information for identifying the correction data area, and “type” is an area (building) at a certain height due to an error that the height of the correction data area is too high. It is information on whether the occurrence of a certain area (building) was detected from the error that it was detected that it disappeared, or because it was too low, and “change occurrence estimated time (MIN)” and “change occurrence time estimated time” “(MAX)” is information indicating the time when the building has changed (disappeared or generated).

「推定形状ID」は、補正エリア形状テーブルの対応する情報を特定するための情報であり、「MBR(MIN)緯度経度」および「MBR(MAX)緯度経度」は、建造物が存在する領域の情報を示し、「所属3次元メッシュID」は、所属3次元メッシュコードを識別するための情報である。   The “estimated shape ID” is information for specifying the corresponding information in the correction area shape table, and “MBR (MIN) latitude / longitude” and “MBR (MAX) latitude / longitude” are the regions where the buildings exist. Information, “affiliation 3D mesh ID” is information for identifying the belonging 3D mesh code.

補正エリア形状データの説明に移ると、補正エリア形状データは、「ID」、「推定高さ(MAX)」、「推定高さ(MIN)」、「射影形状頂点数」、「射影形状頂点ID群」とを有する。「ID」は、補正エリアテーブルにかかわる「推定形状ID」と対応づけするための識別情報であり、「推定高さ(MAX)」および「推定高さ(MIN)」は、推定される被写体の高さの情報である。   Turning to the explanation of the correction area shape data, the correction area shape data includes “ID”, “estimated height (MAX)”, “estimated height (MIN)”, “number of projected shape vertices”, “projected shape vertex ID”. Group ". “ID” is identification information for associating with “estimated shape ID” related to the correction area table, and “estimated height (MAX)” and “estimated height (MIN)” are the estimated subject. It is height information.

なお、「推定高さ(MAX)」には、建造物が消滅したと判定された場合に、当該領域内での最大高さにかかる情報が格納され、「推定高さ(MIN)」には、建造物が発生したと判定された場合に、当該領域内での最小高さにかかる情報が格納される。「射影形状頂点数」は、該当領域形状または該当領域に含まれる建造物の頂点数を示す情報であり、「射影形状頂点ID群」は各頂点を識別するための情報である。   The “estimated height (MAX)” stores information on the maximum height in the area when it is determined that the building has disappeared, and the “estimated height (MIN)” When it is determined that a building has occurred, information on the minimum height in the area is stored. The “number of projected shape vertices” is information indicating the corresponding region shape or the number of vertices of the building included in the corresponding region, and the “projected shape vertex ID group” is information for identifying each vertex.

補正エリア頂点テーブルは、建造物の推定形状にかかわる頂点の緯度経度情報を有し、「ID」、「緯度」、「経度」からなる。ここで、「ID」は、補正エリア形状テーブルにかかわる「射影形状頂点ID群」の各IDと対応づけするための情報である。「緯度」、「経度」はそれぞれ、緯度および経度の情報を示す。   The correction area vertex table has the latitude and longitude information of the vertices related to the estimated shape of the building, and includes “ID”, “latitude”, and “longitude”. Here, “ID” is information for associating with each ID of the “projection shape vertex ID group” related to the correction area shape table. “Latitude” and “longitude” respectively indicate latitude and longitude information.

被写体形状推定部120が、判定対象被写体領域の上面および下接触面の高さを算出したり、被写体特徴点抽出部130が、判定対象被写体の特徴点を抽出する際に特徴点の高さを算出したり、他物体遮蔽判定部140がカメラと特徴点を結ぶ線分に沿って線分より高さの高いポイントを探索したりする際に、建造物・地表高さマップ情報110bの建造物こみ地表高さマップ情報110baを利用するが、その時に高さマップ補正情報310aを突合せ、高さマップ補正情報310aによって所定領域の情報が、修正されている場合には、高さマップ補正情報310aに含まれる情報を優先させる。   The subject shape estimation unit 120 calculates the height of the upper surface and the lower contact surface of the determination target subject region, and the subject feature point extraction unit 130 calculates the height of the feature point when extracting the feature point of the determination target subject. When the other object occlusion determination unit 140 searches for a point having a height higher than the line segment along the line segment connecting the camera and the feature point, the building of the building / surface height map information 110b is used. The height map correction information 310ba is used, and when the height map correction information 310a is collated at that time and the information of the predetermined area is corrected by the height map correction information 310a, the height map correction information 310a is used. Prioritize the information contained in.

高さマップ補正処理部330は、表示処理部160が表示した映像データの他物体遮蔽指標に対する応答を受付け、受付けた応答に応じて高さマップ補正情報310aを作成・更新する処理部である。   The height map correction processing unit 330 is a processing unit that receives a response to the other object occlusion index of the video data displayed by the display processing unit 160 and creates / updates the height map correction information 310a according to the received response.

具体的に、この高さマップ補正処理部330は、表示処理部160が表示した映像データの他物体遮蔽指標が間違っている旨の情報(応答)を入力装置40から取得した場合には、当該映像データを撮影したカメラ位置と判定対象被写体との間の領域にかかわる建造物・地表高さマップ情報110bが変化したと判定する。   Specifically, when the height map correction processing unit 330 acquires from the input device 40 information (response) that the other object occlusion index of the video data displayed by the display processing unit 160 is incorrect, the height map correction processing unit 330 It is determined that the building / ground height map information 110b related to the area between the camera position where the video data was captured and the determination target subject has changed.

そして、高さマップ補正処理部330、例えば、図19の左側で説明したように、遮蔽物体発生が疑われるエリアをある程度特定できた場合には、当該エリアに関する情報を高さマップ補正情報310aに書き込む。この場合は、「種別」を「発生」に設定し、推測される範囲を「MBR(MIN)経度緯度」および「MBR(MAX)経度緯度」に登録する。   Then, as described in the height map correction processing unit 330, for example, the left side of FIG. 19, when an area suspected of generating a shielding object can be specified to some extent, information regarding the area is included in the height map correction information 310a. Write. In this case, the “type” is set to “occurrence”, and the estimated range is registered in “MBR (MIN) longitude / latitude” and “MBR (MAX) longitude / latitude”.

また、変化が予測される時期に関しては、例えば、図19の左側の例では、時期T1〜T3に変化したと推定できるため、時期T1を「変化発生推定時期(MIN)」に登録し、時期T3を「変化発生推定時期(MAX)」に登録する(T1<T2<T3の場合)。   Further, regarding the time when the change is predicted, for example, in the example on the left side of FIG. 19, it can be estimated that the time has changed from time T1 to T3. Therefore, time T1 is registered in “change occurrence estimated time (MIN)”. T3 is registered in the “change occurrence estimated time (MAX)” (when T1 <T2 <T3).

また、図19の右側で説明したように、遮蔽物体消滅が疑われるエリアをある程度特定できた場合には、当該エリアに関する情報を高さマップ補正情報310aに書き込む。この場合は、「種別」を「消滅」に設定し、推測される範囲を「MBR(MIN)経度緯度」および「MBR(MAX)経度緯度」に登録する。   In addition, as described on the right side of FIG. 19, when an area suspected of disappearing a shielding object can be specified to some extent, information regarding the area is written in the height map correction information 310a. In this case, “type” is set to “annihilation”, and the estimated range is registered in “MBR (MIN) longitude / latitude” and “MBR (MAX) longitude / latitude”.

続いて、変化が予期される時期に関しては、例えば、図19の右側の例では、時期T4〜T6に変化したと推定できるため、時期T4を「変化発生推定時期(MIN)」に登録し、時期T6を「変化発生推定時期(MAX)」に登録する(T4<T5<T6の場合)。   Subsequently, regarding the time when the change is expected, for example, in the example on the right side of FIG. 19, it can be estimated that the time has changed from time T4 to T6. Therefore, the time T4 is registered in “change occurrence estimated time (MIN)” The time T6 is registered in the “change occurrence estimated time (MAX)” (when T4 <T5 <T6).

上述してきたように、本実施例3における画像判定装置30は、高さマップ補正処理部330が、表示処理部160によって表示された映像データの他物体遮蔽指標にかかわる応答を入力装置40から受付け、この応答に、他物体遮蔽指標が間違っている旨の情報が含まれている場合に、高さマップ補正情報310aを作成・更新するので、建造物・地表高さマップ情報を定期的に更新保守する必要がなくなり、コストを大幅に削減することができる。   As described above, in the image determination apparatus 30 according to the third embodiment, the height map correction processing unit 330 receives a response related to the other object occlusion index of the video data displayed by the display processing unit 160 from the input device 40. If the response includes information indicating that the other object occlusion index is incorrect, the height map correction information 310a is created / updated, so the building / surface height map information is updated periodically. Maintenance is eliminated and costs can be greatly reduced.

なお、実施例3の例では、遮蔽物が完全に新規発生および消滅する例を示したが、実際には建造物の改築等で、見えなかった被写体の一部が見えたり隠れたりすることも考えられる。この場合にも、撮影空間レベルでの重ね合わせではなく、それぞれの被写体特徴点群のどの部分が見えないと判定したものが誤りだったのか、などを詳細に調べて、特徴点とカメラの線分同士の重なるエリアを求め、そのエリア算出の元となった線分の高さより高いまたは、低いべきかを精査することで、エリアの高さ変化をある程度推測することもできる。   In the example of the third embodiment, an example in which a shield is completely new and disappears is shown. However, in reality, a part of an invisible subject may be seen or hidden due to reconstruction of a building or the like. Conceivable. Also in this case, instead of superimposing at the shooting space level, we investigated in detail what part of each subject feature point group was determined to be invisible, etc. It is possible to estimate the change in the height of the area to some extent by obtaining the overlapping area and examining whether it should be higher or lower than the height of the line segment from which the area is calculated.

以上のように、本発明における画像判定方法は、複数台のカメラ等を利用して所定の被写体を撮影し、撮影した各映像データの中から最適な映像データを、ユーザに負担をかけることなく選択する必要のある画像判定システムなどに対して有用である。 As described above, the image determination method according to the present invention captures a predetermined subject using a plurality of cameras and the like, and optimal video data is not burdened on the user from among the captured video data. This is useful for an image determination system that needs to be selected.

図1は、本発明における画像判定方式の原理を示す原理図である。FIG. 1 is a principle diagram showing the principle of an image determination method according to the present invention. 図2は、建造物・地表高さマップ情報の一例を示す図である。FIG. 2 is a diagram illustrating an example of the building / surface height map information. 図3は、本実施例1における画像判定装置の構成を示す機能ブロック図である。FIG. 3 is a functional block diagram illustrating the configuration of the image determination apparatus according to the first embodiment. 図4は、ベクトル地図情報であるベクトル地図の一例を示す図である。FIG. 4 is a diagram illustrating an example of a vector map that is vector map information. 図5は、被写体領域位置情報を取得するために、ベクトル地図を利用してユーザに入力を促す表示装置上の画面の一例を示す図である。FIG. 5 is a diagram illustrating an example of a screen on the display device that prompts the user to input using a vector map in order to acquire subject region position information. 図6は、被写体領域位置情報を取得するために、ベクトル地図を利用してユーザに入力を促す表示装置上の画面のその他の例を示す図(1)である。FIG. 6 is a diagram (1) illustrating another example of a screen on the display device that prompts the user to input using a vector map in order to acquire subject region position information. 図7は、被写体領域位置情報を取得するために、ベクトル地図を利用してユーザに入力を促す表示装置上の画面のその他の例を示す図(2)である。FIG. 7 is a diagram (2) illustrating another example of a screen on the display device that prompts the user to input using a vector map in order to acquire subject region position information. 図8は、被写体形状推定部が判定対象被写体の概形状を取得する処理を説明するための説明図である。FIG. 8 is an explanatory diagram for explaining processing in which the subject shape estimation unit acquires the approximate shape of the determination target subject. 図9は、被写体特徴点抽出部の処理を説明するための説明図である。FIG. 9 is an explanatory diagram for explaining processing of the subject feature point extraction unit. 図10は、他物体遮蔽判定部の処理を説明するための説明図である。FIG. 10 is an explanatory diagram for explaining the processing of the other object occlusion determination unit. 図11は、表示処理部が物体遮蔽指標を利用して映像及び画像データを表示するインタフェースの一例を示す図である。FIG. 11 is a diagram illustrating an example of an interface in which the display processing unit displays video and image data using an object occlusion index. 図12は、図11において映像データ(a)が選択された場合の表示画面の一例を示す図である。FIG. 12 is a diagram showing an example of a display screen when the video data (a) is selected in FIG. 図13は、本実施例1に示した画像判定装置の処理手順を示すフローチャートである。FIG. 13 is a flowchart illustrating a processing procedure of the image determination apparatus illustrated in the first embodiment. 図14は、図13のステップS105で示した他物体遮蔽判定処理を示すフローチャートである。FIG. 14 is a flowchart showing the other object occlusion determination process shown in step S105 of FIG. 図15は、建造物こみの地表高さマップ情報から被写体領域位置情報を取得する手法を説明するための説明図である。FIG. 15 is an explanatory diagram for explaining a method of acquiring subject area position information from the ground height map information of a building litter. 図16は、本実施例2における画像判定装置の構成を示す機能ブロック図である。FIG. 16 is a functional block diagram illustrating the configuration of the image determination apparatus according to the second embodiment. 図17は、高さクラスタリング部が算出するクラスタリング情報を説明するための説明図である。FIG. 17 is an explanatory diagram for explaining the clustering information calculated by the height clustering unit. 図18は、特徴点とクラスタリング情報とを基にして、個数情報を作成する処理を説明するための説明図である。FIG. 18 is an explanatory diagram for explaining a process of creating number information based on feature points and clustering information. 図19は、本実施例3における画像判定装置の概念を説明するための説明図である。FIG. 19 is an explanatory diagram for explaining the concept of the image determination device according to the third embodiment. 図20は、本実施例3における画像判定装置の構成を示す機能ブロック図である。FIG. 20 is a functional block diagram illustrating the configuration of the image determination apparatus according to the third embodiment. 図21は、高さマップ補正情報のデータ構造の一例を示す図である。FIG. 21 is a diagram illustrating an example of the data structure of the height map correction information. 図22は、従来技術を説明するための説明図である。FIG. 22 is an explanatory diagram for explaining the related art. 図23は、従来技術の問題点を説明するための説明図である。FIG. 23 is an explanatory diagram for explaining the problems of the prior art.

符号の説明Explanation of symbols

10,20,30 画像判定装置
40 入力装置
50 表示装置
60 従来被写体内在判定部
100 画像判定方式
110a ベクトル地図情報
110b 建造物・地表高さマップ情報
110ba 建造物こみ地表高さマップ情報
110bb 地表高さマップ情報
110c 映像データ
110d 判定被写体領域位置情報
110e カメラデータ
120,320 被写体形状推定部
130 被写体特徴点抽出部
140,220 他物体遮蔽判定部
150 他物体遮蔽指標算出部
160 表示処理部
210 高さクラスタリング部
310a 高さマップ補正情報
330 高さマップ補正処理部
10, 20, 30 Image determination device 40 Input device 50 Display device 60 Conventional subject presence determination unit 100 Image determination method 110a Vector map information 110b Building / surface height map information 110ba Building litter surface height map information 110bb Ground surface height Map information 110c Video data 110d Determination subject region position information 110e Camera data 120, 320 Subject shape estimation unit 130 Subject feature point extraction unit 140, 220 Other object occlusion determination unit 150 Other object occlusion index calculation unit 160 Display processing unit 210 Height clustering Unit 310a height map correction information 330 height map correction processing unit

Claims (5)

被写体を撮影したカメラ動画像を記憶する記憶部と、カメラの視線位置を記憶する記憶部とを有するコンピュータが、
被写体の存在領域にかかわる情報に基づく被写体の形状に関する複数の特徴点のうち、第一の特徴点を抽出する工程と、
前記第一の特徴点の位置および前記被写体を撮影するカメラの視点位置を結ぶ第一の線分と、他の被写体の存在領域に関する情報とに基づいて、該第一の線分上に該他の被写体が存在するか否かを判定する工程と、
前記第一の特徴点とは異なる第二の特徴点に対する第二の線分に基づいて、前記他の被写体が前記第二の線分上に存在するか否かを判定する工程と、
判定した結果に基づいて、複数の第一の線分のうち他の被写体と重なる第一の線分の数と、複数の第二の線分のうち他の被写体と重なる第二の線分の数とを加算した加算値を、前記複数の特徴点の数で除算することで、前記カメラによる前記被写体の撮影が前記他の被写体によって遮蔽されている割合を算出し、前記カメラ動画像の表示を前記割合を用いて変更する工程と
を実行することを特徴とする画像判定方法。
A computer having a storage unit that stores a camera moving image obtained by photographing a subject and a storage unit that stores a line-of-sight position of the camera ,
A step of extracting a first feature point from among a plurality of feature points related to the shape of the subject based on information relating to the region where the subject exists;
Based on the first line segment that connects the position of the first feature point and the viewpoint position of the camera that captures the subject, and information on the existence area of the other subject, the other on the first line segment Determining whether or not a subject exists,
Determining whether the other subject exists on the second line segment based on a second line segment for a second feature point different from the first feature point;
Based on the determined result, the number of first line segments that overlap with other subjects among the plurality of first line segments, and the second line segment that overlaps with other subjects among the plurality of second line segments. By dividing the addition value obtained by adding the number by the number of the plurality of feature points, the ratio of the shooting of the subject by the camera being shielded by the other subject is calculated, and the display of the camera moving image is displayed. And a step of changing the ratio using the ratio .
被写体の存在領域にかかわる情報を基にして、前記他の被写体の存在領域に含まれる領域において、領域内の他の被写体の高さのうち最大の高さを、異なる領域毎に算出する工程を更にコンピュータに実行させ、領域毎の最大の高さと前記第一の線分および第二の線分とを比較し、領域毎の最大の高さを下回る前記第一の線分および第二の線分を、前記他の被写体に重なる線分として判定し、判定した結果に基づいて、前記複数の第一の線分のうち他の被写体と重なる第一の線分の数と、複数の第二の線分のうち他の被写体と重なる第二の線分の数とを加算して、前記複数の特徴点の数で除算することで、割合を算出し、該割合の大きさを所定の被写体の映り具合として判定することを特徴とする請求項1に記載の画像判定方法。A step of calculating, for each different area, a maximum height among the heights of the other subjects in the area in the area included in the existing area of the other subject based on information relating to the subject existing region. Further, the computer executes , compares the maximum height for each region with the first line segment and the second line segment, and the first line segment and the second line below the maximum height for each region. Are determined as line segments that overlap the other subject, and the number of first line segments that overlap other subjects among the plurality of first line segments and a plurality of second segments are determined based on the determination result. A ratio is calculated by adding the number of second line segments that overlap with other subjects among the line segments and dividing by the number of the plurality of feature points, and the size of the ratio is determined by the predetermined subject. The image determination method according to claim 1, wherein the image is determined as a reflection state of the image. 複数の被写体のうち、最も低い被写体の高さを地表の高さとして算出し、算出した地表の高さにより所定の被写体の高さを補正した後に、所定の被写体の存在領域にかかわる形状を構成する特徴点群から、特徴点を抽出することを特徴とする請求項1または2に記載の画像判定方法。  Calculates the height of the lowest subject among multiple subjects as the height of the ground surface, corrects the height of the predetermined subject based on the calculated height of the ground surface, and then configures the shape related to the area where the predetermined subject exists The image determination method according to claim 1, wherein a feature point is extracted from the feature point group. 位置と被写体または地表の高さとを対応づけた地図情報を走査し、高さの変化に基づいて被写体の領域を特定し、特定した領域と該領域上の高さに基づいて所定の被写体の形状を算出し、形状を構成する特徴点群から所定の被写体にかかわる特徴点を抽出することを特徴とする請求項1または2に記載の画像判定方法。  Scans map information that associates the position with the height of the subject or the ground surface, identifies the region of the subject based on the change in height, and shapes the predetermined subject based on the identified region and the height above the region The image determination method according to claim 1, wherein a feature point related to a predetermined subject is extracted from a feature point group constituting a shape. 前記カメラによる前記被写体の撮影が他の被写体によって遮蔽されている割合に基づいて、前記被写体の写り具合が良いと判定した後に、該判定結果に関わる応答を外部から受け付け、該応答に、前記判定結果が誤っている旨の情報が含まれている場合に、前記地図情報を修正する工程とを更にコンピュータに実行させることを特徴とする請求項4に記載の画像判定方法。After determining that the subject is captured well based on the ratio of shooting of the subject by the camera being blocked by another subject , a response related to the determination result is received from the outside, and the determination is made based on the determination. The image determination method according to claim 4, further comprising: causing the computer to further execute the step of correcting the map information when information indicating that the result is incorrect is included.
JP2007525463A 2005-07-19 2005-07-19 Image judgment method Expired - Fee Related JP4751886B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2005/013261 WO2007010596A1 (en) 2005-07-19 2005-07-19 Image judging method,image judging device, and recording medium where program for allowing computer to execute image jduging method is recorded

Publications (2)

Publication Number Publication Date
JPWO2007010596A1 JPWO2007010596A1 (en) 2009-01-29
JP4751886B2 true JP4751886B2 (en) 2011-08-17

Family

ID=37668485

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007525463A Expired - Fee Related JP4751886B2 (en) 2005-07-19 2005-07-19 Image judgment method

Country Status (3)

Country Link
US (1) US8180103B2 (en)
JP (1) JP4751886B2 (en)
WO (1) WO2007010596A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101042910B1 (en) * 2008-11-13 2011-06-21 엔에이치엔(주) Method, system and computer-readable recording medium for providing service using electronic map
CN102789642B (en) * 2011-05-16 2017-08-25 索尼公司 Direction of extinction determines method and apparatus, camera self-calibration method and device
US10573045B2 (en) 2012-12-19 2020-02-25 Shutterfly, Llc Generating an assembled group image from subject images
US9025906B2 (en) 2012-12-19 2015-05-05 Lifetouch Inc. Generating an assembled group image from subject images
JP6676294B2 (en) * 2015-06-30 2020-04-08 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP6406289B2 (en) 2016-03-14 2018-10-17 オムロン株式会社 Road surface shape measuring apparatus, measuring method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06348815A (en) * 1993-06-04 1994-12-22 Hitachi Ltd Method for setting three-dimensional model of building aspect in cg system
JPH09101742A (en) * 1995-10-05 1997-04-15 Hitachi Ltd Map update support device
JPH1166350A (en) * 1997-08-12 1999-03-09 Nippon Telegr & Teleph Corp <Ntt> Retrieval type scene labeling device and system
JPH11339074A (en) * 1998-05-22 1999-12-10 Mitsubishi Electric Corp Scenery modeling device
JP2000348217A (en) * 1995-08-10 2000-12-15 Sega Enterp Ltd Device and method for generating virtual image

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01133907A (en) 1987-11-19 1989-05-26 Furukawa Electric Co Ltd:The Production of metal oxide
TW346611B (en) * 1996-03-28 1998-12-01 Sega Enterprises Kk An image processor, a game machine using the image processor, a method of image processing and a medium
JP3383563B2 (en) * 1997-12-18 2003-03-04 富士通株式会社 Object movement simulation device
JPH11272721A (en) * 1998-03-19 1999-10-08 Fujitsu Ltd Interference check result display method, interference check result display device and computer readable record medium recording interference check result display program
JP2000101905A (en) 1998-09-28 2000-04-07 Mitsubishi Precision Co Ltd Image pickup device with installation position detecting function, installing position detection method for image pickup device and medium with program for detecting installing position of image pickup device recorded therein
JP2000113209A (en) 1998-10-01 2000-04-21 Dainippon Screen Mfg Co Ltd Multi-viewpoint image generating and displaying method, multi-viewpoint image generating and displaying device and recording medium recording multi-viewpoint image generating and displaying program
JP4167777B2 (en) 1999-07-19 2008-10-22 三菱電機株式会社 VIDEO DISPLAY DEVICE, VIDEO DISPLAY METHOD, AND RECORDING MEDIUM CONTAINING PROGRAM FOR DISPLAYING VIDEO
JP2001290820A (en) 2000-01-31 2001-10-19 Mitsubishi Electric Corp Video gathering device, video retrieval device, and video gathering and retrieval system
JP3910794B2 (en) 2000-11-14 2007-04-25 株式会社エヌ・ティ・ティ・ドコモ Video search file creation method and homepage update method
JP4778158B2 (en) * 2001-05-31 2011-09-21 オリンパス株式会社 Image selection support device
JP4185333B2 (en) 2001-09-07 2008-11-26 松下電器産業株式会社 Video distribution device and video reception device
JP2003087442A (en) * 2001-09-14 2003-03-20 Fuji Photo Film Co Ltd Image evaluation method and apparatus, and program
US7444354B2 (en) 2001-09-14 2008-10-28 Fujifilm Corporation Method and apparatus for storing images, method and apparatus for instructing image filing, image storing system, method and apparatus for image evaluation, and programs therefor
US7426292B2 (en) * 2003-08-07 2008-09-16 Mitsubishi Electric Research Laboratories, Inc. Method for determining optimal viewpoints for 3D face modeling and face recognition

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06348815A (en) * 1993-06-04 1994-12-22 Hitachi Ltd Method for setting three-dimensional model of building aspect in cg system
JP2000348217A (en) * 1995-08-10 2000-12-15 Sega Enterp Ltd Device and method for generating virtual image
JPH09101742A (en) * 1995-10-05 1997-04-15 Hitachi Ltd Map update support device
JPH1166350A (en) * 1997-08-12 1999-03-09 Nippon Telegr & Teleph Corp <Ntt> Retrieval type scene labeling device and system
JPH11339074A (en) * 1998-05-22 1999-12-10 Mitsubishi Electric Corp Scenery modeling device

Also Published As

Publication number Publication date
US8180103B2 (en) 2012-05-15
WO2007010596A1 (en) 2007-01-25
JPWO2007010596A1 (en) 2009-01-29
US20080112646A1 (en) 2008-05-15

Similar Documents

Publication Publication Date Title
US20230410337A1 (en) Method and system for scene image modification
CN110163198B (en) Table identification reconstruction method and device and storage medium
JP6554169B2 (en) Object recognition device and object recognition system
WO2020181872A1 (en) Object detection method and apparatus, and electronic device
Saxena et al. Make3d: Learning 3d scene structure from a single still image
TWI362016B (en) Method for detecting desired objects in a highly dynamic environment by a monitoring system and the monitoring system thereof
CN104106260B (en) Control based on geographical map
JP4972095B2 (en) Method and system for generating video summaries
TW201530490A (en) Image processing device and image processing method
US9582731B1 (en) Detecting spherical images
Nyaruhuma et al. Verification of 2D building outlines using oblique airborne images
JP4839183B2 (en) Image processing device
JP6246508B2 (en) Moving body image extraction method and moving body image extraction apparatus
JP5180922B2 (en) Image search system and image search method
US8180103B2 (en) Image determining method, image determining apparatus, and recording medium having recorded therein program for causing computer to execute image determining method
CN102915542A (en) Image processing apparatus, image processing method, and program
JP7085812B2 (en) Image processing device and its control method
JP2021108193A (en) Image processing device, image processing method, and program
JP3577875B2 (en) Moving object extraction device
JP4131930B2 (en) Map update program and map update device
JP7092615B2 (en) Shadow detector, shadow detection method, shadow detection program, learning device, learning method, and learning program
JP2009123150A (en) Object detection apparatus and method, object detection system and program
JP4103898B2 (en) Map information updating method and map updating apparatus
JP4042602B2 (en) Image processing device
JP2010117946A (en) Object tracking method and image processing apparatus

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101213

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110411

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20110419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110517

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110523

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140527

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees