JP4751886B2 - Image judgment method - Google Patents
Image judgment method Download PDFInfo
- Publication number
- JP4751886B2 JP4751886B2 JP2007525463A JP2007525463A JP4751886B2 JP 4751886 B2 JP4751886 B2 JP 4751886B2 JP 2007525463 A JP2007525463 A JP 2007525463A JP 2007525463 A JP2007525463 A JP 2007525463A JP 4751886 B2 JP4751886 B2 JP 4751886B2
- Authority
- JP
- Japan
- Prior art keywords
- subject
- height
- information
- feature point
- determination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 76
- 238000010586 diagram Methods 0.000 description 41
- 238000012545 processing Methods 0.000 description 38
- 238000012937 correction Methods 0.000 description 36
- 238000000605 extraction Methods 0.000 description 21
- 238000004364 calculation method Methods 0.000 description 13
- 239000000284 extract Substances 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 8
- 238000007796 conventional method Methods 0.000 description 3
- XUFQPHANEAPEMJ-UHFFFAOYSA-N famotidine Chemical compound NC(N)=NC1=NC(CSCCC(N)=NS(N)(=O)=O)=CS1 XUFQPHANEAPEMJ-UHFFFAOYSA-N 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 230000000903 blocking effect Effects 0.000 description 2
- 238000011960 computer-aided design Methods 0.000 description 2
- 239000000428 dust Substances 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 239000010813 municipal solid waste Substances 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000007373 indentation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/35—Categorising the entire scene, e.g. birthday party or wedding scene
- G06V20/38—Outdoor scenes
- G06V20/39—Urban scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/35—Categorising the entire scene, e.g. birthday party or wedding scene
- G06V20/38—Outdoor scenes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、カメラにより撮影された映像及び画像における所定の被写体の映り具合を判定する画像判定方法などに関するものであり、特に、カメラと被写体との間に他建造物などが存在する場合であっても、当該他建造物を考慮して最適な映像及び画像データを選択することができる画像判定方法に関するものである。 The present invention relates to an image determination method for determining the appearance of a predetermined subject in video and images taken by a camera, and particularly to a case where another building exists between the camera and the subject. However, the present invention relates to an image determination method capable of selecting optimal video and image data in consideration of the other building.
従来、所定の被写体にかかる映像データなどを利用するユーザ(以下、単にユーザと表記する)が、当該被写体の映像データ及び画像を取得する場合には、異なる位置に設置された複数のカメラを利用して被写体を様々な方向から撮影し、撮影した映像及び画像群の中から最適なデータ、つまり、最も被写体の映り具合のよいデータをユーザ自身が閲覧選択し、選択した映像及び画像データを利用していた。 Conventionally, when a user who uses video data concerning a predetermined subject (hereinafter simply referred to as a user) acquires video data and images of the subject, a plurality of cameras installed at different positions are used. The subject can be photographed from various directions, and the user himself / herself browses and selects the most suitable data from the photographed video and image group, that is, the data that best reflects the subject, and uses the selected video and image data. Was.
しかし、上述した手法では、複数のカメラが撮影する被写体の映像及び画像データの数が増えると、ユーザが一つ一つ各映像及び画像データを閲覧しながらチェックし、最適な映像中の画像フレーム及び画像データ(以下、単に画像と表記する)をユーザ自身が選択する必要があるため、ユーザにかかる負担が大きいという問題があった。 However, in the above-described method, when the number of video images and image data of subjects captured by a plurality of cameras increases, the user checks each video and image data one by one to check the image frame in the optimal video. In addition, since the user himself / herself needs to select image data (hereinafter simply referred to as an image), there is a problem that the burden on the user is large.
そこで、ユーザにかかる負担を軽減させるべく、カメラの撮影位置と方向と、被写体の位置を使い、カメラの撮影空間と被写体の位置関係に基づいて、最適な映像及び画像データを自動的に選択可能とする技術が公開されている(例えば、特許文献1、特許文献2参照)。これらの技術によれば、図22に示すように、カメラAが撮影した画像に対して、カメラAの位置を頂点とし、撮影方向を中心として焦点距離などから算出したカメラ画角で広がる楕円錐、または四角錘の空間を撮影空間として定義し、その撮影空間内にある被写体ABを該当画像に映っていると判定し、空間外にある被写体Cは映っていないと判定する。 Therefore, in order to reduce the burden on the user, the optimal video and image data can be automatically selected based on the camera's shooting space and subject's positional relationship using the camera's shooting position and direction and subject position. (See, for example, Patent Document 1 and Patent Document 2). According to these techniques, as shown in FIG. 22, with respect to an image captured by the camera A, an elliptical cone having a position at the camera A as a vertex and spreading at a camera angle of view calculated from a focal length or the like with the imaging direction as the center. Alternatively, a square pyramid space is defined as an imaging space, and it is determined that the subject AB in the imaging space is reflected in the corresponding image, and that the subject C outside the space is not reflected.
また、映像及び画像の映り具合を判定する手法としては、カメラAの画像に映っていると判定した被写体ABに対して、カメラAからの距離をそれぞれ求めて、距離が近い被写体Bを映りが良いと判定し、距離が遠い被写体Aについては映りが悪いと判定する。 Further, as a method for determining the degree of projection of the video and the image, the distance from the camera A is obtained for each subject AB determined to be reflected in the image of the camera A, and the subject B with a short distance is reflected. It is determined that the subject is good, and it is determined that the subject A with a long distance is poorly reflected.
また、他の映像及び画像の映り具合を判定する手法としては、カメラの撮影空間に存在する被写体ABの中でも特に、撮影空間の楕円錐または四角錘の中心軸近くに存在する被写体Aの映り具合が良いと判定するという手法も存在する。 In addition, as a method for determining the degree of reflection of other images and images, the state of reflection of the subject A existing near the central axis of the elliptical pyramid or the quadrangular pyramid in the shooting space, among the subjects AB existing in the shooting space of the camera. There is also a method of determining that the quality is good.
しかしながら、かかる従来の技術では、必ずしも最適な映像及び画像データを選択することができないという問題があった。 However, such a conventional technique has a problem that it is not always possible to select optimal video and image data.
なぜなら、図23に示すように、たとえばカメラAと被写体ABとの間に他建造物体群が存在し、被写体ABがこれらの他建造物物体群に隠れてしまい、カメラAが被写体ABを適切に撮影できない場合であっても、従来の手法では、被写体ABに対する最適な画像データとして、カメラAによって撮影された画像を誤選択してしまうからである。 This is because, as shown in FIG. 23, for example, there is another building object group between the camera A and the subject AB, the subject AB is hidden behind these other building object groups, and the camera A appropriately controls the subject AB. This is because even if the image cannot be captured, the conventional method erroneously selects the image captured by the camera A as the optimal image data for the subject AB.
この誤選択は、被写体の映り具合を判定して画像を選択する手法であっても起こり、従来の技術は、カメラと被写体との間に存在する他建造物を考慮していないため、最適な画像データを適切に選択することができない。 This erroneous selection occurs even in a method of selecting an image by determining the appearance of the subject, and the conventional technique does not take into account other buildings existing between the camera and the subject. Image data cannot be selected properly.
すなわち、カメラと被写体との間に他建造物などが存在する場合であっても、当該他建造物を考慮して最適な画像データを自動で選択可能とすることが極めて重要な課題となっている。 In other words, even when another building exists between the camera and the subject, it is extremely important to be able to automatically select the optimum image data in consideration of the other building. Yes.
この発明は、上述した従来技術による問題点を解消するためになされたものであり、カメラと被写体との間に他建造物などが存在する場合であっても、当該他建造物を考慮して最適な画像データを自動で選択することができる画像判定方法を提供することを目的とする。 The present invention has been made in order to solve the above-described problems caused by the prior art, and even when other buildings exist between the camera and the subject, the other buildings are taken into consideration. An object of the present invention is to provide an image determination method capable of automatically selecting optimal image data.
上述した課題を解決し、目的を達成するため、本発明は、コンピュータが、被写体の存在領域にかかわる情報に基づく被写体の形状に関する複数の特徴点のうち、第一の特徴点を抽出する工程と、前記第一の特徴点の位置および前記被写体を撮影するカメラの視点位置を結ぶ第一の線分と、他の被写体の存在領域に関する情報とに基づいて、該第一の線分上に該他の被写体が存在するか否かを判定する工程と、前記第一の特徴点とは異なる第二の特徴点に対する第二の線分に基づいて、前記他の被写体が前記第二の線分上に存在するか否かを判定する工程と、判定した結果に基づいて、前記カメラによる前記被写体の撮影が前記他の被写体によって遮蔽されている割合を算出する工程とを実行することを特徴とする。 In order to solve the above-described problems and achieve the object, the present invention includes a step in which a computer extracts a first feature point from among a plurality of feature points related to the shape of a subject based on information relating to a region where the subject exists. , On the first line segment based on the first line segment connecting the position of the first feature point and the viewpoint position of the camera that captures the subject, and information on the existence area of the other subject. Based on the step of determining whether or not another subject exists and the second line segment for the second feature point different from the first feature point, the other subject is the second line segment. A step of determining whether or not the image is present above and a step of calculating a ratio at which the photographing of the subject by the camera is shielded by the other subject based on the result of the determination. To do.
本発明によれば、コンピュータが、被写体の存在領域にかかわる情報に基づく被写体の形状に関する複数の特徴点のうち、第一の特徴点を抽出する工程と、前記第一の特徴点の位置および前記被写体を撮影するカメラの視点位置を結ぶ第一の線分と、他の被写体の存在領域に関する情報とに基づいて、該第一の線分上に該他の被写体が存在するか否かを判定する工程と、前記第一の特徴点とは異なる第二の特徴点に対する第二の線分に基づいて、前記他の被写体が前記第二の線分上に存在するか否かを判定する工程と、判定した結果に基づいて、前記カメラによる前記被写体の撮影が前記他の被写体によって遮蔽されている割合を算出する工程とを実行するので、被写体と障害物とがどの程度重なっているのかを判定することができる。また、所定の被写体の映り具合の良い最適な画像データを選択することができる。 According to the present invention, the computer extracts a first feature point from among a plurality of feature points related to the shape of the subject based on information relating to the region where the subject exists, the position of the first feature point, and the Whether or not the other subject exists on the first line segment is determined based on the first line segment that connects the viewpoint positions of the camera that shoots the subject and information on the existence area of the other subject. And determining whether or not the other subject exists on the second line segment based on a second line segment for a second feature point different from the first feature point And a step of calculating a rate at which the photographing of the subject by the camera is shielded by the other subject based on the determined result, and how much the subject and the obstacle overlap. Can be determined. Also, it is possible to select optimal image data with a good image quality of a predetermined subject.
以下に、本発明における画像判定方法の実施例について説明する。 Examples of the image determination method according to the present invention will be described below.
まず、本発明における画像判定方式の原理について説明する。図1は、本発明における画像判定方式の原理を示す原理図である。同図は、映像および画像内で対象となる被写体(以下、判定対象被写体)がどのような他物体遮蔽を受けているかという映り具合を、他物体遮蔽指標として算出する画像判定方式100の構成を示すと同時に、画像判定方式100が利用するデータ類を示す。
First, the principle of the image determination method in the present invention will be described. FIG. 1 is a principle diagram showing the principle of an image determination method according to the present invention. The figure shows a configuration of an
画像判定方式100は、映像および画像内での具体的な他物体遮蔽による映り具合判定を開始する前処理として、主に判定対象被写体に関する処理を行う被写体形状推定部120と、被写体特徴点抽出部130を有し、この前処理の結果を用いて映像または画像の各画像フレームにおける映り具合判定そのものを処理する、他物体遮蔽判定部140と、他物体遮蔽指標算出部150とを有する。利用データ類は、画像判定方式100を適用する判定対象被写体に関するデータである、被写体領域位置情報110dと、映像及び画像を撮影したカメラに関するカメラデータ110eと、当方式の前処理および本処理で利用する建造物・地表高さマップ情報110がある。
The
被写体領域位置情報110dは、判定対象被写体の存在領域の位置情報である。存在領域は、一点、楕円、矩形、多角形、など、様々な指定がありうるが、例えば、存在領域を多角形とする場合には、その形状を構成する各頂点の緯度経度などの位置座標値、各頂点から多角形を構成するために必要な構造情報(トポロジ)等からなる。存在領域は、判定対象被写体の各マップ上の占有領域を特定するために用いる。
The subject
建造物・地表高さマップ情報110bは、人工建造物や樹木等の自然物(以下、建造物と記載)の高さ、建造物を除いた純粋な地表の高さ、などの各種高さ情報を、その測定位置と共にマップとした情報である。このマップ情報の具体的な保持例については、実施例1以降で詳しく述べるが、これらの各種高さは別々に保持しても良いし、足した高さを保持しても良い。また、ここでは、位置情報から各種高さを取得できるという意味で、理解のためマップと表現しているが、実際に装置に実装する場合は、テーブルリストとして保持することも可能である。図2は、建造物・地表高さマップ情報110bの一例を示す図である。
The building / surface
カメラデータ110eは、本発明を適用する、映像及び画像の各画像フレームに関係する撮影カメラの情報であり、カメラ位置、撮影方向、焦点距離などのカメラパラメータ、また、それらから算出できる画角などの情報である。本発明では、映像および画像の各画像フレームを直接判定に利用するのではなく、それらに関連するカメラデータ110eを画像判定に用い、判定結果が良いカメラデータ110eに対応する映像データを、最終的に判定対象被写体にかかわる最適な映像データとして選択する。
The
被写体形状推定部120は、被写体領域位置情報110dと建造物・地表高さマップ情報110bをつき合わせて、判定対象被写体の存在領域の高さを取得することで、被写体形状を推定する。なお、判定対象被写体の概形状を抽出する方法は、上述した方法に限られるものではなく、CAD(computer aided design)データのような詳細な3次元データを用いて、判定対象被写体の概形状を抽出してもよい。
The subject
被写体特徴点抽出部130は、被写体形状推定部120で推定した形状を元に、判定対象被写体を代表する特徴点の位置及び高さを算出する。判定対象被写体の位置及び形状を代表する特徴点であれば、その算出方法は特に問わないものとする。例えば、実施例1で述べるように、形状を任意の幅でメッシュ分割してメッシュ格子点を利用してもよいし、ランダムに形状内から特徴点を取得してもよいし、形状の重心一点を特徴点にしてもよい。
The subject feature
他物体遮蔽判定部140は、被写体特徴点抽出部130で抽出した特徴点と、カメラデータ110eである判定対象のカメラ位置とを結ぶ線分上の各ポイントに対して、建造物・地表高さマップ情報110b内の高さ情報を取得し、その高さと線分の高さを比較することで、線分を超える被写体物体の存在を検知する。さらに、被写体領域位置情報110dの判定対象被写体の存在領域内に被写体物体が存在したポイント位置があるか否かを判定することで、被写体物体が判定対象被写体であるか否か、すなわち、他物体であるか否かを判定する。なお、調査した線分上のポイント全てで線分を超える被写体物体が存在しなかった場合は、該当特徴点は、何にも遮られないと判定する。他物体遮蔽判定部140は、これらの判定で特徴点を、他物体によって遮られた、判定対象被写体自身によって遮られた、何にも遮られない、の3種類に分類する。
The other object
他物体遮蔽指標算出部150は、他物体遮蔽判定部140で判定した、特徴点ごとの判定分類結果を用いて、該当カメラの関係する映像及び画像における、判定対象被写体の他物体遮蔽に関する映り具合を表す指標値を、最終的に算出する。
The other object occlusion
このように、画像判定方式100は判定対象被写体の特徴点を抽出し、抽出した特徴点および他の被写体の高さなどを基にして、カメラから見た特徴点がどのくらい他の被写体によって隠れているかを推定し、その画像における判定対象被写体の映り具合を判定するので、ユーザは判定結果を基にして、複数のカメラによって撮影された複数の映像及び画像データの中から最適な映像及び画像データを効率よく選択することができる。
As described above, the
次に、本発明における画像判定方式の原理図の具体的な実施例として、画像判定方式を搭載した装置(以下、画像判定装置)の構成例である実施例1を、図面に基づいて詳細に説明する。図3は、本実施例1における画像判定装置の構成を示す機能ブロック図である。同図に示すように、この画像判定装置10は、図1で示した本発明の原理図に加えて、入力装置40および表示装置50、ベクトル地図情報110a、従来被写体内在判定部60、映像データ110c、表示処理部160を有する。また、建造物・地表高さマップ情報110bの一例として、建造物こみ地表高さマップ情報100baと、地表高さマップ情報110bbを有する。
Next, as a specific example of the principle diagram of the image determination method in the present invention, Example 1, which is a configuration example of a device (hereinafter referred to as an image determination device) equipped with an image determination method, will be described in detail with reference to the drawings. explain. FIG. 3 is a functional block diagram illustrating the configuration of the image determination apparatus according to the first embodiment. As shown in the figure, in addition to the principle diagram of the present invention shown in FIG. 1, the
入力装置40は、キーボードやマウスなどの入力装置であり、出力装置50は、ディスプレイなどの表示装置である。
The
ベクトル地図情報110aは、図4で示すような、一般的なベクトル地図であり、建造物などの被写体が存在する地図上の領域を示す。本実施例1では、ユーザが、このベクトル地図を利用して判定対象被写体領域の位置を指定し、指定された領域位置に合致するベクトル図形をそのまま被写体領域位置情報110dとして利用する一例を示す。
The
図5は、本実施例1の画像判定方式を搭載した装置が、画像判定方式の利用開始に伴い、表示装置50に表示させるベクトル地図を使った表示の一例を示す図である。ユーザは、表示装置50に表示されたベクトル地図を基にして、判定対象被写体を指定して、ベクトル地図上のベクトル形状を選択し、その形状の各点の緯度経度等の位置情報、すなわち判定対象被写体領域の輪郭点を、被写体領域位置情報110dとみなす。この際、ユーザは、入力装置40を利用して表示装置50に表示されたベクトル地図上に存在する判定対象被写体をなぞって指定し、その位置にあるベクトル形状を選択する。
FIG. 5 is a diagram illustrating an example of display using a vector map that is displayed on the
なお、ベクトル地図情報110aを用いて被写体領域位置情報110dを取得する方法は、図5に示した方法に限定されるものではなく、例えば、図6に示すように、判定対象被写体を円で囲んで近隣のベクトル形状を指定してもよいし、図7に示すように、判定対象被写体を多角形で囲んで近隣のベクトル形状を指定してもよい。また、名前や住所、電話番号などと、ベクトル地図上のベクトル図形をあらかじめ対応付けしたものを用意しておき、名前や住所、電話番号などでベクトル図形を指定してもよい。
Note that the method of acquiring the subject
もちろん、本実施例1のようにベクトル地図情報110aを使わずに写体領域位置情報110dを取得することも可能であり、判定対象となる被写体領域の輪郭を、緯度経度の数値で直接指定したり、または、図4のベクトル地図の代わりに、周辺領域を上空から撮影した写真や描いた絵などを表示し、図4に類似した入力装置で輪郭を描画しながら、入力装置内の描画位置を直接緯度経度に変換することで指定してもよい。
Of course, it is also possible to acquire the object region position
建造物・地表高さマップ情報110bは、本実施例1では一例として、建造物を含む地表の高さのデジタル地図である、建造物こみ地表高さマップ情報110baと、純粋な地面の高さのデジタル地図である、地表の高さマップ情報110bbから構成する。建造物こみ地表高さマップ情報110baは、建造物がある位置は建造物の高さ、建造物がない場合は純粋な地面の高さを、位置と共に保持した情報である。この構成及び内容は一例であり、建造物のうち人工物だけの高さマップ、建造物のうち樹木のみの高さマップ、地表のみの高さマップ、など、各要素をそれぞれを分割保持して代用してもよいし、さらにこれらを行政区分単位等で分割保持してもよい。
In the first embodiment, the building / surface
カメラデータ110eは、図示しない複数のカメラによって映像及び画像を撮影した時のカメラの位置や方向、画角等のカメラデータを合わせたデータ群である。
The
映像データ110cは、図示しない複数のカメラによって撮影された映像及び画像そのものである。映像データ110cとカメラデータ110eは、相互関係がとれるように保持する。本実施例1の画像判定装置10は、映像データ110cを直接判定するのではなく、関連するカメラデータ110eを使った画像判定方式100を搭載することで、入力装置40よりユーザによって指定された判定対象被写体にかかわる最適な映像データをこの映像データ110cから選択することを目的としている。
The
従来被写体内在判定部60は、従来技術の項で述べた、カメラデータ110eを使って対応する映像データ110c内に判定対象被写体が映っているかを間接的に調べる処理部である。まず、カメラデータ110eのカメラ位置や撮影方向、画角を用いて、カメラの撮影空間を楕円錘または四角錘などで定義する。次に、被写体領域位置情報110dの判定対象被写体の存在領域の位置情報を用いて、撮影空間内部に判定対象被写体が存在するか否かを判定する。具体的には、判定対象被写体のベクトル形状の各点の位置と撮影空間の位置を比較することで、ベクトル形状の一部または全部が撮影空間に含まれるか否かを判定する。撮影空間に含まれる場合は、判定対象被写体が撮影空間内部に存在するとみなし、該当するカメラデータ110e及び対応する映像データ110cを、判定対象被写体が映っているデータであると判定する。
The conventional subject
なお、従来技術では、実際には、判定被写体領域の形状(輪郭の複数点)ではなく、判定被写体の位置(一点)を使って、撮影空間内部に存在するか否かを判定することが多い。本実施例は、本手法の被写体領域位置情報110dを、ベクトル地図情報110aから求めたため、判定対象被写体領域の形状(複数点)としているが、図1の本発明の原理図で示したように、被写体領域位置情報110dは、特に一点か複数点かを問わないため、従来のような一点として、撮影空間内部か否かの判定を行うことも可能である。
Note that, in the prior art, in practice, it is often determined whether or not the object exists within the imaging space by using the position (one point) of the determination subject instead of the shape of the determination subject region (a plurality of contour points). . In this embodiment, the subject
本実施例1では、画像判定方式110へカメラデータ110eをそのまま渡さず、従来被写体内在判定部60を通し、判定対象被写体が各カメラの撮影範囲内にないカメラデータは渡さないことで、そもそも映像内に判定対象被写体が映っていないカメラデータに関しては画像判定方式110の入力とせず、他物体遮蔽による映り具合判定を行わないことを意図している。
In the first embodiment, the
被写体形状推定部120は、ベクトル地図情報110aから取得した被写体領域位置情報110dの、判定対象被写体領域の輪郭の位置情報と、建造物・地表高さマップ情報110b内の建造物こみ地表高さマップ情報110baを突合せ、輪郭の各ポイントの位置に関わる建造物こみの地表の高さを調べることで、判定対象被写体の概形状の上面を抽出する。同様にして、建造物・地表高さマップ情報110b内の地表高さマップ情報110bbと突合せ、輪郭の各ポイントの位置に関わる地表の高さを調べることで、判定対象被写体の概形状の下面を抽出する。高さ的には、この上面と下面の間が、概形状になる。
The object
図8は、被写体形状推定部120が判定対象被写体の概形状を取得する処理を説明するための説明図である。同図に示すように、判定対象被写体の概形状は、対応するベクトル図形(太線で示した図形。同図では、分かりやすく解説するため、判定対象被写体以外のベクトル図形も細い線で示している)の輪郭上の任意のポイントの緯度経度値と、当該緯度経度値に対応する建造物こみの地表高さマップ情報110ba、及び地表高さマップ情報110bbの高さをそれぞれ加えることで、判定対象被写体の概形状とする。被写体形状推定部120は、抽出した判定対象被写体の形状情報を被写体特徴点抽出部130に渡す。
FIG. 8 is an explanatory diagram for explaining processing in which the subject
なお、判定対象被写体の概形状を抽出する方法は、上述した方法に限られるものではなく、被写体の輪郭上の各ポイントの高さをそれぞれ正確に求めずに、例えば、被写体の輪郭形状の中心位置を求めて、その中心位置での高さを、当該被写体にかかわる高さとして代用してもよい。 Note that the method of extracting the approximate shape of the subject to be determined is not limited to the above-described method, and the height of each point on the contour of the subject is not accurately determined, for example, the center of the contour shape of the subject. The position may be obtained, and the height at the center position may be used as the height related to the subject.
被写体特徴点抽出部130は、被写体形状推定部120から判定対象被写体の概形状情報を取得し、建造物・地表高さマップ情報110bの建造物の高さ及び地表の高さを適宜調べながら、判定対象被写体の特徴点を抽出する。以下に、被写体特徴点抽出部130の処理について具体的に説明する。図9は、被写体特徴点抽出部130の処理を説明するための説明図である。
The subject feature
同図に示すように、被写体特徴点抽出部130は、まず、判定対象被写体の概形状にかかる側面および上面を任意の間隔でメッシュ状に分割する。分割する間隔は、一つの規定値(例えば、5mなど)を用いてもよいし、複数の数値(例えば、1m、5m、10mなど)を用意し、それぞれの数値で分割してもよい。
As shown in the figure, the subject feature
次に、被写体特徴点抽出部130は、分割したメッシュのうち、特に上面の各格子点の高さを、建造物・地表高さマップ情報110bの建造物の高さ、すなわち建造物こみ地表高さマップ情報110baの高さを適宜調べながら、算出する。なお、この高さは、被写体形状推定部120の対象被写体の輪郭上の各ポイントの高さと同様、それぞれ正確に求めるのではなく、輪郭形状の中心位置などの代表位置の高さを、メッシュの各格子点の共通の高さとして代用してもよい。
Next, the subject feature
さらに、被写体特徴点抽出部130は、分割したメッシュのうち、側面の各格子点の高さを、建造物上面の高さ(=建造物こみ地表高さマップ情報110baの高さ)及び下接地面の高さ(=地表の高さマップ情報110bbの高さ)を、指定メッシュ間隔で補間した値とする。
Furthermore, the subject feature
本実施例1の被写体特徴点抽出部130は、このようにして判定対象被写体の概形状の側面および上面を任意の間隔で分割したメッシュの各格子点と、概形状の頂点群を、その分割間隔に対する特徴点群とする。被写体特徴点抽出部130は、抽出した特徴点群の情報と被写体の形状情報とを他物体遮蔽判定部140に渡す。
The subject feature
なお、被写体特徴点抽出部130が特徴点を抽出する手法は、上述した手法に限られるものではなく、判定対象被写体側面または上面内に含まれる点として、高さ、緯度、経度のランダム値を取得し、取得した各ランダム値を特徴点としてもよい。
Note that the method by which the subject feature
また、メッシュ分割ではなく、ストリップ分割によって判定対象被写体を分割し、このストリップの各格子点と概形状の頂点群とを特徴点群としてもよい。また、概形状の側面及び上面に限らず、概形状の内部の点を特徴点としてもかまわない。更に、被写体特徴点抽出部130にかかわる計算量を軽減させるべく、単一の特徴点を抽出してもよい。この場合は、例えば、判定対象被写体の重心(全頂点位置群の加算平均位置)の点を特徴点とする。また、概形状に対してまんべんなく特徴点群を求めずに、より目に入りやすい建物の上層部など、任意の場所の特徴点数を増やすように算出してもよい。
Further, the subject to be determined may be divided by strip division instead of mesh division, and each lattice point of the strip and the vertex group of the approximate shape may be used as the feature point group. Further, not only the side surface and the upper surface of the approximate shape but also points inside the approximate shape may be used as the feature points. Further, a single feature point may be extracted in order to reduce the amount of calculation related to the subject feature
他物体遮蔽判定部140は、被写体特徴点抽出部130からの判定対象被写体の形状情報および特徴点群の情報と、建造物・地表高さマップ情報110bと、カメラデータ110eのうちで従来被写体内在判定部60を通して判定被写体が映っていると判定されたカメラデータとの3つの情報を基にして、カメラと判定対象被写体の各特徴点との間に存在する被写体物体があるかを調べ、さらにその被写体物体が判定対象被写体自身であるかどうかを判定することで、他物体による隠れを推定する処理部である。
The other object
図10は、他物体遮蔽判定部140の処理を説明するための説明図である。同図に示すように、他物体遮蔽判定部140は、カメラ位置と特徴点とを線分で結び、結んだ線を越える被写体が存在するか否かを判定する。具体的には、カメラ位置と特徴点との線分に沿いながら、建造物・地表高さマップ情報110bの建造物こみの地表の高さマップ情報110baを使って、建造物の高さを調べていき、線分よりも建造物の高さの方が高いポイントがないか探す。次に、そのポイントが判定対象被写体自身であるかどうかを、判定対象被写体の形状情報から判定し、判定対象被写体自身でない場合は、他の物体であると判定する。
FIG. 10 is an explanatory diagram for explaining the processing of the other object
他物体遮蔽判定部140は、例えば、図9の(a)に示すように、特徴点とカメラ位置との線分よりも高いポイントMが、建造物こみの地表高さマップ情報110ba上で見つかり、かつ、ポイントMは判定被写体のポイントでなかった場合に、「カメラと判定被写体の特徴点の間には、他物体が存在する」と判定する。このような場合には、カメラ位置と当該線分をなす特徴点を、他物体に遮られる特徴点(以下、特徴点(B)と表記する)とする。
For example, as shown in FIG. 9A, the other object
また、他物体遮蔽判定部140は、図10の(b)に示すように、特徴点とカメラ位置との線分よりも高いポイントが、建造物こみの地表高さマップ情報110ba上で見つからない場合に、「カメラと判定被写体の特徴点の間には、他物体が存在しない」と判定する。このような場合には、カメラ位置と当該線分をなす特徴点を、他物体に遮られない特徴点(以下、特徴点(A)と表記する)とする。
Further, as shown in FIG. 10B, the other object
また、他物体遮蔽判定部140は、図10の(c)に示すように、特徴点とカメラ位置との線分よりも高いポイントNが、建造物こみの地表高さマップ情報110ba上で見つかり、かつ、ポイントNが被写体内のポイントであった場合に、「カメラと判定被写体の特徴点の間には、他物体が存在しない」と判定する。このような場合には、カメラ位置と当該線分をなす特徴点を、自分自身で遮られる特徴点(以下、特徴点(C)と表記する)とする。
Further, as shown in FIG. 10C, the other object
他物体遮蔽判定部140は、特徴点群それぞれに対して上述した判定を行い、特徴点(A)の個数、特徴点(B)の個数、特徴点(C)の個数をカウントし、各特徴点(A)〜(C)の個数にかかわる情報を、個数情報として、他物体遮蔽指標算出部150に渡す。
The other object
他物体遮蔽指標算出部150は、他物体遮蔽判定部140から個数情報を取得し、取得した個数情報を基にして、他物体によって判定対象被写体が遮られている割合を他物体遮蔽指標として算出する処理部である。他物体によって遮られている割合を算出する具体的な式の一例は、他物体によって遮られている割合=特徴点(B)の個数÷(全特徴点の個数(A+B+C)−特徴点(C)の個数)によって表される。本実施例1の他物体遮蔽指標算出部150は、この算出した他物体によって遮られている割合を、判定対象被写体が他物体遮蔽指標として、そのまま利用し、表示処理部160に渡す。
The other object occlusion
なお、他物体によって遮られている割合、及び、最終的な他物体遮蔽指標の算出方法は、上述した手法に限定されるものではなく、例えば、特徴点による重要度の違いを考慮し、重み付けをした計算をしてもよい。すなわち、他物体遮蔽判定部140から個数情報以外に、それぞれの特徴点の位置情報などを取得しておき、ランドマークとなるような建物の場合、目印となる特徴的な形状部分の特徴点を重視したり、建物が立てこんでいる区域の場合、建物の下層部の隠れは、重要でないとして、上層部の特徴点を重視することなどの重みを加味し、最終的な他物体遮蔽指標を算出することも考えられる。
Note that the ratio of obstruction by other objects and the method for calculating the final other object occlusion index are not limited to the above-described methods. For example, weighting is performed in consideration of differences in importance depending on feature points. You may make a calculation with In other words, in addition to the number information, the position information of each feature point is acquired from the other object
表示処理部160は、他物体遮蔽指標算出部150から判定対象被写体の他物体遮蔽指標値を取得し、取得した指標値に基づいて、判定対象カメラデータ110eに対応する映像データ110cを探して、表示装置50で再生表示する処理部である。図11は、表示処理部160が物体遮蔽指標を利用して映像及び画像データを表示するインタフェースの一例を示す図である。
The
本発明の実施例1における表示処理部160は、図11に示すように、映像データ(a、b、e)及び画像データ(c、d、f〜k)を他物体遮蔽指標の値で昇順(数値が小さいものから大きいものへの順。この例では、数値が小さいものほど他物体による遮られる割合が低いとする)に並べる。さらに、判定対象被写体がより良く映っているものを推薦する意図のもと、他物体遮蔽指標の値が所定値未満の映像及び画像データを判定対象被写体に対して最適な映像及び画像データとみなし、例えば該当する図11の(a)〜(e)の映像及び画像のサムネイル画像をカラーで表示する。一方で、他物体遮蔽指標の値が所定値以上の映像及び画像データを判定対象被写体に対して適切でない映像及び画像データとみなし、例えば該当する図11の(f)〜(k)の映像及び画像のサムネイル画像を白黒で表示する。
As shown in FIG. 11, the
なお、本実施例1の図11では、元の映像及び画像データ単位で結果を表示しているが、映像データを他物体遮蔽指標の数値の小さい部分、すなわち判定対象被写体の他物体による映り具合の良い部分だけ抽出することで、複数の映像ショットに分け、それらを表示してもよい。また、推薦したい映像及び画像のファイル名をリストに羅列したり、推薦度合いの高いものを大きくより画面に近くなるような3次元CGで表示したり、任意の表示方法を行ってもかまわない。 In FIG. 11 of the first embodiment, the result is displayed in units of the original video and image data. By extracting only the good part, it may be divided into a plurality of video shots and displayed. In addition, the file names of videos and images to be recommended may be listed in a list, or highly recommended items may be displayed in a three-dimensional CG that is larger and closer to the screen, or an arbitrary display method may be used.
本発明の実施例1における表示処理部160は、出力装置50で表示した図11に対して、入力装置40を介してユーザが映像データを選択した場合には、選択映像及び画像データの閲覧再生などを開始する。図12は、図11において映像データ(a)が選択された場合の表示画面の一例を示す図である。図12では、映像の画像フレーム群のうち、従来被写体内在判定部60によってカメラの撮影領域に判定被写体が存在する判定された画像フレームであり、かつ本手法である画像判定方式100によって他物体遮蔽指標が低い(他物体による遮蔽が少ない)と判定された画像フレームの部分を、白黒濃淡バー上に白く表示している。ユーザはこの濃淡バー上で白い部分のみを選択することで、本手法が推薦する、判定被写体が他の物体に遮られることなく映っている映像フレームのみを再生閲覧することができる。なお、図12に示すように、他物体遮蔽指標から求めた判定被写体の映り具合を濃淡バーで表示してもよいし、他物体遮蔽指標の値を具体的な数字で表示してもよい。また、図11の段階で遮られ率の低い画像フレームのみを集めた映像ショットに分けた場合などには、図12で再生する映像ショットは全編を通して映りが良いと考えられるので、特に他物体遮蔽指標値や映り具合を表示しなくてもかまわない。
The
次に、本実施例1における画像判定装置10の処理手順について説明する。図13は、本実施例1に示した画像判定装置10の処理手順を示すフローチャートである。同図に示すように、画像判定装置10は、画像判定方式100の処理である部分(S102〜S106)と、画像判定方式100の前後で利用するデータを揃えると同時に入力及び出力を制御する部分(S101、S104,S107)に分かれる。
Next, a processing procedure of the
まず、入力装置40経由で、表示装置50上に表示されたベクトル地図情報110a内の判定対象被写体に関係する領域を指定することで、被写体領域位置情報110dを指定ベクトル形状情報から取得する(ステップS101)。
First, the subject
そして、被写体形状推定部120が、被写体領域位置情報110dと、建造物・地表高さマップ情報110bから被写体の概形状を特定し(ステップS102)、被写体特徴点抽出部130が特徴点群を抽出する(ステップS103)。
Then, the subject
次に、従来被写体内在判定部60が、カメラデータ110eと被写体領域位置情報110dを使って、判定対象被写体が映っているカメラデータを振り分ける(ステップS104)。
Next, the conventional subject
続いて、他物体遮蔽判定部140が、判定済みの各カメラデータと判定被写体の特徴点群、建造物・地表高さマップ情報110bを用いて、各特徴点における他物体遮蔽判定処理を実行する(ステップS105)。
Subsequently, the other object
続いて、他物体遮蔽指標算出部150が、他物体による遮蔽指標値を算出し(ステップS106)、表示処理部160が、遮蔽指標を基にして映像データ110cを出力する(ステップS107)。
Subsequently, the other object occlusion
次に、図13のステップS105で示した他物体遮蔽判定処理について説明する。図14は、図13のステップS105で示した他物体遮蔽判定処理を示すフローチャートである。同図に示すように、他物体遮蔽判定部140は、特徴点(A)、(B)、(C)のカウントを初期化(各特徴点(A)〜(B)にかかる個数を0に設定)し(ステップS201)、全ての特徴点を選択したか否かを判定する(ステップS202)。
Next, the other object occlusion determination process shown in step S105 of FIG. 13 will be described. FIG. 14 is a flowchart showing the other object occlusion determination process shown in step S105 of FIG. As shown in the figure, the other object
全ての特徴点を選択した場合には(ステップS203,Yes)、個数情報を他物体遮蔽指標算出部150に渡す(ステップS204)。一方、全ての特徴点を選択していない場合には(ステップS203,No)、未選択の特徴点を選択し(ステップS205)、カメラ位置を始点、選択した特徴点を終点とした線分を作成する(ステップS206)。 When all the feature points have been selected (step S203, Yes), the number information is passed to the other object occlusion index calculation unit 150 (step S204). On the other hand, if not all feature points have been selected (No at step S203), unselected feature points are selected (step S205), and a line segment with the camera position as the start point and the selected feature point as the end point is selected. Create (step S206).
そして、他物体遮蔽判定部140は、作成した線分の高さを上回る被写体が存在するか否かを判定し(ステップS207)、線分を上回る被写体が存在しない場合には(ステップS208,No)、特徴点(A)のカウントに1を加算し(ステップS209)、ステップS202に移行する。
Then, the other object
一方、線分を上回る被写体が存在する場合には(ステップS208,Yes)、線分の高さを上回った被写体は、判定対象被写体か否かを判定し(ステップS210)、線分の高さを上回った被写体が判定対象被写体で無い場合には(ステップS211,No)、特徴点(B)のカウントに1を加算し(ステップS212)、ステップS202に移行する。 On the other hand, if there is a subject exceeding the line segment (step S208, Yes), it is determined whether or not the subject exceeding the line segment height is the subject to be determined (step S210), and the line segment height is determined. If the subject exceeding the threshold is not the determination subject (step S211, No), 1 is added to the count of the feature point (B) (step S212), and the process proceeds to step S202.
一方、線分の高さを上回った被写体が判定対象被写体である場合には(ステップS211,Yes)、特徴点(C)のカウントに1を加算し(ステップS213)、ステップS202に移行する。 On the other hand, when the subject exceeding the height of the line segment is the subject to be determined (step S211, Yes), 1 is added to the count of the feature point (C) (step S213), and the process proceeds to step S202.
このように、他物体遮蔽判定部140が、個数情報を作成し、他物体遮蔽指標算出部150がこの個数情報を利用してた物体遮蔽指標を算出し、表示処理部160が他物体遮蔽指標を基にして映像データ110cを表示装置50に表示させるので、ユーザは効率よく、最適な映像データを選択することができる。
As described above, the other object
上述してきたように、本実施例1の画像判定装置10は、被写体形状推定部120が被写体領域位置情報110d、建造物・地表高さマップ情報110bを基にして、指定された判定対象被写体の形状を抽出し、被写体特徴点抽出部130が、判定対象被写体の形状を基にして特徴点を抽出し、他物体遮蔽判定部140が、カメラデータ110e、判定対象被写体形状、特徴点と建造物・地表高さマップ情報110bを基にして他物体遮蔽に関する特徴点の分類個数情報を作成し、他物体遮蔽指標算出部150が、個数情報を基にしてカメラデータごとの他物体遮蔽指標を算出する。算出した各カメラデータ毎の他物体遮蔽指標は、本実施例1で示すように表示処理部160が、関連する映像データ110cを表示装置50に表示する際の、判定被写体の他物体遮蔽に関する映り具合に対する推薦度として利用することができるため、カメラと、判定対象被写体との間に他物体が存在する場合にでも、最適な映像データを選択することができる。
As described above, in the
なお、本実施例1にかかわる建造物・地表高さマップ情報110bは、建造物こみの地表高さマップ情報110ba以外に、純粋な地表の高さである地表高さマップ情報110bbを含んでいたが、建造物こみの地表高さマップ情報110baのみで地表高さマップ情報110bbを代用することができる。本実施例1で、地表高さマップ情報110bbは、被写体形状推定部120が、被写体形状の下面、すなわち地表との接地面の高さを求めるために利用している。そこで、被写体形状推定部120が、被写体領域位置情報110dと建造物こみの地表高さマップ情報110baを基にして、被写体の下接地面、すなわち被写体位置における地表の高さ情報を取得する一例を示す。
It should be noted that the building / surface
被写体形状推定部120は、建造物こみの高さマップ情報110baと被写体領域位置情報110dとをつき合わせ、建造物こみの高さマップ情報内で被写体領域に含まず、かつ被写体領域よりも十分大きな領域(建造物同士が地表をみせずに完全に接して存在することは稀なので、この十分大きな領域のどこかに、建造物が無く地表が現れているポイントが存在する可能性が高い)に対応する建造物こみの地表の高さを取得する。そして、被写体形状推定部120は、取得した高さのうち、最も低い高さを擬似的な該当領域全体の地表面の高さとする。なお、高さを取得する領域が広すぎて、擬似的な地表面の高さとみなしたポイントが、被写体の存在する領域から離れると、被写体の存在する領域の地表面との誤差が大きくなるので、単純に最も低い高さを採用するのではなく、被写体からの距離を使って重み付けをして採用してもよい。
The subject
このように、被写体形状推定部120が、建造物こみの高さマップ情報110baと被写体領域位置情報110dとを利用して、地表面の高さを取得するので、地表の高さマップ情報110bbを建造物・地表高さマップ情報110に含める必要性が無くなり、情報記録容量やマップ情報の取得経費、及びマップ情報を最新に保つための更新の手間および経費を節約することができる。
In this way, the subject
また、建造物・地表高さマップ情報110bの建造物こみの地表高さマップ情報110baを利用して、ベクトル地図情報110aを代用して、被写体領域位置情報110dを取得することができる。ここで、建造物こみの地表高さマップ情報110baを利用して、判定被写体領域位置情報10dを取得する一例を示す。
In addition, the object
図15は、建造物こみの地表高さマップ情報110baから被写体領域位置情報110dを取得する手法を説明するための説明図である。同図に示すように、従来の被写体内在判定と同様、判定対象被写体を代表位置一点で入力装置40などから指定する。まず、この代表位置一点を、その緯度経度などの値を使い、建造物こみ地表高さマップ情報110ba上の代表点として設定する。
FIG. 15 is an explanatory diagram for explaining a method of acquiring the subject
そして、代表点から周辺に向かって、円状に、所定間隔及び角度ごとに移動しながら、移動先の各ポイントに対応する建造物こみ地表の高さを取得する。各ポイントの高さを取得する際に、一つ前に取得したポイントの高さ(または、代表点の高さ)と比較し、高さが大幅に変化する場所(例えば、代表点の高さの1/4以下となる場所)を探し、大幅に変化した場所を判定対象被写体領域の外縁点として登録する(図15の例では、P1とP2が外縁点として登録される)。時計周りに角度をずらしながら、周辺に向けて外縁点を探して登録していった場合には、登録順に外縁点をつなぎ合わせたものが、被写体領域位置情報110dの判定被写体領域である。
And the height of the building litter ground surface corresponding to each point of the movement destination is acquired while moving from the representative point toward the periphery in a circular shape at predetermined intervals and angles. When obtaining the height of each point, the location where the height changes significantly compared to the height of the previous point (or the height of the representative point) (for example, the height of the representative point) And a place that has changed significantly is registered as an outer edge point of the determination subject region (in the example of FIG. 15, P1 and P2 are registered as outer edge points). When the outer edge points are searched for and registered toward the periphery while shifting the angle clockwise, the determined subject area of the subject
なお、ここでは、建造物・地表高さマップ情報110bのうち、建造物こみ地表高さマップ情報110baのみを使って、被写体領域位置情報110dを取得する例を示したが、地表高さマップ情報110bbも用いて高さの差分を求めれば、高さが大幅に変化する場所が、地表に起伏があるために、建造物の高さはそのままでも、建造物こみの地表の高さが変わった場所(傾斜地の段々形のマンションなど)なのか、地表に起伏がなく、建造物自体の高さが変わった場所なのかをより正確に推定することが可能でる。この場合、前者の場合は外縁点とはせず、後者の場合のみを外縁点とすることで、より正確な判定対象被写体領域を取得することができる。
In addition, although the example which acquires object area | region position
このように、ベクトル図情報を使わず、判定被写体の代表位置一点から、建造物・地表高さマップ情報110bを利用して、自動的に被写体領域位置情報110dを取得することができるので、予めベクトル地図情報110aを用意、記録させる必要性を無くすことができ記録容量を節約することができとともに、従来技術と同程度の簡単な指定方法で、被写体領域位置情報110dを自動取得することができる。
As described above, the object region position
次に、本実施例2における画像判定方式を搭載した装置(画像判定装置)について説明する。本実施例2における画像判定装置は、実施例1の建造物・地表高さマップ110bの高さデータ群を、属するマップ領域毎に階層的に区切ってクラスタリングし、クラスタリング結果の領域内で、最高の高さ、最低の高さを算出する。そして、画像判定装置は、領域ごとの最高の高さを利用して、効率よく他物体遮蔽判定を行い、他物体遮蔽指標を算出する。
Next, an apparatus (image determination apparatus) equipped with the image determination method according to the second embodiment will be described. The image determination apparatus according to the second embodiment performs clustering by hierarchically dividing the height data group of the building /
図16は、本実施例2における画像判定装置20の構成を示す機能ブロック図である。同図に示すように、この画像判定装置20は、高さクラスタリング部210および内部動作が異なる他物体遮蔽判定部220を有する。その他の構成および動作は、実施例1に示した画像判定装置20と同様であるので、同一の構成要素には同一の符号を付して説明を省略する。
FIG. 16 is a functional block diagram illustrating the configuration of the
高さクラスタリング部210は、建造物・地表高さマップ情報110bを基にして、マップ上に含まれる高さ群のうち、最高高さおよび最低高さを所定領域ごとに特定する(以下、特定した情報をクラスタリング情報と表記する)処理部である。図17は、高さクラスタリング部210が算出するクラスタリング情報を説明するための説明図である。
The
同図に示すように、建造物・地表高さマップ情報110bの情報が、高さの測定単位である最小領域単位毎の高さデータで構成されている場合を考える。高さクラスタリング部210は、まず、近隣の最小領域単位を4つずつ纏めた統合領域を作成し、その領域内に含まれる4つの最小領域単位の高さを比較して、統合領域内での最高高さを特定する。図17の例では、2m〜4mの高さをもつ最小領域単位群A211〜A214を纏めてA21という領域を作成し、最高の高さは4mとして特定する。同様に5m〜6mの高さの最小領域単位群A221〜A224を纏めたA22と、9m〜12mの高さの最小領域単位群A231〜A234を纏めたA23と、13m〜16mの高さの最小領域単位群A241〜A244を纏めたA24、の3つの領域を作成し、それぞれの最高高さ(6m、12m、16m)を特定する。
As shown in the figure, consider the case where the information of the building / surface
次に、高さクラスタリング部210は、近隣領域A21〜A24の四つを纏めて新たな領域A2を作成し、各領域A21〜A24の最高高さを比較して、領域A2の最高高さ(16m)を特定する。図17の例では、同様にして所定領域A1、A3、A4を作成し、その最高高さを特定する。
Next, the
高さクラスタリング部210は、纏めた統合領域の面積が規定面積以上、または、クラスタリングによる統合階層が規定階層以上になるまで、領域統合および最高高さ特定を繰り返し行う。高さクラスタリング部210は、他物体遮蔽判定部220に算出したクラスタリング情報を渡す。
The
なお、本実施例2では、高さクラスタリング部210は、近隣の4つの小領域を統合して1つの大領域を作成する例を示しているが、統合する小領域の数は4つでなくても良いし、逆に大領域を分割しながら作成してもかまわない。さらに、一律に統合するのではなく、市街地等の検索用途の多い地域か否かや、高低差の変化の激しい場所か否か、等で階層数や統合領域数を変えて作成してもよい。また、高さクラスタリング部210のクラスタリング処理は、判定対象被写体とは無関係に実施することができるため、毎回処理を行うのではなく、クラスタリングしたデータを、建造物・地表高さマップ情報110bとして保持し、利用することもできる。
In the second embodiment, the
他物体遮蔽判定部220は、被写体特徴点抽出部130によって抽出された特徴点とクラスタリング情報とを基にして、特徴点(A)、(B)、(C)にかかわる個数情報を作成する処理部である。
The other object
図18は、特徴点とクラスタリング情報とを基にして、個数情報を作成する処理を説明するための説明図である。なお、図18では、カメラ位置から判定対象被写体への線分Tが、緯度に沿って伸びている場合について説明する。また、図18に示すように、カメラ位置と判定対象被写体との間には、クラスタリングを行った領域A、Bが含まれている場合について説明する。 FIG. 18 is an explanatory diagram for explaining a process of creating number information based on feature points and clustering information. FIG. 18 illustrates a case where the line segment T from the camera position to the determination target subject extends along the latitude. In addition, as shown in FIG. 18, a case will be described in which clustered regions A and B are included between the camera position and the determination target subject.
まず、他物体遮蔽判定部220は、線分Tを、領域A、Bに沿って2分割し、分割線分をそれぞれTA、TBとする。そして、他物体遮蔽判定部220は、各分割線分TA、TBの最小の高さTAMin、TBMinと、領域A、B内で最大の高さAMax、BMaxとを比較する。
First, the other object shielding
線分の高さが、領域A、Bの高さよりも高い場合、つまり、TAMin>AMaxかつTBMin>BMaxの場合には、他物体遮蔽判定部220は、当該線分に対応する特徴点を特徴点(A)と判定する。これは、領域A、B内に存在する全ての被写体の高さよりも線分Tのほうが高いことを意味するからである。
When the height of the line segment is higher than the heights of the regions A and B, that is, when TAMin> AMMax and TBMin> BMax, the other object occluding
一方、線分の高さが、領域AまたはBの高さ以下の場合、つまり、TAMin≦AMaxまたはTBMin≦BMaxの場合には(図17の例では、TBMin≦BMaxである)、他物体遮蔽判定部220は、領域B内の対応する領域(B1〜B4のいづれかの領域)を利用して、線分Tと、対応する領域に含まれる被写体の高さとを比較する。
On the other hand, when the height of the line segment is equal to or less than the height of the area A or B, that is, when TAMin ≦ AMMax or TBMin ≦ BMax (in the example of FIG. 17, TBMin ≦ BMax), the other object is shielded. The
例えば、線分Tが、領域B1、B2に対応する場合(線分Tが、領域B1、B2上を通過する場合等)は、上述した手法を利用して、線分Tよりも高い被写体高さが存在するか否かを判定する。ここで、仮に、B1、B2が最小領域単位である場合について説明すると、線分Tよりも高い被写体高さが領域B1、B2に存在しない場合には、線分Tに対応する特徴点を特徴点(A)と判定する。 For example, when the line segment T corresponds to the areas B1 and B2 (when the line segment T passes over the areas B1 and B2, etc.), the subject height higher than the line segment T is used using the above-described method. It is determined whether or not there exists. Here, a case where B1 and B2 are units of the minimum area will be described. When a subject height higher than the line segment T does not exist in the areas B1 and B2, feature points corresponding to the line segment T are characterized. The point (A) is determined.
一方、線分Tよりも高い被写体高さが領域B1またはB2に存在する場合には、線分Tに対応する特徴点を特徴点(B)または特徴点(C)と判定する。該当領域が判定対象被写体の場合には、特徴点(C)となり、該当領域が判定対象被写体でない場合には、特徴点(B)となる。 On the other hand, when a subject height higher than the line segment T exists in the region B1 or B2, the feature point corresponding to the line segment T is determined as the feature point (B) or the feature point (C). When the corresponding area is a determination target subject, it is a feature point (C), and when the corresponding area is not a determination target subject, it is a feature point (B).
他物体遮蔽判定部220は、上述した手法により、判定対象被写体にかかわる特徴点群それぞれを、特徴点(A)、(B)、(C)に分類し、分類した情報を個数情報として遮られ率算出部150に渡す。
The other object
このように、他物体遮蔽判定部220は、クラスタリング情報を基にして、必要なときにだけ、下位部の細かな領域単位および各測定ポイント毎の詳細な高さと線分の高さとを比較するので、他物体遮蔽判定処理にかかわる負担を軽減させることができる。
In this manner, the other object occluding
上述してきたように、本実施例2における画面判定装置20は、高さクラスタリング部210が、建造物・地表高さマップ情報110bを基にして、各被写体の中で最も高い被写体の高さを所定範囲ごとに特定したクラスタリング情報を作成し、他物体遮蔽判定部220が、クラスタリング情報を利用して、特徴点群にかかわる個数情報を作成するので、効率よく最適な映像データを選択することができる。
As described above, in the
なお、高さクラスタリング部210で統合領域を作成する際に、最高高さと同時に、各統合領域の最低高さを算出して利用してもよい。本発明の実施例1で述べた、建造物・地表高さマップ情報110bの建造物こみ地表高さマップ情報110baのみで、地表高さマップ情報110bbを代用する手法で、被写体形状推定部120で行う、被写体の下面、すなわち地表との接地面の高さを算出する手法を、クラスタリングによる各統合領域の最低高さを利用することで、より簡単に行うことができる。すなわち、本発明の実施例1では、判定被写体領域より十分大きな領域内で、建造物こみ地表高さマップ情報110baを調べて、最低の高さを算出して擬似的な該当領域全体の地表の高さとみなす手法を述べたが、該当領域の位置から、該当領域を含むクラスタリング統合領域群を求め、それらの最低高さを比較することで、効率よく該当領域の最低高さを算出することができる。
Note that when the integrated region is created by the
次に、実施例3における画像判定方式を搭載した装置(画像判定装置)について説明する。図19は、本実施例3における画像判定装置の概念を説明するための説明図である。図19の左側に示すように、時期T1にカメラAを利用して被写体Aを撮影し、時期T2にカメラBを利用して被写体Bを撮影し、時期T3にカメラCを利用して被写体Cを撮影し、画像判定装置が、いずれの映像データに対しても、映り具合がよい(他物体遮蔽指標が所定値以下)と判定したにもかかわらず、映像データの映り具合が悪いとユーザに判断された場合に、画像判定装置は、各カメラA〜Cの撮影領域の重複部分に、遮蔽物が発生したと判定し、建造物・地表高さマップ情報などを修正する。 Next, an apparatus (image determination apparatus) equipped with the image determination method according to the third embodiment will be described. FIG. 19 is an explanatory diagram for explaining the concept of the image determination device according to the third embodiment. As shown on the left side of FIG. 19, subject A is photographed using camera A at time T1, subject B is photographed using camera B at time T2, and subject C is photographed using camera C at time T3. The image determination device determines that the image quality is good for any video data (the other object occlusion index is equal to or less than a predetermined value), but the video data is bad for the user. When the determination is made, the image determination apparatus determines that an obstruction has occurred in the overlapping portion of the imaging areas of the cameras A to C, and corrects the building / surface height map information and the like.
また、図19の右側に示すように、時期T4に被写体Aを撮影し、時期T5に被写体Bを撮影し、時期T6に被写体Cを撮影し、画像判定装置が、いずれの映像データに対しても、映り具合が悪い(他物体遮蔽指標が所定値より上)と判定したにもかかわらず、映像データの映り具合がよいとユーザに判断された場合に、画像判定装置は、各カメラA〜Cの撮影領域の重複部分に存在していた遮蔽物が消滅したと判定し、建造物・地表高さマップ情報などを修正する。 Further, as shown on the right side of FIG. 19, the subject A is photographed at time T4, the subject B is photographed at time T5, and the subject C is photographed at time T6. Even if it is determined that the image quality is poor (the other object occlusion index is higher than a predetermined value), the image determination apparatus determines that each of the cameras A to It is determined that the shield that existed in the overlapping portion of the C imaging region has disappeared, and the building / surface height map information and the like are corrected.
このように、実施例3における画像判定装置は、他物体遮蔽指標にかかわるユーザからの応答によって、建造物・地表高さマップ情報などを修正するので、他物体遮蔽指標にかかわる信頼性を向上させることができる。また、建造物・地表高さマップ情報を定期的に更新する必要がなくなるので、コストを大幅に削減することができる。 As described above, the image determination apparatus according to the third embodiment corrects the building / surface height map information and the like according to the response from the user related to the other object occlusion index, thereby improving the reliability related to the other object occlusion index. be able to. In addition, since it is not necessary to regularly update the building / surface height map information, the cost can be greatly reduced.
図20は、本実施例3における画像判定装置30の構成を示す機能ブロック図である。同図に示すように、この画像判定装置30は、高さマップ補正処理部330と、建造物・地表高さマップ情報110bの関連情報として高さマップ補正情報310aとを有する。その他の構成および動作は、実施例1に示した画像判定装置と同様であるので、同一の構成要素には同一の符号を付して説明を省略する。
FIG. 20 is a functional block diagram illustrating the configuration of the
建造物・地表高さマップ情報110bは、関連する情報として高さマップ補正情報310aを有する。なお、建造物・地表高さマップ情報の一例である、建造物こみ地表高さマップ情報110ba、地表高さマップ情報110bbに関する説明は、実施例1と同様であるため説明を省略する。ここで、本実施例3では、一例として高さマップ補正情報310aを、建造物・地表高さマップ情報110bの一部としたが、相互に対応がとれれば、別の情報として独立保持してもかまわない。
The building / surface
高さマップ補正情報310aは、建造物・地表高さマップ情報110bのうち、特に建造物に関連した高さ情報、すなわちここでは、建造物こみの地表高さマップ情報110baにかかわる修正情報である。図21は、高さマップ補正情報310aのデータ構造の一例を示す図である。同図に示すように、この高さマップ補正情報310aは、補正エリアテーブルと、補正エリア形状テーブルと、補正エリア頂点テーブルとを有する。
The height
補正エリアテーブルは、「ID」、「種別」、「変化発生推定時期(MIN)」、「変化発生推定時期(MAX)」、「推定形状ID」、「MBR(MIN)緯度経度」、「MBR(MAX)緯度経度」、「所属3次元メッシュID」を有する。 The correction area table includes “ID”, “type”, “change occurrence estimated time (MIN)”, “change occurrence estimated time (MAX)”, “estimated shape ID”, “MBR (MIN) latitude / longitude”, “MBR”. (MAX) latitude / longitude ”and“ affiliation 3D mesh ID ”.
ここで、「ID(identification)」は、補正データ領域を識別するための情報であり、「種別」は、補正データ領域の高さが高すぎるという誤りから、ある高さの領域(建造物)の消滅を察知したのか、低すぎるという誤りから、ある高さの領域(建造物)の発生を察知したか、の情報であり、「変化発生推定時期(MIN)」および「変化発生時期推定時期(MAX)」は、建造物が変化(消滅または発生)した時期を示す情報である。 Here, “ID (identification)” is information for identifying the correction data area, and “type” is an area (building) at a certain height due to an error that the height of the correction data area is too high. It is information on whether the occurrence of a certain area (building) was detected from the error that it was detected that it disappeared, or because it was too low, and “change occurrence estimated time (MIN)” and “change occurrence time estimated time” “(MAX)” is information indicating the time when the building has changed (disappeared or generated).
「推定形状ID」は、補正エリア形状テーブルの対応する情報を特定するための情報であり、「MBR(MIN)緯度経度」および「MBR(MAX)緯度経度」は、建造物が存在する領域の情報を示し、「所属3次元メッシュID」は、所属3次元メッシュコードを識別するための情報である。 The “estimated shape ID” is information for specifying the corresponding information in the correction area shape table, and “MBR (MIN) latitude / longitude” and “MBR (MAX) latitude / longitude” are the regions where the buildings exist. Information, “affiliation 3D mesh ID” is information for identifying the belonging 3D mesh code.
補正エリア形状データの説明に移ると、補正エリア形状データは、「ID」、「推定高さ(MAX)」、「推定高さ(MIN)」、「射影形状頂点数」、「射影形状頂点ID群」とを有する。「ID」は、補正エリアテーブルにかかわる「推定形状ID」と対応づけするための識別情報であり、「推定高さ(MAX)」および「推定高さ(MIN)」は、推定される被写体の高さの情報である。 Turning to the explanation of the correction area shape data, the correction area shape data includes “ID”, “estimated height (MAX)”, “estimated height (MIN)”, “number of projected shape vertices”, “projected shape vertex ID”. Group ". “ID” is identification information for associating with “estimated shape ID” related to the correction area table, and “estimated height (MAX)” and “estimated height (MIN)” are the estimated subject. It is height information.
なお、「推定高さ(MAX)」には、建造物が消滅したと判定された場合に、当該領域内での最大高さにかかる情報が格納され、「推定高さ(MIN)」には、建造物が発生したと判定された場合に、当該領域内での最小高さにかかる情報が格納される。「射影形状頂点数」は、該当領域形状または該当領域に含まれる建造物の頂点数を示す情報であり、「射影形状頂点ID群」は各頂点を識別するための情報である。 The “estimated height (MAX)” stores information on the maximum height in the area when it is determined that the building has disappeared, and the “estimated height (MIN)” When it is determined that a building has occurred, information on the minimum height in the area is stored. The “number of projected shape vertices” is information indicating the corresponding region shape or the number of vertices of the building included in the corresponding region, and the “projected shape vertex ID group” is information for identifying each vertex.
補正エリア頂点テーブルは、建造物の推定形状にかかわる頂点の緯度経度情報を有し、「ID」、「緯度」、「経度」からなる。ここで、「ID」は、補正エリア形状テーブルにかかわる「射影形状頂点ID群」の各IDと対応づけするための情報である。「緯度」、「経度」はそれぞれ、緯度および経度の情報を示す。 The correction area vertex table has the latitude and longitude information of the vertices related to the estimated shape of the building, and includes “ID”, “latitude”, and “longitude”. Here, “ID” is information for associating with each ID of the “projection shape vertex ID group” related to the correction area shape table. “Latitude” and “longitude” respectively indicate latitude and longitude information.
被写体形状推定部120が、判定対象被写体領域の上面および下接触面の高さを算出したり、被写体特徴点抽出部130が、判定対象被写体の特徴点を抽出する際に特徴点の高さを算出したり、他物体遮蔽判定部140がカメラと特徴点を結ぶ線分に沿って線分より高さの高いポイントを探索したりする際に、建造物・地表高さマップ情報110bの建造物こみ地表高さマップ情報110baを利用するが、その時に高さマップ補正情報310aを突合せ、高さマップ補正情報310aによって所定領域の情報が、修正されている場合には、高さマップ補正情報310aに含まれる情報を優先させる。
The subject
高さマップ補正処理部330は、表示処理部160が表示した映像データの他物体遮蔽指標に対する応答を受付け、受付けた応答に応じて高さマップ補正情報310aを作成・更新する処理部である。
The height map
具体的に、この高さマップ補正処理部330は、表示処理部160が表示した映像データの他物体遮蔽指標が間違っている旨の情報(応答)を入力装置40から取得した場合には、当該映像データを撮影したカメラ位置と判定対象被写体との間の領域にかかわる建造物・地表高さマップ情報110bが変化したと判定する。
Specifically, when the height map
そして、高さマップ補正処理部330、例えば、図19の左側で説明したように、遮蔽物体発生が疑われるエリアをある程度特定できた場合には、当該エリアに関する情報を高さマップ補正情報310aに書き込む。この場合は、「種別」を「発生」に設定し、推測される範囲を「MBR(MIN)経度緯度」および「MBR(MAX)経度緯度」に登録する。
Then, as described in the height map
また、変化が予測される時期に関しては、例えば、図19の左側の例では、時期T1〜T3に変化したと推定できるため、時期T1を「変化発生推定時期(MIN)」に登録し、時期T3を「変化発生推定時期(MAX)」に登録する(T1<T2<T3の場合)。 Further, regarding the time when the change is predicted, for example, in the example on the left side of FIG. 19, it can be estimated that the time has changed from time T1 to T3. Therefore, time T1 is registered in “change occurrence estimated time (MIN)”. T3 is registered in the “change occurrence estimated time (MAX)” (when T1 <T2 <T3).
また、図19の右側で説明したように、遮蔽物体消滅が疑われるエリアをある程度特定できた場合には、当該エリアに関する情報を高さマップ補正情報310aに書き込む。この場合は、「種別」を「消滅」に設定し、推測される範囲を「MBR(MIN)経度緯度」および「MBR(MAX)経度緯度」に登録する。
In addition, as described on the right side of FIG. 19, when an area suspected of disappearing a shielding object can be specified to some extent, information regarding the area is written in the height
続いて、変化が予期される時期に関しては、例えば、図19の右側の例では、時期T4〜T6に変化したと推定できるため、時期T4を「変化発生推定時期(MIN)」に登録し、時期T6を「変化発生推定時期(MAX)」に登録する(T4<T5<T6の場合)。 Subsequently, regarding the time when the change is expected, for example, in the example on the right side of FIG. 19, it can be estimated that the time has changed from time T4 to T6. Therefore, the time T4 is registered in “change occurrence estimated time (MIN)” The time T6 is registered in the “change occurrence estimated time (MAX)” (when T4 <T5 <T6).
上述してきたように、本実施例3における画像判定装置30は、高さマップ補正処理部330が、表示処理部160によって表示された映像データの他物体遮蔽指標にかかわる応答を入力装置40から受付け、この応答に、他物体遮蔽指標が間違っている旨の情報が含まれている場合に、高さマップ補正情報310aを作成・更新するので、建造物・地表高さマップ情報を定期的に更新保守する必要がなくなり、コストを大幅に削減することができる。
As described above, in the
なお、実施例3の例では、遮蔽物が完全に新規発生および消滅する例を示したが、実際には建造物の改築等で、見えなかった被写体の一部が見えたり隠れたりすることも考えられる。この場合にも、撮影空間レベルでの重ね合わせではなく、それぞれの被写体特徴点群のどの部分が見えないと判定したものが誤りだったのか、などを詳細に調べて、特徴点とカメラの線分同士の重なるエリアを求め、そのエリア算出の元となった線分の高さより高いまたは、低いべきかを精査することで、エリアの高さ変化をある程度推測することもできる。 In the example of the third embodiment, an example in which a shield is completely new and disappears is shown. However, in reality, a part of an invisible subject may be seen or hidden due to reconstruction of a building or the like. Conceivable. Also in this case, instead of superimposing at the shooting space level, we investigated in detail what part of each subject feature point group was determined to be invisible, etc. It is possible to estimate the change in the height of the area to some extent by obtaining the overlapping area and examining whether it should be higher or lower than the height of the line segment from which the area is calculated.
以上のように、本発明における画像判定方法は、複数台のカメラ等を利用して所定の被写体を撮影し、撮影した各映像データの中から最適な映像データを、ユーザに負担をかけることなく選択する必要のある画像判定システムなどに対して有用である。 As described above, the image determination method according to the present invention captures a predetermined subject using a plurality of cameras and the like, and optimal video data is not burdened on the user from among the captured video data. This is useful for an image determination system that needs to be selected.
10,20,30 画像判定装置
40 入力装置
50 表示装置
60 従来被写体内在判定部
100 画像判定方式
110a ベクトル地図情報
110b 建造物・地表高さマップ情報
110ba 建造物こみ地表高さマップ情報
110bb 地表高さマップ情報
110c 映像データ
110d 判定被写体領域位置情報
110e カメラデータ
120,320 被写体形状推定部
130 被写体特徴点抽出部
140,220 他物体遮蔽判定部
150 他物体遮蔽指標算出部
160 表示処理部
210 高さクラスタリング部
310a 高さマップ補正情報
330 高さマップ補正処理部
10, 20, 30
Claims (5)
被写体の存在領域にかかわる情報に基づく被写体の形状に関する複数の特徴点のうち、第一の特徴点を抽出する工程と、
前記第一の特徴点の位置および前記被写体を撮影するカメラの視点位置を結ぶ第一の線分と、他の被写体の存在領域に関する情報とに基づいて、該第一の線分上に該他の被写体が存在するか否かを判定する工程と、
前記第一の特徴点とは異なる第二の特徴点に対する第二の線分に基づいて、前記他の被写体が前記第二の線分上に存在するか否かを判定する工程と、
判定した結果に基づいて、複数の第一の線分のうち他の被写体と重なる第一の線分の数と、複数の第二の線分のうち他の被写体と重なる第二の線分の数とを加算した加算値を、前記複数の特徴点の数で除算することで、前記カメラによる前記被写体の撮影が前記他の被写体によって遮蔽されている割合を算出し、前記カメラ動画像の表示を前記割合を用いて変更する工程と
を実行することを特徴とする画像判定方法。 A computer having a storage unit that stores a camera moving image obtained by photographing a subject and a storage unit that stores a line-of-sight position of the camera ,
A step of extracting a first feature point from among a plurality of feature points related to the shape of the subject based on information relating to the region where the subject exists;
Based on the first line segment that connects the position of the first feature point and the viewpoint position of the camera that captures the subject, and information on the existence area of the other subject, the other on the first line segment Determining whether or not a subject exists,
Determining whether the other subject exists on the second line segment based on a second line segment for a second feature point different from the first feature point;
Based on the determined result, the number of first line segments that overlap with other subjects among the plurality of first line segments, and the second line segment that overlaps with other subjects among the plurality of second line segments. By dividing the addition value obtained by adding the number by the number of the plurality of feature points, the ratio of the shooting of the subject by the camera being shielded by the other subject is calculated, and the display of the camera moving image is displayed. And a step of changing the ratio using the ratio .
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2005/013261 WO2007010596A1 (en) | 2005-07-19 | 2005-07-19 | Image judging method,image judging device, and recording medium where program for allowing computer to execute image jduging method is recorded |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2007010596A1 JPWO2007010596A1 (en) | 2009-01-29 |
JP4751886B2 true JP4751886B2 (en) | 2011-08-17 |
Family
ID=37668485
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007525463A Expired - Fee Related JP4751886B2 (en) | 2005-07-19 | 2005-07-19 | Image judgment method |
Country Status (3)
Country | Link |
---|---|
US (1) | US8180103B2 (en) |
JP (1) | JP4751886B2 (en) |
WO (1) | WO2007010596A1 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101042910B1 (en) * | 2008-11-13 | 2011-06-21 | 엔에이치엔(주) | Method, system and computer-readable recording medium for providing service using electronic map |
CN102789642B (en) * | 2011-05-16 | 2017-08-25 | 索尼公司 | Direction of extinction determines method and apparatus, camera self-calibration method and device |
US10573045B2 (en) | 2012-12-19 | 2020-02-25 | Shutterfly, Llc | Generating an assembled group image from subject images |
US9025906B2 (en) | 2012-12-19 | 2015-05-05 | Lifetouch Inc. | Generating an assembled group image from subject images |
JP6676294B2 (en) * | 2015-06-30 | 2020-04-08 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
JP6406289B2 (en) | 2016-03-14 | 2018-10-17 | オムロン株式会社 | Road surface shape measuring apparatus, measuring method, and program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06348815A (en) * | 1993-06-04 | 1994-12-22 | Hitachi Ltd | Method for setting three-dimensional model of building aspect in cg system |
JPH09101742A (en) * | 1995-10-05 | 1997-04-15 | Hitachi Ltd | Map update support device |
JPH1166350A (en) * | 1997-08-12 | 1999-03-09 | Nippon Telegr & Teleph Corp <Ntt> | Retrieval type scene labeling device and system |
JPH11339074A (en) * | 1998-05-22 | 1999-12-10 | Mitsubishi Electric Corp | Scenery modeling device |
JP2000348217A (en) * | 1995-08-10 | 2000-12-15 | Sega Enterp Ltd | Device and method for generating virtual image |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01133907A (en) | 1987-11-19 | 1989-05-26 | Furukawa Electric Co Ltd:The | Production of metal oxide |
TW346611B (en) * | 1996-03-28 | 1998-12-01 | Sega Enterprises Kk | An image processor, a game machine using the image processor, a method of image processing and a medium |
JP3383563B2 (en) * | 1997-12-18 | 2003-03-04 | 富士通株式会社 | Object movement simulation device |
JPH11272721A (en) * | 1998-03-19 | 1999-10-08 | Fujitsu Ltd | Interference check result display method, interference check result display device and computer readable record medium recording interference check result display program |
JP2000101905A (en) | 1998-09-28 | 2000-04-07 | Mitsubishi Precision Co Ltd | Image pickup device with installation position detecting function, installing position detection method for image pickup device and medium with program for detecting installing position of image pickup device recorded therein |
JP2000113209A (en) | 1998-10-01 | 2000-04-21 | Dainippon Screen Mfg Co Ltd | Multi-viewpoint image generating and displaying method, multi-viewpoint image generating and displaying device and recording medium recording multi-viewpoint image generating and displaying program |
JP4167777B2 (en) | 1999-07-19 | 2008-10-22 | 三菱電機株式会社 | VIDEO DISPLAY DEVICE, VIDEO DISPLAY METHOD, AND RECORDING MEDIUM CONTAINING PROGRAM FOR DISPLAYING VIDEO |
JP2001290820A (en) | 2000-01-31 | 2001-10-19 | Mitsubishi Electric Corp | Video gathering device, video retrieval device, and video gathering and retrieval system |
JP3910794B2 (en) | 2000-11-14 | 2007-04-25 | 株式会社エヌ・ティ・ティ・ドコモ | Video search file creation method and homepage update method |
JP4778158B2 (en) * | 2001-05-31 | 2011-09-21 | オリンパス株式会社 | Image selection support device |
JP4185333B2 (en) | 2001-09-07 | 2008-11-26 | 松下電器産業株式会社 | Video distribution device and video reception device |
JP2003087442A (en) * | 2001-09-14 | 2003-03-20 | Fuji Photo Film Co Ltd | Image evaluation method and apparatus, and program |
US7444354B2 (en) | 2001-09-14 | 2008-10-28 | Fujifilm Corporation | Method and apparatus for storing images, method and apparatus for instructing image filing, image storing system, method and apparatus for image evaluation, and programs therefor |
US7426292B2 (en) * | 2003-08-07 | 2008-09-16 | Mitsubishi Electric Research Laboratories, Inc. | Method for determining optimal viewpoints for 3D face modeling and face recognition |
-
2005
- 2005-07-19 JP JP2007525463A patent/JP4751886B2/en not_active Expired - Fee Related
- 2005-07-19 WO PCT/JP2005/013261 patent/WO2007010596A1/en active Application Filing
-
2008
- 2008-01-09 US US12/007,327 patent/US8180103B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06348815A (en) * | 1993-06-04 | 1994-12-22 | Hitachi Ltd | Method for setting three-dimensional model of building aspect in cg system |
JP2000348217A (en) * | 1995-08-10 | 2000-12-15 | Sega Enterp Ltd | Device and method for generating virtual image |
JPH09101742A (en) * | 1995-10-05 | 1997-04-15 | Hitachi Ltd | Map update support device |
JPH1166350A (en) * | 1997-08-12 | 1999-03-09 | Nippon Telegr & Teleph Corp <Ntt> | Retrieval type scene labeling device and system |
JPH11339074A (en) * | 1998-05-22 | 1999-12-10 | Mitsubishi Electric Corp | Scenery modeling device |
Also Published As
Publication number | Publication date |
---|---|
US8180103B2 (en) | 2012-05-15 |
WO2007010596A1 (en) | 2007-01-25 |
JPWO2007010596A1 (en) | 2009-01-29 |
US20080112646A1 (en) | 2008-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230410337A1 (en) | Method and system for scene image modification | |
CN110163198B (en) | Table identification reconstruction method and device and storage medium | |
JP6554169B2 (en) | Object recognition device and object recognition system | |
WO2020181872A1 (en) | Object detection method and apparatus, and electronic device | |
Saxena et al. | Make3d: Learning 3d scene structure from a single still image | |
TWI362016B (en) | Method for detecting desired objects in a highly dynamic environment by a monitoring system and the monitoring system thereof | |
CN104106260B (en) | Control based on geographical map | |
JP4972095B2 (en) | Method and system for generating video summaries | |
TW201530490A (en) | Image processing device and image processing method | |
US9582731B1 (en) | Detecting spherical images | |
Nyaruhuma et al. | Verification of 2D building outlines using oblique airborne images | |
JP4839183B2 (en) | Image processing device | |
JP6246508B2 (en) | Moving body image extraction method and moving body image extraction apparatus | |
JP5180922B2 (en) | Image search system and image search method | |
US8180103B2 (en) | Image determining method, image determining apparatus, and recording medium having recorded therein program for causing computer to execute image determining method | |
CN102915542A (en) | Image processing apparatus, image processing method, and program | |
JP7085812B2 (en) | Image processing device and its control method | |
JP2021108193A (en) | Image processing device, image processing method, and program | |
JP3577875B2 (en) | Moving object extraction device | |
JP4131930B2 (en) | Map update program and map update device | |
JP7092615B2 (en) | Shadow detector, shadow detection method, shadow detection program, learning device, learning method, and learning program | |
JP2009123150A (en) | Object detection apparatus and method, object detection system and program | |
JP4103898B2 (en) | Map information updating method and map updating apparatus | |
JP4042602B2 (en) | Image processing device | |
JP2010117946A (en) | Object tracking method and image processing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100713 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100913 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101012 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101213 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110111 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110411 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20110419 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110517 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110523 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140527 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |