JP4642136B1 - Interlocking display measurement system using surveillance camera images - Google Patents

Interlocking display measurement system using surveillance camera images Download PDF

Info

Publication number
JP4642136B1
JP4642136B1 JP2010024018A JP2010024018A JP4642136B1 JP 4642136 B1 JP4642136 B1 JP 4642136B1 JP 2010024018 A JP2010024018 A JP 2010024018A JP 2010024018 A JP2010024018 A JP 2010024018A JP 4642136 B1 JP4642136 B1 JP 4642136B1
Authority
JP
Japan
Prior art keywords
image
coordinates
dimensional
display
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010024018A
Other languages
Japanese (ja)
Other versions
JP2011133840A (en
Inventor
洋一 沼田
里美 角田
重則 藤巻
隆司 中田
大祐 其阿彌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Asia Air Survey Co Ltd
Original Assignee
Asia Air Survey Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asia Air Survey Co Ltd filed Critical Asia Air Survey Co Ltd
Priority to JP2010024018A priority Critical patent/JP4642136B1/en
Application granted granted Critical
Publication of JP4642136B1 publication Critical patent/JP4642136B1/en
Publication of JP2011133840A publication Critical patent/JP2011133840A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】段階的な手段をとらなくとも一目で監視カメラ画像、三次元画像、平面図画像上での指定個所をそれぞれの画像上で正確に直に提供できる単眼視の監視カメラ映像を用いた連動表示計測システムを得る。
【解決手段】カメラ選択部31と、モード判定部32と、画角設定部33と、表示処理部34と、カメラ画像指定個所連像表示部11と、GIS画像指定個所連動表示部12と、平面図指定個所連動表示部13等を備えて、対象範囲が数キロに亘る広範囲で撮影されたカメラ画像を三次元地形モデルに対応付けて、その監視カメラが撮影した三次元GIS画像並びに平面図画像を連動表示すると共に、いずれかの画像(カメラ画像、三次元GIS画像若しくは平面図画像)上の指定位置(カーソル)を各々の画像上に連動表示し、かつその指定位置の三次元座標を知らせる。
【選択図】図8
The present invention uses a monocular monitoring camera image that can provide a specified location on a monitoring camera image, a three-dimensional image, and a plan view image at a glance without taking stepwise means. Get a linked display measurement system.
A camera selection unit 31, a mode determination unit 32, an angle-of-view setting unit 33, a display processing unit 34, a camera image designation location linked display portion 11, a GIS image designation location linkage display portion 12, A three-dimensional GIS image and a plan view photographed by the surveillance camera with a three-dimensional terrain model associated with a camera image photographed over a wide range of several kilometers, including a plan view designated location interlocking display unit 13 and the like. In addition to displaying images in conjunction with each other, the designated position (cursor) on any image (camera image, 3D GIS image, or plan view image) is displayed in conjunction with each image, and the 3D coordinates of the designated position are displayed. Inform.
[Selection] Figure 8

Description

本発明は、撮影対象を監視カメラで撮影した監視カメラ画像及び該監視カメラ画像の擬似画像並びに前記撮影対象を含む平面画像を表示部に連動表示して、これらの画像上に指定個所を連動表示する監視カメラ画像を用いた連動表示計測システムに関する。   The present invention displays a surveillance camera image obtained by photographing a subject to be photographed with a surveillance camera, a pseudo image of the surveillance camera image, and a planar image including the subject to be photographed on a display unit, and displays designated portions on these images in conjunction with each other. The present invention relates to an interlocked display measurement system using surveillance camera images.

火山噴火や土石流などの自然災害を監視する目的として、カメラによる監視機器(以下監視カメラという)を設置することがある。   For the purpose of monitoring natural disasters such as volcanic eruptions and debris flows, camera monitoring equipment (hereinafter referred to as surveillance cameras) may be installed.

しかし、監視カメラからの監視カメラ映像(以下監視カメラ画像という)は火砕流や噴石などの現象の概略的な理解には有効である反面、そこから発生・到達場所といった位置情報を詳細に捉えることは、現地を熟知した一部の者を除いては困難である。   However, while surveillance camera images from surveillance cameras (hereinafter referred to as surveillance camera images) are effective for a general understanding of phenomena such as pyroclastic flows and volcanic blocks, it is not possible to capture detailed location information such as the location of occurrence and arrival from there. It is difficult except for some who are familiar with the local area.

特に、発生状況をいち早く伝達する必要性がある監視機関にとっては、この位置把握の問題は重要であり、監視カメラ画像内での事象と防災マップ等の地図情報との関係を即座に把握し得る手段が望まれている。   Especially for surveillance organizations that need to quickly communicate the occurrence status, this problem of location determination is important, and it is possible to immediately grasp the relationship between events in surveillance camera images and map information such as disaster prevention maps. Means are desired.

通常、監視カメラ画像から位置情報を取得する手段としては、2台の監視カメラによるステレオ計測法か、1台の監視カメラによる単写真計測手法がある。   Usually, as means for acquiring position information from a monitoring camera image, there are a stereo measurement method using two monitoring cameras or a single photo measurement method using one monitoring camera.

ステレオ計測は、2台の監視カメラの映像がある程度同じ範囲を撮影するように重なり合う必要があり、単写真計測は、計測対象までの距離もしくは対象の標高が既知となっている必要がある。   Stereo measurement needs to overlap so that the images of the two surveillance cameras capture the same range to some extent, and single photo measurement needs to know the distance to the measurement object or the altitude of the object.

また、これらの計測にはいずれも、監視カメラの撮像面の大きさ、撮像面中心とレンズの光学中心のズレ、撮像素子の画素数やレンズ歪みといった内部標定要素と、地理座標系における監視カメラの位置と三次元座標軸に対する回転角度といった外部標定要素が必要である。   In addition, for these measurements, there are internal orientation elements such as the size of the imaging surface of the surveillance camera, the deviation between the center of the imaging surface and the optical center of the lens, the number of pixels of the imaging device and lens distortion, and the surveillance camera in the geographic coordinate system. The external orientation elements such as the position of and the rotation angle with respect to the three-dimensional coordinate axis are necessary.

前述の内部標定要素は、映像内にある三次元座標が既知の基準点9点以上により算出される。   The aforementioned internal orientation element is calculated from nine or more reference points whose three-dimensional coordinates in the video are known.

一方、外部標定要素は、同様に映像内にある三次元地理座標が既知である基準点3点以上により算出する方法と、GPSやジャイロ等の測定機器を撮影装置に取り付けて直接的に求める方法とがある。   On the other hand, the external orientation element is similarly calculated by using three or more reference points with known three-dimensional geographic coordinates in the video, and directly obtained by attaching a measuring device such as GPS or gyro to the photographing apparatus. There is.

計測精度を向上させる上で最も理想的なのはステレオ計測法であるが、既存の監視カメラは、設置台数を最小化するためにカメラ間の重なりがあえて少なくなっておりステレオ計測が可能な映像ペアを確保できない場合が多い。   The stereo measurement method is the most ideal for improving the measurement accuracy. However, the existing surveillance cameras have fewer pairs of cameras in order to minimize the number of installed cameras. In many cases, it cannot be secured.

また、計測のために監視カメラを増設することがコスト面で不利になるという問題と、災害地域という性質上、安全のため現地で基準点を配置できないことや、撮影範囲が広範囲にわたると映像内で認識できる大きさの基準点を監視カメラからの遠方地点で配置することが出来ない等の問題があることから、1台の監視カメラで、かつ、現地に基準点を必要としない計測手段の実現が求められている。   In addition, it is disadvantageous in terms of cost to add surveillance cameras for measurement, and because of the nature of disaster areas, it is impossible to place reference points on site for safety, and if the shooting range is wide, Because there is a problem that a reference point of a size that can be recognized by the camera cannot be located far from the surveillance camera, there is a problem with the measurement means that does not require a reference point in the field with a single surveillance camera. Realization is required.

そこで、監視カメラ画像と同じ様に見える画像を数値地図データや三次元形状データから生成し、写真映像とを重ね合わせて計測する手法が既に提案されている。   Therefore, a method has already been proposed in which an image that looks the same as a monitoring camera image is generated from numerical map data or three-dimensional shape data, and is superimposed on a photographic image.

特開2007−271869号公報JP 2007-271869 A 特開2007−18347号公報JP 2007-18347 A

社団法人日本写真測量学会 解析写真測量 改訂版 P.46−P56Japan Photogrammetry Society Analytical Photogrammetry Rev. P. 46-P56

しかしながら、特許文献1、特許文献2ともに、三次元情報と写真映像の重ね合わせ処理とその利用方法が逐次的に提案されているが、即時性が求められる実際の監視現場(夜間に火山が爆発した等)においては、例えば、写真上の座標を選択し、対応する三次元座標を出力してから、地図ソフト上に表示するといった段階的な手段を採ることによって失う時間が問題となる場合がある。   However, although both Patent Document 1 and Patent Document 2 have been proposed sequentially for 3D information and photographic image superimposition processing and its usage, the actual monitoring site (volcano explodes at night) where immediacy is required. Etc.), for example, there may be a case where the time lost by taking stepwise measures such as selecting the coordinates on the photograph, outputting the corresponding three-dimensional coordinates, and displaying them on the map software. is there.

また、実際に撮影した映像(画像)に擬似的な画像を合成表示しているので、実画像を正確に見ることはできない。見るためには、擬似的な画像を除去する等の手段をとらなければならない。   In addition, since a pseudo image is synthesized and displayed on a video (image) actually taken, the actual image cannot be viewed accurately. In order to view the image, it is necessary to take a measure such as removing a pseudo image.

そこで、本発明では、監視カメラ画像には何等加工を施さないようにして、かつ段階的な手段をとらなくとも一目で監視カメラ画像、三次元画像、平面図画像上での指定個所をそれぞれの画像上で正確に直に提供できる単眼視の監視カメラ映像を用いた連動表示計測システムを得ることを目的とする。   Therefore, in the present invention, the monitoring camera image is not subjected to any processing, and the designated portions on the monitoring camera image, the three-dimensional image, and the plan view image are displayed at a glance without taking stepwise means. It is an object of the present invention to obtain a linked display measurement system using a monocular surveillance camera image that can be provided accurately and directly on an image.

本発明の監視カメラ画像を用いた連動表示計測システムは、
表示部の画面を分割して、撮影対象をCCDを有する監視カメラで撮影した監視カメラ画像及び該監視カメラ画像に対応する三次元画像並びに前記撮影対象を含む平面図画像を該当の表示画面に連動表示して、いずれかの表示画面の指定個所にマークを表示して、他の表示画面の対応する位置にマークを連動表示させる監視カメラ画像を用いた連動表示計測システムであって、
前記撮影対象の三次元地形モデル、前記監視カメラ画像、前記監視カメラの外部標定要素及び内部標定要素、前記撮影対象を含む平面図データを記憶した記憶手段と、
(a)前記外部標定要素、内部標定要素に基づいて前記三次元地形モデルに前記監視カメラ撮影地点における画角を定義する手段と、
(b)前記監視カメラ画像の表示画面における前記指定個所の座標を前記監視カメラ画像上の画像座標に変換し、この監視カメラ画像上の画像座標をCCD面の実座標である写真座標に変換し、該写真座標を前記画角内のカメラ座標に変換し、該カメラ座標を前記三次元地形モデルの三次元座標に変換する手段と、
(c)前記三次元画像の表示画面における指定個所の座標をこの三次元画像上の画像座標に変換し、この三次元画像上の画像座標を前記写真座標に変換し、該写真座標を前記画角内のカメラ座標に変換し、該カメラ座標を前記三次元地形モデルの三次元座標に変換する手段と、
(d)前記平面図画像の表示画面における指定個所の座標を前記平面図データの二次元座標に変換し、これを前記三次元地形モデルの三次元座標に変換する手段と、
を備え、
(e)前記三次元地形モデルの三次元座標を読込んで、前記(c)手段の座標変換の過程を逆変換して前記三次元画像の表示画面の座標に変換し、この座標に前記マークを表示する手段と、
(f)前記三次元地形モデルの三次元座標を読み込んで、前記(d)手段の座標変換の過程を逆変換して、前記平面図画像の表示画面の座標に変換し、この座標に前記マークを表示する手段と、
(g)前記三次元地形モデルの三次元座標を読込んで、前記(b)手段の座標変換の過程を逆変換して前記監視カメラ画像の表示画面の座標に変換し、この座標に前記マークを表示する手段と、
を備え、
(h1) 前記指定個所が前記監視カメラ画像の表示画面の場合は、前記(b)手段、(e)手段を起動させると共に、前記(f)手段を起動させる手段と、
(h2)前記指定個所が前記三次元画像の表示画面の場合は、前記(c)手段、(g)手段を起動させると共に、前記(f)手段を起動させる手段と、
(h3) 前記指定個所が前記平面図画像の表示画面の場合は、前記(d)、前記(e)手段を起動させると共に、前記(g)手段を起動させる手段と
を備えたことを要旨とする。
The interlocking display measurement system using the surveillance camera image of the present invention,
The screen of the display unit is divided, and the surveillance camera image obtained by photographing the subject to be photographed by the surveillance camera having the CCD, the three-dimensional image corresponding to the surveillance camera image, and the plan view image including the subject to be photographed are linked to the corresponding display screen. A linked display measurement system that uses a monitoring camera image to display and display a mark at a specified location on one of the display screens and display the mark in a linked position on another display screen,
A storage means for storing a three-dimensional terrain model of the imaging target, the monitoring camera image, an external orientation element and an internal orientation element of the monitoring camera, and plan view data including the imaging target;
(A) means for defining an angle of view at the photographing point of the surveillance camera in the three-dimensional terrain model based on the external orientation element and the internal orientation element;
(B) The coordinates of the designated location on the display screen of the monitoring camera image are converted into image coordinates on the monitoring camera image, and the image coordinates on the monitoring camera image are converted into photographic coordinates which are actual coordinates on the CCD surface. Converting the photographic coordinates into camera coordinates within the angle of view, and converting the camera coordinates into three-dimensional coordinates of the three-dimensional terrain model;
(C) The coordinates of the designated portion on the display screen of the three-dimensional image are converted into image coordinates on the three-dimensional image, the image coordinates on the three-dimensional image are converted into the photographic coordinates, and the photographic coordinates are converted into the image coordinates. Means for converting into camera coordinates in a corner, and converting the camera coordinates into three-dimensional coordinates of the three-dimensional terrain model;
(D) means for converting the coordinates of a designated portion on the display screen of the plan view image into two-dimensional coordinates of the plan view data, and converting the two-dimensional coordinates into the three-dimensional coordinates of the three-dimensional terrain model;
With
(E) Reading the three-dimensional coordinates of the three-dimensional terrain model, converting the coordinate conversion process of the means (c) into the coordinates of the display screen of the three-dimensional image, and converting the mark to the coordinates. Means for displaying;
(F) The three-dimensional coordinates of the three-dimensional terrain model are read, and the coordinate transformation process of the means (d) is inversely transformed to be transformed into the coordinates of the display screen of the plan view image. Means for displaying,
(G) The three-dimensional coordinates of the three-dimensional terrain model are read, the coordinate conversion process of the means (b) is inversely converted into coordinates on the display screen of the monitoring camera image, and the mark is added to the coordinates. Means for displaying;
With
(H1) When the designated location is the display screen of the monitoring camera image, the (b) means, (e) means are activated, and the (f) means are activated,
(H2) When the designated portion is the display screen of the three-dimensional image, the (c) means, (g) means are activated, and the (f) means are activated,
(H3) In the case where the designated portion is a display screen of the plan view image, the (d) and (e) means are activated and the (g) means is activated. To do.

以上のように本発明によれば、監視カメラ画像、三次元GIS画像、平面図とを連動表示させて、いずれかの画面の指定個所を同じ位置に瞬時に連動表示させるので、段階的な手段を用いなくとも一目でこれらの画像上の相対位置関係を把握できる。   As described above, according to the present invention, the monitoring camera image, the three-dimensional GIS image, and the plan view are displayed in conjunction with each other, and the designated portion of any screen is instantaneously displayed in the same position. The relative positional relationship on these images can be grasped at a glance without using.

また、例えば噴火開始地点や被災範囲の位置特定・計測など、監視カメラのみでは知ることができない情報を得るようになる。   In addition, for example, information that cannot be known only by the monitoring camera, such as the eruption start point and the location / measurement of the disaster area, is obtained.

本実施の形態の監視カメラ画像を用いた連動表示計測システムの概略構成図である。It is a schematic block diagram of the interlocking display measurement system using the monitoring camera image of this Embodiment. 本実施の形態の監視カメラ画像を用いた連動表示計測システムの特徴を説明する説明図である。It is explanatory drawing explaining the characteristic of the interlocking display measurement system using the monitoring camera image of this Embodiment. カメラ画像指定個所連動表示部11、GIS画像指定個所連動表示部12、平面画像指定個所連動表示部13の概略動作を説明する説明図である。It is explanatory drawing explaining schematic operation | movement of the camera image designation | designated location interlocking display part 11, the GIS image designation | designated location interlocking display part 12, and the plane image designation | designated location interlocking display part 13. FIG. 本実施の形態に用いる座標変換を説明する説明図である。It is explanatory drawing explaining the coordinate transformation used for this Embodiment. 本実施の形態に用いる座標変換を説明する説明図である。It is explanatory drawing explaining the coordinate transformation used for this Embodiment. 本実施の形態に用いる座標変換を説明する説明図である。It is explanatory drawing explaining the coordinate transformation used for this Embodiment. 本実施の形態に用いる座標変換を説明する説明図である。It is explanatory drawing explaining the coordinate transformation used for this Embodiment. 実施の形態1の監視カメラの画像を用いた三次元連動計測表示システムの概略構成図である。It is a schematic block diagram of the three-dimensional interlocking measurement display system using the image of the surveillance camera of Embodiment 1. 標定要素の説明図である。It is explanatory drawing of an orientation element. 実施の形態1の監視カメラの画像を用いた三次元連動計測表示システムの全体動作を説明するフローチャートである。4 is a flowchart for explaining the overall operation of the three-dimensional interlocking measurement display system using an image of the surveillance camera according to the first embodiment. 実施の形態1の監視カメラの画像を用いた三次元連動計測表示システムのカメラ画像指定個所連動表示部の動作を説明するフローチャートである。6 is a flowchart for explaining the operation of the camera image designation location interlocking display unit of the three-dimensional interlocking measurement display system using the image of the surveillance camera of the first embodiment. 実施の形態1の監視カメラの画像を用いた三次元連動計測表示システムのカメラ画像指定個所連動表示部の動作を説明するフローチャートである。6 is a flowchart for explaining the operation of the camera image designation location interlocking display unit of the three-dimensional interlocking measurement display system using the image of the surveillance camera of the first embodiment. 実施の形態1の監視カメラの画像を用いた三次元連動計測表示システムのカメラ画像指定個所連動表示部の動作を説明するフローチャートである。6 is a flowchart for explaining the operation of the camera image designation location interlocking display unit of the three-dimensional interlocking measurement display system using the image of the surveillance camera of the first embodiment. 実施の形態2のGIS画像指定個所連動表示部12の構成図であるFIG. 6 is a configuration diagram of a GIS image designation location interlocking display unit 12 according to a second embodiment. 実施の形態2のGIS画像指定個所連動表示部12を説明するフローチャートである。6 is a flowchart for explaining a GIS image designation location interlocking display unit 12 according to a second embodiment. 実施の形態2のGIS画像指定個所連動表示部12を説明するフローチャートである。6 is a flowchart for explaining a GIS image designation location interlocking display unit 12 according to a second embodiment. 実施の形態2のGIS画像指定個所連動表示部12を説明するフローチャートである。6 is a flowchart for explaining a GIS image designation location interlocking display unit 12 according to a second embodiment. 実施の形態3の平面図画像指定個所連動表示部14の構成図である。FIG. 11 is a configuration diagram of a plan view image designation location interlocking display unit 14 according to a third embodiment. 実施の形態3の平面図画像指定個所連動表示部14を説明するフローチャートである。10 is a flowchart for explaining a plan view image designation location interlocking display unit 14 according to the third embodiment. 実施の形態3の平面図画像指定個所連動表示部14を説明するフローチャートである。10 is a flowchart for explaining a plan view image designation location interlocking display unit 14 according to the third embodiment. 実施の形態4の距離・面積計算処理の構成図である。FIG. 10 is a configuration diagram of distance / area calculation processing according to a fourth embodiment. 実施の形態4の距離・面積計算処理を説明する説明図である。FIG. 10 is an explanatory diagram illustrating distance / area calculation processing according to the fourth embodiment. 実施の形態5の視点変更の三次元画像を説明する説明図である。FIG. 10 is an explanatory diagram for explaining a three-dimensional image of viewpoint change according to a fifth embodiment. 実施の形態6の監視カメラの画像を用いた三次元連動計測表示システムの概略構成図である。FIG. 10 is a schematic configuration diagram of a three-dimensional interlocking measurement display system using an image of a surveillance camera according to a sixth embodiment. 実施の形態6の監視カメラの画像を用いた三次元連動計測表示システムの動作を説明するフローチャートである。16 is a flowchart for explaining the operation of a three-dimensional interlocking measurement display system using an image of a surveillance camera according to a sixth embodiment. 実施の形態6の監視カメラの画像を用いた三次元連動計測表示システムの動作を説明するフローチャートである。16 is a flowchart for explaining the operation of a three-dimensional interlocking measurement display system using an image of a surveillance camera according to a sixth embodiment. 実施の形態6のカーソル表示を説明する説明図である。FIG. 20 is an explanatory diagram illustrating cursor display according to a sixth embodiment. 画角の設定(算出)の手法を説明する説明図である。It is explanatory drawing explaining the method of the setting (calculation) of an angle of view.

本実施の形態は、監視カメラ(固定)で撮影した火山、海域、平野等の対象範囲が数キロに亘る広範囲の映像(以下単にカメラ画像:静止画又は動画)を、航空レーザ計測などによって得られたデジタル標高モデル(三次元地理座標モデル)に対応付けることによって、カメラ画像又はその監視カメラが撮影している撮影範囲(画角)の三次元画像(本実施の形態では三次元GIS画像という)若しくは撮影範囲の二次元平面図画像(以下単に平面図画像という)を連動表示して、これらの画像のいずれかにおいて、指定された個所(位置、面積、線を含む)を十字マーク(本実施の形態ではカーソル又は対象地点という)で連動表示するシステムである。また、指定された個所の座標、面積、長さを表示する。   In this embodiment, a wide range of images (hereinafter simply referred to as camera images: still images or moving images) covering several kilometers of volcanoes, sea areas, plains, etc., captured by a surveillance camera (fixed) are obtained by aerial laser measurement or the like. By associating with the obtained digital elevation model (three-dimensional geographic coordinate model), a three-dimensional image (referred to as a three-dimensional GIS image in this embodiment) of a camera image or a photographing range (angle of view) taken by the monitoring camera. Alternatively, a two-dimensional plan view image (hereinafter simply referred to as a plan view image) of the photographing range is displayed in an interlocked manner, and a designated portion (including position, area, and line) is displayed as a cross mark (this embodiment) in any of these images. In this form, it is a system that displays in conjunction with the cursor or target point. Also, the coordinates, area, and length of the specified location are displayed.

すなわち、本実施の形態は、三次元GIS画像は三次元地形地理座標モデルに航空写真や衛星画像をテクスチャーとして貼り付けた立体画像であり、視点やテクスチャーの変更も自由に行えることを利用して、監視現場で必要とされる図面との位置の照合や、地形形状を把握するために視点を変更して観察することを可能とする。   In other words, this embodiment uses the fact that a 3D GIS image is a 3D image in which an aerial photograph or satellite image is pasted as a texture on a 3D geographical geographic coordinate model, and the viewpoint and texture can be changed freely. This makes it possible to check the position with the drawings required at the surveillance site and to change the viewpoint to observe the topographic shape.

つまり、三次元GIS画像を用いるので、二次元の平面図画像も同様に画面(二次元平面図画面ともいう)に連動に表示することができるので、監視カメラ画像と三次元GIS画像と平面図画像(例えば地図、防災マップ等)を連動表示した場合には、いずれかの画像上において、ある個所が指定されると、その指定個所(指定位置ともいう)の相互位置関係の把握が一目で容易にわかる。   That is, since a three-dimensional GIS image is used, a two-dimensional plan view image can be displayed in conjunction with a screen (also referred to as a two-dimensional plan view screen) in the same manner, so that a surveillance camera image, a three-dimensional GIS image, and a plan view are displayed. When images (for example, maps, disaster prevention maps, etc.) are linked and displayed, if a location is specified on any of the images, the mutual relationship between the specified locations (also referred to as specified locations) can be grasped at a glance. Easy to understand.

従って、本実施の形態は、段階的な手段をとらなくとも、監視カメラ画像と、この三次元GIS画像と、平面図画像とを連動表示して指定個所の相互位置関係を敏速に把握
させている。
Therefore, the present embodiment can display the surveillance camera image, the three-dimensional GIS image, and the plan view image in conjunction with each other without taking stepwise means so as to quickly grasp the mutual positional relationship between the designated locations. Yes.

以下に実施の形態を図面を用いて説明する。   Embodiments will be described below with reference to the drawings.

図1は本実施の形態の監視カメラ映像を用いた連動表示計測システムの概略構成図である。   FIG. 1 is a schematic configuration diagram of an interlocked display measurement system using surveillance camera images of the present embodiment.

本実施の形態は、火山、山、河川、平野、島、海域等の広域な撮影対象Aを単眼の監視カメラ1(固定カメラ:複数地点でもよい)で撮影し、このカメラ画像データをLANで遠隔地点の画像蓄積装置2(サーバ)に送信して蓄積する。   In the present embodiment, a wide-range imaging target A such as a volcano, a mountain, a river, a plain, an island, or a sea area is photographed with a monocular surveillance camera 1 (fixed camera: may be a plurality of points), and this camera image data is obtained via a LAN. It transmits to the image storage device 2 (server) at a remote location and stores it.

又は、カメラ画像データを外部記憶装置例えばCD−ROM3に保存させて、これを持ち帰って画像蓄積装置2に保存する。そして、これらのカメラ画像及び後述する内部標定要素、外部標定要素等をデータベース5に記憶(三次元計測用データセットとも称する)する(1)。   Alternatively, the camera image data is stored in an external storage device such as a CD-ROM 3 and is taken back and stored in the image storage device 2. Then, these camera images, internal orientation elements, external orientation elements, and the like described later are stored in the database 5 (also referred to as a three-dimensional measurement data set) (1).

前述の外部標定要素、内部標定要素による画角の設定や、画面座標と三次元地理座標の相互変換には、非特許文献1に開示されている座標変換手法を用いて計算している。   For the setting of the angle of view by the above-described external orientation elements and internal orientation elements, and mutual conversion between screen coordinates and three-dimensional geographic coordinates, calculation is performed using a coordinate conversion method disclosed in Non-Patent Document 1.

また、データベース5に三次元地理座標モデルとそのテクスチャーデータ等(以下総称して三次元地形モデルという)を記憶していると共に、数値地図や防災マップ等の二次元平面図データを保存している。二次元地図データをテクスチャーとしても良い。   The database 5 stores a three-dimensional geographic coordinate model and its texture data (hereinafter collectively referred to as a three-dimensional terrain model), and stores two-dimensional plan view data such as a numerical map and a disaster prevention map. . Two-dimensional map data may be used as texture.

前述の三次元地形モデルの三次元地理座標モデルは、ヘッダー情報として4隅の地理座標(緯度経度)と縦横のメッシュ数を記憶し、実データとして、メッシュの交点の順番に標高のみが記録されているデータである。   The three-dimensional geographic coordinate model of the above-mentioned three-dimensional terrain model stores the geographical coordinates (latitude and longitude) of the four corners and the number of vertical and horizontal meshes as header information, and only the altitude is recorded as the actual data in the order of mesh intersections. Data.

さらに、データベース5には、カメラの内部標定要素、カメラの外部標定要素等を記憶している。   Further, the database 5 stores an internal orientation element of the camera, an external orientation element of the camera, and the like.

このカメラの内部標定要素、カメラの外部標定要素は前処理部6によって算出されている。   The internal orientation element of the camera and the external orientation element of the camera are calculated by the preprocessing unit 6.

前処理部6は、予めトータルステーションなどで座標値が精密に計測されたターゲット板を用意し、テストターゲット板を監視カメラ1のレンズ前に設置して、このテスターターゲット板を撮影する(2)。これは、カメラの内部標定要素(撮像面の中心とレンズの光学中心のズレ=主点位置ズレ、レンズ歪み、焦点距離、・・)を正確に算出するためである。なお、撮像面サイズや画素数は事前に既知である必要がある。   The pre-processing unit 6 prepares a target plate whose coordinate values are precisely measured by a total station or the like in advance, installs the test target plate in front of the lens of the monitoring camera 1, and photographs the tester target plate (2). This is to accurately calculate the internal orientation element of the camera (deviation between the center of the imaging surface and the optical center of the lens = principal point position deviation, lens distortion, focal length,...). The imaging surface size and the number of pixels need to be known in advance.

次に、各ターゲット板の座標値(トータルステーションなどで精密に求めた座標)とカメラの画像座標の関係から監視カメラの内部標定要素(主点位置ズレ、レンズ歪み、焦点距離)を算出してデータベース5に記憶する(3)。   Next, the internal orientation elements (principal point position deviation, lens distortion, focal length) of the surveillance camera are calculated from the relationship between the coordinate values of each target plate (coordinates obtained precisely by the total station, etc.) and the image coordinates of the camera. 5 is stored (3).

次に、カメラ画像に映っている尾根などの特徴的な地形の対応点を三次元地形モデル上で複数求めて(カメラ画像の地上基準点を取得)、監視カメラの外部標定要素(監視カメラの位置、姿勢)を算出する(4)。この基準点の取得は、カメラ画像とこのカメラ画像の三次元GIS画像とを画面(カメラ画像表示用画面、GIS画像用表示用画面)に表示して取得する。   Next, multiple corresponding points of characteristic terrain such as ridges reflected in the camera image are obtained on the 3D terrain model (obtaining the ground reference point of the camera image), and the external orientation element of the surveillance camera (the surveillance camera's (Position, posture) is calculated (4). The reference point is acquired by displaying a camera image and a three-dimensional GIS image of the camera image on a screen (camera image display screen, GIS image display screen).

次に、三次元地形モデルから求めた三次元地理座標と、対応する監視カメラの画像座標の関係から監視カメラの外部標定要素(カメラの位置、姿勢)を求めてデータベース5に記憶する(5)。   Next, the external orientation elements (camera position and orientation) of the surveillance camera are obtained from the relationship between the 3D geographic coordinates obtained from the 3D terrain model and the image coordinates of the corresponding surveillance camera, and stored in the database 5 (5). .

そして、画角設定部10が監視カメラの内部標定要素および外部標定要素を使用して監視カメラの画角を三次元地形モデル上に再現することにより、監視カメラが撮影している範囲の撮影対象Aの擬似的なカメラ映像(三次元GIS画像)を表示部20に表示させることを可能とする。つまり、監視カメラの画角を三次元地形モデル上に再現することにより、撮影対象Aに対応する三次元GIS画像を表示部20に表示している。   Then, the angle-of-view setting unit 10 reproduces the angle of view of the surveillance camera on the three-dimensional terrain model using the internal orientation element and the external orientation element of the surveillance camera. A pseudo camera image (three-dimensional GIS image) of A can be displayed on the display unit 20. That is, the three-dimensional GIS image corresponding to the imaging target A is displayed on the display unit 20 by reproducing the angle of view of the surveillance camera on the three-dimensional terrain model.

一方、カメラ画像指定個所連動表示部11、GIS画像指定個所連動表示部12、平面画像指定個所連動表示部13を備え、これらは互いに連動して動作している。   On the other hand, a camera image designation location interlocking display section 11, a GIS image designation location interlocking display section 12, and a plane image designation location interlocking display section 13 are provided, which operate in conjunction with each other.

そして、カメラ画像、三次元GIS画像又は平面図画像上に指定位置を示すカーソルが指定されると、三次元GIS画像及び平面図画像の対応する座標位置に連動表示する(図2参照)。   When a cursor indicating the designated position is designated on the camera image, the three-dimensional GIS image, or the plan view image, the corresponding coordinate positions of the three-dimensional GIS image and the plan view image are displayed in conjunction (see FIG. 2).

図2においては夜に火山を監視カメラで撮影している場合に、三次元GIS画像及び平面図画像にカーソルが連動表示されることを示している。   FIG. 2 shows that the cursor is displayed in conjunction with the three-dimensional GIS image and the plan view image when the volcano is photographed with a surveillance camera at night.

図3は、カメラ画像指定個所連動表示部11、GIS画像指定個所連動表示部12、平面画像指定個所連動表示部13の概略動作を説明する説明図である。   FIG. 3 is an explanatory diagram for explaining the schematic operation of the camera image designation location interlocking display unit 11, the GIS image designation location interlocking display unit 12, and the planar image designation location interlocking display unit 13.

カメラ画像指定個所連動表示部11は、カメラ画像上での位置計測、三次元GIS画像および平面図画像上での連動計測表示を行う。   The camera image designation location interlocking display unit 11 performs position measurement on the camera image and interlocking measurement display on the three-dimensional GIS image and the plan view image.

すなわち、カメラ画像指定個所連動表示部11は、カメラ画像上の任意の位置を指定すると(7−1)、その位置にカーソルを表示(7−1−1)すると共に、三次元GIS画像上での相対的な三次元座標を算出して(7−2)、その位置にカーソルを表示し(7−2−1;図2の点線K1−1を参照)、かつ撮影範囲GIS画像上での三次元地理座標を算出し(7−3)、その三次元地形座標を表示する(7−3−1)と共に、高さ方向を除いた二次元地理座標を求め(7−4)、対応する平面図画像上の二次元地理座標にカーソルを表示する(7−4−1:図2の点線K1−2参照)。   That is, when the camera image designation location interlocking display unit 11 designates an arbitrary position on the camera image (7-1), the cursor is displayed at that position (7-1-1), and on the three-dimensional GIS image. Is calculated (7-2), a cursor is displayed at that position (7-2-1; see the dotted line K1-1 in FIG. 2), and the imaging range on the GIS image The three-dimensional geographical coordinates are calculated (7-3), the three-dimensional topographic coordinates are displayed (7-3-1), and the two-dimensional geographical coordinates excluding the height direction are obtained (7-4), and correspondingly. A cursor is displayed on the two-dimensional geographic coordinates on the plan view image (7-4-1: see dotted line K1-2 in FIG. 2).

つまり、カメラ画像上から位置を入力した場合に、監視カメラの画角を三次元地理座標に再現することによって、各種画面間のカーソルの動きの連動を可能としている。   That is, when the position is input from the camera image, the movement angle of the cursor between the various screens can be linked by reproducing the angle of view of the surveillance camera in the three-dimensional geographic coordinates.

さらに、カメラ画像上で任意の距離や面積を計測する場合は、距離または面積を構成する頂点(以下単に点という)をカメラ画像上で連続指定し、その都度求められる三次元地理座標を用いて、これらの距離や面積を求める(7−5)。   Furthermore, when measuring an arbitrary distance or area on a camera image, apexes (hereinafter simply referred to as points) constituting the distance or area are continuously specified on the camera image, and the three-dimensional geographic coordinates obtained each time are used. These distances and areas are obtained (7-5).

GIS画像指定個所連動表示部12は、三次元GIS画像上での位置計測、平面図画像およびカメラ画像上での連動計測表示を行う。   The GIS image designated location interlocking display unit 12 performs position measurement on a three-dimensional GIS image, and interlocking measurement display on a plan view image and a camera image.

三次元GIS画像上の任意の位置を指定すると(8−1)、その位置(三次元GIS画像上)にカーソルを表示する(8−1−1)と共に三次元地形モデルにおける三次元地理座標を算出し(8−2)、その三次元座標を三次元GIS画像上に表示する(8−2−1)と共に、さらに高さ方向を除いた二次元地理座標を求め(8−3)、対応する平面図画像上にカーソルを表示する(8−3−1);図2においては点線K2−1参照)。   When an arbitrary position on the three-dimensional GIS image is designated (8-1), a cursor is displayed at that position (on the three-dimensional GIS image) (8-1-1), and the three-dimensional geographical coordinates in the three-dimensional terrain model are displayed. Calculate (8-2), display the three-dimensional coordinates on the three-dimensional GIS image (8-2-1), and obtain two-dimensional geographic coordinates excluding the height direction (8-3) The cursor is displayed on the plan view image (8-3-1); see the dotted line K2-1 in FIG. 2).

そして、共線条件式(空間上の対象物、対象物の写真上の像点、カメラのレンズ中心の3点が同一直線上にあるためのカメラの幾何学的条件)を利用した関係式へ三次元地理座標を代入してカメラ画像上の画像座標を求め(8−4)、対応するカメラ画像上の位置にカーソルを表示する(8−4−1:図2においては点線K2−2参照)。   Then, to a relational expression using a collinear conditional expression (an object in space, an image point on the photograph of the object, and a camera geometric condition for three points of the camera lens center on the same straight line). The image coordinates on the camera image are obtained by substituting the three-dimensional geographic coordinates (8-4), and the cursor is displayed at the corresponding position on the camera image (8-4-1: see dotted line K2-2 in FIG. 2). ).

つまり、三次元GIS画像上から位置を入力した場合の各種画面間のカーソルの動きの連動表示を可能としている。   That is, it is possible to display the movement of the cursor between the various screens when the position is input from the three-dimensional GIS image.

さらに、三次元GIS画像上で任意の距離や面積を計測する場合は、距離または面積を構成する点を三次元GIS画像上で連続指定し、その都度求められる三次元地理座標を用いて、これらの距離や面積を求める(8−5)。   Furthermore, when measuring an arbitrary distance or area on a three-dimensional GIS image, the points constituting the distance or area are continuously designated on the three-dimensional GIS image, and the three-dimensional geographic coordinates obtained each time are used. The distance and area are determined (8-5).

平面画像指定個所連動表示部13は、平面図画像上での位置計測、三次元GIS画像およびカメラ画像上での連動計測表示を行う。   The plane image designation location interlocking display unit 13 performs position measurement on the plan view image, and interlocking measurement display on the three-dimensional GIS image and the camera image.

平面図画像上の任意の位置を指定すると(9−1)、その平面図画像上にカーソルを表示する(9−1−1)と共に、この平面図画像の二次元地理座標系にそのカーソル位置を定義して三次元地形モデルに含まれる地理座標モデルの三次元地理座標を求め(9−2)、平面図画像に対応する三次元GIS画像上にカーソルKiを表示する(9−2−1;図2においては点線K3−1参照)一方、三次元地理座標を求めて表示する(9−2−2)。このとき、同様に共線条件式を利用した関係式へ三次元地理座標を代入してカメラ画像上の画像座標を求め(9−3)、カメラ画像上の対応する位置にカーソルを表示する(9−3−1;図2においては点線K3−2参照)共に、平面図上の対応する位置にカーソルを連動を表示する(K1−2の点線参照)。   When an arbitrary position on the plan view image is designated (9-1), a cursor is displayed on the plan view image (9-1-1), and the cursor position is displayed on the two-dimensional geographic coordinate system of the plan view image. To determine the three-dimensional geographic coordinates of the geographic coordinate model included in the three-dimensional terrain model (9-2), and display the cursor Ki on the three-dimensional GIS image corresponding to the plan view image (9-2-1). ; See dotted line K3-1 in FIG. 2) On the other hand, three-dimensional geographic coordinates are obtained and displayed (9-2-2). At this time, similarly, the three-dimensional geographic coordinates are substituted into the relational expression using the collinear conditional expression to obtain the image coordinates on the camera image (9-3), and the cursor is displayed at the corresponding position on the camera image ( 9-3-1; refer to the dotted line K3-2 in FIG. 2) In addition, the cursor is displayed at the corresponding position on the plan view (see the dotted line K1-2).

また、平面図画像上で任意の距離や面積を計測する場合は、距離または面積を構成する頂点を平面図上で連続指定し、その都度求められる三次元地理座標を用いて、これらの距離や面積を求める(9−5)。   In addition, when measuring an arbitrary distance or area on a plan view image, apexes constituting the distance or area are continuously specified on the plan view, and the three-dimensional geographic coordinates obtained each time are used. The area is obtained (9-5).

なお、求めた三次元座標及び二次元座標は、座標値表示用のボックスを表示し、このボックスに表示させてもよい。   The obtained three-dimensional coordinates and two-dimensional coordinates may be displayed in a coordinate value display box.

<各座標系の説明>
本実施の形態は以下に図4〜図7に説明する座標系を用いている。
<Description of each coordinate system>
This embodiment uses a coordinate system described below with reference to FIGS.

(座標変換1:画面−画像座標変換)
座標変換1は、図4(a)及び図4(b)に示すように表示画面の縦横のピクセル数と画像(画像データともいう)の縦横のピクセル数の比から、表示画面上のピクセル座標(Mx,My)をカメラ画像(画像データ)上のピクセル座標(Px,Py)に変換する。また、この座標変換1を逆変換することを逆座標変換1と称する。
(Coordinate conversion 1: screen-image coordinate conversion)
As shown in FIGS. 4 (a) and 4 (b), coordinate conversion 1 is performed by calculating the pixel coordinates on the display screen from the ratio of the number of vertical and horizontal pixels of the display screen to the number of vertical and horizontal pixels of the image (also referred to as image data). (Mx, My) is converted into pixel coordinates (Px, Py) on the camera image (image data). Further, the inverse transformation of the coordinate transformation 1 is referred to as inverse coordinate transformation 1.

(座標変換2:画像−写真座標変換)
座標変換2は、図4(c)及び図4(d)に示すように、カメラのCCD面(もしくはフィルム面)の実サイズとカメラ画像(画像データ)の縦横のピクセル数とを対応させることにより、画像データ上のピクセル座標(Px,Py)をカメラのCCD面上の実座標=写真座標(X’,Y’)に変換する。また、この座標変換2を逆変換することを逆座標変換2と称する。
(Coordinate transformation 2: Image-photo coordinate transformation)
As shown in FIGS. 4 (c) and 4 (d), the coordinate transformation 2 associates the actual size of the CCD surface (or film surface) of the camera with the number of vertical and horizontal pixels of the camera image (image data). Thus, pixel coordinates (Px, Py) on the image data are converted into actual coordinates on the CCD plane of the camera = photograph coordinates (X ′, Y ′). Further, the inverse transformation of the coordinate transformation 2 is referred to as inverse coordinate transformation 2.

さらに、上記座標変換2には、レンズの放射方向歪曲収差や主点位置ズレ(レンズの光軸中心とCCD中心のズレ)といった写真画像の系統的な歪みを補正する一般的な式を組み合わせることによって、歪みを取り除いた写真座標を得ている。   Further, the coordinate transformation 2 is combined with a general expression for correcting systematic distortion of a photographic image such as a radial distortion of the lens or a displacement of the principal point (deviation between the center of the optical axis of the lens and the center of the CCD). To obtain the photographic coordinates without distortion.

(座標変換3:写真−カメラ座標変換)
座標変換3は、写真座標平面をXY軸、それに直行する軸をZ軸とし、CCD中心からZ軸方向に焦点距離(f)はなれた点=光学中心を原点としたとした三次元空間を想定し、図5(a)及び図5(b)に示すように二次元座標である写真座標(X’,Y’)を光学中心からの三次元相対位置に置き換えたカメラ座標(X’,Y’,Z’)に変換する。
(Coordinate transformation 3: Photo-camera coordinate transformation)
Coordinate transformation 3 assumes a three-dimensional space in which the photographic coordinate plane is the XY axis and the orthogonal axis is the Z axis, and the focal distance (f) is separated from the CCD center in the Z axis direction = the optical center as the origin. Then, as shown in FIGS. 5A and 5B, the camera coordinates (X ′, Y) in which the photographic coordinates (X ′, Y ′), which are two-dimensional coordinates, are replaced with the three-dimensional relative positions from the optical center. ', Z').

この座標変換3を逆変換する変換を逆座標変換3という。 This transformation that reversely transforms the coordinate transformation 3 is referred to as inverse coordinate transformation 3.

(座標変換4:カメラ−地理座標変換)
図5(c)及び図5(d)に示すように、カメラの光学中心の地理座標、カメラ座標系の地理座標系に対する傾きを用いて、カメラ座標系を地理座標系に変換する。この座標変換4を逆変換する変換を逆座標変換4という。
(Coordinate transformation 4: camera-geographic coordinate transformation)
As shown in FIGS. 5C and 5D, the camera coordinate system is converted into a geographic coordinate system using the geographic coordinates of the optical center of the camera and the inclination of the camera coordinate system with respect to the geographic coordinate system. This transformation that reversely transforms the coordinate transformation 4 is referred to as inverse coordinate transformation 4.

(座標変換5:画面−平面図座標変換)
図6(a)及び図6(b)に示すように、表示画面(平面図画像表示用画面)の縦横のピクセル数と平面図画像上の画面表示範囲の縦横のピクセル数の比から、表示画面上のピクセル座標(Mx,My)を画面表示範囲上のピクセル座標に変換し、さらに二次元平面図データ上の画面表示範囲の相対位置関係から、画面表示範囲上のピクセル座標を二次元平面図データ上のピクセル座標(Px,Py)に変換する。また、座標変換5の逆変換を逆座標変換5と称する。
(Coordinate transformation 5: screen-plan view coordinate transformation)
As shown in FIG. 6A and FIG. 6B, the display is based on the ratio between the number of pixels in the display screen (plan view image display screen) and the number of pixels in the screen display range on the plan view image. Pixel coordinates (Mx, My) on the screen are converted to pixel coordinates on the screen display range, and further, the pixel coordinates on the screen display range are converted into a two-dimensional plane from the relative positional relationship of the screen display range on the two-dimensional plan view data. Conversion into pixel coordinates (Px, Py) on the diagram data. Further, the inverse transformation of the coordinate transformation 5 is referred to as an inverse coordinate transformation 5.

(座標変換6:平面図−平面地理座標変換)
座標変換6は、図6(c)及び図6(d)に示すように、二次元平面図データの4隅の地理座標と、表示された平面図画像データの縦横のピクセル数を対応させることによって、平面図画像データ上(平面図画像)のピクセル座標(Px,Py)を平面地理座標(X,Y)に変換する。また、座標変換6を逆変換することを逆座標変換6と称する。
(Coordinate transformation 6: Plan view-Plane geographic coordinate transformation)
As shown in FIGS. 6C and 6D, the coordinate transformation 6 associates the geographical coordinates of the four corners of the two-dimensional plan view data with the number of vertical and horizontal pixels of the displayed plan view image data. Thus, the pixel coordinates (Px, Py) on the plan view image data (plan view image) are converted into plane geographic coordinates (X, Y). Further, the inverse transformation of the coordinate transformation 6 is referred to as the inverse coordinate transformation 6.

(座標変換7:平面−三次元地理座標変換)
座標変換7は、図7(a)及び図7(b)に示すように、平面地理座標(X,Y)に対応する標高値(Z)を、デジタル標高モデル(三次元地形モデル)より検索する。座標変換7の逆変換を逆座標変換7という。
(Coordinate transformation 7: Plane-three-dimensional geographic coordinate transformation)
As shown in FIGS. 7A and 7B, the coordinate transformation 7 retrieves an elevation value (Z) corresponding to the planar geographic coordinates (X, Y) from a digital elevation model (three-dimensional terrain model). To do. The inverse transformation of coordinate transformation 7 is referred to as inverse coordinate transformation 7.

<実施の形態1>
図8は実施の形態1の監視カメラの画像を用いた三次元連動計測表示システムの概略構成図である。本実施の形態1はカーソルの連動表示について説明する。
<Embodiment 1>
FIG. 8 is a schematic configuration diagram of a three-dimensional interlocking measurement display system using an image of the surveillance camera according to the first embodiment. In the first embodiment, the interlocking display of the cursor will be described.

図8に示すように、実施の形態1の監視カメラの画像を用いた三次元連動計測表示システムは、表示部20と、コンピュータ本体部30(以下単に本体部30という)と、図示しないマウス、キーボード等から構成されている。   As shown in FIG. 8, the three-dimensional interlocking measurement display system using the image of the surveillance camera according to the first embodiment includes a display unit 20, a computer main unit 30 (hereinafter simply referred to as main unit 30), a mouse (not shown), It consists of a keyboard.

そして、本体部30は、図8に示すように、カメラ選択部31と、モード判定部32と、画角設定部33と、表示処理部34と、カメラ画像指定個所連像表示部11と、GIS画像指定個所連動表示部12と、平面図指定個所連動表示部13等を備えて、対象範囲が数キロに亘る広範囲で撮影されたカメラ画像(例えば火山を撮影した映像)を、三次元地理座標モデルに対応付けて、その監視カメラが撮影した三次元GIS画像並びに平面図画像を連動表示すると共に、いずれかの画像(カメラ画像、三次元GIS画像若しくは平面図画像)上の指定位置(カーソル)を各々の画像上に連動表示し、かつその指定位置の三次元座標を知らせる。   As shown in FIG. 8, the main body unit 30 includes a camera selection unit 31, a mode determination unit 32, an angle-of-view setting unit 33, a display processing unit 34, a camera image designation location continuous image display unit 11, A GIS image designated location interlocking display unit 12 and a plan view designated location interlocking display unit 13 are provided. In association with the coordinate model, the 3D GIS image and the plan view image captured by the surveillance camera are displayed in conjunction with each other, and at a specified position (cursor) on any image (camera image, 3D GIS image or plan view image) ) Are displayed in conjunction with each image, and the three-dimensional coordinates of the designated position are notified.

これによって、監視カメラ1が例えば夜に撮影していても、夜の監視カメラ画像上の隣に同じ三次元GIS画像が表示されているので、夜であってもどこから撮影している監視カメラの映像かが直に分る(図2参照)。   As a result, even if the surveillance camera 1 is photographing at night, for example, the same three-dimensional GIS image is displayed next to the night surveillance camera image. You can see the video directly (see Figure 2).

さらに、カメラ画像上おいて指定された位置にカーソルを表示すると共に、このカメラ画像の隣に連動表示されている三次元GIS画像上の同じ位置にカールを表示し、かつ平面図画像上の三次元GIS画像上のカーソル位置の平面図画像上の位置にカーソルが連動表示されるので、段階的な手段によらなくとも一目でこれらの画像上におけるカーソルの位置関係を瞬時に把握できる。   Furthermore, a cursor is displayed at a designated position on the camera image, a curl is displayed at the same position on the three-dimensional GIS image displayed in conjunction with the camera image, and a tertiary on the plan view image. Since the cursor is linked and displayed at the position on the plan view image of the cursor position on the original GIS image, the positional relationship of the cursor on these images can be grasped instantly at a glance without using stepwise means.

なお、平面図画像又は三次元GIS画像上にカーソルを表示して他の画像上(防災バップなど)にこのカーソルを連動表示することについては他の実施の形態で説明する。   The display of the cursor on the plan view image or the three-dimensional GIS image and the interlocking display of the cursor on another image (such as a disaster prevention bop) will be described in another embodiment.

また、カメラ画像指定個所連像表示部11とGIS画像指定個所連動表示部12と平面図指定個所連動表示部13とを総称して指定個所連動表示部とも称し、GIS画像指定個所連動表示部12については後述する実施形態2として説明し、平面図指定個所連動表示部13については後述する実施の形態3として説明する。   Further, the camera image designated location linked display unit 11, the GIS image designated location linked display unit 12, and the plan view designated location linked display unit 13 are collectively referred to as a designated location linked display unit. Will be described as a second embodiment to be described later, and the plan view designated location interlocking display unit 13 will be described as a third embodiment to be described later.

また、夜の監視カメラ映像上にカーソルを指定すると、三次元GIS画像上及び平面図画像上にそのカーソルが連動表示され、かつ三次元座標が表示されるので、例えば火山が爆発して、溶岩が着地した地点の三次元位置が直に分る。   In addition, when a cursor is specified on the night surveillance camera image, the cursor is linked and displayed on the 3D GIS image and the plan view image, and 3D coordinates are displayed. The three-dimensional position of the point where the landed is immediately known.

(各部の構成)
前述の監視カメラ1(固定)は異なる地点に各々配置され、これらの監視カメラ1が連続撮影した監視カメラ画像をCD−ROM2等に保存して、このCD−ROM2を監視員が定期的に解析センターに届ける。
(Configuration of each part)
The above-described surveillance cameras 1 (fixed) are arranged at different points, and the surveillance camera images continuously taken by these surveillance cameras 1 are stored in a CD-ROM 2 or the like, and the CD-ROM 2 is regularly analyzed by a supervisor. Deliver to the center.

データベース5には、監視カメラ画像と、三次元地形データと、二次元平面図データ(数値地図、防災マップ・・)と、内部標定要素と、外部標定要素等(図9参照)を保存している。これらの情報は撮影年月日毎であり、監視カメラ毎に区分けされて保存されている。   The database 5 stores surveillance camera images, 3D terrain data, 2D floor plan data (numerical maps, disaster prevention maps, etc.), internal orientation elements, external orientation elements, etc. (see FIG. 9). Yes. These pieces of information are for each shooting date and are classified and stored for each monitoring camera.

なお、監視カメラ画像は、映像蓄積サーバ(図示せず)に蓄積して、この映像蓄積サーバと本体部30とLANで接続して、これを表示部に表示してもよい。   The monitoring camera image may be stored in a video storage server (not shown), connected to the video storage server and the main unit 30 via a LAN, and displayed on the display unit.

さらに、監視カメラ1と映像蓄積サーバとをLANで接続して、監視カメラからのカメラ画像データを取得するようにしてもよい。   Further, the monitoring camera 1 and the video storage server may be connected via a LAN to acquire camera image data from the monitoring camera.

内部標定要素は、主点位置ズレ、レンズの歪み、焦点距離、撮像面の大きさ、解像度等であり、外部標定要素は、撮影時の監視カメラの三次元位置、姿勢、等である。これらの標定要素に関しては後述する。   The internal orientation elements are principal point position deviation, lens distortion, focal length, imaging surface size, resolution, and the like, and the external orientation elements are the three-dimensional position and orientation of the surveillance camera at the time of photographing. These orientation elements will be described later.

カメラ選択部31は、データベース5に保存されている監視カメラの種類(設置場所、名称、年月日等)を表示し、選択された監視カメラの番号を表示処理部34及び画角設定部33に知らせる。   The camera selection unit 31 displays the type of monitoring camera (installation location, name, date, etc.) stored in the database 5, and displays the number of the selected monitoring camera as a display processing unit 34 and an angle of view setting unit 33. To inform.

画角設定部33は、カメラ選択部31から知らせられた番号の監視カメラの標定要素(内部標定要素、外部標定要素)を使用して、三次元地形モデル上にその監視カメラの画角を定義する。この画角の設定については後述する。   The angle-of-view setting unit 33 defines the angle of view of the surveillance camera on the three-dimensional terrain model using the orientation elements (internal orientation element, external orientation element) of the surveillance camera of the number notified from the camera selection unit 31. To do. The setting of this angle of view will be described later.

表示処理部34は、カメラ画像再生処理部34aと、GIS画像表示処理部34bと、平面図画像表示処理部34c等を備え、表示部20の画面を分割して、これらの分割画面にカメラ画像、三次元GIS画像、平面図画像、三次元位置等を表示する。   The display processing unit 34 includes a camera image reproduction processing unit 34a, a GIS image display processing unit 34b, a plan view image display processing unit 34c, and the like, and divides the screen of the display unit 20 and displays camera images on these divided screens. 3D GIS image, plan view image, 3D position, etc. are displayed.

なお、カメラ画像が表示される画面をカメラ画像表示用画面、三次元GIS画像が表示される画面をGIS画像表示用画面に、平面図画像が表示される画面を平面図画像表示用画面と称する。   The screen on which the camera image is displayed is referred to as a camera image display screen, the screen on which the three-dimensional GIS image is displayed is referred to as a GIS image display screen, and the screen on which the plan view image is displayed is referred to as a plan view image display screen. .

また、平面図画像は、地図、防災マップ、住宅地図、衛星写真、航空写真、等々、他の図面であってもよいし、これらを組み合わせたものであってもよいが、本実施の形態では地図を平面図画像として説明する。   In addition, the plan view image may be a map, a disaster prevention map, a house map, a satellite photograph, an aerial photograph, and other drawings, or a combination of these, but in this embodiment, The map will be described as a plan view image.

カメラ画像再生処理部34aは、カメラ選択部31から知らせられた番号の監視カメラの監視カメラ画像をデータベース5から検索して、これを表示(カメラ表示用画面)する。   The camera image reproduction processing unit 34a searches the database 5 for a monitoring camera image of the numbered monitoring camera notified from the camera selection unit 31 and displays it (camera display screen).

また、カメラ画像再生処理部34aは、カメラ画像が初めに指定されて、その画像上においてポイントが指定された場合は、そのポイント位置にカーソルを表示すると共に、GIS画像表示処理部34b及び平面図画像表示処理部34cにカーソル表示を行わせる。このカーソル表示は座標変換によって実現している。   In addition, when the camera image is first designated and a point is designated on the image, the camera image reproduction processing unit 34a displays a cursor at the point position and also displays the GIS image display processing unit 34b and the plan view. A cursor is displayed on the image display processing unit 34c. This cursor display is realized by coordinate conversion.

さらに、カメラ画像再生処理部34aは、GIS画像表示処理部34b又は平面図画像表示処理部34cの各々の画像が初めに指定された場合に、後述する指定個所連動表示部からカーソルピクセル座標(カメラ画像表示用画面の座標)が知らせられると、このピクセル座標にカーソルを表示する。   Furthermore, when each image of the GIS image display processing unit 34b or the plan view image display processing unit 34c is first specified, the camera image reproduction processing unit 34a receives the cursor pixel coordinates (camera When the image display screen coordinates) are notified, the cursor is displayed at the pixel coordinates.

GIS画像表示処理部34bは、データベース5の三次元地形モデル(三次元地形モデル及びテクスチャーデータ)を用いて監視カメラの撮影範囲(画角)に対応する三次元グラフィック画像(三次元GIS画像)を表示(GIS画像表示用画面)する。   The GIS image display processing unit 34b uses the 3D terrain model (3D terrain model and texture data) in the database 5 to generate a 3D graphic image (3D GIS image) corresponding to the shooting range (angle of view) of the surveillance camera. Display (GIS image display screen).

また、GIS画像表示処理部34bは、三次元GIS画像が初めに指定されて、その画像上においてポイントが指定された場合は、そのポイント位置にカーソルを表示すると共に、カメラ画像再生処理部34a及び平面図画像表示処理部34cにカーソル表示を行わせる。   In addition, when a three-dimensional GIS image is first designated and a point is designated on the image, the GIS image display processing unit 34b displays a cursor at the point position, and the camera image reproduction processing unit 34a and The plan view image display processing unit 34c is caused to display a cursor.

さらに、GIS画像表示処理部34bは、カメラ画像再生処理部34a又は平面図画像表示処理部34cの各々の画像が初めに指定された場合に、後述する指定個所連動表示部からカーソルピクセル座標(GIS画像表示用画面の座標:Mx、My)が知らせられると、このピクセル座標にカーソルを表示する。   Furthermore, when each image of the camera image reproduction processing unit 34a or the plan view image display processing unit 34c is first designated, the GIS image display processing unit 34b receives the cursor pixel coordinates (GIS) from the designated location interlocking display unit described later. When the image display screen coordinates (Mx, My) are notified, the cursor is displayed at the pixel coordinates.

平面図画像表示処理部34cは、データベース5の三次元地形モデルの三次元地形モデルの平面座標及びその平面のテクスチャーデータを用いて監視カメラの位置、撮影対象物を含む平面図画像を表示(平面図画像表示画面)する。   The plan view image display processing unit 34c displays the plan view image including the position of the monitoring camera and the photographing object using the plane coordinates of the 3D terrain model of the 3D terrain model in the database 5 and the texture data of the plane (plan view). Graphic image display screen).

また、平面図画像表示処理部34cは、平面図画像が初めに指定されて、その画像上においてポイントが指定された場合は、そのポイント位置にカーソルを表示すると共に、カメラ画像再生処理部34a及びGIS画像表示処理部34bにカーソル表示を行わせる。   In addition, when a plan view image is first designated and a point is designated on the image, the plan view image display processing unit 34c displays a cursor at the point position, and also displays the camera image reproduction processing unit 34a and A cursor is displayed on the GIS image display processing unit 34b.

さらに、平面図画像表示処理部34cは、カメラ画像再生処理部34a又はGIS画像表示処理部34bの各々の画像が初めに指定された場合に、後述する指定個所連動表示部からカーソルピクセル座標(平面図画像表示用画面の座標)が知らせられると、このピクセル座標にカーソルを表示する。   Furthermore, when each image of the camera image reproduction processing unit 34a or the GIS image display processing unit 34b is first designated, the plan view image display processing unit 34c receives the cursor pixel coordinates (plane When the graphic image display screen coordinates are notified, the cursor is displayed at the pixel coordinates.

モード判定部32は、表示部20の図示しない各ボックスのカーソルボタン(位置指定ポイント)又は計測ボタンが選択された場合は、位置指定モード(単にカーソルモードともいう)又は計測モードと判定し、かつ選択された画面を判定し、この判定結果を表示処理部34及び該当の指定個所連動表示部に知らせる。   When the cursor button (position designation point) or measurement button of each box (not shown) of the display unit 20 is selected, the mode determination unit 32 determines the position designation mode (also simply referred to as a cursor mode) or the measurement mode, and The selected screen is determined, and the determination result is notified to the display processing unit 34 and the corresponding designated location interlocking display unit.

カメラ画像指定個所連動表示部11は、図8に示すように、カメラ画像指定個所三次元地理座標変換部40と、GIS画像用逆変換部41と、平面図画像用逆変換部42と、位置算出部43等を備えている。   As shown in FIG. 8, the camera image designation location interlocking display unit 11 includes a camera image designation location three-dimensional geographic coordinate transformation unit 40, a GIS image inverse transformation unit 41, a plan view image inverse transformation unit 42, and a position. A calculation unit 43 and the like are provided.

カメラ画像指定個所三次元地理座標変換部40は、カメラ画像再生処理部34aがカメラ画像表示画面のカーソル位置(カメラ画面ピクセル座標Mx、My)を、カメラ画像データピクセル座標(Px、Py)に変換し(座標変換1:図4(a)及び図4(b)参照)、このカメラ画像データピクセル座標(Px、Py)を写真座標(X´、Y´)に変換する(座標変換2:図4(c)及び図4(d)参照)。このとき、レンズ歪みを補正している。   In the camera image designation portion, the three-dimensional geographic coordinate conversion unit 40 causes the camera image reproduction processing unit 34a to convert the cursor position (camera screen pixel coordinates Mx, My) on the camera image display screen into camera image data pixel coordinates (Px, Py). (Coordinate conversion 1: refer to FIGS. 4A and 4B), the camera image data pixel coordinates (Px, Py) are converted into photographic coordinates (X ′, Y ′) (coordinate conversion 2: FIG. 4 (c) and FIG. 4 (d)). At this time, the lens distortion is corrected.

そして、写真座標(X´、Y´)をカメラ座標(X´、Y´、Z´)に変換し(座標変換4:図5(a)及び図5(b)参照)、カメラの光学中心の地理座標、カメラ座標系に対する傾きを用いてカメラ座標系を三次元地理座標系に変換する(座標変換4:図5(c)及び図5(d)参照)。   Then, the photographic coordinates (X ′, Y ′) are converted into camera coordinates (X ′, Y ′, Z ′) (coordinate conversion 4: see FIGS. 5A and 5B), and the optical center of the camera. The camera coordinate system is converted into a three-dimensional geographic coordinate system using the geographic coordinates and the inclination with respect to the camera coordinate system (see coordinate conversion 4: FIGS. 5C and 5D).

位置算出部43は、三次元地理座標に変換されたカメラ座標系の光学中心と撮影範囲(写真上)のカーソルを結ぶ直線が三次元地形モデルの立体面と交差する点の座標(X,Y,Z)を三次元位置としても求め、これを表示する。   The position calculation unit 43 coordinates the coordinates (X, Y) of the line where the straight line connecting the optical center of the camera coordinate system converted into the three-dimensional geographic coordinates and the cursor of the shooting range (on the photograph) intersects the solid surface of the three-dimensional terrain model. , Z) is also obtained as a three-dimensional position and displayed.

また、位置算出部43は、二次元地理座標において、前述の点の座標(X、Y)を算出して、これを表示する。   Further, the position calculation unit 43 calculates the coordinates (X, Y) of the above-mentioned points in the two-dimensional geographic coordinates and displays them.

GIS画像用逆変換部41は、三次元地形モデルの立体面に点をカメラ座標系(X´、Y´、Z´)の写真上に変換し(逆座標変換4)、これを写真座標系(X´、Y´)に変換する(逆座標変換3)。但し、GIS画像用逆変換部における逆座標変換は、歪み逆補正は行わない。   The GIS image inverse transform unit 41 transforms a point on the solid surface of the three-dimensional terrain model onto a photograph in the camera coordinate system (X ′, Y ′, Z ′) (inverse coordinate transform 4), and this is transformed into the photograph coordinate system. Conversion to (X ′, Y ′) (inverse coordinate conversion 3). However, the inverse coordinate transformation in the GIS image inverse transformation unit does not perform distortion inverse correction.

但し、場合によっては歪みのある三次元GIS画像であった場合は、歪み逆補正を行うようにしてもよい。   However, in some cases, when the image is a distorted three-dimensional GIS image, reverse distortion correction may be performed.

そして、これをGIS画像座標系のピクセル座標(Px、Py)に変換して(逆座標変換2)、さらにこれをGIS画像表示画面のピクセル座標(Mx、My)に変換(逆座標変換1)して、GIS画像表示処理部34bに出力して、三次元GIS画像上において、カメラ画像上のカーソルと同じ位置にカーソルを表示する。   This is converted into pixel coordinates (Px, Py) in the GIS image coordinate system (inverse coordinate conversion 2), and further converted into pixel coordinates (Mx, My) in the GIS image display screen (inverse coordinate conversion 1). Then, the data is output to the GIS image display processing unit 34b, and the cursor is displayed at the same position as the cursor on the camera image on the three-dimensional GIS image.

平面図画像用逆変換部42は、三次元地形モデル上で求められたカーソル位置(X、Y、Z)を平面地理座標系(X,Y)の座標に変換して(逆座標変換7:図7(a)及び図7(b)参照)、この平面地理座標系に撮影範囲を定義し、この撮影範囲を二次元平面図データの画像座標系に定義(変換)する(逆座標変換6:図6(c)及び図6(d)参照)。   The plan view image inverse conversion unit 42 converts the cursor position (X, Y, Z) obtained on the three-dimensional terrain model into the coordinates of the planar geographic coordinate system (X, Y) (inverse coordinate conversion 7: 7A and 7B), an imaging range is defined in this planar geographic coordinate system, and this imaging range is defined (converted) into an image coordinate system of two-dimensional plan view data (inverse coordinate transformation 6). : Refer to FIG. 6 (c) and FIG. 6 (d)).

そして、この画像座標系のピクセル座標(Px、Py)を平面図画像表示用画面のピクセル座標(Mx、My)に変換する(逆座標変換5:図6(a)及び図6(b)参照)。   Then, the pixel coordinates (Px, Py) of this image coordinate system are converted to the pixel coordinates (Mx, My) of the screen for displaying a plan view image (inverse coordinate conversion 5: see FIGS. 6A and 6B). ).

そして、この平面図画像表示用画面のピクセル座標(Mx、My)を平面図画像表示処理部34cに出力して、平面図画像上において、カメラ画像及び三次元GIS画像のカーソルと同じ位置にカーソルを表示する。   Then, the pixel coordinates (Mx, My) of the screen for displaying the plan view image are output to the plan view image display processing unit 34c, and the cursor is positioned on the plan view image at the same position as the cursor of the camera image and the three-dimensional GIS image. Is displayed.

(動作)
図10は実施の形態1の監視カメラの画像を用いた三次元連動計測表示システムの全体動作を説明するフローチャートである。
(Operation)
FIG. 10 is a flowchart for explaining the overall operation of the three-dimensional interlocking measurement display system using the image of the surveillance camera according to the first embodiment.

図11〜図13は実施の形態1の監視カメラの画像を用いた三次元連動計測表示システムのカメラ画像指定個所連動表示部の動作を説明するフローチャートである。   FIGS. 11 to 13 are flowcharts for explaining the operation of the camera image designation location interlocking display unit of the three-dimensional interlocking measurement display system using the image of the surveillance camera according to the first embodiment.

初めに初期設定処理を行う(S1)。この初期設定処理は、カメラ選択、前処理、平面図の種類(地図、防災マップのいずれか或いは両方)、各画面の表示枠のサイズ等である。   First, initial setting processing is performed (S1). This initial setting processing includes camera selection, preprocessing, type of plan view (either map or disaster prevention map, or both), the size of the display frame of each screen, and the like.

次に、画角設定部33が三次元地形モデル(三次元地形モデル)を用いて画角(撮影範囲)を設定する(S3)。この画角の設定は、データベース5に記憶されている選択されたカメラの内部標定要素、外部標定要素等を用いて三次元地形モデル上における画角を設定する。   Next, the angle-of-view setting unit 33 sets the angle of view (shooting range) using the three-dimensional terrain model (three-dimensional terrain model) (S3). This setting of the angle of view sets the angle of view on the three-dimensional terrain model using the internal orientation elements and external orientation elements of the selected camera stored in the database 5.

つまり、カメラ座標系にCCD中心からZ方向に焦点距離はなれた点(カメラの光学中心)を原点とした三次元空間を想定し、さらにこのカメラ座標系をカメラの光学中心の三次元地形モデル上の地理座標、カメラ座標系の傾きを用いて画角を三次元地形モデル上に設定する(図10のステップS3参照)。具体的な手法は、非特許文献1と同様な変換式で定義している。   In other words, a three-dimensional space is assumed in which the focal point in the Z direction from the CCD center in the camera coordinate system (camera optical center) is the origin, and this camera coordinate system is represented on the three-dimensional terrain model of the camera optical center. The angle of view is set on the three-dimensional terrain model using the geographical coordinates and the tilt of the camera coordinate system (see step S3 in FIG. 10). A specific method is defined by the same conversion formula as in Non-Patent Document 1.

次に、カメラ画像再生部34がデータベース5から選択されたカメラのカメラ画像を再生し、これを表示部20のカメラ画像表示用画面に表示すると共に、三次元画像表示処理部34bがデータベース5の三次元地形モデル(監視カメラが撮影している場所の三次元地理座標モデル)を用いてGIS画像表示用画面に三次元GIS画像を表示し、かつ平面図画像表示処理部34cがデータベース5の二次元平面図の平面図画像を平面図表示画面に表示する(S5)。   Next, the camera image reproduction unit 34 reproduces the camera image of the camera selected from the database 5 and displays it on the camera image display screen of the display unit 20, and the 3D image display processing unit 34 b A three-dimensional GIS image is displayed on the GIS image display screen using a three-dimensional terrain model (a three-dimensional geographic coordinate model of the place taken by the surveillance camera), and the plan view image display processing unit 34c is the second of the database 5. The plan view image of the dimensional plan view is displayed on the plan view display screen (S5).

このとき、平面図画像表示処理部34cは、平面図の表示が例えば地図又は防災マップだけの場合は地図又は防災マップを読み出して表示し、若しくは両方表示の場合は両方を平面図画像表示用画面に表示する。   At this time, the plan view image display processing unit 34c reads and displays the map or the disaster prevention map when the plan view display is only a map or the disaster prevention map, for example. To display.

次に、モード判定部32がモードを判定し(S7)、この判定結果によって、カーソル連動表示、距離・面積計算処理又は視点変更処理のいずれかの処理を行う(S10、S20、S30)。そして、終了かどうかを判断して処理を終了する(S40)。   Next, the mode determination unit 32 determines the mode (S7), and performs one of cursor-linked display, distance / area calculation processing, or viewpoint change processing based on the determination result (S10, S20, S30). Then, it is determined whether or not it is finished, and the process is finished (S40).

次に、カーソル連動表示の処理を説明する。カーソル連動表示の処理は、カメラ画像指定個所連動表示部11、GIS画像指定個所連動表示部12及び平面図指定個所連動表示部13の処理が主である。   Next, the cursor-linked display process will be described. The cursor-linked display processing is mainly performed by the camera image designated location linked display section 11, the GIS image designated location linked display portion 12, and the plan view designated location linked display portion 13.

図11、図12及び図13を用いて図8に示すカメラ画像指定個所連動表示を説明する。   The camera image designated part interlocking display shown in FIG. 8 will be described with reference to FIGS. 11, 12, and 13.

モード判定部32は、カーソル指示があるかどうかを監視する(S101)。次に、カーソル指示があった場合は、カメラ画像表示用画面、GIS画像表示用画面又は平面図画像表示用画面のいずれかであるかを判定する(S102)。カメラ画像表示画面の場合はカメラ画像指定個所連動表示部11が起動する。GIS画像表示用画面の場合はGIS画像指定個所連動表示部12が起動し(S130)、平面図画像表示用画面の場合は平面図指定個所連動表示部13が起動する(S150)。本実施の形態では、カメラ画像表示用画面とする。   The mode determination unit 32 monitors whether there is a cursor instruction (S101). Next, if there is a cursor instruction, it is determined whether the screen is a camera image display screen, a GIS image display screen, or a plan view image display screen (S102). In the case of the camera image display screen, the camera image designation location interlocking display unit 11 is activated. In the case of the GIS image display screen, the GIS image designation location interlocking display unit 12 is activated (S130), and in the case of the plan view image display screen, the plan view designation location interlocking display unit 13 is activated (S150). In this embodiment, the camera image display screen is used.

カメラ画像表示用画面と判定した場合は、カメラ画像指定個所連動表示部11が起動して以下の処理を行う。   When it is determined that the screen is a camera image display screen, the camera image designation location interlocking display unit 11 is activated and performs the following processing.

カメラ画像指定個所連動表示部11のカメラ画像指定個所三次元地理座標変換部40は、カメラ画像表示用画面の縦横のピクセル数とカメラ画像の縦横のピクセル数の比からカメラ画像表示用画面上のピクセル座標(Mx、My)をカメラ画像上のピクセル座標(Px、Py)に変換(カーソル含む)する座標変換1を行う(S103)。   The camera image designation location three-dimensional geographic coordinate conversion section 40 of the camera image designation location interlocking display section 11 displays the camera image display screen on the camera image display screen based on the ratio of the number of vertical and horizontal pixels of the camera image display screen and the number of vertical and horizontal pixels of the camera image. Coordinate conversion 1 is performed to convert pixel coordinates (Mx, My) into pixel coordinates (Px, Py) on the camera image (including the cursor) (S103).

次に、カメラのCCD面(若しくはフィルム面)の実サイズ(撮影範囲)とカメラ画像上のピクセル座標(Px、Py)とを対応させることにより、カメラ画像上のピクセル座標(Px,Py)をカメラのCCD面上の実座標=写真座標(X’,Y’)に変換する座標変換2を行う(S104)。このとき、レンズの放射方向歪曲収差や主点位置ズレ(レンズの光軸中心とCCD中心のズレ)といった写真画像の系統的な歪みを補正する。   Next, the pixel coordinates (Px, Py) on the camera image are obtained by associating the actual size (shooting range) of the CCD surface (or film surface) of the camera with the pixel coordinates (Px, Py) on the camera image. Coordinate conversion 2 is performed to convert the actual coordinates on the CCD surface of the camera = photograph coordinates (X ′, Y ′) (S104). At this time, systematic distortion of the photographic image such as the radial distortion of the lens and the displacement of the principal point (deviation of the lens optical axis center and the CCD center) is corrected.

次に、写真座標平面をXY軸、それに直行する軸をZ軸とし、CCD中心からZ軸方向に焦点距離(f)はなれた点=光学中心を原点としたとした三次元空間を想定し、二次元座標である写真座標(X’,Y’)を光学中心からの三次元相対位置に置き換えたカメラ
座標(X’,Y’,Z’)に変換する座標変換3を行う(S105)。
Next, a three-dimensional space is assumed in which the photographic coordinate plane is the XY axis, the orthogonal axis is the Z axis, and the focal point (f) is separated from the CCD center in the Z axis direction = the optical center is the origin. Coordinate conversion 3 is performed to convert the photograph coordinates (X ′, Y ′), which are two-dimensional coordinates, into camera coordinates (X ′, Y ′, Z ′) in which the three-dimensional relative position from the optical center is replaced (S105).

次に、図12に示すように、カメラの光学中心の地理座標、カメラ座標系の地理座標系に対する傾きを用いて、カメラ座標系を地理座標系に変換する座標変換4を行う(S106)。つまり、三次元地形モデル上の画角を用いて設定する。   Next, as shown in FIG. 12, coordinate conversion 4 is performed to convert the camera coordinate system to the geographic coordinate system using the geographic coordinates of the optical center of the camera and the tilt of the camera coordinate system with respect to the geographic coordinate system (S106). That is, it is set using the angle of view on the three-dimensional terrain model.

なお、地理座標系に変換されたカメラの光学中心と写真上の対象物を結ぶ直線が、標高モデルの立体面と交差する点の座標=三次元地理座標(X,Y,Z)は位置算出部43で求めている。   Note that the coordinates of the point where the straight line connecting the optical center of the camera converted to the geographic coordinate system and the object on the photograph intersects the solid surface of the elevation model = three-dimensional geographic coordinates (X, Y, Z) are calculated. It is determined in part 43.

そして、GIS画像用逆変換部41及び平面図画像用逆変換部42を起動する(S107)。   Then, the GIS image inverse transform unit 41 and the plan view image inverse transform unit 42 are activated (S107).

GIS画像用逆変換部41及び平面図画像用逆変換部42の処理を図13を用いて説明する。これらの変換部は同時に動作している。   Processing of the GIS image inverse transform unit 41 and the plan view image inverse transform unit 42 will be described with reference to FIG. These conversion units are operating simultaneously.

GIS画像用逆変換部41は、三次元地形モデルの点をカメラ座標系(X´、Y´、Z´)の写真上(撮影範囲に対応)に変換する逆座標変換4を行う(S110)。   The GIS image inverse transform unit 41 performs inverse coordinate transform 4 that transforms the points of the three-dimensional terrain model onto the photograph (corresponding to the photographing range) of the camera coordinate system (X ′, Y ′, Z ′) (S110). .

次に、これを写真座標系(X´、Y´)に変換する逆座標変換3を行う(S111)。但し、GIS画像用逆変換部における逆座標変換は、三次元地形モデルを用いているので歪み逆補正は行わない。但し、歪みのある三次元GIS画像の場合は、逆歪み補正を
行う。
Next, inverse coordinate transformation 3 is performed to transform this into a photographic coordinate system (X ′, Y ′) (S111). However, since the inverse coordinate transformation in the GIS image inverse transformation unit uses a three-dimensional terrain model, the distortion inverse correction is not performed. However, in the case of a three-dimensional GIS image with distortion, reverse distortion correction is performed.

そして、これをGIS画像座標系のピクセル座標(Px、Py)に変換する逆座標変換2を行い(S112)、さらにこれをGIS画像表示画面のピクセル座標(Mx、My)に変換する逆座標変換1を行う(S113)。   Then, inverse coordinate conversion 2 is performed to convert this into pixel coordinates (Px, Py) of the GIS image coordinate system (S112), and further, this is converted to pixel coordinates (Mx, My) of the GIS image display screen. 1 is performed (S113).

そして、GIS画像表示処理部34bに表示指示情報を出力することによって、GIS画像上において、カメラ画像上のカーソルと同じ位置にカーソルを表示させる(S114)。   Then, by outputting the display instruction information to the GIS image display processing unit 34b, the cursor is displayed at the same position as the cursor on the camera image on the GIS image (S114).

一方、平面図画像用逆変換部42は、三次元地形モデル上で求められたカーソル位置(X、Y、Z)を平面地理座標系(X,Y)の座標に変換する逆座標変換7を行う(S
120)。
On the other hand, the plan view image inverse transform unit 42 performs inverse coordinate transform 7 for transforming the cursor position (X, Y, Z) obtained on the three-dimensional terrain model into the coordinates of the planar geographic coordinate system (X, Y). Do (S
120).

次に、この平面地理座標を平面図画像データ上の座標に変換する逆座標変換6を行う(S121)。   Next, inverse coordinate conversion 6 is performed to convert the planar geographic coordinates into coordinates on the plan view image data (S121).

次に、このピクセル座標(Px、Py)を平面図画像表示用画面のピクセル座標(Mx、My)に変換する逆座標変換5を行う(S122)。   Next, inverse coordinate conversion 5 is performed to convert the pixel coordinates (Px, Py) into pixel coordinates (Mx, My) of the plan view image display screen (S122).

そして、この平面図画像表示画面のピクセル座標(Mx、My)を平面図画像表示処理部34cに表示指示情報を出力することにより、平面図画像上において、カメラ画像及び三次元GIS画像のカーソルと同じ位置にカーソルを表示する(S123)。   Then, by outputting display instruction information to the plan view image display processing unit 34c for the pixel coordinates (Mx, My) of the plan view image display screen, the cursors of the camera image and the three-dimensional GIS image are displayed on the plan view image. A cursor is displayed at the same position (S123).

従って、例えば火山が夜に爆発して溶岩が飛んでも、その位置がどこかを三次元GIS画像上から正確に確認できると共に、その着点の位置を三次元座標で正確に知ることができ、かつ平面図画像においてもその位置を知ることができる。   Therefore, for example, even if a volcano explodes at night and lava flies, it is possible to accurately confirm where the position is on the 3D GIS image, and to accurately know the position of the landing point in 3D coordinates, In addition, the position can be known also in the plan view image.

<実施の形態2>
図14は実施の形態2の監視カメラの画像を用いた三次元連動計測表示システムの概略構成図であり、GIS画像指定個所連動表示部12の構成図である。図14においてはカメラ選択部31、画角設定部33、モード判定部32は省略する。また、位置算出部43については説明を省略する。
<Embodiment 2>
FIG. 14 is a schematic configuration diagram of a three-dimensional interlocking measurement display system using an image of the monitoring camera according to the second embodiment, and is a configuration diagram of the GIS image designation location interlocking display unit 12. In FIG. 14, the camera selection unit 31, the angle of view setting unit 33, and the mode determination unit 32 are omitted. Further, the description of the position calculation unit 43 is omitted.

図14に示すGIS画像指定個所連動表示部12は、GIS画像指定個所三次元地理座標変換部50と、カメラ画像用逆変換部51と、平面図画像用逆変換部52等を備えている。   14 includes a GIS image designation location three-dimensional geographic coordinate conversion section 50, a camera image reverse conversion section 51, a plan view image reverse conversion section 52, and the like.

GIS画像指定個所三次元地理座標変換部50は、GIS画像表示処理部34bがGIS画像表示画面のカーソル位置(ピクセル座標Mx、My)を、GIS画像データピクセル座標(Px、Py)に変換し(座標変換1:図4(a)及び図4(b)参照)、このGIS画像データピクセル座標(Px、Py)を写真座標(X´、Y´)に変換する(座標変換2:図4(c)及び図4(d)参照)。このとき、レンズ歪みを補正は行わない。   In the GIS image designation location three-dimensional geographic coordinate conversion unit 50, the GIS image display processing unit 34b converts the cursor position (pixel coordinates Mx, My) of the GIS image display screen into GIS image data pixel coordinates (Px, Py) ( Coordinate conversion 1: See FIGS. 4A and 4B), and converts the GIS image data pixel coordinates (Px, Py) into photographic coordinates (X ′, Y ′) (coordinate conversion 2: FIG. 4 ( c) and FIG. 4 (d)). At this time, the lens distortion is not corrected.

但し、歪みのある三次元GIS画像の場合は、歪み補正を行う。   However, in the case of a three-dimensional GIS image with distortion, distortion correction is performed.

そして、写真座標(X´、Y´)をカメラ座標(X´、Y´、Z´)に変換し(座標変換4:図5(a)及び図5(b)参照)、カメラの光学中心の地理座標、カメラ座標系に対する傾きを用いてカメラ座標系を三次元地理座標系に変換する(座標変換4:図5(c)及び図5(d)参照)。   Then, the photographic coordinates (X ′, Y ′) are converted into camera coordinates (X ′, Y ′, Z ′) (coordinate conversion 4: see FIGS. 5A and 5B), and the optical center of the camera. The camera coordinate system is converted into a three-dimensional geographic coordinate system using the geographic coordinates and the inclination with respect to the camera coordinate system (see coordinate conversion 4: FIGS. 5C and 5D).

カメラ画像用逆変換部51は、三次元地形モデルの点をカメラ座標系(X´、Y´、Z´)の写真上に変換し(逆座標変換4)、これを写真座標系(X´、Y´)に変換する(逆座標変換3)。このとき、レンズ歪み補正を行う。   The camera image inverse transform unit 51 transforms the point of the three-dimensional terrain model onto a photograph in the camera coordinate system (X ′, Y ′, Z ′) (inverse coordinate transform 4), and converts this into the photograph coordinate system (X ′). , Y ′) (inverse coordinate transformation 3). At this time, lens distortion correction is performed.

そして、これをカメラ画像座標系のピクセル座標(Px、Py)に変換して(逆座標変換2)、さらにこれをカメラ画像表示画面のピクセル座標(Mx、My)に変換(逆座標変換1)して、カメラ画像表示処理部34aに表示指示情報を出力して、カメラ画像上において、三次元GIS画像上のカーソルと同じ位置にカーソルを表示する。   This is converted into pixel coordinates (Px, Py) in the camera image coordinate system (inverse coordinate conversion 2), and further converted into pixel coordinates (Mx, My) in the camera image display screen (inverse coordinate conversion 1). Then, display instruction information is output to the camera image display processing unit 34a, and the cursor is displayed at the same position as the cursor on the three-dimensional GIS image on the camera image.

平面図画像用逆変換部52は、三次元地形モデル上で求められたカーソル位置(X、Y、Z)を平面地理座標系(X,Y)の座標に変換して(逆座標変換7:図7(a)及び図7(b)参照)、この平面地理座標系に定義(変換)する(逆座標変換6:図6(c)及び図6(d)参照)。   The plan view image inverse transform unit 52 transforms the cursor position (X, Y, Z) obtained on the three-dimensional terrain model into the coordinates of the planar geographic coordinate system (X, Y) (inverse coordinate transform 7: 7 (a) and 7 (b)), this planar geographic coordinate system is defined (transformed) (inverse coordinate transformation 6: see FIGS. 6 (c) and 6 (d)).

そして、この画像座標系の撮影範囲のピクセル座標(Px、Py)を平面図画像表示画面のピクセル座標(Mx、My)に変換する(逆座標変換5:図6(a)及び図6(b)参照)。   Then, the pixel coordinates (Px, Py) in the imaging range of the image coordinate system are converted into the pixel coordinates (Mx, My) on the plan view image display screen (inverse coordinate conversion 5: FIGS. 6A and 6B). )reference).

そして、この平面図画像表示用画面のピクセル座標(Mx、My)を平面図画像表示処理部34cに表示指示情報を出力して、平面図画像上において、カメラ画像及び三次元GIS画像のカーソルと同じ位置にカーソルを表示する。   Then, display instruction information of the pixel coordinates (Mx, My) of the plan view image display screen is output to the plan view image display processing unit 34c, and the cursor of the camera image and the three-dimensional GIS image is displayed on the plan view image. Display the cursor at the same position.

(動作説明)
図15〜図17は実施の形態2のGIS画像指定個所連動表示部12を説明するフローチャートである。
(Description of operation)
15 to 17 are flowcharts for explaining the GIS image designation location interlocking display unit 12 according to the second embodiment.

GIS画像指定個所三次元地理座標変換部50は、GIS画像表示画面上のピクセル座標(Mx、My)を三次元GIS画像上のピクセル座標(Px、Py)に変換(カーソル含む)する座標変換1を行う(S131)。   The GIS image designation location three-dimensional geographic coordinate converter 50 converts the pixel coordinates (Mx, My) on the GIS image display screen into pixel coordinates (Px, Py) on the three-dimensional GIS image (including a cursor). (S131).

次に、画角(撮影範囲)と三次元GIS画像上のピクセル座標(Px、Py)とを対応させることにより、三次元GIS画像上のピクセル座標(Px,Py)を写真座標(X’,Y’)に変換する座標変換2を行う(S132)。   Next, the pixel coordinates (Px, Py) on the three-dimensional GIS image are converted into the photographic coordinates (X ′, Py) by associating the angle of view (shooting range) with the pixel coordinates (Px, Py) on the three-dimensional GIS image. Y ′) is performed for coordinate conversion 2 (S132).

次に、写真座標平面をXY軸、それに直行する軸をZ軸とし、CCD中心からZ軸方向に焦点距離(f)はなれた点=光学中心を原点としたとした三次元空間を想定し、二次元座標である写真座標(X’,Y’)を光学中心からの三次元相対位置に置き換えたカメラ座標(X’,Y’,Z’)に変換する座標変換3を行う(S133)。   Next, a three-dimensional space is assumed in which the photographic coordinate plane is the XY axis, the orthogonal axis is the Z axis, and the focal point (f) is separated from the CCD center in the Z axis direction = the optical center is the origin. Coordinate conversion 3 is performed to convert the photograph coordinates (X ′, Y ′), which are two-dimensional coordinates, into camera coordinates (X ′, Y ′, Z ′) in which the three-dimensional relative position from the optical center is replaced (S133).

次に、図16に示すように、このカメラ座標系の三次元地理座標系に対する傾きを用いて、カメラ座標系を地理座標系に変換する座標変換4を行う(S134)。つまり、三次元地理座標モデル上に設定された画角を用いて変換していることになる。   Next, as shown in FIG. 16, by using the inclination of the camera coordinate system with respect to the three-dimensional geographic coordinate system, coordinate conversion 4 for converting the camera coordinate system to the geographic coordinate system is performed (S134). That is, conversion is performed using the angle of view set on the three-dimensional geographic coordinate model.

そして、カメラ画像用逆変換部51及び平面図画像用逆変換部52を起動する(S135)。   Then, the camera image inverse transform unit 51 and the plan view image inverse transform unit 52 are activated (S135).

カメラ画像用逆変換部51及び平面図画像用逆変換部52の処理を図17を用いて説明する。これらの変換部は同時に動作している。   Processing of the camera image inverse transform unit 51 and the plan view image inverse transform unit 52 will be described with reference to FIG. These conversion units are operating simultaneously.

カメラ画像用逆変換部51は、三次元地形モデルの点をカメラ座標系(X´、Y´、Z´)の写真上(撮影範囲に対応)に変換する逆座標変換4を行う(S136)。   The inverse transformation unit for camera image 51 performs inverse coordinate transformation 4 for transforming the points of the three-dimensional terrain model onto the photograph (corresponding to the photographing range) of the camera coordinate system (X ′, Y ′, Z ′) (S136). .

次に、これを写真座標系(X´、Y´)に変換する逆座標変換3を行う(S137)。このとき、歪み補正を行って変換している。   Next, inverse coordinate transformation 3 is performed to transform this into a photographic coordinate system (X ′, Y ′) (S137). At this time, distortion is corrected for conversion.

次に、これをカメラ画像座標系のピクセル座標(Px、Py)に変換する逆座標変換2を行い(S138)、さらにこれをカメラ画像表示画面のピクセル座標(Mx、My)に変換する逆座標変換1を行う(S139)。   Next, inverse coordinate transformation 2 is performed to convert this into pixel coordinates (Px, Py) in the camera image coordinate system (S138), and further, inverse coordinates are converted into pixel coordinates (Mx, My) on the camera image display screen. Conversion 1 is performed (S139).

そして、カメラ画像再生処理部34aに表示指示情報を出力することによって、カメラ画像上において、三次元GIS画像上のカーソルと同じ位置にカーソルを表示させる(S140)。   Then, by outputting the display instruction information to the camera image reproduction processing unit 34a, the cursor is displayed at the same position as the cursor on the three-dimensional GIS image on the camera image (S140).

一方、平面図画像用逆変換部52は、三次元地形モデル上で求められたカーソル位置(X、Y、Z)を平面地理座標系(X,Y)の座標に変換する逆座標変換7を行う(S141)。   On the other hand, the plan view image inverse transform unit 52 performs an inverse coordinate transform 7 for transforming the cursor position (X, Y, Z) obtained on the three-dimensional terrain model into the coordinates of the planar geographic coordinate system (X, Y). This is performed (S141).

次に、この平面地理座標系に定義(変換)する逆座標変換6を行う(S142)。   Next, inverse coordinate transformation 6 is performed (S142) that defines (transforms) this planar geographic coordinate system.

次に、この画像座標系のピクセル座標(Px、Py)を平面図画像表示画面のピクセル座標(Mx、My)に変換する逆座標変換5を行う(S143)。   Next, inverse coordinate conversion 5 is performed to convert the pixel coordinates (Px, Py) of the image coordinate system into pixel coordinates (Mx, My) of the plan view image display screen (S143).

そして、この平面図画像表示画面のピクセル座標(Mx、My)を平面図画像表示処理部34cに表示指示情報を出力することにより、平面図画像上において、カメラ画像及び三次元GIS画像のカーソルと同じ位置にカーソルを表示する(S144)。このとき、平面地理座標系のカーソルの二次元位置(X,Y)を表示させる。   Then, by outputting display instruction information to the plan view image display processing unit 34c for the pixel coordinates (Mx, My) of the plan view image display screen, the cursor of the camera image and the three-dimensional GIS image can be displayed on the plan view image. A cursor is displayed at the same position (S144). At this time, the two-dimensional position (X, Y) of the cursor in the planar geographic coordinate system is displayed.

従って、例えば火山が夜に爆発して溶岩が飛んでも、その位置がどこかを平面図画像上から正確に確認できると共に、その着点の位置を二次元座標で正確に知ることができ、かつカメラ画像及び三次元GIS画像上においてもその位置を知ることができる。   Therefore, for example, even if a volcano explodes at night and lava flies, it is possible to accurately confirm where the position is from the plan view image, and it is possible to accurately know the position of the landing point with two-dimensional coordinates, and The position can also be known on the camera image and the three-dimensional GIS image.

<実施の形態3>
図18は実施の形態3の監視カメラの画像を用いた三次元連動計測表示システムの概略構成図であり、平面図画像指定個所連動表示部14の構成図である。図18においてはカメラ選択部31、モード判定部32は省略する。また、位置算出部43については説明を省略する。
<Embodiment 3>
FIG. 18 is a schematic configuration diagram of a three-dimensional interlocking measurement display system using an image of a monitoring camera according to the third embodiment, and is a configuration diagram of a plan view image designation location interlocking display unit 14. In FIG. 18, the camera selection unit 31 and the mode determination unit 32 are omitted. Further, the description of the position calculation unit 43 is omitted.

図18に示す平面図画像指定個所連動表示部14は、平面図画像指定個所三次元地理座標変換部60と、カメラ画像用逆変換部61と、GIS画像用逆変換部62等を備えている。   The plan view image designation location link display unit 14 shown in FIG. 18 includes a plan view image designation location three-dimensional geographic coordinate conversion unit 60, a camera image reverse conversion unit 61, a GIS image reverse conversion unit 62, and the like. .

平面図画像指定個所三次元地理座標変換部60は、三次元地形モデル上で求められたカーソル位置(X、Y、Z)を平面地理座標系(X,Y)の座標に変換して(逆座標変換7:図7(a)及び図7(b)参照)、この平面地理座標系に定義(変換)する(逆座標変換6:図6(c)及び図6(d)参照)。   The plan view image designation location 3D geographic coordinate conversion unit 60 converts the cursor position (X, Y, Z) obtained on the 3D terrain model into the coordinates of the plane geographic coordinate system (X, Y) (inversely). Coordinate transformation 7: See FIG. 7 (a) and FIG. 7 (b)) and define (transform) this planar geographic coordinate system (inverse coordinate transformation 6: see FIG. 6 (c) and FIG. 6 (d)).

そして、この画像座標系の撮影範囲のピクセル座標(Px、Py)を平面図画像表示用画面のピクセル座標(Mx、My)に変換する(逆座標変換5:図6(a)及び図6(b)参照)。   Then, the pixel coordinates (Px, Py) of the imaging range of the image coordinate system are converted into the pixel coordinates (Mx, My) of the screen for displaying a plan view image (inverse coordinate conversion 5: FIG. 6A and FIG. 6). b)).

そして、この平面図画像表示用画面のピクセル座標(Mx、My)を平面図画像表示処理部34cに出力して、平面図画像上において、カメラ画像及び三次元GIS画像のカーソルと同じ位置にカーソルを表示する。   Then, the pixel coordinates (Mx, My) of the screen for displaying the plan view image are output to the plan view image display processing unit 34c, and the cursor is positioned on the plan view image at the same position as the cursor of the camera image and the three-dimensional GIS image. Is displayed.

カメラ画像用逆変換処理61は、三次元地形モデルの点をカメラ座標系(X´、Y´、Z´)の写真上に変換し(逆座標変換4)、これを写真座標系(X´、Y´)に変換
する(逆座標変換3)。このとき、レンズ歪み補正を行う。
The camera image inverse transformation process 61 transforms the points of the three-dimensional terrain model onto a photograph in the camera coordinate system (X ′, Y ′, Z ′) (inverse coordinate transformation 4), which is converted into the photograph coordinate system (X ′). , Y ′) (inverse coordinate transformation 3). At this time, lens distortion correction is performed.

そして、これをカメラ画像座標系のピクセル座標(Px、Py)に変換して(逆座標変換2)、さらにこれをカメラ画像表示画面のピクセル座標(Mx、My)に変換(逆座標変換1)して、カメラ画像表示処理部34aに表示指示情報を出力して、カメラ画像上において、三次元GIS画像上のカーソルと同じ位置にカーソルを表示する。   This is converted into pixel coordinates (Px, Py) in the camera image coordinate system (inverse coordinate conversion 2), and further converted into pixel coordinates (Mx, My) in the camera image display screen (inverse coordinate conversion 1). Then, display instruction information is output to the camera image display processing unit 34a, and the cursor is displayed at the same position as the cursor on the three-dimensional GIS image on the camera image.

GIS画像用逆変換部62は、三次元地形モデルの立体面の点をカメラ座標系(X´、Y´、Z´)の写真上に変換し(逆座標変換4)、これを写真座標系(X´、Y´)に変換する(逆座標変換3)。但し、GIS画像用逆変換部における逆座標変換は、歪み逆補正は行わない。但し、歪みのある三次元GIS画像の場合は、歪み逆補正を行う。   The GIS image inverse transform unit 62 transforms the points of the three-dimensional surface of the three-dimensional terrain model onto the camera coordinate system (X ′, Y ′, Z ′) photograph (inverse coordinate transform 4), and this is transformed into the photographic coordinate system. Conversion to (X ′, Y ′) (inverse coordinate conversion 3). However, the inverse coordinate transformation in the GIS image inverse transformation unit does not perform distortion inverse correction. However, in the case of a three-dimensional GIS image with distortion, reverse distortion correction is performed.

そして、これをGIS画像座標系のピクセル座標(Px、Py)に変換して(逆座標変換2)、さらにこれをGIS画像表示画面のピクセル座標(Mx、My)に変換(逆座標変換1)して、GIS画像表示処理部34bに表示指示情報を出力して、三次元GIS画像上において、カメラ画像上のカーソルと同じ位置にカーソルを表示する。   This is converted into pixel coordinates (Px, Py) in the GIS image coordinate system (inverse coordinate conversion 2), and further converted into pixel coordinates (Mx, My) in the GIS image display screen (inverse coordinate conversion 1). Then, display instruction information is output to the GIS image display processing unit 34b, and the cursor is displayed at the same position as the cursor on the camera image on the three-dimensional GIS image.

(動作説明)
図19及び図20は実施の形態3の平面図画像指定個所連動表示部14を説明するフローチャートである。
(Description of operation)
19 and 20 are flowcharts for explaining the plan view image designation part interlocking display unit 14 of the third embodiment.

平面図画像指定個所三次元地理座標変換部60は、平面図画像表示画面の縦横のピクセル数と平面図画像上の画面表示範囲の縦横のピクセル数の比から、平面図表示画面上のピクセル座標(Mx,My)を平面図表示画面の表示範囲上(撮影範囲に対応)のピクセル座標に変換し、さらに二次元平面図データ上の画面表示範囲の相対位置関係から、画面表示範囲上のピクセル座標を二次元平面図データ上のピクセル座標(Px,Py)に変換する座標変換5を行う(S151:図6(a)及び図6(b)参照)。   The three-dimensional geographic coordinate conversion unit 60 for designating the plan view image pixel coordinates from the ratio of the number of vertical and horizontal pixels of the plan view image display screen and the number of vertical and horizontal pixels of the screen display range on the plan view image display screen. (Mx, My) is converted into pixel coordinates on the display range of the plan view display screen (corresponding to the shooting range), and further, the pixels on the screen display range are calculated from the relative positional relationship of the screen display range on the two-dimensional plan view data. Coordinate conversion 5 is performed to convert the coordinates into pixel coordinates (Px, Py) on the two-dimensional plan view data (S151: see FIGS. 6A and 6B).

次に、二次元平面図データの4隅の地理座標と、表示された平面図データ(撮影範囲の平面図画像)の縦横のピクセル数を対応させることによって、平面図画像上のピクセル座標(Px,Py)を平面地理座標(X,Y)に変換する座標変換6を行う(S152):図6(c)及び図6(d)参照)。   Next, the pixel coordinates (Px) on the plan view image are obtained by associating the geographical coordinates of the four corners of the two-dimensional plan view data with the number of vertical and horizontal pixels of the displayed plan view data (plan view image of the imaging range). , Py) is converted to plane geographic coordinates (X, Y) (S152): see FIGS. 6C and 6D).

次に、平面地理座標(X,Y)に対応する標高値(Z)を、デジタル標高モデル(三次元地理座標モデル)より検索する座標変換7を行う(S153:図7(a)及び図7(b)参照)。   Next, coordinate conversion 7 is performed to search the elevation value (Z) corresponding to the planar geographic coordinates (X, Y) from the digital elevation model (three-dimensional geographic coordinate model) (S153: FIG. 7A and FIG. 7). (See (b)).

そして、GIS画像逆変換、カメラ画像用逆変換部を起動すると共に、位置算出部を起
動させる(S154)。
Then, the GIS image reverse conversion and camera image reverse conversion unit is activated and the position calculation unit is activated (S154).

GIS画像用逆変換部62は、三次元地形モデルの点をカメラ座標系(X´、Y´、Z´)の写真上(撮影範囲に対応)に変換する逆座標変換4を行う(S155、S156)。   The GIS image inverse transform unit 62 performs an inverse coordinate transform 4 for transforming the points of the three-dimensional terrain model onto the photograph (corresponding to the photographing range) of the camera coordinate system (X ′, Y ′, Z ′) (S155, S156).

次に、これを写真座標系(X´、Y´)に変換する逆座標変換3を行う(S157)。但し、GIS画像用逆変換部における逆座標変換は、三次元地形モデルを用いているので歪み逆補正は行わない。但し、歪みのある三次元GIS画像の場合は歪み逆補正を行
う。
Next, inverse coordinate transformation 3 is performed to convert this into a photographic coordinate system (X ′, Y ′) (S157). However, since the inverse coordinate transformation in the GIS image inverse transformation unit uses a three-dimensional terrain model, the distortion inverse correction is not performed. However, in the case of a three-dimensional GIS image with distortion, reverse distortion correction is performed.

そして、これをGIS画像座標系のピクセル座標(Px、Py)に変換する逆座標変換2を行い(S158)、さらにこれをGIS画像表示画面のピクセル座標(Mx、My)に変換する逆座標変換1を行う(S159)。   Then, inverse coordinate conversion 2 is performed to convert this into pixel coordinates (Px, Py) in the GIS image coordinate system (S158), and further, this is converted into pixel coordinates (Mx, My) on the GIS image display screen. 1 is performed (S159).

そして、GIS画像表示処理部34bに出力することによって、三次元GIS画像上において、カメラ画像上のカーソルと同じ位置にカーソルを表示させる(S160)。   Then, by outputting to the GIS image display processing unit 34b, the cursor is displayed at the same position as the cursor on the camera image on the three-dimensional GIS image (S160).

一方、カメラ画像用逆変換部61は、三次元地形モデルの点をカメラ座標系(X´、Y´、Z´)の写真上(撮影範囲に対応)に変換する逆座標変換4を行う(S161、S162)。   On the other hand, the camera image inverse transform unit 61 performs inverse coordinate transform 4 that transforms the points of the three-dimensional terrain model onto a photograph (corresponding to the photographing range) of the camera coordinate system (X ′, Y ′, Z ′) ( S161, S162).

次に、これを写真座標系(X´、Y´)に変換する逆座標変換3を行う(S163)。このとき、歪み補正を行って変換している。   Next, inverse coordinate transformation 3 is performed to transform this into a photographic coordinate system (X ′, Y ′) (S163). At this time, distortion is corrected for conversion.

次に、これをカメラ画像座標系のピクセル座標(Px、Py)に変換する逆座標変換2を行い(S164)、さらにこれをカメラ画像表示画面のピクセル座標(Mx、My)に変換する逆座標変換1を行う(S165)。   Next, inverse coordinate conversion 2 is performed to convert this into pixel coordinates (Px, Py) in the camera image coordinate system (S164), and further, this is converted into pixel coordinates (Mx, My) on the camera image display screen. Conversion 1 is performed (S165).

そして、カメラ画像再生処理部34aに出力することによって、カメラ画像上において、三次元GIS画像上のカーソルと同じ位置にカーソルを表示させる(S166)。   Then, by outputting to the camera image reproduction processing unit 34a, the cursor is displayed at the same position as the cursor on the three-dimensional GIS image on the camera image (S166).

従って、平面図画像上においてカーソルを指定すると、三次元GIS画像およびカメラ画像上の対応する位置にカーソルが各々表示されると共に、三次元位置、二次元位置が表示されるので、一目で指定位置の相対関係を把握できることになる。   Therefore, when the cursor is designated on the plan view image, the cursor is displayed at the corresponding position on the three-dimensional GIS image and the camera image, and the three-dimensional position and the two-dimensional position are displayed. It will be possible to grasp the relative relationship of.

<実施の形態4>
図21は実施の形態4の監視カメラの画像を用いた三次元連動計測表示システムの概略構成図であり、距離・面積計算処理の構成図である。距離・面積計算はいずれの画面からでも可能であるが、本実施の形態ではカメラ画像から距離・面積を算出する例を説明する。
<Embodiment 4>
FIG. 21 is a schematic configuration diagram of a three-dimensional interlocking measurement display system using an image of the surveillance camera according to the fourth embodiment, and is a configuration diagram of a distance / area calculation process. The distance / area calculation can be performed from any screen, but in this embodiment, an example of calculating the distance / area from the camera image will be described.

図21に示すように、表面積・距離算出部70を備える。表面積・距離算出部は輪郭データ生成部71、輪郭点列データ生成部72及び表面積・長さ算出部73等を備える。   As shown in FIG. 21, a surface area / distance calculator 70 is provided. The surface area / distance calculation unit includes an outline data generation unit 71, an outline point sequence data generation unit 72, a surface area / length calculation unit 73, and the like.

また、表示処理部34のカメラ画像再生処理部34a及び平面図表示処理部34cはそれぞれが指定範囲にポリゴンを形成する機能を有する。   Each of the camera image reproduction processing unit 34a and the plan view display processing unit 34c of the display processing unit 34 has a function of forming a polygon in a specified range.

輪郭データ算出部71は、カメラ画像上にポリゴン(始点と終点とを順次指定して閉じた面)が表示されると、このポリゴンの輪郭の頂点のピクセル座標を求め、これをカメラ画像指定個所連動表示部11に送出する。   When a polygon (a surface closed by sequentially specifying a start point and an end point) is displayed on the camera image, the contour data calculation unit 71 obtains the pixel coordinates of the vertex of the contour of the polygon, and calculates this as the camera image designation location. It is sent to the interlocking display unit 11.

輪郭点列データ生成部72は、カメラ画像上にポリゴンが表示されると、このポリゴンの輪郭を形成する線の各々のピクセル座標を求め、これをカメラ画像指定個所連動表示部11に送出する。 When a polygon is displayed on the camera image, the contour point sequence data generation unit 72 obtains the pixel coordinates of each line forming the contour of the polygon, and sends this to the camera image designation location interlocking display unit 11.

すなわち、カメラ画像指定個所連動表示部11のカメラ画像指定個所三次元地理座標変換部40は、頂点のピクセル座標(カメラ画面ピクセル座標Mx、My)を、それぞれカメラ画像データピクセル座標(Px、Py)に変換し(座標変換1)、このカメラ画像データピクセル座標(Px、Py)を写真座標(X´、Y´)に変換する(座標変換2)。このとき、レンズ歪みを補正している。   That is, the camera image designation location three-dimensional geographic coordinate conversion unit 40 of the camera image designation location interlocking display section 11 converts the vertex pixel coordinates (camera screen pixel coordinates Mx, My) into camera image data pixel coordinates (Px, Py), respectively. (Coordinate conversion 1), and the camera image data pixel coordinates (Px, Py) are converted into photographic coordinates (X ′, Y ′) (coordinate conversion 2). At this time, the lens distortion is corrected.

そして、写真座標(X´、Y´)をカメラ座標(X´、Y´、Z´)に変換し(座標変換4)、カメラ座標を三次元地理座標系に変換する(座標変換4)。   Then, the photographic coordinates (X ′, Y ′) are converted into camera coordinates (X ′, Y ′, Z ′) (coordinate conversion 4), and the camera coordinates are converted into a three-dimensional geographic coordinate system (coordinate conversion 4).

そして、平面図画像用逆変換部42が三次元地形モデル上で求められた4隅の三次元座標(X、Y、Z)を平面地理座標系(X,Y)の座標に変換して(逆座標変換7)、この平面地理座標系に定義(変換)する(逆座標変換6)。   Then, the plan view image inverse conversion unit 42 converts the four-corner three-dimensional coordinates (X, Y, Z) obtained on the three-dimensional terrain model into the coordinates of the planar geographic coordinate system (X, Y) ( Inverse coordinate transformation 7), defined (transformed) into this planar geographic coordinate system (inverse coordinate transformation 6).

次に、この画像座標系の撮影範囲の頂点のピクセル座標(Px、Py)を平面図画像表示画面のピクセル座標(Mx、My)にそれぞれ変換する(逆座標変換5)。   Next, the pixel coordinates (Px, Py) at the apex of the imaging range of the image coordinate system are respectively converted into pixel coordinates (Mx, My) on the plan view image display screen (inverse coordinate conversion 5).

そして、この平面図画像表示画面の頂点のピクセル座標(Mx、My)を平面図画像表示処理部34cに出力して、平面図画像上において、カメラ画像のポリゴンを同じ位置にを表示する。   Then, the pixel coordinates (Mx, My) of the vertex of the plan view image display screen are output to the plan view image display processing unit 34c, and the polygons of the camera image are displayed at the same position on the plan view image.

一方、GIS画像用逆変換部41は、輪郭点列データ生成部72からの点列データ(ピクセル座標)が入力すると、各点をカメラ座標系(X´、Y´、Z´)に変換し(逆座標変換4)、これを写真座標系(X´、Y´)に変換する(逆座標変換3)。但し、GIS画像用逆変換部における逆座標変換は、歪み逆補正は行わない。但し、歪みのある三次元GIS画像の場合は、歪み逆補正を行う。   On the other hand, when the point sequence data (pixel coordinates) from the contour point sequence data generation unit 72 is input, the GIS image inverse conversion unit 41 converts each point into a camera coordinate system (X ′, Y ′, Z ′). (Inverse coordinate transformation 4), this is transformed into a photographic coordinate system (X ', Y') (inverse coordinate transformation 3). However, the inverse coordinate transformation in the GIS image inverse transformation unit does not perform distortion inverse correction. However, in the case of a three-dimensional GIS image with distortion, reverse distortion correction is performed.

そして、これの点をGIS画像座標系のピクセル座標(Px、Py)に変換して(逆座標変換2)、さらにこれらの点をGIS画像表示画面のピクセル座標(Mx、My)に変換(逆座標変換1)して、GIS画像表示処理部34bに出力する。   These points are converted into pixel coordinates (Px, Py) in the GIS image coordinate system (inverse coordinate conversion 2), and further, these points are converted into pixel coordinates (Mx, My) on the GIS image display screen (inverse). Coordinate conversion 1) and output to the GIS image display processing unit 34b.

従って、三次元GIS画像上においては、図22(a)に示すように三次元的にポリゴンに対応する範囲が表示されることになる。   Therefore, on the three-dimensional GIS image, a range corresponding to the polygon three-dimensionally is displayed as shown in FIG.

さらに、表面積・長さ算出部73は、表面積の算出指示に伴って位置算出部43が算出した三次元地形モデルのポリゴンに対応する各々の点の三次元を抽出して、表面積を求める(図22(b)参照。   Furthermore, the surface area / length calculation unit 73 extracts the three-dimensional values of the respective points corresponding to the polygons of the three-dimensional terrain model calculated by the position calculation unit 43 in accordance with the surface area calculation instruction to obtain the surface area (see FIG. See 22 (b).

また、ポリゴン上において始点と終点が決定され距離指定がある場合は、始点と終点の間の各点の三次元座標を位置算出部43から求めさせて、三次元的な長さ(地表面上の距離)をもとめる(図22(b)参照)。   In addition, when the start point and the end point are determined on the polygon and the distance is specified, the three-dimensional coordinates of each point between the start point and the end point are obtained from the position calculation unit 43, and the three-dimensional length (on the ground surface) is determined. (Refer to FIG. 22B).

なお、直線距離又は地表面上の距離の二通りを選択可能である。   It is possible to select a straight line distance or a distance on the ground surface.

<実施の形態5>
実施の形態5は図23に示すように、視点変更ボタンの選択で視点を変えた三次元画像を表示する。このとき、三次元地形モデル上にカメラ位置を指定し、これを中心にして撮影範囲(画角)でコントロールボタン(上、左右、回転)に応じた視点の三次元GIS画像を表示する。つまり、指定されたカメラ位置及び姿勢の画角を上記実施の形態と同様にして三次元地形モデル上に設定して、この画角での撮影範囲の三次元GIS画像を表示させている。
<Embodiment 5>
In the fifth embodiment, as shown in FIG. 23, a three-dimensional image in which the viewpoint is changed by selecting the viewpoint change button is displayed. At this time, a camera position is designated on the three-dimensional terrain model, and a three-dimensional GIS image of the viewpoint corresponding to the control button (up, left, right, rotation) is displayed in the photographing range (angle of view) around this. That is, the angle of view of the designated camera position and orientation is set on the three-dimensional terrain model in the same manner as in the above embodiment, and a three-dimensional GIS image of the shooting range at this angle of view is displayed.

従って、通常、多くの火山監視カメラでは、火砕流や噴石などの発生場所(三次元地理座標)や到達距離・面積等を三次元的に定量的に抑えることができる。   Therefore, usually, many volcano monitoring cameras can quantitatively suppress the location (three-dimensional geographic coordinates) of the pyroclastic flow, cinder, etc., the reach distance / area, and the like three-dimensionally.

さらに、カメラ映像上でデジタイズした災害粋を数値地図画像等の平面図へ正射投影することによって、被災範囲の想定や確認が可能となる。   Furthermore, the disaster area digitized on the camera video can be projected onto a plan view such as a numerical map image so as to assume and confirm the disaster area.

なお、上記各実施の形態では、監視カメラ1が連続撮影した監視カメラ画像をCD−ROM2等に保存して、このCD−ROM2を監視員が定期的に解析センターに届けるとして説明したが、監視カメラから直接ネットワークで映像蓄積サーバーに送信して保存させてもよい。   In each of the above embodiments, the monitoring camera images continuously taken by the monitoring camera 1 are stored in the CD-ROM 2 or the like, and the CD-ROM 2 is periodically delivered to the analysis center by the monitoring person. It may be transmitted from the camera directly to the video storage server via the network and stored.

<実施の形態6>
なお、上記実施の形態では、カメラ画像再生処理部34aにカメラ画像指定個所連像表示部11を対応させて設け、GIS画像表示処理部34bにGIS画像指定個所連動表示部12を対応させて設け、平面図画像表示処理部34cに平面図指定個所連動表示部13を設けて説明したが以下の図24のように構成して連動表示を実現させてもよい。
<Embodiment 6>
In the embodiment described above, the camera image reproduction processing unit 34a is provided with the camera image designated location continuous image display unit 11 correspondingly, and the GIS image display processing unit 34b is provided with the GIS image designated location linked display unit 12 corresponding thereto. In the above description, the plan view designated location interlocking display unit 13 is provided in the plan view image display processing unit 34c. However, interlocking display may be realized by configuring as shown in FIG.

また、表示処理部34は上記各実施の形態と同様であるが、本実施の形態6ではより具体的に説明する。なお、具体的処理については様々のやり方があり、本実施の形態はその一例であることは言うまでもない。   The display processing unit 34 is the same as that in each of the above embodiments, but will be described more specifically in the sixth embodiment. Note that there are various methods for specific processing, and it goes without saying that this embodiment is an example.

さらに、カメラ画像再生処理部34aは、カメラ画像再生部34ab(ビデオキャプチャー)とカメラ画像表示処理部34aaとに分けて説明する。   Further, the camera image reproduction processing unit 34a will be described separately for a camera image reproduction unit 34ab (video capture) and a camera image display processing unit 34aa.

図24は実施の形態6の監視カメラの画像を用いた三次元連動計測表示システムの概略構成図である。但し、図24はカメラ選択部31、モード判定部、位置算出部43については省略する。   FIG. 24 is a schematic configuration diagram of a three-dimensional interlocking measurement display system using an image of the surveillance camera according to the sixth embodiment. However, FIG. 24 omits the camera selection unit 31, the mode determination unit, and the position calculation unit 43.

図24に示すように、表示部20の画面を制御する表示制御部80と、この表示制御部80が表示するための画像データを送出する表示処理部34と、画面の種類に応じた数の画像処理部を生成させる画像表示処理部作成部81等を備えている。   As shown in FIG. 24, a display control unit 80 for controlling the screen of the display unit 20, a display processing unit 34 for sending image data to be displayed by the display control unit 80, and a number corresponding to the type of the screen. An image display processing unit creating unit 81 for generating an image processing unit is provided.

さらに、座標変換部84と、選択部85等を備えている。   Furthermore, the coordinate conversion part 84, the selection part 85, etc. are provided.

表示制御部80は、表示用バッファ80aを備え、画面表示処理部作成部81からの分割数に基づく数の表示エリア(第1エリア、第2エリア・・)を表示用バッファ80aに生成する(例えば、4分割する)。   The display control unit 80 includes a display buffer 80a, and generates display areas (first area, second area,...) Based on the number of divisions from the screen display processing unit creation unit 81 in the display buffer 80a ( For example, it is divided into four).

つまり、表示制御部80は、各表示エリアのサイズを把握する。そして、この表示用バッファ80aを定期的に読み出して、その画像データを表示部20の画面に表示する。   That is, the display control unit 80 grasps the size of each display area. Then, the display buffer 80a is periodically read and the image data is displayed on the screen of the display unit 20.

画像表示処理部作成部81は、入力された画面の種類を判定し、この数のエリアを表示制御部80の表示用バッファ80a(画像メモリ)に生成させると共に、画面の種類(カメラ画像、三次元GIS画像、平面図、・・・)に応じた画像表示処理部を表示処理部34に生成させる。   The image display processing unit creation unit 81 determines the type of the input screen, causes the display buffer 80a (image memory) of the display control unit 80 to generate this number of areas, and the screen type (camera image, tertiary). The display processing unit 34 generates an image display processing unit corresponding to the original GIS image, plan view,.

このとき、画像表示処理部作成部81は、4種類の表示であれば、画面の左上のエリアはカメラ画像用のエリア(第1エリアともいう)、画面の右上は三次元GIS画像のエリア(第2エリアともいう)、左下のエリアは平面図(地図)のエリア(第3エリアともいう)、右下のエリアは防災マップのエリア(第4エリアともいう)とすることを表示処理部34に設定する。これらのエリアの条件は変更可能である。例えば、カメラ画像のエリア(第1エリア)の下の第3エリアを三次元GIS画像用のエリアとしてもよい。   At this time, if the image display processing unit creating unit 81 has four types of display, the upper left area of the screen is an area for a camera image (also referred to as a first area), and the upper right area of the screen is an area of a three-dimensional GIS image ( The display processing unit 34 indicates that the lower left area is also a plan view (map) area (also referred to as a third area), and the lower right area is a disaster prevention map area (also referred to as a fourth area). Set to. The conditions for these areas can be changed. For example, a third area below the camera image area (first area) may be used as an area for a three-dimensional GIS image.

表示処理部34は、画面表示処理部作成部81からの画面の種類に応じた数の画面表示処理部を生成する。本実施の形態では、カメラ画像表示処理部34aa、GIS画像表示処理部34b、平面画像表示処理部34c等を生成し、表示制御部80の表示バッファ80aのエリアに関連付けさせ、各々が表示バッファのエリア上のイベントを監視する機能を有する。   The display processing unit 34 generates a number of screen display processing units corresponding to the type of screen from the screen display processing unit creation unit 81. In the present embodiment, a camera image display processing unit 34aa, a GIS image display processing unit 34b, a planar image display processing unit 34c, and the like are generated and associated with the area of the display buffer 80a of the display control unit 80, each of which is a display buffer. It has a function to monitor events on the area.

また、これらの画像表示処理部は、画像用表示バッファ34ad1、34bd1、34cd1・・・を生成する。また、これらの画像用表示バッファは、表示制御部80の表示用バッファに生成されたエリアに対応する領域であるのが好ましい。   These image display processing units generate image display buffers 34ad1, 34bd1, 34cd1,. These image display buffers are preferably regions corresponding to the areas generated in the display buffer of the display control unit 80.

また、これらの画像表示処理部は、画像用バッファに画像が書き込まれた後に、データの書き込み指示がある毎に、新たなバッファ34ad2、34bd2・・(例えばカーソル用バッファ、三次元座標表示用バッファ・・)を生成する。この新たなバッファは、画像用バッファに対応するサイズである。   In addition, these image display processing units generate new buffers 34ad2, 34bd2,... (For example, a cursor buffer, a 3D coordinate display buffer each time a data write instruction is issued after an image is written to the image buffer.・ ・) Is generated. The new buffer has a size corresponding to the image buffer.

さらに、これらの画像表示処理部は、それぞれが一定時間毎に画像用表示バッファ、新たなバッファに書き込まれたデータを合成して表示制御部80に出力する。   Further, each of these image display processing units synthesizes the data written in the image display buffer and the new buffer at regular time intervals, and outputs them to the display control unit 80.

表示制御部80は、各画像表示処理部から出力された画像データを表示バッファの該当のエリアに書き込む。   The display control unit 80 writes the image data output from each image display processing unit in a corresponding area of the display buffer.

例えば、カメラ画像表示処理部34aaは、起動に伴ってカメラ画像用表示バッファ34ad1を生成して、カメラ画像再生部34abを起動させ、このカメラ画像再生部34abからの再生画像が出力される毎に(動画)をカメラ画像表示用バッファ34ad1に書き込む。   For example, the camera image display processing unit 34aa generates a camera image display buffer 34ad1 upon activation, activates the camera image reproduction unit 34ab, and outputs a reproduction image from the camera image reproduction unit 34ab. (Movie) is written in the camera image display buffer 34ad1.

また、カメラ画像表示処理部34aaは、監視している画面(カメラ用画面:第1エリア)上においてカーソルが指定されたときは、直ちにカーソル用表示バッファ34ad2を生成すると共に、カメラ用画面の指定位置に対応するカーソル用表示バッファ34ad2の位置にカーソル(マーク)を書き込む。そして、カメラ画像表示用バッファ34ad1のカメラ画像及びカーソル用表示バッファ34ad2のカーソル画像を合成して表示制御部80に出力する。   In addition, when a cursor is designated on the monitored screen (camera screen: first area), the camera image display processing unit 34aa immediately generates the cursor display buffer 34ad2 and designates the camera screen. A cursor (mark) is written at the position of the cursor display buffer 34ad2 corresponding to the position. Then, the camera image in the camera image display buffer 34ad1 and the cursor image in the cursor display buffer 34ad2 are combined and output to the display control unit 80.

さらに、他の画像表示処理部からカーソルモード(カーソル表示指示を含む)であることが知らせられると、直ちにカーソル用表示バッファ34ad2を生成すると共に、選択部85で選択された座標変換によって得られたカメラ画像上のカーソル位置をカーソル用表示バッファ34ad2に書き込み、カメラ画像表示バッファ34ad1のカメラ画像と合成して表示制御部80に出力する。   Furthermore, when the cursor mode (including the cursor display instruction) is notified from another image display processing unit, the cursor display buffer 34ad2 is immediately generated and obtained by the coordinate conversion selected by the selection unit 85. The cursor position on the camera image is written in the cursor display buffer 34ad2, and is combined with the camera image in the camera image display buffer 34ad1 and output to the display control unit 80.

GIS画像表示処理部34bは、起動に伴ってGIS画像用表示バッファ34bd1を生成して、選択部85で選択された座標変換によって得られた撮影範囲の三次元GIS画像をデータベース5の三次元地形データから読み出して、これをGIS画像用表示バッファ34bd1に書き込む。   The GIS image display processing unit 34b generates a GIS image display buffer 34bd1 upon activation, and converts the three-dimensional GIS image of the imaging range obtained by the coordinate conversion selected by the selection unit 85 into the three-dimensional landform of the database 5. Data is read out and written into the GIS image display buffer 34bd1.

また、GIS画像表示処理部34bは、監視している画面(GIS用画面:第2エリア)上においてカーソルが指定されたときは、直ちにカーソル用表示バッファ34bd2を生成すると共に、カーソル用表示バッファ34bd2に、GIS用画面の指定位置に対応する位置にカーソル(マーク)を書き込む。そして、GIS画像用表示バッファ34bd1のGIS画像とカーソル用表示バッファ34bd2のカーソル画像とを合成して表示制御部80に出力する。   In addition, when a cursor is designated on the monitored screen (GIS screen: second area), the GIS image display processing unit 34b immediately generates the cursor display buffer 34bd2 and also displays the cursor display buffer 34bd2. Then, a cursor (mark) is written at a position corresponding to the designated position on the GIS screen. Then, the GIS image in the GIS image display buffer 34bd1 and the cursor image in the cursor display buffer 34bd2 are combined and output to the display control unit 80.

さらに、他の画像表示処理部からカーソルモード(カーソル表示指示を含む)であることが知らせられると、直ちにカーソル用表示バッファ34bd2を生成すると共に、選択部85で選択された座標変換によって得られた三次元GIS画像上のカーソル位置をカーソル用表示バッファ34ad2に書き込む。そして、GIS画像用表示バッファ34bd1のGIS画像とカーソル用表示バッファ34bd2のカーソル画像とを合成して表示制御部80に出力する。これによって、他の画面に指定されたカーソル位置に対応するカーソルを三次元GIS画像上に表示させる。   Further, when the cursor mode (including the cursor display instruction) is notified from another image display processing unit, the cursor display buffer 34bd2 is immediately generated and obtained by the coordinate conversion selected by the selection unit 85. The cursor position on the three-dimensional GIS image is written into the cursor display buffer 34ad2. Then, the GIS image in the GIS image display buffer 34bd1 and the cursor image in the cursor display buffer 34bd2 are combined and output to the display control unit 80. As a result, a cursor corresponding to the cursor position designated on another screen is displayed on the three-dimensional GIS image.

平面図画像表示処理部34cは、起動に伴って平面図用表示バッファ34cd1を生成して、選択部85で選択された座標変換によって得られた所定範囲(監視カメラ位置及び撮影対象物を含む範囲)の平面図をデータベース5から読み出して、これを平面図用表示バッファ34cd1に書き込んで表示制御部80に出力する。   The plan view image display processing unit 34c generates a plan view display buffer 34cd1 upon activation, and a predetermined range obtained by the coordinate conversion selected by the selection unit 85 (a range including the monitoring camera position and the photographing object). ) Is read from the database 5, written in the plan view display buffer 34 cd 1, and output to the display control unit 80.

また、平面図画像表示処理部34cは、監視している画面(平面図用画面:第3エリア)上においてカーソルが指定されたときは、直ちにカーソル用表示バッファ34cd2を生成すると共に、カーソル用表示バッファ34cd2に、その画面の指定位置に対応する位置にカーソル(マーク)を書き込む。そして、平面図用表示バッファ34cd1の平面図とカーソル用表示バッファ34cd2のカーソル画像とを合成して表示制御部80に出力する。   Further, when a cursor is designated on the monitored screen (plan view screen: third area), the plan view image display processing unit 34c immediately generates the cursor display buffer 34cd2 and displays the cursor. A cursor (mark) is written in the buffer 34cd2 at a position corresponding to the designated position on the screen. Then, the plan view of the plan view display buffer 34cd1 and the cursor image of the cursor display buffer 34cd2 are combined and output to the display control unit 80.

さらに、他の画像表示処理部からカーソルモード(カーソル表示指示を含む)であることが知らせられると、直ちにカーソル用表示バッファ34cd2を生成すると共に、選択部85で選択された座標変換によって得られたピクセル座標(カーソル用表示バッファ34cd2:平面図用画面)にカーソルを書き込みする。そして、平面図用表示バッファ34cd1の平面図画像とカーソル用表示バッファ34cd2のカーソル画像とを合成して表示制御部80に出力する。   Further, when the cursor mode (including the cursor display instruction) is notified from another image display processing unit, the cursor display buffer 34cd2 is immediately generated and obtained by the coordinate conversion selected by the selection unit 85. The cursor is written in the pixel coordinates (cursor display buffer 34cd2: plan view screen). Then, the plan view image of the plan view display buffer 34cd1 and the cursor image of the cursor display buffer 34cd2 are combined and output to the display control unit 80.

座標変換部84は、座標変換1処理部101a、逆座標変換1処理部101b、座標変換2処理部102a、逆座標変換2処理部102b、座標変換3処理部103a、逆座標変換3処理部103b、座標変換4処理部104a、逆座標変換4処理部104b、逆座標変換5処理部105a、座標変換5処理部105b、逆座標変換6処理部106a、逆座標変換6処理部106b、座標変換7処理部107a、座標変換7処理部107bを備え、メモリ92を用いて座標変換を行う。   The coordinate conversion unit 84 includes a coordinate conversion 1 processing unit 101a, an inverse coordinate conversion 1 processing unit 101b, a coordinate conversion 2 processing unit 102a, an inverse coordinate conversion 2 processing unit 102b, a coordinate conversion 3 processing unit 103a, and an inverse coordinate conversion 3 processing unit 103b. , Coordinate transformation 4 processing unit 104a, inverse coordinate transformation 4 processing unit 104b, inverse coordinate transformation 5 processing unit 105a, coordinate transformation 5 processing unit 105b, inverse coordinate transformation 6 processing unit 106a, inverse coordinate transformation 6 processing unit 106b, coordinate transformation 7 A processing unit 107 a and a coordinate conversion 7 processing unit 107 b are provided, and coordinate conversion is performed using the memory 92.

座標変換1処理部101aは、カーソル位置読込部82からの表示画面(カメラ画像表示画面、GIS画像表示画面又は平面図画像表示画面)におけるカーソルのピクセル座標(Mx、My)を、その表示画面の画像データのピクセル座標(Px、Py)に変換する(座標変換1)。つまり、座標変換1は、表示画面の縦横のピクセル数と画像データの縦横のピクセル数の比から、表示画面上のカーソルのピクセル座標(Mx,My)を画像データ上のピクセル座標(Px,Py)に変換する座標変換1を行う。   The coordinate conversion 1 processing unit 101a displays the pixel coordinates (Mx, My) of the cursor on the display screen (camera image display screen, GIS image display screen or plan view image display screen) from the cursor position reading unit 82 on the display screen. Conversion into pixel coordinates (Px, Py) of image data (coordinate conversion 1). That is, the coordinate conversion 1 is performed by converting the pixel coordinates (Mx, My) of the cursor on the display screen to the pixel coordinates (Px, Py) on the image data from the ratio of the number of vertical and horizontal pixels on the display screen to the number of vertical and horizontal pixels on the image data. The coordinate conversion 1 is converted to (1).

以下に具体的に説明する。   This will be specifically described below.

例えば、初めにカメラ画像表示用画面でカーソルが指定されてそのカメラ画像表示用画面にカーソルを表示した場合に、カメラ画像表示処理部34aaがカメラ画像表示画面(表示バッファ34ad2が対応する)のカーソルのピクセル座標Mx、My(カメラ画面のカーソル座標)を出力した場合には、このカメラ画面のカーゾル座標をカメラ画像のピクセル座標(Px、Py)に変換する(座標変換1:図4(a)及び図4(b)参照)。   For example, when a cursor is first designated on the camera image display screen and the cursor is displayed on the camera image display screen, the camera image display processing unit 34aa is a cursor on the camera image display screen (the display buffer 34ad2 corresponds). When the pixel coordinates Mx, My (cursor coordinates of the camera screen) are output, the cursor coordinates of the camera screen are converted into pixel coordinates (Px, Py) of the camera image (coordinate conversion 1: FIG. 4A). And FIG. 4B).

また、初めにGIS画像表示画面でカーソルが指定されて、そのGIS画像表示用画面にカーソルを表示した場合に、GIS画像表示処理部34bがGIS画像表示画面(表示バッファ34bd2が対応する)のカーソルのピクセル座標Mx、My(GIS画像表示画面のカーソル座標)を出力した場合には、このGIS画像表示用画面のカーゾル座標をGIS画像データピクセル座標(Px、Py)に変換する(座標変換1:図4(a)及び図4(b)参照)。   In addition, when a cursor is first designated on the GIS image display screen and the cursor is displayed on the GIS image display screen, the GIS image display processing unit 34b performs a cursor on the GIS image display screen (corresponding to the display buffer 34bd2). When the pixel coordinates Mx, My (cursor coordinates of the GIS image display screen) are output, the cursor coordinates of the GIS image display screen are converted into GIS image data pixel coordinates (Px, Py) (coordinate conversion 1: FIG. 4 (a) and FIG. 4 (b)).

また、初めに平面図画像表示用画面でカーソルが指定されて、その平面図画像表示用画面にカーソルを表示した場合に、平面図画像表示処理部34cの表示バッファ34cd2のカーソルのピクセル座標Mx、My(平面図画像表示画面のカーソル座標)を出力した場合には、この平面図画像表示画面のカーゾル座標を平面図画像データのピクセル座標(Px、Py)に変換する(座標変換1:図4(a)及び図4(b)参照)。)。   In addition, when a cursor is first designated on the plan view image display screen and the cursor is displayed on the plan view image display screen, the pixel coordinates Mx of the cursor in the display buffer 34cd2 of the plan view image display processing unit 34c, When My (cursor coordinates of the plan view image display screen) is output, the cursor coordinates on the plan view image display screen are converted into pixel coordinates (Px, Py) of the plan view image data (coordinate conversion 1: FIG. 4). (See (a) and FIG. 4 (b)). ).

逆座標変換1処理部101bは、画像上(カメラ画像、三次元GIS画像又は平面図画像)のピクセル座標(Px,Py)の縦横比のピクセル座標と表示画面のピクセル数との比から入力された画像上のカーソルのピクセル座標(Px、Py)を表示画面上のカーソルピクセル座標(Mx、My)に変換する逆変換座標変換1を行う。   The inverse coordinate conversion 1 processing unit 101b is input from the ratio between the pixel coordinates of the aspect ratio of the pixel coordinates (Px, Py) on the image (camera image, three-dimensional GIS image or plan view image) and the number of pixels on the display screen. Inverse conversion coordinate conversion 1 is performed to convert the pixel coordinates (Px, Py) of the cursor on the displayed image into the cursor pixel coordinates (Mx, My) on the display screen.

座標変換2処理部102aは、画像データ上のカーソルのピクセル座標(Px,Py)を写真座標(X’,Y’)に変換する座標変換2を行う。   The coordinate conversion 2 processing unit 102a performs coordinate conversion 2 for converting the pixel coordinates (Px, Py) of the cursor on the image data into photo coordinates (X ′, Y ′).

具体的に説明する。
初めにカメラ画像表示画面でカーソルが指定されてそのカメラ画像表示用画面にカーソルを表示して前述の座標変換1によって、カーソルのピクセル座標(Mx、My)がカメラ画像上のピクセル座標(Px,Py)に変換された場合は、カメラのCCD面上の実座標=写真座標(X’,Y’)に変換する。このとき、レンズの放射方向歪曲収差や主点位置ズレ(レンズの光軸中心とCCD中心のズレ)といった写真画像の系統的な歪みを補正する。
This will be specifically described.
First, a cursor is specified on the camera image display screen, the cursor is displayed on the camera image display screen, and the pixel coordinates (Mx, My) of the cursor are changed to the pixel coordinates (Px, When converted to Py), the actual coordinate on the CCD surface of the camera = photograph coordinate (X ′, Y ′). At this time, systematic distortion of the photographic image such as the radial distortion of the lens and the displacement of the principal point (deviation between the center of the optical axis of the lens and the center of the CCD) is corrected.

また、初めにGIS画像表示画面でカーソルが指定されてそのGIS画像表示画面にカーソルを表示して前述の座標変換1によって、GIS画像表示画面のカーソルのピクセル座標(Mx、My)がGIS画像上のピクセル座標(Px,Py)に変換された場合は、これをカメラのCCD面上の実座標=写真座標(X’,Y’)に変換する。   First, a cursor is designated on the GIS image display screen, the cursor is displayed on the GIS image display screen, and the pixel coordinates (Mx, My) of the cursor on the GIS image display screen are displayed on the GIS image by the coordinate conversion 1 described above. Is converted into the actual coordinates on the CCD surface of the camera = photograph coordinates (X ′, Y ′).

また、初めに平面図画像表示用画面でカーソルが指定されてその平面図画像表示用画面にカーソルを表示して前述の座標変換1によって、平面図画像表示用画面のカーソルのピクセル座標(Mx、My)が平面図画像上のピクセル座標(Px,Py)に変換された場合は、これをカメラのCCD面上の実座標=写真座標(X’,Y’)に変換する。   First, a cursor is designated on the plan view image display screen, and the cursor is displayed on the plan view image display screen. By the above-described coordinate conversion 1, the pixel coordinates (Mx, When My) is converted into pixel coordinates (Px, Py) on the plan view image, this is converted into real coordinates on the CCD plane of the camera = photograph coordinates (X ′, Y ′).

逆座標変換2処理部102bは、写真座標系(X’,Y’)に変換されたカーソル座標を画像データ上のカーソルのピクセル座標(Px,Py)に変換する逆座標変換2を行う。   The inverse coordinate conversion 2 processing unit 102b performs inverse coordinate conversion 2 for converting the cursor coordinates converted into the photographic coordinate system (X ', Y') into the pixel coordinates (Px, Py) of the cursor on the image data.

座標変換3処理部103aは、座標変換2によって、写真座標系(X´、Y´)に変換された画像データ上のカーソルのピクセル座標をカメラ座標系(X´、Y´、Z´)の座標に変換する(図5(a)及び図5(b)参照)。   The coordinate conversion 3 processing unit 103a converts the pixel coordinates of the cursor on the image data converted into the photographic coordinate system (X ′, Y ′) by the coordinate conversion 2 in the camera coordinate system (X ′, Y ′, Z ′). It converts into a coordinate (refer Fig.5 (a) and FIG.5 (b)).

具体的に説明する。   This will be specifically described.

初めにカメラ画像表示用画面でカーソルが指定されて、そのカメラ画像表示用画面にカーソルを表示して前述の座標変換2(座標変換1を経由)によって、写真座標系(X´、Y´)に変換されたカメラ画像上のカーソルのピクセル座標をカメラ座標系(X´、Y´、Z´)の座標に変換する。   First, a cursor is designated on the camera image display screen, the cursor is displayed on the camera image display screen, and the above-described coordinate transformation 2 (via coordinate transformation 1) is used to obtain a photographic coordinate system (X ′, Y ′). The pixel coordinates of the cursor on the camera image converted into (2) are converted into the coordinates of the camera coordinate system (X ′, Y ′, Z ′).

また、初めにGIS画像表示用画面でカーソルが指定されて、そのGIS画像表示用画面にカーソルを表示して前述の座標変換2(座標変換1を経由)によって、写真座標系(X´、Y´)に変換された場合は、その写真座標系におけるカーソルのピクセル座標をカメラ座標系(X´、Y´、Z´)の座標に変換する。   First, a cursor is designated on the GIS image display screen, the cursor is displayed on the GIS image display screen, and the above-described coordinate transformation 2 (via coordinate transformation 1) is used to obtain a photographic coordinate system (X ′, Y When converted to '), the pixel coordinates of the cursor in the photographic coordinate system are converted to the coordinates of the camera coordinate system (X', Y ', Z').

逆座標変換3処理部103bは、カメラ座標系(X´、Y´、Z´)のカーソル座標を写真座標系(X´、Y´)に変換する。   The inverse coordinate conversion 3 processing unit 103b converts the cursor coordinates of the camera coordinate system (X ′, Y ′, Z ′) to the photographic coordinate system (X ′, Y ′).

座標変換4処理部104aは、画角設定処理部33で設定されている画角(位置、傾き、撮影範囲;カメラ座標系に設定された写真(写真座標系))の撮影範囲の各点をデータベース5の三次元地形モデルの各点の座標に変換する。   The coordinate conversion 4 processing unit 104a calculates each point of the shooting range of the angle of view (position, tilt, shooting range; photograph set in the camera coordinate system (photo coordinate system)) set by the view angle setting processing unit 33. The coordinates of each point of the 3D terrain model in the database 5 are converted.

また、カメラ画像表示画面又はGIS画像表示画面においてカーソルが指定された場合は、座標変換1、座標変換2、座標変換3を経由して得られたカメラ座標系における写真上のカーソル位置と光学中心とを通る直線が三次元地形データの三次元地形モデルに交差する点の三次元地理座標に変換する。   When the cursor is designated on the camera image display screen or the GIS image display screen, the cursor position on the photograph and the optical center in the camera coordinate system obtained through coordinate conversion 1, coordinate conversion 2, and coordinate conversion 3 are displayed. Are converted into 3D geographic coordinates at the point where the straight line passing through and intersects the 3D terrain model of the 3D terrain data.

逆座標変換4処理部104bは、座標変換4の逆を行う変換である。座標変換4で変換された、画角(位置、傾き、撮影範囲;カメラ座標系に設定された写真(写真座標系))の撮影範囲の各点の三次元地形モデルの各点の三次元座標を前述のカメラ座標系に設定された写真上の座標に変換する。   The inverse coordinate conversion 4 processing unit 104b is a conversion that performs the reverse of the coordinate conversion 4. 3D coordinates of each point of the 3D terrain model of each point in the shooting range of the angle of view (position, tilt, shooting range; photograph set in the camera coordinate system (photo coordinate system)) converted by coordinate conversion 4 Is converted into the coordinates on the photo set in the camera coordinate system.

また、カメラ画像表示用画面又はGIS画像表示用画面においてカーソルが指定された場合は、座標変換4によって変換された、三次元地形モデルのカーソルの三次元地理座標を、前述のカメラ座標系に設定された写真上の座標に変換する逆変換を行う。   When the cursor is specified on the camera image display screen or the GIS image display screen, the three-dimensional geographic coordinates of the cursor of the three-dimensional terrain model converted by the coordinate conversion 4 are set in the above-mentioned camera coordinate system. Perform inverse transformation to convert to coordinates on the photograph.

座標変換5処理部105bは、カーソル位置読込部82からの平面図画像表示用画面のカーソルのピクセル座標(Mx、My:表示バッファ34cd2より)を、平面図表示用画面の縦横のピクセル数と平面図画像データ上(平面図用メモリ35)の画面表示範囲の縦横のピクセル数との比から、平面図画像表示画面上のピクセル座標を画面表示範囲上のピクセル座標に変換する。そして、平面図画像データとこの平面画像図データ上の画面表示範囲との相対位置関係から画面表示範囲上のピクセル座標を、平面図画像データ上のピクセル座標(Px、Py)に変換する座標変換5の処理を行う(図6(a)及び図6(b)参照)。   The coordinate conversion 5 processing unit 105b determines the pixel coordinates (Mx, My: from the display buffer 34cd2) of the cursor of the plan view image display screen from the cursor position reading unit 82, the number of pixels in the vertical and horizontal directions of the plan view display screen, and the plane. The pixel coordinates on the plan view image display screen are converted into the pixel coordinates on the screen display range from the ratio of the vertical and horizontal numbers of pixels in the screen display range on the plan image data (plan view memory 35). Then, coordinate conversion is performed to convert pixel coordinates on the screen display range into pixel coordinates (Px, Py) on the plan view image data from the relative positional relationship between the plan view image data and the screen display range on the plan view image data. 5 is performed (see FIG. 6A and FIG. 6B).

逆座標変換5処理部105bは、座標変換5の逆変換である。これは、変換された画面表示範囲の平面図画像データのピクセル座標(Px、Py)を平面図画像表示画面のピクセル座標(Mx、My)に変換する逆変換を行う。   The inverse coordinate transformation 5 processing unit 105 b is an inverse transformation of the coordinate transformation 5. This performs an inverse transformation that converts the pixel coordinates (Px, Py) of the plan view image data in the converted screen display range to the pixel coordinates (Mx, My) of the plan view image display screen.

座標変換6処理部106aは、平面図画像データの4隅の座標と、二次元平面地理座標系の縦横のピクセル数とを対応させることによって、平面図画像データ上のピクセル座標(Px、Py)を二次元平面地理座標系の地理座標に変換する(図6(c)及び図6(d)参照)。   The coordinate transformation 6 processing unit 106a associates the coordinates of the four corners of the plan view image data with the number of vertical and horizontal pixels of the two-dimensional plane geographic coordinate system, thereby causing pixel coordinates (Px, Py) on the plan view image data. Is converted into geographic coordinates in a two-dimensional planar geographic coordinate system (see FIGS. 6C and 6D).

逆座標変換6処理部106bは、座標変換6の逆変換である。これは、二次元平面地理座標系に変換された平面画像表示用画面のカーソル位置を平面図画像データ上のピクセル座標(Px、Py)に変換する。   The inverse coordinate transformation 6 processing unit 106 b is an inverse transformation of the coordinate transformation 6. This converts the cursor position of the plane image display screen converted into the two-dimensional plane geographic coordinate system into pixel coordinates (Px, Py) on the plane view image data.

座標変換7処理部107aは、二次元平面地理座標系の地理座標に変換されたカーソル位置を三次元地形モデル上の三次元座標に変換する座標変換7を行う。   The coordinate conversion 7 processing unit 107a performs coordinate conversion 7 for converting the cursor position converted into the geographic coordinates of the two-dimensional planar geographic coordinate system into the three-dimensional coordinates on the three-dimensional terrain model.

逆座標変換7処理部107bは、座標変換7の逆変換である。これは、三次元地形モデルに定義されたカーソルの三次元座標を二次元平面地理座標系に変換する。   The inverse coordinate transformation 7 processing unit 107 b is an inverse transformation of the coordinate transformation 7. This converts the 3D coordinates of the cursor defined in the 3D terrain model into a 2D planar geographic coordinate system.

選択部85は、画像表示の指示に伴って(システム開始)、表示処理部34から初期のカーソルが指定された画面(カメラ表示用画面、GIS表示用画面又は平面図表示用画面)を判断し、判断した画面の種類に応じて、前述の各種座標変換処理を選択する。また、選択するためのプログラムはメモリ93に記憶している。   The selection unit 85 determines a screen (camera display screen, GIS display screen, or plan view display screen) in which an initial cursor is designated from the display processing unit 34 in accordance with an image display instruction (system start). The above-described various coordinate conversion processes are selected according to the determined type of screen. A program for selection is stored in the memory 93.

これらの各種座標変換処理を選択することによって、上記の実施の形態のカメラ画像指定個所連動表示部11、GIS画像指定個所連動表示部12又は平面図指定個所連動表示部13の処理を行う。   By selecting these various coordinate conversion processes, the process of the camera image designation location interlocking display unit 11, the GIS image designation location interlocking display unit 12 or the plan view designation location interlocking display unit 13 of the above embodiment is performed.

この選択部の動作について図25及び図26のフローチャートを用いて以下に説明する。   The operation of this selection unit will be described below with reference to the flowcharts of FIGS.

なお、初期設定(S200)として、
画角は画角設定処理部33で既に設定(メモリ91に記憶されている)され(S201)、カメラ画像が表示され(S202)、平面図画像が表示され(S203)、三次元GIS画像が表示されている(S204)。
As an initial setting (S200),
The angle of view is already set (stored in the memory 91) by the angle of view setting processing unit 33 (S201), a camera image is displayed (S202), a plan view image is displayed (S203), and a three-dimensional GIS image is displayed. Is displayed (S204).

前述のカメラ画像、三次元GIS画像及び平面図画像を表示するときは、表示制御部80は、画面表示処理部作成部81からの分割数に基づく数のエリアを表示用バッファ80aに生成(4分割)し、表示処理部34の各画像表示処理部(カメラ、三次元GIS、平面図)が監視する画面(第1エリア:カメラ画像表示画面、第2エリア:三次元GIS画像表示画面、・・)のサイズ(画面表示範囲ともいう)に対応したピクセル数の表示バッファ(34ad1、34bd1・・)を生成する。   When displaying the camera image, the three-dimensional GIS image, and the plan view image, the display control unit 80 generates a number of areas based on the number of divisions from the screen display processing unit creation unit 81 in the display buffer 80a (4 Screens (first area: camera image display screen, second area: three-dimensional GIS image display screen) monitored by each image display processing unit (camera, three-dimensional GIS, plan view) of the display processing unit 34, A display buffer (34ad1, 34bd1,...) Having the number of pixels corresponding to the size (also referred to as a screen display range) is generated.

そして、前述のカメラ画像は、カメラ画像表示処理部34aaがカメラ画像再生部34abを起動させ、このカメラ画像再生部34abからの再生画像が出力される毎に、この動画をカメラ画像表示用バッファ34ad1に書き込み、これを表示制御部80に出力する。   The camera image display processing unit 34aa activates the camera image playback unit 34ab, and each time a playback image is output from the camera image playback unit 34ab, the camera image display buffer 34ad1 Is output to the display control unit 80.

平面図画像表示処理部34cが、入力された撮影対象物情報(撮影対象物の位置、監視カメラの位置等)を読み込み、データベース5の二次元平面図をカメラ画像表示画面のサイズに基づくピクセル座標(Px、Py)に変換し、この二次元平面図データの内で監視カメラの位置および撮影対象物を含む所定範囲を表示範囲として平面図用表示バッファ34cd1に書き込んでこれを表示制御部80に出力する。   The plan view image display processing unit 34c reads the input photographing object information (the position of the photographing object, the position of the monitoring camera, etc.), and uses the two-dimensional plan view of the database 5 as pixel coordinates based on the size of the camera image display screen. (Px, Py), and a predetermined range including the position of the monitoring camera and the object to be photographed in the two-dimensional plan view data is written as a display range in the plan view display buffer 34cd1, and this is written to the display control unit 80. Output.

GIS画像表示処理部34bは、画角設定部33で設定された画角での三次元地形データの領域の画像データ(テクスチャー)を、三次元画像表示用バッファ34bd1に読み出し、これを表示制御部80に出力する。   The GIS image display processing unit 34b reads the image data (texture) of the region of the 3D terrain data at the angle of view set by the angle of view setting unit 33 to the 3D image display buffer 34bd1, and this is read out. Output to 80.

この三次元GIS画像の表示にあたっては、選択部85が表示処理部34のカメラ画像表示処理部34aaからカメラ画像の表示が完了したことが知らせられると、座標変換4処理部104aを起動する。座標変換4処理部104aは、画角設定処理部33で設定されている画角(位置、傾き、撮影範囲;カメラ座標系に設定された写真(写真座標系))の写真エリア(撮影範囲ともいう)の各点をデータベース5の三次元地形データの各点の座標に変換する。つまり、三次元地形データにおける監視カメラの画角での撮影範囲に対応する領域を決定する。   In displaying the three-dimensional GIS image, when the selection unit 85 is notified from the camera image display processing unit 34aa of the display processing unit 34 that the display of the camera image is completed, the coordinate conversion 4 processing unit 104a is activated. The coordinate conversion 4 processing unit 104a is configured to have a photographic area (also referred to as a photographic range) of the angle of view (position, tilt, shooting range; photo set in the camera coordinate system (photo coordinate system)) set by the view angle setting processing unit 33. Are converted into the coordinates of each point of the three-dimensional terrain data in the database 5. That is, an area corresponding to the imaging range at the angle of view of the surveillance camera in the three-dimensional terrain data is determined.

そして、選択部8が逆変換座標4処理部104bを起動させ、逆座標変換4処理部104bが三次元地形データに対応する領域の画像データの三次元座標を前述のカメラ座標系に変換し、逆座標変換3処理部を起動させて写真座標系の座標に変換させて、逆座標変換2処理部を起動させて、画像座標系(Px−Py)に変換させ、さらに逆座標変換1処理を起動させて三次元GIS画像表示用画面座標系(Mx−My)に変換する。   Then, the selection unit 8 activates the inverse transformation coordinate 4 processing unit 104b, and the inverse coordinate transformation 4 processing unit 104b converts the three-dimensional coordinates of the image data of the region corresponding to the three-dimensional terrain data into the camera coordinate system, The inverse coordinate conversion 3 processing unit is activated to convert to the coordinates of the photographic coordinate system, the inverse coordinate conversion 2 processing unit is activated to convert to the image coordinate system (Px-Py), and the inverse coordinate conversion 1 processing is further performed. It is activated and converted to a screen coordinate system (Mx-My) for displaying a three-dimensional GIS image.

そして、GIS画像表示処理部34bにこの変換された三次元地形データの撮影範囲の画像データを出力する。三次元GIS画像表示処理部34bはこれを表示バッファに書き込み、表示制御部の第2エリアに書き込むことで、図27(a)の三次元GIS画像を表示している。   Then, the image data of the imaging range of the converted three-dimensional terrain data is output to the GIS image display processing unit 34b. The 3D GIS image display processing unit 34b writes this in the display buffer and writes it in the second area of the display control unit, thereby displaying the 3D GIS image of FIG.

このような状態で選択部85は、カーソルが指定されたかどうかを監視する(S205)。   In such a state, the selection unit 85 monitors whether or not the cursor is designated (S205).

これは、表示処理部34の各画像処理部(カメラ、三次元GIS、平面図)が、カーソルが指定された場合は、カーソル指定と画面の種類を選択部85に出力することによって判定する。 This is determined by each of the image processing units (camera, three-dimensional GIS, plan view) of the display processing unit 34 by outputting the cursor designation and the screen type to the selection unit 85 when the cursor is designated.

次に、選択部85はカーソルが指定された画面(カメラ、三次元GIS、平面図)を判定する(S206)。   Next, the selection unit 85 determines the screen (camera, three-dimensional GIS, plan view) on which the cursor is designated (S206).

カメラ画像表示用画面でカーソルが指定されたと判定した場合は、選択部85は座標変換1、座標変換2、座標変換3、座標変換4の順で選択起動させて監視カメラの撮影範囲に対応する三次元地形データのカーソル位置(三次元GIS画像上のカーソル位置)を得る(S207〜S210)。   When it is determined that the cursor is designated on the camera image display screen, the selection unit 85 selects and activates the coordinate conversion 1, coordinate conversion 2, coordinate conversion 3, and coordinate conversion 4 in this order to correspond to the imaging range of the surveillance camera. The cursor position of the 3D terrain data (cursor position on the 3D GIS image) is obtained (S207 to S210).

さらに、逆座標変換4、逆座標変換3、逆座標変換2、逆座標変換1の順で選択起動させ(S211〜S214)、この結果得られたGIS画像表示用画面のピクセル座標(Mx、My)を表示バッファ34bd2に書き込むことで、三次元GIS画像上にカメラ画面に指定されたカーソルと同じ位置にカーソルを表示する(S215)。   Furthermore, the selection is started in the order of inverse coordinate transformation 4, inverse coordinate transformation 3, inverse coordinate transformation 2, and inverse coordinate transformation 1 (S211 to S214), and the pixel coordinates (Mx, My of the GIS image display screen obtained as a result are obtained. ) Is written in the display buffer 34bd2 to display the cursor on the three-dimensional GIS image at the same position as the cursor designated on the camera screen (S215).

さらに、選択部85は図26に示すように、逆座標変換7、逆座標変換6、逆座標変換5の順で選択起動させて三次元地形データの二次元平面にカーソル位置を定義し、さらに平面図画像表示用画面のピクセル座標(Mx、My)を求める(S216〜S218)。   Further, as shown in FIG. 26, the selection unit 85 selectively activates in the order of inverse coordinate transformation 7, inverse coordinate transformation 6, and inverse coordinate transformation 5 to define the cursor position on the two-dimensional plane of the three-dimensional terrain data, Pixel coordinates (Mx, My) of the plan view image display screen are obtained (S216 to S218).

そして、この結果得られた平面図画像表示用画面のピクセル座標(Mx、My)を平面図画像表示用の表示バッファ34cd2に書き込むことで、平面図画像上にカメラ画面に指定されたカーソルの二次元位置にカーソルを表示する(S219)。   Then, by writing the pixel coordinates (Mx, My) of the plan view image display screen obtained as a result to the display buffer 34cd2 for plan view image display, two cursors designated on the plan view image on the camera screen are displayed. A cursor is displayed at the dimension position (S219).

次に、終了かどうかを判断する(S221)。終了でない場合は、処理をステップS205に戻す。   Next, it is determined whether or not the process is finished (S221). If not, the process returns to step S205.

また、ステップS205、206の処理によって三次元GIS画像表示用画面でカーソルが指定されたと判定した場合は、選択部85は座標変換1、座標変換2、座標変換3、座標変換4の順で選択起動させて三次元地形データの監視カメラの撮影範囲に対応する領域にカーソル位置を定義(X、Y、Z)する(S231〜S234)。   If it is determined that the cursor is designated on the 3D GIS image display screen by the processing in steps S205 and S206, the selection unit 85 selects coordinate conversion 1, coordinate conversion 2, coordinate conversion 3, and coordinate conversion 4 in this order. The cursor position is defined (X, Y, Z) in an area corresponding to the imaging range of the surveillance camera of the three-dimensional terrain data when activated (S231 to S234).

さらに、逆座標変換4、逆座標変換3、逆座標変換2、逆座標変換1の順で選択起動させて三次元GIS画像画面のカーソル位置と同じカメラ画像上におけるカメラ画像表示用画面での座標を求め(S235〜S238)、このピクセル座標(Mx、My)をカメラ画像表示用の表示バッファ34ad1に書き込むことで、カメラ画像上に三次元GIS画像画面に指定されたカーソルと同じ位置にカーソルを表示する(S239)。   Further, the coordinates on the camera image display screen on the same camera image as the cursor position on the three-dimensional GIS image screen are selected and activated in the order of inverse coordinate transformation 4, inverse coordinate transformation 3, inverse coordinate transformation 2, and inverse coordinate transformation 1. (S235 to S238), and by writing the pixel coordinates (Mx, My) to the display buffer 34ad1 for displaying the camera image, the cursor is placed on the camera image at the same position as the cursor specified on the three-dimensional GIS image screen. It is displayed (S239).

さらに、選択部85は図26に示すように、逆座標変換7、逆座標変換6、逆座標変換5の順で選択起動させることで三次元GIS画像上に指定されたカーソル位置に対応する二次元平面図画像上の位置を求め(S240〜S242)、この平面図画像表示用画面のピクセル座標(Mx、My)を平面図画像表示用の表示バッファ34cd1に書き込むことで、平面図画像上に三次元GIS画像に指定されたカーソルの二次元位置にカーソルを表示する(S243)。   Furthermore, as shown in FIG. 26, the selection unit 85 performs selection and activation in the order of inverse coordinate transformation 7, inverse coordinate transformation 6, and inverse coordinate transformation 5, thereby enabling two selections corresponding to the cursor position designated on the three-dimensional GIS image. The position on the three-dimensional plan view image is obtained (S240 to S242), and the pixel coordinates (Mx, My) of the screen for displaying the plan view image are written in the display buffer 34cd1 for displaying the plan view image, so that the top view image is displayed. The cursor is displayed at the two-dimensional position of the cursor designated in the three-dimensional GIS image (S243).

さらに、ステップS205、206の処理によって平面図画像表示用画面でカーソルが指定されたと判定した場合は、選択部は座標変換5、座標変換6、座標変換7の順で選択起動させて平面図画像上で指定されたカーソル位置を三次元地形データに定義(X、Y、Z)する(S251〜S253)。   Furthermore, when it is determined that the cursor has been designated on the plan view image display screen by the processing of steps S205 and S206, the selection unit selectively activates the coordinate conversion 5, coordinate conversion 6, and coordinate conversion 7 in this order to start the plan view image. The cursor position specified above is defined (X, Y, Z) in the three-dimensional terrain data (S251 to S253).

そして、逆座標変換4、逆座標変換3、逆座標変換2、逆座標変換1の順で選択起動させて監視カメラの撮影範囲における三次元地形データのカーソル位置に対応する三次元GIS画像上のカーソル位置を三次元GIS画像表示用画面のピクセル座標(Mx、My)に変換し、これを三次元GIS画像表示処理部34bの表示バッファ34bd1に書き込みさせる((S254〜S258)。   Then, on the three-dimensional GIS image corresponding to the cursor position of the three-dimensional terrain data in the photographing range of the surveillance camera by selectively starting in the order of inverse coordinate transformation 4, inverse coordinate transformation 3, inverse coordinate transformation 2, and inverse coordinate transformation 1. The cursor position is converted into pixel coordinates (Mx, My) of the 3D GIS image display screen, and this is written into the display buffer 34bd1 of the 3D GIS image display processing unit 34b (S254 to S258).

そして、選択部85は図26に示すように、逆座標変換4、逆座標変換3、逆座標変換2、逆座標変換1の順で選択起動させて平面図画像上のカーソル位置に対応するカメラ画像上の位置に、そのカーソルを表示させる(S259〜S263)。具体的には、カメラ画像表示用画面のピクセル座標(Mx、My)に変換し、これをカメラ画像表示処理部の表示バッファに書き込むことでカメラ画面にカーソルを表示する。   Then, as shown in FIG. 26, the selection unit 85 selectively activates in the order of inverse coordinate transformation 4, inverse coordinate transformation 3, inverse coordinate transformation 2, and inverse coordinate transformation 1 to correspond to the cursor position on the plan view image. The cursor is displayed at a position on the image (S259 to S263). Specifically, the coordinates are converted into pixel coordinates (Mx, My) of the camera image display screen, and this is written in the display buffer of the camera image display processing unit to display the cursor on the camera screen.

つまり、カメラ画像表示処理部34aaがカメラ画像表示用バッファ34ad1のカメラ画像と、カーソル用表示バッファ34ad2のカーソル画像とを合成して表示制御部80に出力し、GIS画像表示処理部34bがGIS画像用表示バッファ34bd1の監視カメラの画角(撮影範囲)での三次元GIS画像とカーソル用表示バッファ34bd2のカーソル画像とを合成して表示制御部80に出力する。   That is, the camera image display processing unit 34aa combines the camera image in the camera image display buffer 34ad1 and the cursor image in the cursor display buffer 34ad2 and outputs the synthesized image to the display control unit 80, and the GIS image display processing unit 34b outputs the GIS image. The three-dimensional GIS image at the angle of view (shooting range) of the monitoring camera in the display buffer 34bd1 and the cursor image in the cursor display buffer 34bd2 are combined and output to the display control unit 80.

また、平面図画像表示処理部34cが平面図用表示バッファ34cd1の平面図画像とカーソル用表示バッファ34cd2のカーソル画像とを合成して表示制御部80に出力する。   Further, the plan view image display processing unit 34c combines the plan view image of the plan view display buffer 34cd1 and the cursor image of the cursor display buffer 34cd2 and outputs them to the display control unit 80.

そして、表示制御部80が表示用バッファ80aの対応するエリアにこれらの画像を読み出して、表示バッファ80aのこれらの画像を表示部20に表示する(図27(b)参照)。   Then, the display control unit 80 reads out these images in the corresponding area of the display buffer 80a, and displays these images in the display buffer 80a on the display unit 20 (see FIG. 27B).

すなわち、選択部85は、上記実施の形態と同様に、カメラ画像上でカーソルが指定された場合は、カメラ画像指定個所三次元座標変換部、GIS画像用逆変換部、平面図画像用逆変換部の機能を実行させている。   That is, as in the above embodiment, when the cursor is designated on the camera image, the selection unit 85 performs the camera image designation location three-dimensional coordinate transformation unit, the GIS image inverse transformation unit, and the plan view image inverse transformation. The function of the department is executed.

また、GIS画像上でカーソルが指定された場合は、GIS画像指定個所三次元座標変換部、カメラ画像用逆変換部、平面図画像用逆変換部の機能を実行させている。   When the cursor is designated on the GIS image, the functions of the three-dimensional coordinate conversion unit, the camera image reverse conversion unit, and the plan view image reverse conversion unit are executed.

さらに、平面図画像上でカーソルが指定された場合は、平面図画像指定個所三次元座標変換部、GIS画像用逆変換部、カメラ画像用逆変換部の機能を実行させている。   Further, when a cursor is designated on the plan view image, the functions of the plan view image designation location three-dimensional coordinate conversion unit, GIS image reverse conversion unit, and camera image reverse conversion unit are executed.

従って、一つの画面において、監視カメラからのカメラ画像と、三次元GIS画像と、平面図画像とを連動表示しても、カメラ画像は何等加工が加えられていないリアルな画像であるから、このカメラ画像は信頼ができる。   Therefore, even if the camera image from the surveillance camera, the three-dimensional GIS image, and the plan view image are displayed in conjunction on one screen, the camera image is a real image that has not been subjected to any processing. The camera image is reliable.

さらに、いずれかの画面において、カーソルが指定されると他の画面上の対応する位置にも同じカーソルを表示するので、信頼できるリアルなカメラ画像を見ながら位置の特定を平面図、GIS画像、カメラ画像上で地理的な空間位置を一目で把握できる。   Furthermore, when a cursor is specified on any screen, the same cursor is displayed at the corresponding position on the other screen, so that the position can be specified while looking at a reliable real camera image, a plan view, a GIS image, The geographical spatial position can be grasped at a glance on the camera image.

ここで、画角の設定について図28を用いて説明を補充する。   Here, the description of setting the angle of view will be supplemented with reference to FIG.

地上対象物Pの地理座標系における座標(XY、Z)とカメラ座標系における座標P(xp、、z)は、次の関係式で求められる。 Coordinates in the geographic coordinate system of the ground object P (X, Y, Z) coordinates P in the camera coordinate system (x p, y p, z p) is obtained by the following equation.

このとき、カメラ座標系の地理座標系に対する傾きを(ω、ψ、κ)、カメラ投影中心の地理座標を0(X0、、Z)とする。
At this time, the inclination of the camera coordinate system with respect to the geographic coordinate system is (ω, ψ, κ), and the geographic coordinates of the camera projection center are 0 (X 0, Y 0 , Z 0 ).

次に、上記式の回転行列Rは式2)のように表せる。
Next, the rotation matrix R of the above equation can be expressed as shown in Equation 2).

ここで、カメラの焦点距離をc、対象物Pとカメラ投影中心0(X0、、Z)とを結ぶ直線とCCD面との交点の画面座標をp(x,y)とすると、投影中心、画面座標、地上対象物が一直線上にあるという共線条件式は次のようにして求められる。
Here, let c be the focal length of the camera, and p (x, y) be the screen coordinates of the intersection of the straight line connecting the object P and the camera projection center 0 (X 0, Y 0 , Z 0 ) with the CCD plane. The collinear conditional expression that the projection center, the screen coordinates, and the ground object are in a straight line is obtained as follows.

よってこの関係式を用いて、カメラの地理座標系に対する位置と姿勢((X0、、Z)&(ω、ψ、κ))すなわち外部標定要素と、カメラの焦点距離cが既知であれば、任意の地理座標(X、Y、Z)に対応するCCD面上の座標(x、y)を導きだせる。 Therefore, using this relational expression, the position and orientation ((X 0, Y 0 , Z 0 ) & (ω, ψ, κ)) of the camera with respect to the geographic coordinate system, that is, the external orientation element and the focal length c of the camera are known. If so, coordinates (x, y) on the CCD plane corresponding to arbitrary geographic coordinates (X, Y, Z) can be derived.

また、上記の式を変形し以下の式とすることで、CCD上の画面座標(x、y)と標高(Z)から、地理座標(X、Y)を求めることできる。
Further, by transforming the above formula into the following formula, the geographical coordinates (X, Y) can be obtained from the screen coordinates (x, y) and altitude (Z) on the CCD.

画面座標(x、y)から地理座標(X、Y、Z)を求める場合は、カメラ投影中心の標高(Z)等を初期値とし、連続的に標高Zの値を変更して上記式より地理座標(X、Y)をもとめ、求められた地理座標(X、Y)に対応する三次元地形モデルにおける実際の標高とを比較し、合致した地点を真値とする方法などがある。この際に、最もカメラに近い合致地点を選択することで地形の影に隠れて本来見えない地点を選ぶような間違いを回避することが出来る。 When the geographical coordinates (X, Y, Z) are obtained from the screen coordinates (x, y), the elevation (Z 0 ) of the camera projection center is set as an initial value, and the value of the elevation Z is continuously changed to obtain the above formula. There is a method of determining the geographic coordinates (X, Y), comparing the actual elevations in the three-dimensional terrain model corresponding to the obtained geographic coordinates (X, Y), and setting the matching points as true values. At this time, by selecting a matching point closest to the camera, it is possible to avoid a mistake such as selecting a point that is hidden by the shadow of the terrain and is not originally visible.

なお、上記各実施の形態では、平面図画像は等高線付きの地図として説明したが、平面図は、等高線付きの地図、防災マップ、特別に凹凸を強調した赤色地図とからなる合計3種類であってもよい、この場合は、画面を5分割して上記のように各画像表示処理部を生成し、それぞれの画面においてカーソルが指定されたときに、他の対応する位置にカーソルを連動表示するようにする。   In each of the above embodiments, the plan view image has been described as a map with contour lines. However, there are three types of plan views: a map with contour lines, a disaster prevention map, and a red map with special emphasis on unevenness. In this case, the screen is divided into five, and each image display processing unit is generated as described above. When the cursor is designated on each screen, the cursor is displayed in conjunction with another corresponding position. Like that.

11 カメラ画像指定個所連像表示部
12 GIS画像指定個所連動表示部
13 平面図指定個所連動表示部
31 カメラ選択部
32 モード判定部
33 画角設定部
34 表示処理部
DESCRIPTION OF SYMBOLS 11 Camera image designated part continuous image display part 12 GIS image designated part interlocking display part 13 Plan view designated part interlocking display part 31 Camera selection part 32 Mode determination part 33 Angle setting part 34 Display processing part

Claims (9)

表示部の画面を分割して、撮影対象をCCDを有する監視カメラで撮影した監視カメラ画像及び該監視カメラ画像に対応する三次元画像並びに前記撮影対象を含む平面図画像を該当の表示画面に連動表示して、いずれかの表示画面の指定個所にマークを表示して、他の表示画面の対応する位置にマークを連動表示させる監視カメラ画像を用いた連動表示計測システムであって、
前記撮影対象の三次元地形モデル、前記監視カメラ画像、前記監視カメラの外部標定要素及び内部標定要素、前記撮影対象を含む平面図データを記憶した記憶手段と、
(a)前記外部標定要素、内部標定要素に基づいて前記三次元地形モデルに前記監視カメラ撮影地点における画角を定義する手段と、
(b)前記監視カメラ画像の表示画面における前記指定個所の座標を前記監視カメラ画像上の画像座標に変換し、この監視カメラ画像上の画像座標をCCD面の実座標である写真座標に変換し、該写真座標を前記画角内のカメラ座標に変換し、該カメラ座標を前記三次元地形モデルの三次元座標に変換する手段と、
(c)前記三次元画像の表示画面における指定個所の座標をこの三次元画像上の画像座標に変換し、この三次元画像上の画像座標を前記写真座標に変換し、該写真座標を前記画角内のカメラ座標に変換し、該カメラ座標を前記三次元地形モデルの三次元座標に変換する手段と、
(d)前記平面図画像の表示画面における指定個所の座標を前記平面図データの二次元座標に変換し、これを前記三次元地形モデルの三次元座標に変換する手段と、
を備え、
(e)前記三次元地形モデルの三次元座標を読込んで、前記(c)手段の座標変換の過程を逆変換して前記三次元画像の表示画面の座標に変換し、この座標に前記マークを表示する手段と、
(f)前記三次元地形モデルの三次元座標を読み込んで、前記(d)手段の座標変換の過程を逆変換して、前記平面図画像の表示画面の座標に変換し、この座標に前記マークを表示する手段と、
(g)前記三次元地形モデルの三次元座標を読込んで、前記(b)手段の座標変換の過程を逆変換して前記監視カメラ画像の表示画面の座標に変換し、この座標に前記マークを表示する手段と、
を備え、
(h1)前記指定個所が前記監視カメラ画像の表示画面の場合は、前記(b)手段、(e)手段を起動させると共に、前記(f)手段を起動させる手段と、
(h2)前記指定個所が前記三次元画像の表示画面の場合は、前記(c)手段、(g)手段を起動させると共に、前記(f)手段を起動させる手段と、
(h3)前記指定個所が前記平面図画像の表示画面の場合は、前記(d)、前記(e)手段を起動させると共に、前記(g)手段を起動させる手段と
を備えたことを特徴とする監視カメラ画像を用いた連動表示計測システム。
The screen of the display unit is divided, and the surveillance camera image obtained by photographing the subject to be photographed by the surveillance camera having the CCD, the three-dimensional image corresponding to the surveillance camera image, and the plan view image including the subject to be photographed are linked to the corresponding display screen. A linked display measurement system that uses a monitoring camera image to display and display a mark at a specified location on one of the display screens and display the mark in a linked position on another display screen,
A storage means for storing a three-dimensional terrain model of the imaging target, the monitoring camera image, an external orientation element and an internal orientation element of the monitoring camera, and plan view data including the imaging target;
(A) means for defining an angle of view at the photographing point of the surveillance camera in the three-dimensional terrain model based on the external orientation element and the internal orientation element;
(B) The coordinates of the designated location on the display screen of the monitoring camera image are converted into image coordinates on the monitoring camera image, and the image coordinates on the monitoring camera image are converted into photographic coordinates which are actual coordinates on the CCD surface. Converting the photographic coordinates into camera coordinates within the angle of view, and converting the camera coordinates into three-dimensional coordinates of the three-dimensional terrain model;
(C) The coordinates of the designated portion on the display screen of the three-dimensional image are converted into image coordinates on the three-dimensional image, the image coordinates on the three-dimensional image are converted into the photographic coordinates, and the photographic coordinates are converted into the image coordinates. Means for converting into camera coordinates in a corner, and converting the camera coordinates into three-dimensional coordinates of the three-dimensional terrain model;
(D) means for converting the coordinates of a designated portion on the display screen of the plan view image into two-dimensional coordinates of the plan view data, and converting the two-dimensional coordinates into the three-dimensional coordinates of the three-dimensional terrain model;
With
(E) Reading the three-dimensional coordinates of the three-dimensional terrain model, converting the coordinate conversion process of the means (c) into the coordinates of the display screen of the three-dimensional image, and converting the mark to the coordinates. Means for displaying;
(F) The three-dimensional coordinates of the three-dimensional terrain model are read, and the coordinate transformation process of the means (d) is inversely transformed to be transformed into the coordinates of the display screen of the plan view image. Means for displaying,
(G) The three-dimensional coordinates of the three-dimensional terrain model are read, the coordinate conversion process of the means (b) is inversely converted into coordinates on the display screen of the monitoring camera image, and the mark is added to the coordinates. Means for displaying;
With
(H1) When the designated location is the display screen of the monitoring camera image, the (b) means, (e) means are activated, and the (f) means are activated,
(H2) When the designated portion is the display screen of the three-dimensional image, the (c) means, (g) means are activated, and the (f) means are activated,
(H3) When the designated portion is the display screen of the plan view image, the (d) and (e) means are activated, and the (g) means is activated. Linked display measurement system using surveillance camera images.
(i)前記監視カメラ画像の表示画面又は前記平面図画像の表示画面において指定された範囲をポリゴン表示する手段と、
を有することを特徴とする請求項1記載の監視カメラ画像を用いた連動表示計測システム。
(I) means for polygon-displaying a range designated on the monitor camera image display screen or the plan view image display screen;
The interlocking display measurement system using the surveillance camera image according to claim 1.
前記(i)手段は、
(i1)前記監視カメラ画像の表示画面に前記ポリゴン表示がなされた場合は、そのポリゴンの各頂点の座標を読み込んで、前記指定個所として前記(b)手段に出力して前記各頂点の座標を前記三次元地形モデル上の三次元座標に変換させ、前記(f)手段の逆変換により前記各頂点の座標を前記平面図画像の表示画面における各座標に変換させて、これらの座標を結ぶ範囲を前記ポリゴン表示する手段と、
(i2)前記平面画像の表示画面で前記ポリゴン表示がなされた場合は、このポリゴンの各頂点の座標を読み込んで、前記指定個所として前記(d)手段に出力してこれらの頂点の座標を前記三次元地形モデル上の三次元座標に変換させて、前記(g)手段の逆変換により、前記監視カメラ画像の表示画面における各座標に変換させて、これらの座標を結ぶ範囲を前記ポリゴン表示する手段と
を有することを特徴とする請求項2記載の監視カメラ画像を用いた連動表示計測システム。
Said (i) means comprises:
(I1) When the polygon display is made on the monitor camera image display screen, the coordinates of each vertex of the polygon are read and output to the means (b) as the designated location to obtain the coordinates of each vertex. A range in which the coordinates are converted into three-dimensional coordinates on the three-dimensional terrain model, the coordinates of the vertices are converted into the coordinates on the display screen of the plan view image by the inverse conversion of the means (f), and the coordinates are connected. Means for displaying the polygon;
(I2) When the polygon is displayed on the display screen of the plan view image, the coordinates of each vertex of the polygon are read and output to the means (d) as the designated portion to output the coordinates of these vertices. The three-dimensional coordinates on the three-dimensional terrain model are converted into three-dimensional coordinates and converted into coordinates on the monitoring camera image display screen by the inverse conversion of the means (g), and a range connecting these coordinates is displayed in the polygon display. The interlocking display measurement system using the monitoring camera image according to claim 2, further comprising:
(m)前記監視カメラ画像の表示画面にポリゴン表示された場合は、このポリゴンを形成する線の各座標を読み込んで、前記(b)手段によって前記三次元地形モデル上の三次元座標に各々変換させ、この各々の三次元座標を前記(e)手段によって前記三次元画像の表示画面の座標に変換させ、これらを点で前記三次元画像の表示画面に表示させる手段と、
(n)前記平面図画像の表示画面に前記ポリゴン表示された場合は、このポリゴンを形成する線の各座標を前記(d)手段によって前記三次元地形モデル上の三次元座標に各々変換させ、この各々の三次元座標を前記(e)手段によって前記三次元画像の表示画面の座標に変換させ、これらを点で前記三次元画像上に表示させる手段とを有することを特徴とする請求項2記載の監視カメラ画像を用いた連動表示計測システム。
(M) When polygons are displayed on the monitoring camera image display screen, the coordinates of the lines forming the polygons are read and converted into the three-dimensional coordinates on the three-dimensional terrain model by the means (b). Means for converting each of these three-dimensional coordinates into the coordinates of the display screen of the three-dimensional image by the means (e), and displaying them on the display screen of the three-dimensional image as points.
(N) When the polygon is displayed on the display screen of the plan view image, each coordinate of a line forming the polygon is converted into a three-dimensional coordinate on the three-dimensional terrain model by the means (d), 3. A means for converting each of the three-dimensional coordinates into coordinates of a display screen of the three-dimensional image by the means (e) and displaying them on the three-dimensional image as points. A linked display measurement system using the described surveillance camera image.
前記監視カメラ画像の表示画面において、前記指定個所が連続指定される毎に、前記(b)手段により前記三次元地形モデル上の三次元座標に変換させて、該変換毎に距離を求め、これを画面に表示する手段と
を有することを特徴とする請求項1記載の監視カメラ画像を用いた連動表示計測システム。
On the display screen of the monitoring camera image, every time the designated portion is designated continuously, the (b) means converts the three-dimensional coordinates on the three-dimensional terrain model, and obtains the distance for each conversion. The interlocking display measurement system using the surveillance camera image according to claim 1, further comprising: means for displaying the image on a screen.
前記三次元地形モデル上の前記各頂点の三次元座標を読み込み、これらを繋げた範囲の面積を求め、これを表示する手段と
を有することを特徴とする請求項3記載の監視カメラ画像を用いた連動表示計測システム。
4. The surveillance camera image according to claim 3, further comprising means for reading the three-dimensional coordinates of the vertices on the three-dimensional terrain model, obtaining an area of a range in which the vertices are connected, and displaying the area. The linked display measurement system.
前記三次元地形モデル上の前記三次元座標を読み込んで、該三次元座標を表示する手段と
を有することを特徴とする請求項1記載の監視カメラ画像を用いた連動表示計測システム。
The linked display measurement system using a monitoring camera image according to claim 1, further comprising means for reading the three-dimensional coordinates on the three-dimensional terrain model and displaying the three-dimensional coordinates .
前記(b)手段は、
前記監視カメラ画像の表示画面の縦横のピクセル数と監視カメラ画像の縦横のピクセル数の比から監視カメラ画像の表示画面上の前記指定個所のピクセル座標(Mx、My)を監視カメラ画像のピクセル座標(Px、Py)に変換する第1の座標変換手段と、
前記監視カメラの写真面の実サイズと監視カメラ画像の縦横のピクセル数とを対応させて、前記監視カメラ画像のピクセル座標(Px、Py)を監視カメラの写真座標(X´、Y´)に変換する第2の座標変換手段と、
前記写真座標に対応する平面をX、Y軸、この原点に直交する軸をZ軸とし、前記CCD面からZ方向に焦点距離分だけ離れた点を光学中心とし、この光学中心を原点とした三次元空間を想定し、この三次元空間の二次元座標である写真座標(X´、Y´)を前記光学中心から三次元相対位置に置き換えたカメラ座標(X´、Y´、Z´)に変換する第3の座標変換手段と、
前記監視カメラの前記光学中心の三次元座標及びカメラ座標系の前記三次元座標に対する傾きを用いて、前記カメラ座標系を前記三次元座標系に変換し、前記三次元座標系に変換された前記監視カメラの前記光学中心と前記CCD面上の対象物と結ぶ直線が前記三次元地形モデルの立体面と交差する点の三次元座標(X,Y,Z)を求める第4の座標変換手段と
を有することを特徴とする請求項1記載の監視カメラ画像を用いた連動表示計測システム。
The means (b) is:
The pixel coordinates (Mx, My) of the designated location on the monitoring camera image display screen are determined from the ratio of the vertical and horizontal pixel counts of the monitoring camera image display screen to the vertical and horizontal pixel counts of the monitoring camera image. First coordinate conversion means for converting to (Px, Py);
By associating the actual size of the photographic surface of the surveillance camera with the number of vertical and horizontal pixels of the surveillance camera image, the pixel coordinates (Px, Py) of the surveillance camera image become the photographic coordinates (X ′, Y ′) of the surveillance camera. Second coordinate conversion means for converting;
The plane corresponding to the photographic coordinates is the X and Y axes, the axis orthogonal to the origin is the Z axis, the point separated from the CCD surface by the focal length in the Z direction is the optical center, and this optical center is the origin. Assuming a three-dimensional space, camera coordinates (X ′, Y ′, Z ′) obtained by replacing the photographic coordinates (X ′, Y ′), which are the two-dimensional coordinates of the three-dimensional space, with the three-dimensional relative position from the optical center. Third coordinate conversion means for converting to
Using the three-dimensional coordinates of the optical center of the monitoring camera and the tilt of the camera coordinate system with respect to the three-dimensional coordinates, the camera coordinate system is converted into the three-dimensional coordinate system, and the three-dimensional coordinate system is converted into the three-dimensional coordinate system. Fourth coordinate conversion means for obtaining a three-dimensional coordinate (X, Y, Z) of a point where a straight line connecting the optical center of the surveillance camera and the object on the CCD plane intersects the solid surface of the three-dimensional terrain model ;
The interlocking display measurement system using the surveillance camera image according to claim 1.
前記監視カメラ画像の表示画面に表示される監視カメラ画像は、
前記記憶手段の前記監視カメラ画像を読み出し、この監視カメラ画像を再生する手段と、
前記再生された監視カメラ画像を前記監視カメラ画像の表示画面に出力する手段と
によって表示していることを特徴とする請求項1記載の監視カメラ画像を用いた連動表示計測システム。
The monitoring camera image displayed on the display screen of the monitoring camera image is
Means for reading the surveillance camera image of the storage means and reproducing the surveillance camera image ;
Means for outputting the reproduced surveillance camera image to a display screen of the surveillance camera image;
The interlocking display measurement system using the surveillance camera image according to claim 1 , wherein the display is performed by the following .
JP2010024018A 2009-11-27 2010-02-05 Interlocking display measurement system using surveillance camera images Active JP4642136B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010024018A JP4642136B1 (en) 2009-11-27 2010-02-05 Interlocking display measurement system using surveillance camera images

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009270271 2009-11-27
JP2009270271 2009-11-27
JP2010024018A JP4642136B1 (en) 2009-11-27 2010-02-05 Interlocking display measurement system using surveillance camera images

Publications (2)

Publication Number Publication Date
JP4642136B1 true JP4642136B1 (en) 2011-03-02
JP2011133840A JP2011133840A (en) 2011-07-07

Family

ID=43836010

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010024018A Active JP4642136B1 (en) 2009-11-27 2010-02-05 Interlocking display measurement system using surveillance camera images

Country Status (1)

Country Link
JP (1) JP4642136B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012216962A (en) * 2011-03-31 2012-11-08 Takenaka Komuten Co Ltd Monitoring device and program
CN109525816A (en) * 2018-12-10 2019-03-26 北京智汇云舟科技有限公司 A kind of more ball fusion linked systems of multiple gun based on three-dimensional geographic information and method
CN113115001A (en) * 2021-04-13 2021-07-13 大庆安瑞达科技开发有限公司 Oil and gas field video monitoring real-time three-dimensional projection fusion method

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5665608B2 (en) * 2011-03-04 2015-02-04 三菱電機株式会社 Image display device
JP2015143803A (en) * 2014-01-31 2015-08-06 朝日航洋株式会社 Picture map creation method
WO2016157802A1 (en) * 2015-03-27 2016-10-06 日本電気株式会社 Information processing apparatus, information processing system, information processing method, and storage medium
KR102170793B1 (en) * 2015-08-17 2020-10-28 한국전자기술연구원 Distance measurement method of CCTV image using satellite images
JP6811534B2 (en) * 2016-02-04 2021-01-13 株式会社トプコン Road property display method and road property display device
JP7360258B2 (en) * 2019-06-21 2023-10-12 株式会社クボタ work vehicle
JP6973726B1 (en) * 2021-07-27 2021-12-01 株式会社マプリィ Measurement system and measurement method

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04268593A (en) * 1991-02-22 1992-09-24 Toshiba Corp Building attribute information display system
JP2806187B2 (en) * 1992-11-27 1998-09-30 三菱電機株式会社 Absolute bearing orientation device
JP3048530B2 (en) * 1996-10-04 2000-06-05 日本テレビ放送網株式会社 Wireless transmission path drawing device
JP3718579B2 (en) * 1996-11-19 2005-11-24 住友電気工業株式会社 Video surveillance system
JP2001194092A (en) * 2000-01-05 2001-07-17 Mitsubishi Electric Corp Safety monitoring system for firing range
JP2001252463A (en) * 2000-03-10 2001-09-18 Konami Co Ltd Game device, judging method for specified position, storage medium, and program
FR2826769B1 (en) * 2001-06-29 2003-09-05 Thales Sa METHOD FOR DISPLAYING MAPPING INFORMATION ON AIRCRAFT SCREEN
JP2007280212A (en) * 2006-04-10 2007-10-25 Sony Corp Display control device, display control method and display control program
JP2008244946A (en) * 2007-03-28 2008-10-09 Sony Corp Image display apparatus, image display control method, program, and monitoring camera system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012216962A (en) * 2011-03-31 2012-11-08 Takenaka Komuten Co Ltd Monitoring device and program
CN109525816A (en) * 2018-12-10 2019-03-26 北京智汇云舟科技有限公司 A kind of more ball fusion linked systems of multiple gun based on three-dimensional geographic information and method
CN113115001A (en) * 2021-04-13 2021-07-13 大庆安瑞达科技开发有限公司 Oil and gas field video monitoring real-time three-dimensional projection fusion method
CN113115001B (en) * 2021-04-13 2022-11-04 大庆安瑞达科技开发有限公司 Oil and gas field video monitoring real-time three-dimensional projection fusion method

Also Published As

Publication number Publication date
JP2011133840A (en) 2011-07-07

Similar Documents

Publication Publication Date Title
JP4642136B1 (en) Interlocking display measurement system using surveillance camera images
US7944547B2 (en) Method and system of generating 3D images with airborne oblique/vertical imagery, GPS/IMU data, and LIDAR elevation data
US8963943B2 (en) Three-dimensional urban modeling apparatus and method
US20170230633A1 (en) Method and apparatus for generating projection image, method for mapping between image pixel and depth value
JP4940036B2 (en) Image display system with stereoscopic measure display function and image display program with stereoscopic measure display function
US11783580B2 (en) Input apparatus, input method of input apparatus, and output apparatus
CN106599119B (en) Image data storage method and device
JP6180647B2 (en) Indoor map construction apparatus and method using cloud points
JP6238101B2 (en) Numerical surface layer model creation method and numerical surface layer model creation device
JP6807459B2 (en) Damage diagram creation method, damage diagram creation device, damage diagram creation system, and recording medium
JP2008524684A (en) How to process images using automatic georeferencing of images obtained from pairs of images acquired in the same focal plane
JP4102324B2 (en) Surveying data processing system, surveying data processing program, and electronic map display device
JP6823719B2 (en) Image composition method, image composition device, and recording medium
US20210264666A1 (en) Method for obtaining photogrammetric data using a layered approach
KR20170094030A (en) System and Method for providing mapping of indoor navigation and panorama pictures
US8395760B2 (en) Unified spectral and geospatial information model and the method and system generating it
CN102957895A (en) Satellite map based global mosaic video monitoring display method
JP4588369B2 (en) Imaging apparatus and imaging method
KR101574636B1 (en) Change region detecting system using time-series aerial photograph captured by frame type digital aerial camera and stereoscopic vision modeling the aerial photograph with coordinate linkage
JP5669438B2 (en) Object management image generation apparatus and object management image generation program
JP2016009432A (en) Image forming apparatus, image forming system, and image forming program
JP2007188117A (en) Cave-in area extraction method, device and program
JP5714960B2 (en) Monitoring range detector
JP5473683B2 (en) Feature detection system
Hussein et al. Evaluation of the accuracy of direct georeferencing of smartphones for use in some urban planning applications within smart cities

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101130

R150 Certificate of patent or registration of utility model

Ref document number: 4642136

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131210

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250