JP2007013814A - Setting apparatus for detection region - Google Patents

Setting apparatus for detection region Download PDF

Info

Publication number
JP2007013814A
JP2007013814A JP2005194423A JP2005194423A JP2007013814A JP 2007013814 A JP2007013814 A JP 2007013814A JP 2005194423 A JP2005194423 A JP 2005194423A JP 2005194423 A JP2005194423 A JP 2005194423A JP 2007013814 A JP2007013814 A JP 2007013814A
Authority
JP
Japan
Prior art keywords
image
floor surface
information
unit
detector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005194423A
Other languages
Japanese (ja)
Inventor
Yoshitaka Hamaishi
佳孝 濱石
Kenji Ikeda
賢二 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2005194423A priority Critical patent/JP2007013814A/en
Publication of JP2007013814A publication Critical patent/JP2007013814A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Burglar Alarm Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a setting apparatus that uses an image for photographing a supervisory area to set an optional area with a height from a floor face within a supervisable area as a detection area of an object of detection processing. <P>SOLUTION: The setting apparatus displays an image for photographing the supervisory area, receives designation points for designating the detection area by distinguishing two-dimensional coordinate information on the floor face on the image from the other, calculates height information at the designation points by using the two-dimensional coordinate information and an imaging parameter at the designation points on the floor face, and the two-dimensional coordinate information of the designation points other than the floor face, uses all of the designation points on the floor face as reference height information, and converts the two-dimensional information on the image into detection area information of three-dimensional information by using the calculated height information for the designation points other than the floor face to obtain detection area information. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、人や物など監視対象が監視領域に存在していることを三次元計測して検出する監視装置に関し、特に、監視領域の一部の領域に対して検出領域を設定、又は一部の領域を検出領域から外すことができる検出領域または非検出領域の設定装置に関する。   The present invention relates to a monitoring device that three-dimensionally measures and detects that a monitoring target such as a person or an object exists in the monitoring area, and in particular, sets a detection area for a part of the monitoring area or sets one detection area. The present invention relates to a detection region or non-detection region setting device that can remove a region of a part from a detection region.

従来、監視領域を三次元計測して監視対象を検出する監視装置には、例えば特許文献1に記載されているように、マイクロ波を物体に照射し、その反射波を受信することにより、物体の位置(距離や方角)を検出するマイクロ波レーダ型の対象物検出装置が提案されている。
従来の対象物検出装置は、マイクロ波を使用しているため、監視領域を目視にて確認できない。このため、対象物検出装置では、監視領域を撮影した画像にレーダの検出範囲を表示させて、検出領域の確認および設定を行っている。
検出領域の設定は、先ず、画像上で検出領域としたい道路上を設定枠にて囲う。次に、設定枠の画素に対応する距離および方角を算出する。かかる距離及び方角から特定される範囲に位置する物体を検出対象とする。なお、検出対象である自動車は、道路面に使用されるアスファルトに比べ、マイクロ波の反射が強いことを利用し、最も強い反射波から算出される位置が特定された範囲内かを判定している。
特開2001−155291号公報
Conventionally, in a monitoring device that detects a monitoring target by three-dimensionally measuring a monitoring area, for example, as described in Patent Document 1, an object is irradiated with a microwave and the reflected wave is received. There has been proposed a microwave radar type object detection device that detects the position (distance and direction).
Since the conventional object detection apparatus uses microwaves, the monitoring area cannot be visually confirmed. For this reason, in the object detection apparatus, the detection range of the radar is displayed on the image obtained by capturing the monitoring area, and the detection area is confirmed and set.
For setting the detection area, first, a road to be set as a detection area on the image is surrounded by a setting frame. Next, the distance and direction corresponding to the pixels in the setting frame are calculated. An object located in a range specified from the distance and direction is set as a detection target. It should be noted that the detection target car uses the fact that the microwave reflection is stronger than the asphalt used on the road surface, and determines whether the position calculated from the strongest reflected wave is within the specified range. Yes.
JP 2001-155291 A

しかし、従来の対象物検出装置では、検出領域の設定枠は、道路面上に設定することを前提としているため、設定可能な範囲が道路面にしか形成できない。すなわち、設定枠が道路面上に存在するから、ビデオカメラの俯角、焦点距離、設置高を予め記憶しておくことにより、設定枠の画素に対応する距離および方角を算出できるのである。   However, in the conventional object detection apparatus, since the setting frame of the detection area is premised to be set on the road surface, a settable range can be formed only on the road surface. That is, since the setting frame exists on the road surface, the distance and direction corresponding to the pixels of the setting frame can be calculated by storing the depression angle, focal length, and installation height of the video camera in advance.

従来の対象物検出装置を用いて、検出領域を道路上ではない領域を設定しようとした場合について、図8を参照して具体的に説明する。
図8(b)は、対象物検出装置の配置状況を示すイメージ図である。先ず、対象物検出装置は、監視場所の上方から斜め下方を監視領域とするように設置されている。ここで、対象物検出装置は、ビデオカメラ1004とレーダ1003から構成されている。また、監視対象物として彫刻1001が設置されている。
With reference to FIG. 8, a specific description will be given of a case where a conventional object detection device is used to set a detection area that is not on a road.
FIG. 8B is an image diagram illustrating an arrangement state of the object detection device. First, the object detection device is installed so that a monitoring area is located obliquely downward from above the monitoring location. Here, the object detection apparatus includes a video camera 1004 and a radar 1003. In addition, a sculpture 1001 is installed as a monitoring object.

図8(a)は、ビデオカメラ1004が撮影した画像を示す図である。彫刻1001を監視すべく検出領域を設定する方法について説明する。図8(a)に示すように、彫刻1001を囲むように検出領域である設定枠1002を設定する。従来の対象物検出装置では、かかる設定枠1002が床面上(道路面)にあるとの前提になるため、図8(b)の1005に示すように、彫刻1001の対象物検出装置から奥行方向に床面まで延長した領域が設定されることになる。   FIG. 8A shows an image taken by the video camera 1004. A method for setting a detection area to monitor the engraving 1001 will be described. As shown in FIG. 8A, a setting frame 1002 that is a detection region is set so as to surround the engraving 1001. In the conventional object detection apparatus, since it is assumed that the setting frame 1002 is on the floor surface (road surface), as shown by 1005 in FIG. An area extending in the direction to the floor surface is set.

すなわち、画像上では検出領域として彫刻1001が設定されているように見えるが、算出される設定枠1002の画素に対応する距離は、例えば彫刻1001の頂上部で言えば、頂上部までの距離1006でなく彫刻1001の奥行方向の床面までの距離1005となる。このため、彫刻1001の位置は、レーダ1003での検出領域の距離範囲ではなくなり、彫刻1001を適正に監視できない。また、本来、監視したいのは、彫刻1001であるにも係わらず、レーダ1003では彫刻1001によって隠れて検出不可能な領域である彫刻1001の奥行方向の領域が設定されてしまう。   That is, the sculpture 1001 appears to be set as a detection area on the image, but the distance corresponding to the pixel of the setting frame 1002 to be calculated is, for example, the distance 1006 to the top of the sculpture 1001. Not the distance 1005 to the floor surface in the depth direction of the sculpture 1001. For this reason, the position of the sculpture 1001 is not within the distance range of the detection area of the radar 1003, and the sculpture 1001 cannot be monitored properly. Further, although the sculpture 1001 is originally intended to be monitored, the radar 1003 sets an area in the depth direction of the sculpture 1001 that is hidden by the sculpture 1001 and cannot be detected.

したがって、従来の対象物検出装置では、道路面という水平面を検出範囲に設定する場合にしか適用できず、高さを有する監視対象の検出範囲を設定が困難であるという問題があった。   Therefore, the conventional object detection apparatus can be applied only when a horizontal plane called a road surface is set as a detection range, and there is a problem that it is difficult to set a detection range of a monitoring target having a height.

そこで、本発明は、かかる課題を鑑みてなされたものであり、画像上にて人間が直感的に認識できるように指定した検出領域において、高さ・幅・奥行きなどの体積を有する監視対象物を適切に検出できる監視システムを提供することを目的とする。   Therefore, the present invention has been made in view of such problems, and a monitoring object having a volume such as height, width, and depth in a detection region designated so that a human can intuitively recognize it on an image. It is an object of the present invention to provide a monitoring system capable of appropriately detecting a problem.

かかる目的を達成するために本発明は、三次元情報を用いて移動体を検出する検出器の監視領域中の一部について、検出領域または非検出領域を設定する設定装置であって、監視領域の画像を撮影する撮像部と、撮像部が撮影した画像を表示する表示部と、表示部に表示された画像上にて検出領域または非検出領域の指定操作をする入力部と、撮像部の設置高・俯角・焦点距離を含む撮像パラメータおよび検出領域または非検出領域を記憶する記憶部と、入力部から指定された指定点の画像上の二次元座標情報を床面上と床面以外とに区別した入力を受け、床面上の指定点の二次元座標情報と撮像パラメータおよび床面以外の指定点の二次元座標情報を用いて床面以外の指定点の高さ情報を算出し、床面上の指定点は総てを基準の高さ情報とし、床面以外の指定点は算出した高さ情報を用いて、画像上の二次元情報を三次元情報に変換した検出領域または非検出領域を前記記憶部に記憶させる制御部を具備した設定装置を提供する。   In order to achieve this object, the present invention provides a setting device for setting a detection region or a non-detection region for a part of a monitoring region of a detector that detects a moving body using three-dimensional information. An imaging unit that captures an image of the image, a display unit that displays an image captured by the imaging unit, an input unit that performs a designation operation of a detection area or a non-detection area on the image displayed on the display unit, and an imaging unit A storage unit that stores imaging parameters including the installation height, depression angle, and focal length, and a detection area or non-detection area, and two-dimensional coordinate information on an image of a specified point specified by the input unit on the floor surface and other than the floor surface And using the two-dimensional coordinate information of the designated point on the floor and the imaging parameters and the two-dimensional coordinate information of the designated point other than the floor to calculate the height information of the designated point other than the floor, All designated points on the floor are A setting device including a control unit that stores a detection region or a non-detection region obtained by converting two-dimensional information on an image into three-dimensional information using the calculated height information for designated points other than the floor surface I will provide a.

かかる構成による設定装置は、撮像部にて取得した二次元情報である画像を操作者が表示部の表示を見ながら、画面上で検出領域としたい領域を特定する指定点を床面上と床面以外とを区別して指定することで、検出器が用いる三次元情報での検出領域に変換できる。   In the setting device having such a configuration, an operator views an image, which is two-dimensional information acquired by an imaging unit, while observing the display on the display unit, and designates specified points on the screen for specifying a region to be a detection region on the screen. By specifying differently from the surface, it can be converted into a detection region in the three-dimensional information used by the detector.

本発明の好適な態様では、表示部に対して、これから入力する指定点が床面上か床面以外かを操作者に知らせるガイド表示させることで、操作者の入力を容易にさせことができる。   In a preferred aspect of the present invention, the operator can easily input by displaying a guide on the display unit to inform the operator whether the designated point to be input is on the floor surface or other than the floor surface. .

本発明の好適な態様では、表示部に対して、床面上の指定点を入力した後に、床面以外の指定点の入力を行わせるガイド表示をさせることで、操作者の入力を容易にさせることができる。   In a preferred aspect of the present invention, after a designated point on the floor surface is input to the display unit, a guide display that allows the designated point other than the floor surface to be input is made easy for the operator to input. Can be made.

本発明の好適な態様では、画像上の二次元情報を画像の横方向と縦方向をそれぞれX軸・Y軸とするXY座標を定義し、床面上の指定点におけるXY座標情報と、前記撮像パラメータと、床面以外の指定点のY座標情報を用いて、画像の透視変換の逆変換を行ない前記床面以外の高さ情報を算出する。   In a preferred aspect of the present invention, the two-dimensional information on the image is defined as XY coordinates with the horizontal and vertical directions of the image as the X axis and the Y axis, respectively, and the XY coordinate information at a specified point on the floor surface, Using the imaging parameter and the Y coordinate information of the designated point other than the floor surface, the perspective transformation of the image is reversed and the height information other than the floor surface is calculated.

本発明の好適な態様では、床面以外の指定点は、床面上の指定点の監視領域中における直上の位置を指定する。   In a preferred aspect of the present invention, the designated point other than the floor surface designates a position immediately above the designated point on the floor surface in the monitoring area.

かかる発明によれば、操作者が表示部の画像を見ながら、二次元情報である画像上に検出領域を指定することにより、三次元情報の検出領域または非検出領域を容易に設定できる。   According to this invention, the operator can easily set the detection area or the non-detection area of the three-dimensional information by designating the detection area on the image that is the two-dimensional information while looking at the image on the display unit.

以下、図を参照して、本願発明を美術館の監視システムに適用した場合の実施の形態を説明する。
図1は、監視システムの全体構成を示すブロック図である。監視システムは、美術館の警備員が待機している警備室等に設置される監視装置20と、美術館の各展示場・廊下・エントランスホールなどに適宜の数を侵入者や展示物の持ち去り検出のために設置される検出器10から構成している。監視装置20と各検出器10は、LAN(Local Area Network)28を介して接続されている。また、監視装置20は、電話回線29を介して図示していない警備センタと接続されている。なお、検出器10は、美術館等の規模に応じて、単数でも、複数でもよい。
Hereinafter, an embodiment when the present invention is applied to an art museum monitoring system will be described with reference to the drawings.
FIG. 1 is a block diagram showing the overall configuration of the monitoring system. The surveillance system detects the number of intruders and exhibits taken away in the monitoring device 20 installed in the security room where the guards of the museum are waiting, and each exhibition hall, hallway, entrance hall, etc. of the museum. It comprises the detector 10 installed for the purpose. The monitoring device 20 and each detector 10 are connected via a LAN (Local Area Network) 28. The monitoring device 20 is connected to a security center (not shown) via a telephone line 29. The detector 10 may be singular or plural depending on the scale of the museum or the like.

検出器10は、送信手段11・複数の受信手段12・撮像手段13・検出器記憶手段15・通信手段16、検出器制御手段14および各部に電源を供給する電源17から構成されている。   The detector 10 includes a transmission unit 11, a plurality of reception units 12, an imaging unit 13, a detector storage unit 15, a communication unit 16, a detector control unit 14, and a power source 17 that supplies power to each unit.

送信手段11は、アンテナや発振素子等にて構成され、マイクロ波を監視領域に送信するとともに、監視領域に送信したマイクロ波の出力波形を受信手段12へ出力する。   The transmission unit 11 is configured by an antenna, an oscillation element, and the like, and transmits a microwave to the monitoring region and outputs an output waveform of the microwave transmitted to the monitoring region to the reception unit 12.

受信手段12は、アンテナ・ミキサ・フィルタ等にて構成され、送信手段11の送信したマイクロ波が監視領域内に存在するものに反射した反射波を受信するともに、送信手段11からの出力波形の入力を受けて反射波とのミキシングを行ないフィルタリングして測定データを検出器制御手段14に出力する。
また、受信手段12は、水平の左右に各1つ、および垂直方向に1つの合計3つを配置している。なお、垂直方向に設置される受信手段12は、水平方向の受信手段12のいずれかの水平方向に対する垂直な位置に配置しており、3つの受信手段12のアンテナの受信特性は、同一の方向に指向している。
The receiving means 12 is composed of an antenna, a mixer, a filter, and the like. The receiving means 12 receives the reflected wave reflected by the microwave transmitted by the transmitting means 11 and presents the output waveform from the transmitting means 11. The input is received, mixed with the reflected wave, filtered, and the measurement data is output to the detector control means 14.
In addition, the receiving means 12 is arranged in a total of three, one each on the left and right in the horizontal direction and one in the vertical direction. The receiving means 12 installed in the vertical direction is arranged at a position perpendicular to any horizontal direction of the horizontal receiving means 12, and the receiving characteristics of the antennas of the three receiving means 12 are the same direction. Oriented to.

撮像手段13は、CCD等の撮像素子(光電変換素子)を用いたカメラであり、検出器10の監視領域を撮影する。撮像手段13は、送信手段11と受信手段12にて送受信されるマイクロ波にて検出し得る監視領域(センサ視野)の全てを含む画角を有している。後述する検出領域を設定する際の最大の範囲となる監視領域を少なくとも含む画像を用いたいからである。また、撮像手段13の撮像中心を撮像面から垂直に延ばした軸、即ち光軸は、受信手段12における指向中心の方向と略一致するよう検出器10の筐体に収納されている。   The imaging means 13 is a camera using an imaging element (photoelectric conversion element) such as a CCD, and images the monitoring area of the detector 10. The imaging unit 13 has an angle of view including all of the monitoring region (sensor field of view) that can be detected by the microwaves transmitted and received by the transmission unit 11 and the reception unit 12. This is because it is desired to use an image including at least a monitoring area that is a maximum range when setting a detection area to be described later. Further, an axis obtained by extending the imaging center of the imaging unit 13 perpendicularly from the imaging surface, that is, the optical axis, is housed in the housing of the detector 10 so as to substantially coincide with the direction of the directional center in the receiving unit 12.

検出器記憶手段15は、ROM(Read Only Memory)/RAM(Random Access Memory)から構成され、後述する検出領域情報・検出器制御手段14にて実行される各種プログラム・検出器10の各種パラメータ、各検出器10に固有に割り振られた検出器番号などを記憶する。
ここで、各種プログラムには、監視装置20からの制御コマンドに対する処理プログラム、異常判定処理手段141を実行するための異常判定処理プログラム、測距測角処理手段142を実行するための測距測角処理プログラムなどである。
The detector storage means 15 is composed of ROM (Read Only Memory) / RAM (Random Access Memory), various programs executed by the detection area information / detector control means 14 described later, various parameters of the detector 10, The detector number uniquely assigned to each detector 10 is stored.
Here, the various programs include a processing program for a control command from the monitoring device 20, an abnormality determination processing program for executing the abnormality determination processing means 141, and a distance measuring angle for executing the distance measuring angle processing means 142. A processing program.

各種パラメータには、撮像手段13に関連する撮像パラメータとして設置高h、俯角ρ、焦点距離f等と、マイクロ波の送受信に関連するマイクロ波パラメータとして、各受信手段12の配置情報・受信手段12と撮像手段13との位置ずれの補正係数などである。   The various parameters include the installation height h, the depression angle ρ, the focal length f, etc. as imaging parameters related to the imaging means 13, and the arrangement information / receiving means 12 of each receiving means 12 as microwave parameters related to microwave transmission / reception. And a misalignment correction coefficient between the image pickup unit 13 and the like.

通信手段16は、通信IC等にて構成され、LAN28を介して監視装置20および他の検出器10と各種通信を実行する。   The communication means 16 is composed of a communication IC or the like, and executes various communications with the monitoring device 20 and other detectors 10 via the LAN 28.

検出器制御手段14は、CPUにより構成され、検出器記憶手段15に記憶されている各種プログラムにしたがって検出器10の各構成要素を制御する。検出器制御手段14の主な機能として、測距測角処理手段142および異常判定処理手段141の機能がある。更に、監視装置20からのコマンドに基づいて、後述する検出領域を検出器記憶手段15に記憶する機能も実行する。ここでは、測距測角処理手段142と異常判定処理手段141について説明する。   The detector control means 14 is constituted by a CPU, and controls each component of the detector 10 according to various programs stored in the detector storage means 15. The main functions of the detector control means 14 are the functions of the distance measurement angle processing means 142 and the abnormality determination processing means 141. Furthermore, based on the command from the monitoring apparatus 20, the function which memorize | stores the detection area mentioned later in the detector memory | storage means 15 is also performed. Here, the distance measurement and angle processing means 142 and the abnormality determination processing means 141 will be described.

測距測角処理手段142は、いわゆるマイクロ波レーダセンサにおける2周波CWモノパルス方式にて、検出器10から監視領域内に存在する移動物体までの距離と水平角度と垂直角度の三次元情報を計測する処理である。具体的には、異なる2つの周波数のパルス状のマイクロ波を送信手段11から監視領域に向けて時分割に交互に送信し、監視領域からの当該マイクロ波パルスの反射波を複数の受信手段12で受信する。検出器15に記憶している各種パラメータと受信信号に基づいて、検出器10から移動物体までの距離と水平・垂直角度を計測する。   Ranging and measuring processing means 142 measures the three-dimensional information of the distance, horizontal angle and vertical angle from the detector 10 to the moving object existing in the monitoring area by a two-frequency CW monopulse method in a so-called microwave radar sensor. It is processing to do. Specifically, pulse-shaped microwaves of two different frequencies are alternately transmitted from the transmission unit 11 to the monitoring region in a time division manner, and the reflected waves of the microwave pulses from the monitoring region are received by the plurality of receiving units 12. Receive at. Based on various parameters and received signals stored in the detector 15, the distance from the detector 10 to the moving object and the horizontal and vertical angles are measured.

すなわち、距離は、送信手段11から送信したマイクロ波の反射波における各周波数に含まれるドップラ成分を抽出し、抽出した各周波数のドップラ成分における位相差に基づいて測定する。角度は、強度差を水平または垂直に並んでいる2つの受信手段12におけるマイクロ波パルスの受信強度の差を算出する。また、同様に受信強度の和を算出する。かかる受信強度の差と和を用いて、受信手段12の指向中心の方向からのずれ量として角度を測定する。なお、距離と角度以外に、2周波CW方式を用いると、移動体の移動速度についても計測できる。   That is, the distance is measured based on the phase difference in the extracted Doppler component of each frequency by extracting the Doppler component included in each frequency in the reflected wave of the microwave transmitted from the transmission unit 11. The angle calculates the difference in the reception intensity of the microwave pulse in the two receiving means 12 in which the intensity difference is arranged horizontally or vertically. Similarly, the sum of received strengths is calculated. The angle is measured as the amount of deviation from the direction of the directivity center of the receiving means 12 using the difference and sum of the received intensity. In addition to the distance and angle, if the two-frequency CW method is used, the moving speed of the moving body can be measured.

かかる二周波CWモノパルス方式は、周知の方式なので詳細な説明は省略する。本実施の形態では、二周波CWモノパルス方式を用いて説明しているが、これに限るものではなく、例えば、監視領域に対して走査するよう受信アンテナの受信方向を自動的に変化させる機械式機構を持ったレーダセンサなど、三次元計測が可能な方式であれば如何なる方式を採用しても良いことはいうまでもない。   Since such a dual frequency CW monopulse system is a known system, a detailed description thereof will be omitted. In the present embodiment, the description is given using the dual-frequency CW monopulse system, but the present invention is not limited to this. For example, a mechanical system that automatically changes the reception direction of the reception antenna so as to scan the monitoring area. It goes without saying that any method may be adopted as long as it is a method capable of three-dimensional measurement, such as a radar sensor having a mechanism.

異常判定処理手段141は、測距測角手段142により求めた三次元情報に基づき、監視領域の異常の有無を判定する。
すなわち、測距測角手段142にて求めた三次元情報から同一物体による情報を移動速度・検出位置等にもとづいてグルーピングする。次に、グルーピングした情報から物体の大きさを算出し、当該大きさが予め定めた監視対象の大きさ程度か判定する。更に、当該情報が監視対象の大きさ程度の場合は、存在している三次元位置が後述す検出器記憶手段15に記憶されている検出領域情報に基づき、検出領域の内側にあるか否かを判定する。ここで、検出領域内に存在する場合に異常判定をする。異常判定すると、通信手段16から異常信号を監視装置20へ送信する。
The abnormality determination processing unit 141 determines whether there is an abnormality in the monitoring area based on the three-dimensional information obtained by the distance measuring and angle measuring unit 142.
That is, information based on the same object is grouped from the three-dimensional information obtained by the distance measuring and measuring means 142 based on the moving speed, the detected position, and the like. Next, the size of the object is calculated from the grouped information, and it is determined whether the size is about the size of a predetermined monitoring target. Further, when the information is about the size of the monitoring target, whether or not the existing three-dimensional position is inside the detection area based on the detection area information stored in the detector storage means 15 described later. Determine. Here, abnormality determination is performed when it exists in the detection region. When the abnormality is determined, the communication unit 16 transmits an abnormality signal to the monitoring device 20.

例えば、美術館の展示品である彫刻を監視対象としている場合は、グルーピングされた情報群が形成する物体の大きさが、予め設定されている彫刻の大きさと同程度かを比較する。同程度でなければ、異常ではないと判定する。他方、同程度であれば、グルーピングされた情報群が形成する物体の重心が示す三次元位置が、検出領域内に存在しているかを判定する。検出領域内でない場合は、彫刻を見ている人等と判断し、異常ではないと判定する。他方、検出領域内に存在していれば、彫刻を持ち去ろうとしているとし、異常と判定し、監視装置20に通信手段16からLAN28を介して異常信号を送信する。   For example, when a sculpture that is an exhibit of a museum is to be monitored, it is compared whether the size of the object formed by the grouped information group is the same as the size of the sculpture set in advance. If it is not the same level, it is determined that there is no abnormality. On the other hand, if the degree is the same, it is determined whether the three-dimensional position indicated by the center of gravity of the object formed by the grouped information group exists in the detection region. If it is not within the detection area, it is determined that the person is looking at the sculpture, etc. On the other hand, if it exists in the detection area, it is determined that the sculpture is going to be taken away, and it is determined that there is an abnormality, and an abnormality signal is transmitted from the communication means 16 to the monitoring device 20 via the LAN 28.

次に、監視装置20の構成について説明する。監視装置20は、制御部21、記憶部22、表示部23、入力部24、通信制御部25、出力I/F26、電源27から構成される。   Next, the configuration of the monitoring device 20 will be described. The monitoring device 20 includes a control unit 21, a storage unit 22, a display unit 23, an input unit 24, a communication control unit 25, an output I / F 26, and a power supply 27.

記憶部22は、ROM(Read Only Memory)/RAM(Random Access Memory)から構成され、検出領域設定プログラムや異常通報のためのプログラム等の各種プログラム、設置している場所の識別コードや警備センタの電話番号など各種設定データ、ワーキングエリアなどを有している。   The storage unit 22 is composed of a ROM (Read Only Memory) / RAM (Random Access Memory), various programs such as a detection area setting program and a program for reporting an abnormality, an identification code of an installed location, and a security center It has various setting data such as a telephone number and a working area.

表示部23は、液晶ディスプレイ・LED・スピーカ等にて構成され、撮像手段13が撮影した画像、所定のメッセージ等を表示する。   The display unit 23 includes a liquid crystal display, an LED, a speaker, and the like, and displays an image captured by the imaging unit 13, a predetermined message, and the like.

入力部24は、ポインティングペン等を用いても良いが、本実施の形態ではマウスを用いる。入力部24は、検出領域の設定者が入力部24を操作して、表示部23に表示されている画像上にて検出領域を指定入力することができる。   Although the input unit 24 may use a pointing pen or the like, a mouse is used in the present embodiment. The input unit 24 allows a detection area setter to operate the input unit 24 to specify and input a detection region on an image displayed on the display unit 23.

通信制御部25は通信ICにて構成され、LAN28を介した検出器10との通信を制御する。   The communication control unit 25 is composed of a communication IC and controls communication with the detector 10 via the LAN 28.

出力I/F26は、電話回線29に接続されているモデムにて構成され、異常信号などを外部の警備センタに送信する。   The output I / F 26 is configured by a modem connected to the telephone line 29, and transmits an abnormal signal or the like to an external security center.

制御部21はCPUにて構成され、記憶部22に記憶されている各種プログラムにしたがって監視装置20の各構成要素を制御する。ここでは、記憶部22に記憶されている検出領域設定処理プログラムを実行した場合の機能として、検出領域設定処理手段211について説明する。   The control unit 21 is configured by a CPU, and controls each component of the monitoring device 20 according to various programs stored in the storage unit 22. Here, the detection area setting processing unit 211 will be described as a function when the detection area setting processing program stored in the storage unit 22 is executed.

図2を参照して、検出領域設定処理手段211が行う検出領域設定処理について説明する。検出領域設定処理手段211は、記憶部22に記憶されている検出領域設定処理プログラムにしたがって処理を行う。   The detection area setting process performed by the detection area setting processing unit 211 will be described with reference to FIG. The detection area setting processing unit 211 performs processing according to a detection area setting processing program stored in the storage unit 22.

先ず、検出器10の設定が完了しており、検出器10および監視装置20の電源がONになっている。そして、監視装置20の入力部24から操作者による検出領域の設定開始の入力があると、図2に示す検出領域設定処理がスタートする。   First, the setting of the detector 10 is completed, and the power of the detector 10 and the monitoring device 20 is turned on. Then, when the operator inputs the start of detection area setting from the input unit 24 of the monitoring device 20, the detection area setting process shown in FIG. 2 starts.

ステップS001では、検出領域を設定したい検出器10を指定する。このときに表示部23の表示を図4(a)に示す。図4(a)では、表示部23の右下の40に指定されている検出器番号が「1」である旨が表示されている。
検出器番号の指定は、入力部24を操作し、表示部23における画面上の検出器番号エリア40にカーソルを合わせて、マウスボタンを押下することにより選択する。検出器番号エリア40は、マウスボタンを押下する毎に検出器番号が1ずつインクリメントする。なお、監視装置20にテンキーが備わっているならば、入力手段がテンキーであれば検出器10の検出器番号を直接入力しても良い。あるいは、監視装置20に接続されている検出器10の検出器番号を一覧表示し、入力部24にて検出領域を設定したい検出器10の検出器番号を指定しても良い。
In step S001, the detector 10 for which the detection area is to be set is designated. At this time, the display on the display unit 23 is shown in FIG. In FIG. 4A, the fact that the detector number designated at 40 in the lower right of the display unit 23 is “1” is displayed.
The designation of the detector number is selected by operating the input unit 24, placing the cursor on the detector number area 40 on the screen of the display unit 23, and pressing the mouse button. In the detector number area 40, the detector number is incremented by 1 each time the mouse button is pressed. If the monitoring device 20 has a numeric keypad, the detector number of the detector 10 may be directly input if the input means is a numeric keypad. Alternatively, the detector numbers of the detectors 10 connected to the monitoring device 20 may be displayed as a list, and the detector numbers of the detectors 10 for which the detection area is to be set may be designated by the input unit 24.

ステップS002では、ステップS001にて指定された検出器10の撮像手段13が撮影した画像を取得する。すなわち、通信制御部25からLAN28を介して、指定した検出器10に対して画像送信コマンドを送信する。そして、画像送信コマンドを通信手段16から受信した検出器10では、検出器14の制御により撮像手段13が撮影した画像、検出器記憶手段15に記憶している撮像パラメータ、マイクロ波センサパラメータおよび検出領域情報を通信手段16からLAN28を介して監視装置20に送信する。かかる画像等を通信制御部25にて受信し、記憶部22に記憶する。   In step S002, an image captured by the imaging means 13 of the detector 10 designated in step S001 is acquired. That is, an image transmission command is transmitted from the communication control unit 25 to the designated detector 10 via the LAN 28. Then, in the detector 10 that has received the image transmission command from the communication means 16, the image taken by the imaging means 13 under the control of the detector 14, the imaging parameters stored in the detector storage means 15, the microwave sensor parameters, and the detection The area information is transmitted from the communication means 16 to the monitoring device 20 via the LAN 28. Such an image or the like is received by the communication control unit 25 and stored in the storage unit 22.

ステップS003では、記憶部22に記憶した画像を表示部23に表示し、当該画像に予め定めた座標系を適用する。具体的には、図4(b)に示すように、画像の横方向にX軸、縦方向にY軸とし、X軸とY軸の原点を画像の中心位置になるよう二次元の座標系を適用する。但し、以下の説明では図面が煩雑になるため、座標系の表示は省略する。   In step S003, the image stored in the storage unit 22 is displayed on the display unit 23, and a predetermined coordinate system is applied to the image. Specifically, as shown in FIG. 4B, a two-dimensional coordinate system in which the horizontal direction of the image is the X axis, the vertical direction is the Y axis, and the origin of the X and Y axes is the center position of the image. Apply. However, in the following description, since the drawing becomes complicated, the display of the coordinate system is omitted.

ここで、設定対象となった検出器番号「1」である検出器10の設置場所について、図3を参照して説明する。図3は、検出器10を展示室36に設置している状態を示している。検出器10に収納された撮像手段13と送信手段11および受信手段12が、彫刻35に向けられて、展示室36の出入り口37に近い天井付近に設置されている。   Here, the installation location of the detector 10 with the detector number “1” as the setting target will be described with reference to FIG. 3. FIG. 3 shows a state where the detector 10 is installed in the exhibition room 36. The imaging means 13, the transmission means 11, and the reception means 12 housed in the detector 10 are installed near the ceiling near the entrance 37 of the exhibition room 36 facing the sculpture 35.

次に、ステップS004では、表示部23に検出領域の設定を容易にするための入力ガイダンス41を表示する(図4(b))。同図では、「床面」にハッチングが掛かっている。これは、操作者に対して、これから入力部24から指定する点が、画像における床面であると認識することをガイドしている。他方、「高さ」がハッチングされているときは、床からの高さ情報の入力である旨のガイドである。   Next, in step S004, the input guidance 41 for facilitating the setting of the detection area is displayed on the display unit 23 (FIG. 4B). In the figure, the “floor surface” is hatched. This guides the operator to recognize that the point designated from the input unit 24 is the floor in the image. On the other hand, when “height” is hatched, it is a guide indicating that the height information from the floor is input.

ステップS005では、床面領域を指定する。すなわち、図4の(c)に示すように、操作者が入力部24を使用し、指定点A、B、C、Dを指定する。具体的には、操作者は、表示部23を見ながら、監視対象である彫刻35の床面を囲むように、A(X,Y)、B(X,Y)、C(X,Y)、D(X,Y)にカーソルを合わせ、マウスボタンをそれぞれの点で押下する。なお、表示部23には、A、B、C、Dを結んだ線を表示されているので、設定される検出領域の具体的な状況を操作者が容易に確認できる。 In step S005, a floor area is designated. That is, as shown in FIG. 4C, the operator uses the input unit 24 to designate designated points A, B, C, and D. Specifically, the operator looks at the display unit 23 and surrounds the floor surface of the sculpture 35 to be monitored so that A (X A , Y A ), B (X B , Y B ), C ( Move the cursor to X C , Y C ), D (X D , Y D ) and press the mouse button at each point. In addition, since the line which connected A, B, C, D is displayed on the display part 23, the operator can confirm the specific condition of the detection area to be set easily.

ステップS006では、床面の設定が終わると、操作者は、入力部24にて入力ガイダンス41の「高さ」にカーソルを合わせてマウスボタンを押下し、「高さ」がハッチングされたことを確認する。ここで、「高さ」がハッチングされていることは、これからの入力が検出領域の設定における床面からの高さ情報の入力をすることを意味する。
その後、床面として指定した点、例えばAにカーソルを合わせてマウスボタンを押下し、Aの上方向であって検出領域としたい位置へカーソルを合わせてマウスボタンを押下する。図4(d)のF(X,Y)を指定することになる。
In step S006, when the setting of the floor surface is completed, the operator moves the cursor to “height” of the input guidance 41 on the input unit 24 and presses the mouse button to confirm that “height” is hatched. Check. Here, “height” being hatched means that the input from now on inputs the height information from the floor surface in the setting of the detection area.
Thereafter, the cursor is moved to a point designated as the floor, for example, A, and the mouse button is pressed, and the cursor is moved to a position in the upper direction of A and desired to be a detection area, and the mouse button is pressed. F (X F , Y F ) in FIG. 4D is designated.

ステップS007では、検出器10から受信し記憶部22に記憶した撮像パラメータ(設置高h、焦点距離f、俯角ρ)を読み出す。次に、A、B、C、D、E、F、G、Hの実空間上の座標を算出する。ここで、FはAの直上,GはBの直上,HはCの直上、EはDの直上の点であり、実空間において床面からZの高さにある点である。
具体的には、床面上の点A、B、C、Dは、数式(1)及び数式(2)にX、Y座標を代入し、実空間の直交座標系であるU−V−W座標系に変換する。
In step S007, the imaging parameters (installation height h, focal length f, depression angle ρ) received from the detector 10 and stored in the storage unit 22 are read out. Next, the coordinates of A, B, C, D, E, F, G, and H in real space are calculated. Here, F is directly above A, G is directly above B, H is directly above C, and E is immediately above D, which is a point at a height Z from the floor in real space.
Specifically, the points A, B, C, and D on the floor surface are obtained by substituting the X and Y coordinates into the formulas (1) and (2), and the U-V-W that is a real space orthogonal coordinate system. Convert to coordinate system.

Figure 2007013814
Figure 2007013814

Figure 2007013814
Figure 2007013814

なお、点A、B、C、Dは床面上の点であるため、W座標は0となる。
そして、F及びAの座標に基づき、実空間上の座標における床面からFまでの高さWを算出する。具体的には、数式(3)にFのY座標である「Y」および直下床面である点Aの実空間におけるV座標である「V」を代入することで算出する。
Since points A, B, C, and D are points on the floor surface, the W coordinate is zero.
Based on the coordinates of F and A, the height W from the floor surface to F in the coordinates in the real space is calculated. Specifically, the calculation is performed by substituting “Y F ” that is the Y coordinate of F and “V A ” that is the V coordinate in the real space of the point A that is the floor surface directly below into Formula (3).

Figure 2007013814
Figure 2007013814

ここで、数式(1)(2)(3)は、透視変換の逆変換を実行するための関数である。すなわち、三次元情報(立体情報)から二次元情報(画像)に変換する透視変換の逆変換を行うことで、二次元情報(画像)から三次元情報(立体情報)に変換することができる。この透視変換の逆変換を実行するための関数は、幾何学的に立証されているので、ここでは詳細な説明を省略する。   Here, Expressions (1), (2), and (3) are functions for executing inverse transformation of perspective transformation. That is, it is possible to convert from two-dimensional information (image) to three-dimensional information (stereoscopic information) by performing inverse transformation of perspective transformation that converts three-dimensional information (stereoscopic information) to two-dimensional information (image). Since the function for performing the inverse transformation of the perspective transformation has been proved geometrically, detailed description thereof is omitted here.

実空間上の座標に変換された結果は、A(U,V,0)、B(U,V,0)、C(U,V,0)、D(U,V,0)となる。ここで、Wが0となっているは、床面を基準面としているからである。 The results converted into the coordinates in the real space are A (U A , V A , 0), B (U B , V B , 0), C (U C , V C , 0), D (U D , V D, 0) to become. Here, W is 0 because the floor is the reference plane.

また、本実施の形態では、説明を簡単にするため、検出領域を直方体としている。このため、床面にない点であるE、F、G、Hは、数式3にて算出した高さWとなっている。床面にない点であるE、F、G、Hは、E(U,V,W)、F(U,V,W)、G(U,V,W)、H(U,V,W)となる。なお、床面以外の点について、個別に高さを設定する場合は、当該点から垂線を下ろした床面上の点のY座標を用いて、個別に算出すればよい。 In the present embodiment, the detection region is a rectangular parallelepiped for the sake of simplicity. For this reason, E, F, G, and H, which are points not on the floor, are the height W calculated by Equation 3. The points E, F, G, and H that are not on the floor are E (U E , V E , W), F (U F , V F , W), G (U G , V G , W), H (U H , V H , W). In addition, when setting height individually about points other than a floor surface, what is necessary is just to calculate separately using the Y coordinate of the point on the floor surface which drew the perpendicular from the said point.

更に、実空間の直交座標系であるU−V−W座標系から検出器10を原点とした極座標系(r,θ,φ)に変換する。かかる極座標系を使用するのは、検出器10が検出器10からの距離r、水平方向の角度θ、及び垂直方向の角度φの情報によって、監視対象の位置を検出するためである。   Furthermore, the coordinate system is converted from the U-VW coordinate system, which is an orthogonal coordinate system in real space, to a polar coordinate system (r, θ, φ) with the detector 10 as the origin. The reason why such a polar coordinate system is used is that the detector 10 detects the position of the monitoring target based on information on the distance r from the detector 10, the horizontal angle θ, and the vertical angle φ.

ステップS008では、表示部23に、図4(d)に示す検出領域ABCDEFGH47を表示する。   In step S008, the detection area ABCDEFGH 47 shown in FIG.

ステップS009では、操作者が表示部23の表示を見て、入力された検出領域が所望の領域を示しているか確認する。そして、所望の領域であると確認ができると、OK釦44を押下する。OK釦44が押下されるとステップS011に進む。他方、操作者の意図と異なっていれば、NG釦45を押下する。NG釦45が押下されると、ステップS010に進む。   In step S009, the operator looks at the display on the display unit 23 to confirm whether the input detection area indicates a desired area. Then, if it can be confirmed that the desired area, the OK button 44 is pressed. When the OK button 44 is pressed, the process proceeds to step S011. On the other hand, if it is different from the operator's intention, the NG button 45 is pressed. When the NG button 45 is pressed, the process proceeds to step S010.

ステップS010では、ステップS005〜S008までの処理に使用したデータをクリアし、ステップS005の処理に戻る。   In step S010, the data used for the processes in steps S005 to S008 is cleared, and the process returns to step S005.

ステップS011では、ステップS007において算出した極座標系の検出領域情報を記憶部22に記憶する。   In step S011, the polar coordinate system detection area information calculated in step S007 is stored in the storage unit 22.

ステップS012では、操作者が他にも検出領域を指定したい場合に押下する追加釦46が所定時間内に押されたか否か判断する。ここで、追加釦46が押下されると、ステップS005に戻り、次の検出領域の設定を行う。追加釦46の押下がなければ、ステップS013に進む。   In step S012, it is determined whether or not the additional button 46 to be pressed when the operator wishes to specify another detection area is pressed within a predetermined time. Here, when the add button 46 is pressed, the process returns to step S005 to set the next detection area. If the add button 46 is not pressed, the process proceeds to step S013.

ステップS013では、ステップS011にて記憶部22に記憶させた検出領域情報を通信制御部25からLANを介して検出器10に送信し検出領域設定処理を終了する。
なお、検出器10では、かかる検出領域情報を通信手段16にて受信すると、検出器記憶手段15に上書き記憶させる。また、記憶部22に記憶した検出領域情報は削除してもよい。
また、1つの監視装置20に検出器10が複数接続されている場合には、それぞれの検出器について行う。
In step S013, the detection region information stored in the storage unit 22 in step S011 is transmitted from the communication control unit 25 to the detector 10 via the LAN, and the detection region setting process ends.
In the detector 10, when the detection unit information is received by the communication unit 16, it is overwritten and stored in the detector storage unit 15. The detection area information stored in the storage unit 22 may be deleted.
In addition, when a plurality of detectors 10 are connected to one monitoring device 20, this is performed for each detector.

本実施の形態では、検出領域情報が検出器10の監視範囲内に設定されることを前提に説明している。しかし、検出器10における、撮像手段13による撮影した画像がマイクロ波(送信手段11・受信手段12)による監視範囲からはみ出した領域を検出領域に設定している場合に、その旨を表示部23に表示するようにしてもよい。この場合は、予め、監視装置20にマイクロ波による監視範囲の情報を記憶させておき、検出領域情報と当該監視範囲の情報とを比較することで判断できる。   In the present embodiment, description is made on the assumption that the detection area information is set within the monitoring range of the detector 10. However, in the detector 10, when a region where the image captured by the imaging unit 13 is outside the monitoring range by the microwave (transmitting unit 11 / receiving unit 12) is set as the detection region, this is indicated by the display unit 23. May be displayed. In this case, it can be determined by storing information on the monitoring range by the microwave in the monitoring device 20 in advance, and comparing the detection area information with the information on the monitoring range.

次に、このように検出領域を設定された検知器10の動作を説明する。彫刻35が持ち去られたことを検出する処理を、図6のフロー図と、展示室36を横から見た図5を用いて説明する。   Next, operation | movement of the detector 10 by which the detection area was set in this way is demonstrated. The process of detecting that the sculpture 35 has been removed will be described with reference to the flowchart of FIG. 6 and FIG. 5 of the exhibition room 36 viewed from the side.

図5(a)は、彫刻35が展示室36の本来の位置に置かれている様子を示している。70aは検出器10から彫刻上部までの距離、71aは検出器10から彫刻中央部までの距離、72aは検出器から彫刻下部までの距離、73は表示部23に表示された直方体ABCDEFGH47から特定される検出領域である。ここでは、説明を簡単にするため、極座標系の距離rに着目して説明する。   FIG. 5A shows a state in which the sculpture 35 is placed at the original position of the exhibition room 36. 70a is the distance from the detector 10 to the upper part of the sculpture, 71a is the distance from the detector 10 to the center of the sculpture, 72a is the distance from the detector to the lower part of the sculpture, 73 is specified from the rectangular parallelepiped ABCDEFGH 47 displayed on the display unit 23 Detection area. Here, in order to simplify the description, the description will be given focusing on the distance r in the polar coordinate system.

まず、ステップS100では、検出器10のセンサ視野内で変動があったかどうかを調べる。変動が検出されない場合は、特に何もせず、このステップS100を繰り返す。
検出器10のセンサ視野内にて変動が検出された場合には、ステップS101に処理に進む。
First, in step S100, it is checked whether or not there is a change in the sensor visual field of the detector 10. If no change is detected, nothing is done and step S100 is repeated.
If a change is detected within the sensor field of the detector 10, the process proceeds to step S101.

ステップS101では、ステップS100にて検出された変動が、検出領域73内部であるかどうかを調べる。検出器10は、設定した検出領域73以外でも、センサ視野内であれば変動を検出できるためである。
検出された変動が検出領域73以外の領域で検出された場合には、特に何もせず、ステップS100に処理を戻す。これは例えば、彫刻35の周囲を歩き回る入場者であると考えられ、その場合には特に警報を通報するなどの処理は必要ないからである。
変動が検出領域内で検出された場合には、ステップS102に処理を移す。
In step S101, it is checked whether or not the variation detected in step S100 is within the detection area 73. This is because the detector 10 can detect fluctuations outside the set detection region 73 as long as it is within the sensor visual field.
If the detected variation is detected in a region other than the detection region 73, nothing is done and the process returns to step S100. This is because, for example, it is considered that the visitor walks around the sculpture 35, and in that case, there is no need for a process such as reporting an alarm.
If a change is detected in the detection area, the process proceeds to step S102.

ステップS102では、検出された変動が所定の閾値以上であるかどうかを調べる。
彫刻35が不審者により持ち去られた場合には、図5(b)に示すように、検出器10から彫刻下部までの距離72bは変わらないものの、検出器10から彫刻上部までの距離70b、彫刻中央部までの距離71bは大きく変わることがわかる。
In step S102, it is checked whether or not the detected fluctuation is equal to or greater than a predetermined threshold value.
When the sculpture 35 is taken away by a suspicious person, the distance 72b from the detector 10 to the lower part of the sculpture does not change as shown in FIG. It can be seen that the distance 71b to the center changes greatly.

図5は横から見た、検出器10からの彫刻上部、彫刻中央部、彫刻下部までの3点について示しているが、本実施の形態では検出器10に三次元計測が可能なマイクロ波レーダセンサを用いているので、彫刻の各部について上記のような距離の変動を検出することが可能である。
従って、検出器からの各部の距離の変動が検出され、それが所定の閾値以上の場合には、彫刻35が持ち去られたと判断できるので、ステップS103にて異常信号を監視装置に送信する。
FIG. 5 shows three points from the side, the upper part of the engraving from the detector 10, the central part of the engraving, and the lower part of the engraving. In this embodiment, the microwave radar capable of three-dimensional measurement in the detector 10 is shown. Since the sensor is used, it is possible to detect the variation in distance as described above for each part of the engraving.
Accordingly, when a variation in the distance of each part from the detector is detected and is greater than or equal to a predetermined threshold value, it can be determined that the sculpture 35 has been removed, so an abnormal signal is transmitted to the monitoring device in step S103.

本実施の形態においては、検出器10を屋内に設置して、監視対象物の持ち去り検出処理を例に説明したが、屋外に設置して、侵入監視センサとして用いることも可能である。この場合、例えば、検出器10を軒下に設置して、敷地内に侵入する不審者を検出するよう、門扉付近を検出領域とする。そして、その中に一定以上の変動が検出されたら不審者が侵入したとして警報を通報する。   In the present embodiment, the detector 10 is installed indoors and the monitoring object removal detection process has been described as an example. However, the detector 10 can be installed outdoors and used as an intrusion monitoring sensor. In this case, for example, the detector 10 is installed under the eaves, and the vicinity of the gate is set as a detection region so as to detect a suspicious person who enters the site. And if the fluctuation more than a fixed value is detected in it, a warning is reported that a suspicious person has entered.

本実施の形態においては、検出領域内で検出された変動が所定の閾値以上の場合に、直ちに警報を通報するものとして説明している。これは監視対象物が高価な重要物の場合には有効であるが、何らかのノイズ原因により誤警報を通報する可能性が高まる。そこで検出領域内で検出された変動が、所定の閾値以上である状態が一定時間継続したかどうかも判断の尺度にしても良い。   In the present embodiment, it is described that an alarm is immediately notified when the variation detected in the detection region is equal to or greater than a predetermined threshold. This is effective when the monitored object is an expensive important object, but increases the possibility of reporting a false alarm due to some cause of noise. Therefore, whether or not the state in which the variation detected in the detection region is equal to or greater than a predetermined threshold has continued for a certain period of time may be used as a criterion for judgment.

本実施の形態においては、検出領域の形状は、指定が簡単な直方体の例を示したが、床面に含まれる指定点を先に入力して、その後に高さを入力する手順であれば、直方体に限られない。指定点として底面の頂点と上面の頂点を順次指定し、両者を結ぶ辺を指定していくことで、より複雑な形状の検出領域を指定できる。   In the present embodiment, the shape of the detection region is an example of a rectangular parallelepiped that is easy to specify. However, if the procedure is to input the specified point included in the floor first and then input the height. It is not limited to a rectangular parallelepiped. By specifying the bottom vertex and the top vertex sequentially as the designated points and designating the sides connecting them, a detection area having a more complex shape can be designated.

本実施の形態においては、図3に示すように、検出器10を構成する撮像手段13と、センサ部分である送信手段11と受信手段12を同一の筐体に収納して説明した。このようにすれば、センサ視野と撮像手段13の視野とを略同一に調整する手間が軽減されるというメリットがある。また、監視装置20による異常発生の判断に同期して、例えば、彫刻35の持ち去りの瞬間を撮像手段13により証拠画像として撮像することも可能である。   In the present embodiment, as shown in FIG. 3, the image pickup means 13 constituting the detector 10, the transmission means 11 and the reception means 12 that are sensor parts are housed in the same casing. In this way, there is an advantage that the trouble of adjusting the sensor visual field and the visual field of the imaging means 13 to be substantially the same is reduced. Further, in synchronization with the determination of the occurrence of abnormality by the monitoring device 20, for example, the moment when the sculpture 35 is removed can be captured as an evidence image by the imaging means 13.

しかし、撮像手段13を別筐体とし、設置時に、検出器10の他の構成要素と組み合わせても良い。また、撮像手段13は検出領域の設定に使用するのみで、設定終了後は取り外す、という運用方法も考えられる。
この場合には、撮像手段13とセンサ視野との略同一を確保するために、図7に示すように、「はめあい」の構造を有することが望ましい。
However, the imaging means 13 may be a separate housing and may be combined with other components of the detector 10 at the time of installation. In addition, an operation method in which the imaging unit 13 is used only for setting the detection area and is removed after the setting is completed is also conceivable.
In this case, in order to ensure substantially the same image pickup means 13 and sensor field of view, it is desirable to have a “fitting” structure as shown in FIG.

本実施の形態では、検出領域の設定として説明したが、設定した領域の移動体を検出しないように、いわゆる非検出領域として設定しても良い。   In the present embodiment, the detection area is set. However, the detection area may be set as a so-called non-detection area so as not to detect a moving body in the set area.

本発明の実施の形態における監視システムの構成を示すブロック図である。It is a block diagram which shows the structure of the monitoring system in embodiment of this invention. 本発明の実施の形態における検出領域の設定方法を示すフローチャートである。It is a flowchart which shows the setting method of the detection area | region in embodiment of this invention. 本発明の実施の形態における監視システムの設置例を示す図である。It is a figure which shows the example of installation of the monitoring system in embodiment of this invention. 本発明の実施の形態における表示部23の表示を示す図である。It is a figure which shows the display of the display part 23 in embodiment of this invention. 本発明の実施の形態における彫刻35の有無により、測定される距離の違いを示す図である。It is a figure which shows the difference in the distance measured by the presence or absence of the sculpture 35 in embodiment of this invention. 本発明の実施の形態における異常を検出する方法を示すフローチャートである。It is a flowchart which shows the method to detect abnormality in embodiment of this invention. 本発明の実施の形態における「はめあい」の構造の例を示す図である。It is a figure which shows the example of the structure of "fitting" in embodiment of this invention. 従来技術を高さのある監視対象に適用した場合に設定される検出領域を説明する図である。It is a figure explaining the detection area | region set when the prior art is applied to the monitoring object with height.

符号の説明Explanation of symbols

10 検出器
11 送信手段
12 受信手段
13 撮像手段
14 検出器制御手段
15 検出器記憶手段
16 通信手段
17 電源
20 監視装置
21 制御部
22 記憶部
23 表示部
24 入力部
25 通信制御部
26 出力I/F
27 電源
28 LAN
29 電話回線
35 彫刻
40 検出器番号
41 入力ガイダンス
42 X軸
43 Y軸
44 OK釦
45 NG釦
46 追加釦
47 検出領域(画像上)
70 彫刻までの距離
71 彫刻までの距離
72 彫刻までの距離
73 検出領域(実空間)
DESCRIPTION OF SYMBOLS 10 Detector 11 Transmission means 12 Reception means 13 Imaging means 14 Detector control means 15 Detector storage means 16 Communication means 17 Power supply 20 Monitoring apparatus 21 Control part 22 Storage part 23 Display part 24 Input part 25 Communication control part 26 Output I / F
27 Power supply 28 LAN
29 Telephone line 35 Engraving 40 Detector number 41 Input guidance 42 X-axis 43 Y-axis 44 OK button 45 NG button 46 Additional button 47 Detection area (on image)
70 Distance to engraving 71 Distance to engraving 72 Distance to engraving 73 Detection area (real space)

Claims (5)

三次元情報を用いて移動体を検出する検出器の監視領域中の一部について、検出領域または非検出領域を設定する設定装置であって、
前記監視領域の画像を撮影する撮像部と、
前記撮像部が撮影した画像を表示する表示部と、
前記表示部に表示された画像上にて検出領域または非検出領域の指定操作をする入力部と、
前記撮像部の設置高・俯角・焦点距離を含む撮像パラメータおよび検出領域または非検出領域を記憶する記憶部と、
前記入力部から指定された指定点の画像上の二次元情報を床面上と床面以外とに区別した入力を受け、前記床面上の指定点の二次元情報と前記撮像パラメータおよび前記床面以外の指定点の二次元情報を用いて前記床面以外の指定点の高さ情報を算出し、
前記床面上の指定点は総てを基準の高さ情報とし、前記床面以外の指定点は前記算出した高さ情報として、画像上の二次元情報を三次元情報に変換した検出領域または非検出領域を前記記憶部に記憶させる制御部を具備したことを特徴とする設定装置。
A setting device that sets a detection region or a non-detection region for a part of a monitoring region of a detector that detects a moving object using three-dimensional information,
An imaging unit that captures an image of the monitoring area;
A display unit for displaying an image captured by the imaging unit;
An input unit for performing a designation operation of a detection region or a non-detection region on the image displayed on the display unit;
A storage unit for storing imaging parameters including a setting height, depression angle, and focal length of the imaging unit, and a detection region or a non-detection region;
Two-dimensional information on the image of the designated point designated by the input unit is received separately on the floor surface and other than the floor surface, and the two-dimensional information on the designated point on the floor surface, the imaging parameter, and the floor Calculate the height information of the designated point other than the floor using the two-dimensional information of the designated point other than the surface,
The designated points on the floor are all the reference height information, and the designated points other than the floor are the calculated height information, the detection area obtained by converting the two-dimensional information on the image into three-dimensional information, or A setting device comprising a control unit for storing a non-detection area in the storage unit.
前記制御部は、前記表示部に対して、これから入力する指定点が床面上か床面以外かを操作者に知らせるガイド表示を行わせる請求項1に記載の設定装置。   The setting device according to claim 1, wherein the control unit causes the display unit to perform a guide display that informs an operator whether a designated point to be input is on the floor surface or other than the floor surface. 前記制御部は、前記表示部に対して、床面上の指定点を入力した後に、床面以外の指定点の入力を行わせるガイド表示をさせる請求項2に記載の設定装置。   The setting device according to claim 2, wherein the control unit causes the display unit to perform guide display for inputting a designated point other than the floor surface after inputting the designated point on the floor surface. 前記画像上の二次元情報を画像の横方向と縦方向をそれぞれX軸・Y軸とするXY座標を定義し、
前記制御部は、前記床面上の指定点におけるXY座標情報と、前記撮像パラメータと、床面以外の指定点のY座標情報を用いて、画像の透視変換の逆変換を行ない前記床面以外の高さ情報を算出する請求項1乃至請求項3に記載の設定装置。
Define two-dimensional information on the image as XY coordinates with the horizontal and vertical directions of the image as the X-axis and Y-axis, respectively.
The control unit reverses the perspective transformation of the image using the XY coordinate information at the designated point on the floor surface, the imaging parameter, and the Y coordinate information of the designated point other than the floor surface, and other than the floor surface. The setting device according to claim 1, wherein the height information is calculated.
前記床面以外の指定点は、前記床面上の指定点の監視領域中における直上の位置を指定する請求項1乃至請求項4に記載の設定装置。
The setting device according to claim 1, wherein the designated point other than the floor surface designates a position immediately above the designated point on the floor surface in a monitoring area.
JP2005194423A 2005-07-01 2005-07-01 Setting apparatus for detection region Pending JP2007013814A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005194423A JP2007013814A (en) 2005-07-01 2005-07-01 Setting apparatus for detection region

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005194423A JP2007013814A (en) 2005-07-01 2005-07-01 Setting apparatus for detection region

Publications (1)

Publication Number Publication Date
JP2007013814A true JP2007013814A (en) 2007-01-18

Family

ID=37751644

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005194423A Pending JP2007013814A (en) 2005-07-01 2005-07-01 Setting apparatus for detection region

Country Status (1)

Country Link
JP (1) JP2007013814A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008199390A (en) * 2007-02-14 2008-08-28 Matsushita Electric Ind Co Ltd Surveillance camera and surveillance camera control method
JP2010117211A (en) * 2008-11-12 2010-05-27 East Japan Railway Co Laser radar installation position verification apparatus, laser radar installation position verification method, and program for laser radar installation position verification apparatus
CN101819627A (en) * 2010-03-30 2010-09-01 北京蓝色星河软件技术发展有限公司 Method for identifying abnormal behavior of people based on space conversion
JP2011002337A (en) * 2009-06-18 2011-01-06 Panasonic Electric Works Co Ltd Moving object detection device
KR101144334B1 (en) 2009-12-28 2012-05-11 주식회사 에스원 Roi defining method of 3d acoustic sensor system
JP2012124839A (en) * 2010-12-10 2012-06-28 Secom Co Ltd Image monitoring apparatus
JP2014123240A (en) * 2012-12-21 2014-07-03 Casio Comput Co Ltd Order terminal, bag monitoring method, and program
JPWO2015125544A1 (en) * 2014-02-18 2017-03-30 ノーリツプレシジョン株式会社 Information processing apparatus, information processing method, and program
JP2018074528A (en) * 2016-11-02 2018-05-10 キヤノン株式会社 Information processing system and component apparatus thereof, and method for monitoring real space
WO2019093371A1 (en) * 2017-11-09 2019-05-16 コニカミノルタ株式会社 Object detecting system and object detecting program
WO2019093372A1 (en) * 2017-11-09 2019-05-16 コニカミノルタ株式会社 Object detecting system and object detecting program
CN113253264A (en) * 2021-05-10 2021-08-13 西安西测测试技术股份有限公司 Ground penetrating radar data acquisition and recombination method
WO2022190476A1 (en) * 2021-03-08 2022-09-15 住友電気工業株式会社 Radio wave sensor, and method for adjusting radio wave sensor

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08138057A (en) * 1994-11-04 1996-05-31 Fuji Electric Co Ltd Object monitoring device
JPH09282459A (en) * 1996-04-18 1997-10-31 Matsushita Electric Ind Co Ltd Body detector
JP2001155291A (en) * 1999-11-30 2001-06-08 Omron Corp Information processor, information processing method, recording medium and object detecting device
JP2004266633A (en) * 2003-03-03 2004-09-24 Toa Corp Photographing apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08138057A (en) * 1994-11-04 1996-05-31 Fuji Electric Co Ltd Object monitoring device
JPH09282459A (en) * 1996-04-18 1997-10-31 Matsushita Electric Ind Co Ltd Body detector
JP2001155291A (en) * 1999-11-30 2001-06-08 Omron Corp Information processor, information processing method, recording medium and object detecting device
JP2004266633A (en) * 2003-03-03 2004-09-24 Toa Corp Photographing apparatus

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9870685B2 (en) 2007-02-14 2018-01-16 Panasonic Intellectual Property Management Co., Ltd. Monitoring camera and monitoring camera control method
JP2008199390A (en) * 2007-02-14 2008-08-28 Matsushita Electric Ind Co Ltd Surveillance camera and surveillance camera control method
US10861304B2 (en) 2007-02-14 2020-12-08 Panasonic I-Pro Sensing Solutions Co., Ltd. Monitoring camera and monitoring camera control method
US9286775B2 (en) 2007-02-14 2016-03-15 Panasonic Intellectual Property Management Co., Ltd. Monitoring camera and monitoring camera control method
US9437089B2 (en) 2007-02-14 2016-09-06 Panasonic Intellectual Property Management Co., Ltd. Monitoring camera and monitoring camera control method
US10475312B2 (en) 2007-02-14 2019-11-12 Panasonic intellectual property Management co., Ltd Monitoring camera and monitoring camera control method
JP2010117211A (en) * 2008-11-12 2010-05-27 East Japan Railway Co Laser radar installation position verification apparatus, laser radar installation position verification method, and program for laser radar installation position verification apparatus
JP2011002337A (en) * 2009-06-18 2011-01-06 Panasonic Electric Works Co Ltd Moving object detection device
KR101144334B1 (en) 2009-12-28 2012-05-11 주식회사 에스원 Roi defining method of 3d acoustic sensor system
CN101819627A (en) * 2010-03-30 2010-09-01 北京蓝色星河软件技术发展有限公司 Method for identifying abnormal behavior of people based on space conversion
JP2012124839A (en) * 2010-12-10 2012-06-28 Secom Co Ltd Image monitoring apparatus
JP2014123240A (en) * 2012-12-21 2014-07-03 Casio Comput Co Ltd Order terminal, bag monitoring method, and program
JPWO2015125544A1 (en) * 2014-02-18 2017-03-30 ノーリツプレシジョン株式会社 Information processing apparatus, information processing method, and program
JP2018074528A (en) * 2016-11-02 2018-05-10 キヤノン株式会社 Information processing system and component apparatus thereof, and method for monitoring real space
WO2019093371A1 (en) * 2017-11-09 2019-05-16 コニカミノルタ株式会社 Object detecting system and object detecting program
WO2019093372A1 (en) * 2017-11-09 2019-05-16 コニカミノルタ株式会社 Object detecting system and object detecting program
JPWO2019093372A1 (en) * 2017-11-09 2020-11-19 コニカミノルタ株式会社 Object detection system and object detection program
JPWO2019093371A1 (en) * 2017-11-09 2020-12-03 コニカミノルタ株式会社 Object detection system and object detection program
JP7244801B2 (en) 2017-11-09 2023-03-23 コニカミノルタ株式会社 Object detection system and object detection program
JP7244802B2 (en) 2017-11-09 2023-03-23 コニカミノルタ株式会社 Object detection system and object detection program
WO2022190476A1 (en) * 2021-03-08 2022-09-15 住友電気工業株式会社 Radio wave sensor, and method for adjusting radio wave sensor
CN113253264A (en) * 2021-05-10 2021-08-13 西安西测测试技术股份有限公司 Ground penetrating radar data acquisition and recombination method
CN113253264B (en) * 2021-05-10 2023-09-22 西安西测测试技术股份有限公司 Ground penetrating radar data acquisition and recombination method

Similar Documents

Publication Publication Date Title
KR101073076B1 (en) Fire monitoring system and method using compound camera
JP2007013814A (en) Setting apparatus for detection region
KR101343975B1 (en) System for detecting unexpected accident
JP6736307B2 (en) Safety scanner, optical safety system and configuration support device for safety scanner
JP2003515811A (en) Video crisis management curtain
US20180259613A1 (en) Object detection device, object detection system and object detection method
KR101666466B1 (en) Marine risk management system and marine risk management method using marine object distance measuring system with monocular camera
US20160163171A1 (en) Monitoring System
KR101048508B1 (en) System and method for realtime monitoring of harbor image using smart device
JP2008241304A (en) Object detector
US20150042645A1 (en) Processing apparatus for three-dimensional data, processing method therefor, and processing program therefor
JP2010232888A (en) Monitor device
WO2018038152A1 (en) Gas measurement system and gas measurement program
JP6045806B2 (en) Intrusion monitoring device
JP4301051B2 (en) Harbor monitoring system
JP2013210904A (en) Intrusion monitoring device
JP6644561B2 (en) Flying object monitoring system
WO2020111053A1 (en) Monitoring device, monitoring system, monitoring method, and monitoring program
JP4880925B2 (en) Setting device
KR102374357B1 (en) Video Surveillance Apparatus for Congestion Control
KR101977344B1 (en) Monitoring system for main control room in nuclear power plant
JP4754283B2 (en) Monitoring system and setting device
JP2009086729A (en) Monitoring system, security device, sensor and monitoring method
JP3875199B2 (en) Imaging device
KR100963108B1 (en) System and method of watching moving object toward power transmission line

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080514

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110125

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110412

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110802