JP2007013814A - Setting apparatus for detection region - Google Patents
Setting apparatus for detection region Download PDFInfo
- Publication number
- JP2007013814A JP2007013814A JP2005194423A JP2005194423A JP2007013814A JP 2007013814 A JP2007013814 A JP 2007013814A JP 2005194423 A JP2005194423 A JP 2005194423A JP 2005194423 A JP2005194423 A JP 2005194423A JP 2007013814 A JP2007013814 A JP 2007013814A
- Authority
- JP
- Japan
- Prior art keywords
- image
- floor surface
- information
- unit
- detector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Burglar Alarm Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
本発明は、人や物など監視対象が監視領域に存在していることを三次元計測して検出する監視装置に関し、特に、監視領域の一部の領域に対して検出領域を設定、又は一部の領域を検出領域から外すことができる検出領域または非検出領域の設定装置に関する。 The present invention relates to a monitoring device that three-dimensionally measures and detects that a monitoring target such as a person or an object exists in the monitoring area, and in particular, sets a detection area for a part of the monitoring area or sets one detection area. The present invention relates to a detection region or non-detection region setting device that can remove a region of a part from a detection region.
従来、監視領域を三次元計測して監視対象を検出する監視装置には、例えば特許文献1に記載されているように、マイクロ波を物体に照射し、その反射波を受信することにより、物体の位置(距離や方角)を検出するマイクロ波レーダ型の対象物検出装置が提案されている。
従来の対象物検出装置は、マイクロ波を使用しているため、監視領域を目視にて確認できない。このため、対象物検出装置では、監視領域を撮影した画像にレーダの検出範囲を表示させて、検出領域の確認および設定を行っている。
検出領域の設定は、先ず、画像上で検出領域としたい道路上を設定枠にて囲う。次に、設定枠の画素に対応する距離および方角を算出する。かかる距離及び方角から特定される範囲に位置する物体を検出対象とする。なお、検出対象である自動車は、道路面に使用されるアスファルトに比べ、マイクロ波の反射が強いことを利用し、最も強い反射波から算出される位置が特定された範囲内かを判定している。
Since the conventional object detection apparatus uses microwaves, the monitoring area cannot be visually confirmed. For this reason, in the object detection apparatus, the detection range of the radar is displayed on the image obtained by capturing the monitoring area, and the detection area is confirmed and set.
For setting the detection area, first, a road to be set as a detection area on the image is surrounded by a setting frame. Next, the distance and direction corresponding to the pixels in the setting frame are calculated. An object located in a range specified from the distance and direction is set as a detection target. It should be noted that the detection target car uses the fact that the microwave reflection is stronger than the asphalt used on the road surface, and determines whether the position calculated from the strongest reflected wave is within the specified range. Yes.
しかし、従来の対象物検出装置では、検出領域の設定枠は、道路面上に設定することを前提としているため、設定可能な範囲が道路面にしか形成できない。すなわち、設定枠が道路面上に存在するから、ビデオカメラの俯角、焦点距離、設置高を予め記憶しておくことにより、設定枠の画素に対応する距離および方角を算出できるのである。 However, in the conventional object detection apparatus, since the setting frame of the detection area is premised to be set on the road surface, a settable range can be formed only on the road surface. That is, since the setting frame exists on the road surface, the distance and direction corresponding to the pixels of the setting frame can be calculated by storing the depression angle, focal length, and installation height of the video camera in advance.
従来の対象物検出装置を用いて、検出領域を道路上ではない領域を設定しようとした場合について、図8を参照して具体的に説明する。
図8(b)は、対象物検出装置の配置状況を示すイメージ図である。先ず、対象物検出装置は、監視場所の上方から斜め下方を監視領域とするように設置されている。ここで、対象物検出装置は、ビデオカメラ1004とレーダ1003から構成されている。また、監視対象物として彫刻1001が設置されている。
With reference to FIG. 8, a specific description will be given of a case where a conventional object detection device is used to set a detection area that is not on a road.
FIG. 8B is an image diagram illustrating an arrangement state of the object detection device. First, the object detection device is installed so that a monitoring area is located obliquely downward from above the monitoring location. Here, the object detection apparatus includes a
図8(a)は、ビデオカメラ1004が撮影した画像を示す図である。彫刻1001を監視すべく検出領域を設定する方法について説明する。図8(a)に示すように、彫刻1001を囲むように検出領域である設定枠1002を設定する。従来の対象物検出装置では、かかる設定枠1002が床面上(道路面)にあるとの前提になるため、図8(b)の1005に示すように、彫刻1001の対象物検出装置から奥行方向に床面まで延長した領域が設定されることになる。
FIG. 8A shows an image taken by the
すなわち、画像上では検出領域として彫刻1001が設定されているように見えるが、算出される設定枠1002の画素に対応する距離は、例えば彫刻1001の頂上部で言えば、頂上部までの距離1006でなく彫刻1001の奥行方向の床面までの距離1005となる。このため、彫刻1001の位置は、レーダ1003での検出領域の距離範囲ではなくなり、彫刻1001を適正に監視できない。また、本来、監視したいのは、彫刻1001であるにも係わらず、レーダ1003では彫刻1001によって隠れて検出不可能な領域である彫刻1001の奥行方向の領域が設定されてしまう。
That is, the
したがって、従来の対象物検出装置では、道路面という水平面を検出範囲に設定する場合にしか適用できず、高さを有する監視対象の検出範囲を設定が困難であるという問題があった。 Therefore, the conventional object detection apparatus can be applied only when a horizontal plane called a road surface is set as a detection range, and there is a problem that it is difficult to set a detection range of a monitoring target having a height.
そこで、本発明は、かかる課題を鑑みてなされたものであり、画像上にて人間が直感的に認識できるように指定した検出領域において、高さ・幅・奥行きなどの体積を有する監視対象物を適切に検出できる監視システムを提供することを目的とする。 Therefore, the present invention has been made in view of such problems, and a monitoring object having a volume such as height, width, and depth in a detection region designated so that a human can intuitively recognize it on an image. It is an object of the present invention to provide a monitoring system capable of appropriately detecting a problem.
かかる目的を達成するために本発明は、三次元情報を用いて移動体を検出する検出器の監視領域中の一部について、検出領域または非検出領域を設定する設定装置であって、監視領域の画像を撮影する撮像部と、撮像部が撮影した画像を表示する表示部と、表示部に表示された画像上にて検出領域または非検出領域の指定操作をする入力部と、撮像部の設置高・俯角・焦点距離を含む撮像パラメータおよび検出領域または非検出領域を記憶する記憶部と、入力部から指定された指定点の画像上の二次元座標情報を床面上と床面以外とに区別した入力を受け、床面上の指定点の二次元座標情報と撮像パラメータおよび床面以外の指定点の二次元座標情報を用いて床面以外の指定点の高さ情報を算出し、床面上の指定点は総てを基準の高さ情報とし、床面以外の指定点は算出した高さ情報を用いて、画像上の二次元情報を三次元情報に変換した検出領域または非検出領域を前記記憶部に記憶させる制御部を具備した設定装置を提供する。 In order to achieve this object, the present invention provides a setting device for setting a detection region or a non-detection region for a part of a monitoring region of a detector that detects a moving body using three-dimensional information. An imaging unit that captures an image of the image, a display unit that displays an image captured by the imaging unit, an input unit that performs a designation operation of a detection area or a non-detection area on the image displayed on the display unit, and an imaging unit A storage unit that stores imaging parameters including the installation height, depression angle, and focal length, and a detection area or non-detection area, and two-dimensional coordinate information on an image of a specified point specified by the input unit on the floor surface and other than the floor surface And using the two-dimensional coordinate information of the designated point on the floor and the imaging parameters and the two-dimensional coordinate information of the designated point other than the floor to calculate the height information of the designated point other than the floor, All designated points on the floor are A setting device including a control unit that stores a detection region or a non-detection region obtained by converting two-dimensional information on an image into three-dimensional information using the calculated height information for designated points other than the floor surface I will provide a.
かかる構成による設定装置は、撮像部にて取得した二次元情報である画像を操作者が表示部の表示を見ながら、画面上で検出領域としたい領域を特定する指定点を床面上と床面以外とを区別して指定することで、検出器が用いる三次元情報での検出領域に変換できる。 In the setting device having such a configuration, an operator views an image, which is two-dimensional information acquired by an imaging unit, while observing the display on the display unit, and designates specified points on the screen for specifying a region to be a detection region on the screen. By specifying differently from the surface, it can be converted into a detection region in the three-dimensional information used by the detector.
本発明の好適な態様では、表示部に対して、これから入力する指定点が床面上か床面以外かを操作者に知らせるガイド表示させることで、操作者の入力を容易にさせことができる。 In a preferred aspect of the present invention, the operator can easily input by displaying a guide on the display unit to inform the operator whether the designated point to be input is on the floor surface or other than the floor surface. .
本発明の好適な態様では、表示部に対して、床面上の指定点を入力した後に、床面以外の指定点の入力を行わせるガイド表示をさせることで、操作者の入力を容易にさせることができる。 In a preferred aspect of the present invention, after a designated point on the floor surface is input to the display unit, a guide display that allows the designated point other than the floor surface to be input is made easy for the operator to input. Can be made.
本発明の好適な態様では、画像上の二次元情報を画像の横方向と縦方向をそれぞれX軸・Y軸とするXY座標を定義し、床面上の指定点におけるXY座標情報と、前記撮像パラメータと、床面以外の指定点のY座標情報を用いて、画像の透視変換の逆変換を行ない前記床面以外の高さ情報を算出する。 In a preferred aspect of the present invention, the two-dimensional information on the image is defined as XY coordinates with the horizontal and vertical directions of the image as the X axis and the Y axis, respectively, and the XY coordinate information at a specified point on the floor surface, Using the imaging parameter and the Y coordinate information of the designated point other than the floor surface, the perspective transformation of the image is reversed and the height information other than the floor surface is calculated.
本発明の好適な態様では、床面以外の指定点は、床面上の指定点の監視領域中における直上の位置を指定する。 In a preferred aspect of the present invention, the designated point other than the floor surface designates a position immediately above the designated point on the floor surface in the monitoring area.
かかる発明によれば、操作者が表示部の画像を見ながら、二次元情報である画像上に検出領域を指定することにより、三次元情報の検出領域または非検出領域を容易に設定できる。 According to this invention, the operator can easily set the detection area or the non-detection area of the three-dimensional information by designating the detection area on the image that is the two-dimensional information while looking at the image on the display unit.
以下、図を参照して、本願発明を美術館の監視システムに適用した場合の実施の形態を説明する。
図1は、監視システムの全体構成を示すブロック図である。監視システムは、美術館の警備員が待機している警備室等に設置される監視装置20と、美術館の各展示場・廊下・エントランスホールなどに適宜の数を侵入者や展示物の持ち去り検出のために設置される検出器10から構成している。監視装置20と各検出器10は、LAN(Local Area Network)28を介して接続されている。また、監視装置20は、電話回線29を介して図示していない警備センタと接続されている。なお、検出器10は、美術館等の規模に応じて、単数でも、複数でもよい。
Hereinafter, an embodiment when the present invention is applied to an art museum monitoring system will be described with reference to the drawings.
FIG. 1 is a block diagram showing the overall configuration of the monitoring system. The surveillance system detects the number of intruders and exhibits taken away in the
検出器10は、送信手段11・複数の受信手段12・撮像手段13・検出器記憶手段15・通信手段16、検出器制御手段14および各部に電源を供給する電源17から構成されている。
The
送信手段11は、アンテナや発振素子等にて構成され、マイクロ波を監視領域に送信するとともに、監視領域に送信したマイクロ波の出力波形を受信手段12へ出力する。
The
受信手段12は、アンテナ・ミキサ・フィルタ等にて構成され、送信手段11の送信したマイクロ波が監視領域内に存在するものに反射した反射波を受信するともに、送信手段11からの出力波形の入力を受けて反射波とのミキシングを行ないフィルタリングして測定データを検出器制御手段14に出力する。
また、受信手段12は、水平の左右に各1つ、および垂直方向に1つの合計3つを配置している。なお、垂直方向に設置される受信手段12は、水平方向の受信手段12のいずれかの水平方向に対する垂直な位置に配置しており、3つの受信手段12のアンテナの受信特性は、同一の方向に指向している。
The receiving
In addition, the
撮像手段13は、CCD等の撮像素子(光電変換素子)を用いたカメラであり、検出器10の監視領域を撮影する。撮像手段13は、送信手段11と受信手段12にて送受信されるマイクロ波にて検出し得る監視領域(センサ視野)の全てを含む画角を有している。後述する検出領域を設定する際の最大の範囲となる監視領域を少なくとも含む画像を用いたいからである。また、撮像手段13の撮像中心を撮像面から垂直に延ばした軸、即ち光軸は、受信手段12における指向中心の方向と略一致するよう検出器10の筐体に収納されている。
The imaging means 13 is a camera using an imaging element (photoelectric conversion element) such as a CCD, and images the monitoring area of the
検出器記憶手段15は、ROM(Read Only Memory)/RAM(Random Access Memory)から構成され、後述する検出領域情報・検出器制御手段14にて実行される各種プログラム・検出器10の各種パラメータ、各検出器10に固有に割り振られた検出器番号などを記憶する。
ここで、各種プログラムには、監視装置20からの制御コマンドに対する処理プログラム、異常判定処理手段141を実行するための異常判定処理プログラム、測距測角処理手段142を実行するための測距測角処理プログラムなどである。
The detector storage means 15 is composed of ROM (Read Only Memory) / RAM (Random Access Memory), various programs executed by the detection area information / detector control means 14 described later, various parameters of the
Here, the various programs include a processing program for a control command from the
各種パラメータには、撮像手段13に関連する撮像パラメータとして設置高h、俯角ρ、焦点距離f等と、マイクロ波の送受信に関連するマイクロ波パラメータとして、各受信手段12の配置情報・受信手段12と撮像手段13との位置ずれの補正係数などである。
The various parameters include the installation height h, the depression angle ρ, the focal length f, etc. as imaging parameters related to the imaging means 13, and the arrangement information / receiving means 12 of each receiving means 12 as microwave parameters related to microwave transmission / reception. And a misalignment correction coefficient between the
通信手段16は、通信IC等にて構成され、LAN28を介して監視装置20および他の検出器10と各種通信を実行する。
The communication means 16 is composed of a communication IC or the like, and executes various communications with the
検出器制御手段14は、CPUにより構成され、検出器記憶手段15に記憶されている各種プログラムにしたがって検出器10の各構成要素を制御する。検出器制御手段14の主な機能として、測距測角処理手段142および異常判定処理手段141の機能がある。更に、監視装置20からのコマンドに基づいて、後述する検出領域を検出器記憶手段15に記憶する機能も実行する。ここでは、測距測角処理手段142と異常判定処理手段141について説明する。
The detector control means 14 is constituted by a CPU, and controls each component of the
測距測角処理手段142は、いわゆるマイクロ波レーダセンサにおける2周波CWモノパルス方式にて、検出器10から監視領域内に存在する移動物体までの距離と水平角度と垂直角度の三次元情報を計測する処理である。具体的には、異なる2つの周波数のパルス状のマイクロ波を送信手段11から監視領域に向けて時分割に交互に送信し、監視領域からの当該マイクロ波パルスの反射波を複数の受信手段12で受信する。検出器15に記憶している各種パラメータと受信信号に基づいて、検出器10から移動物体までの距離と水平・垂直角度を計測する。
Ranging and measuring processing means 142 measures the three-dimensional information of the distance, horizontal angle and vertical angle from the
すなわち、距離は、送信手段11から送信したマイクロ波の反射波における各周波数に含まれるドップラ成分を抽出し、抽出した各周波数のドップラ成分における位相差に基づいて測定する。角度は、強度差を水平または垂直に並んでいる2つの受信手段12におけるマイクロ波パルスの受信強度の差を算出する。また、同様に受信強度の和を算出する。かかる受信強度の差と和を用いて、受信手段12の指向中心の方向からのずれ量として角度を測定する。なお、距離と角度以外に、2周波CW方式を用いると、移動体の移動速度についても計測できる。
That is, the distance is measured based on the phase difference in the extracted Doppler component of each frequency by extracting the Doppler component included in each frequency in the reflected wave of the microwave transmitted from the
かかる二周波CWモノパルス方式は、周知の方式なので詳細な説明は省略する。本実施の形態では、二周波CWモノパルス方式を用いて説明しているが、これに限るものではなく、例えば、監視領域に対して走査するよう受信アンテナの受信方向を自動的に変化させる機械式機構を持ったレーダセンサなど、三次元計測が可能な方式であれば如何なる方式を採用しても良いことはいうまでもない。 Since such a dual frequency CW monopulse system is a known system, a detailed description thereof will be omitted. In the present embodiment, the description is given using the dual-frequency CW monopulse system, but the present invention is not limited to this. For example, a mechanical system that automatically changes the reception direction of the reception antenna so as to scan the monitoring area. It goes without saying that any method may be adopted as long as it is a method capable of three-dimensional measurement, such as a radar sensor having a mechanism.
異常判定処理手段141は、測距測角手段142により求めた三次元情報に基づき、監視領域の異常の有無を判定する。
すなわち、測距測角手段142にて求めた三次元情報から同一物体による情報を移動速度・検出位置等にもとづいてグルーピングする。次に、グルーピングした情報から物体の大きさを算出し、当該大きさが予め定めた監視対象の大きさ程度か判定する。更に、当該情報が監視対象の大きさ程度の場合は、存在している三次元位置が後述す検出器記憶手段15に記憶されている検出領域情報に基づき、検出領域の内側にあるか否かを判定する。ここで、検出領域内に存在する場合に異常判定をする。異常判定すると、通信手段16から異常信号を監視装置20へ送信する。
The abnormality
That is, information based on the same object is grouped from the three-dimensional information obtained by the distance measuring and measuring means 142 based on the moving speed, the detected position, and the like. Next, the size of the object is calculated from the grouped information, and it is determined whether the size is about the size of a predetermined monitoring target. Further, when the information is about the size of the monitoring target, whether or not the existing three-dimensional position is inside the detection area based on the detection area information stored in the detector storage means 15 described later. Determine. Here, abnormality determination is performed when it exists in the detection region. When the abnormality is determined, the
例えば、美術館の展示品である彫刻を監視対象としている場合は、グルーピングされた情報群が形成する物体の大きさが、予め設定されている彫刻の大きさと同程度かを比較する。同程度でなければ、異常ではないと判定する。他方、同程度であれば、グルーピングされた情報群が形成する物体の重心が示す三次元位置が、検出領域内に存在しているかを判定する。検出領域内でない場合は、彫刻を見ている人等と判断し、異常ではないと判定する。他方、検出領域内に存在していれば、彫刻を持ち去ろうとしているとし、異常と判定し、監視装置20に通信手段16からLAN28を介して異常信号を送信する。
For example, when a sculpture that is an exhibit of a museum is to be monitored, it is compared whether the size of the object formed by the grouped information group is the same as the size of the sculpture set in advance. If it is not the same level, it is determined that there is no abnormality. On the other hand, if the degree is the same, it is determined whether the three-dimensional position indicated by the center of gravity of the object formed by the grouped information group exists in the detection region. If it is not within the detection area, it is determined that the person is looking at the sculpture, etc. On the other hand, if it exists in the detection area, it is determined that the sculpture is going to be taken away, and it is determined that there is an abnormality, and an abnormality signal is transmitted from the communication means 16 to the
次に、監視装置20の構成について説明する。監視装置20は、制御部21、記憶部22、表示部23、入力部24、通信制御部25、出力I/F26、電源27から構成される。
Next, the configuration of the
記憶部22は、ROM(Read Only Memory)/RAM(Random Access Memory)から構成され、検出領域設定プログラムや異常通報のためのプログラム等の各種プログラム、設置している場所の識別コードや警備センタの電話番号など各種設定データ、ワーキングエリアなどを有している。
The
表示部23は、液晶ディスプレイ・LED・スピーカ等にて構成され、撮像手段13が撮影した画像、所定のメッセージ等を表示する。
The
入力部24は、ポインティングペン等を用いても良いが、本実施の形態ではマウスを用いる。入力部24は、検出領域の設定者が入力部24を操作して、表示部23に表示されている画像上にて検出領域を指定入力することができる。
Although the
通信制御部25は通信ICにて構成され、LAN28を介した検出器10との通信を制御する。
The
出力I/F26は、電話回線29に接続されているモデムにて構成され、異常信号などを外部の警備センタに送信する。
The output I /
制御部21はCPUにて構成され、記憶部22に記憶されている各種プログラムにしたがって監視装置20の各構成要素を制御する。ここでは、記憶部22に記憶されている検出領域設定処理プログラムを実行した場合の機能として、検出領域設定処理手段211について説明する。
The
図2を参照して、検出領域設定処理手段211が行う検出領域設定処理について説明する。検出領域設定処理手段211は、記憶部22に記憶されている検出領域設定処理プログラムにしたがって処理を行う。
The detection area setting process performed by the detection area setting
先ず、検出器10の設定が完了しており、検出器10および監視装置20の電源がONになっている。そして、監視装置20の入力部24から操作者による検出領域の設定開始の入力があると、図2に示す検出領域設定処理がスタートする。
First, the setting of the
ステップS001では、検出領域を設定したい検出器10を指定する。このときに表示部23の表示を図4(a)に示す。図4(a)では、表示部23の右下の40に指定されている検出器番号が「1」である旨が表示されている。
検出器番号の指定は、入力部24を操作し、表示部23における画面上の検出器番号エリア40にカーソルを合わせて、マウスボタンを押下することにより選択する。検出器番号エリア40は、マウスボタンを押下する毎に検出器番号が1ずつインクリメントする。なお、監視装置20にテンキーが備わっているならば、入力手段がテンキーであれば検出器10の検出器番号を直接入力しても良い。あるいは、監視装置20に接続されている検出器10の検出器番号を一覧表示し、入力部24にて検出領域を設定したい検出器10の検出器番号を指定しても良い。
In step S001, the
The designation of the detector number is selected by operating the
ステップS002では、ステップS001にて指定された検出器10の撮像手段13が撮影した画像を取得する。すなわち、通信制御部25からLAN28を介して、指定した検出器10に対して画像送信コマンドを送信する。そして、画像送信コマンドを通信手段16から受信した検出器10では、検出器14の制御により撮像手段13が撮影した画像、検出器記憶手段15に記憶している撮像パラメータ、マイクロ波センサパラメータおよび検出領域情報を通信手段16からLAN28を介して監視装置20に送信する。かかる画像等を通信制御部25にて受信し、記憶部22に記憶する。
In step S002, an image captured by the imaging means 13 of the
ステップS003では、記憶部22に記憶した画像を表示部23に表示し、当該画像に予め定めた座標系を適用する。具体的には、図4(b)に示すように、画像の横方向にX軸、縦方向にY軸とし、X軸とY軸の原点を画像の中心位置になるよう二次元の座標系を適用する。但し、以下の説明では図面が煩雑になるため、座標系の表示は省略する。
In step S003, the image stored in the
ここで、設定対象となった検出器番号「1」である検出器10の設置場所について、図3を参照して説明する。図3は、検出器10を展示室36に設置している状態を示している。検出器10に収納された撮像手段13と送信手段11および受信手段12が、彫刻35に向けられて、展示室36の出入り口37に近い天井付近に設置されている。
Here, the installation location of the
次に、ステップS004では、表示部23に検出領域の設定を容易にするための入力ガイダンス41を表示する(図4(b))。同図では、「床面」にハッチングが掛かっている。これは、操作者に対して、これから入力部24から指定する点が、画像における床面であると認識することをガイドしている。他方、「高さ」がハッチングされているときは、床からの高さ情報の入力である旨のガイドである。
Next, in step S004, the
ステップS005では、床面領域を指定する。すなわち、図4の(c)に示すように、操作者が入力部24を使用し、指定点A、B、C、Dを指定する。具体的には、操作者は、表示部23を見ながら、監視対象である彫刻35の床面を囲むように、A(XA,YA)、B(XB,YB)、C(XC,YC)、D(XD,YD)にカーソルを合わせ、マウスボタンをそれぞれの点で押下する。なお、表示部23には、A、B、C、Dを結んだ線を表示されているので、設定される検出領域の具体的な状況を操作者が容易に確認できる。
In step S005, a floor area is designated. That is, as shown in FIG. 4C, the operator uses the
ステップS006では、床面の設定が終わると、操作者は、入力部24にて入力ガイダンス41の「高さ」にカーソルを合わせてマウスボタンを押下し、「高さ」がハッチングされたことを確認する。ここで、「高さ」がハッチングされていることは、これからの入力が検出領域の設定における床面からの高さ情報の入力をすることを意味する。
その後、床面として指定した点、例えばAにカーソルを合わせてマウスボタンを押下し、Aの上方向であって検出領域としたい位置へカーソルを合わせてマウスボタンを押下する。図4(d)のF(XF,YF)を指定することになる。
In step S006, when the setting of the floor surface is completed, the operator moves the cursor to “height” of the
Thereafter, the cursor is moved to a point designated as the floor, for example, A, and the mouse button is pressed, and the cursor is moved to a position in the upper direction of A and desired to be a detection area, and the mouse button is pressed. F (X F , Y F ) in FIG. 4D is designated.
ステップS007では、検出器10から受信し記憶部22に記憶した撮像パラメータ(設置高h、焦点距離f、俯角ρ)を読み出す。次に、A、B、C、D、E、F、G、Hの実空間上の座標を算出する。ここで、FはAの直上,GはBの直上,HはCの直上、EはDの直上の点であり、実空間において床面からZの高さにある点である。
具体的には、床面上の点A、B、C、Dは、数式(1)及び数式(2)にX、Y座標を代入し、実空間の直交座標系であるU−V−W座標系に変換する。
In step S007, the imaging parameters (installation height h, focal length f, depression angle ρ) received from the
Specifically, the points A, B, C, and D on the floor surface are obtained by substituting the X and Y coordinates into the formulas (1) and (2), and the U-V-W that is a real space orthogonal coordinate system. Convert to coordinate system.
なお、点A、B、C、Dは床面上の点であるため、W座標は0となる。
そして、F及びAの座標に基づき、実空間上の座標における床面からFまでの高さWを算出する。具体的には、数式(3)にFのY座標である「YF」および直下床面である点Aの実空間におけるV座標である「VA」を代入することで算出する。
Since points A, B, C, and D are points on the floor surface, the W coordinate is zero.
Based on the coordinates of F and A, the height W from the floor surface to F in the coordinates in the real space is calculated. Specifically, the calculation is performed by substituting “Y F ” that is the Y coordinate of F and “V A ” that is the V coordinate in the real space of the point A that is the floor surface directly below into Formula (3).
ここで、数式(1)(2)(3)は、透視変換の逆変換を実行するための関数である。すなわち、三次元情報(立体情報)から二次元情報(画像)に変換する透視変換の逆変換を行うことで、二次元情報(画像)から三次元情報(立体情報)に変換することができる。この透視変換の逆変換を実行するための関数は、幾何学的に立証されているので、ここでは詳細な説明を省略する。 Here, Expressions (1), (2), and (3) are functions for executing inverse transformation of perspective transformation. That is, it is possible to convert from two-dimensional information (image) to three-dimensional information (stereoscopic information) by performing inverse transformation of perspective transformation that converts three-dimensional information (stereoscopic information) to two-dimensional information (image). Since the function for performing the inverse transformation of the perspective transformation has been proved geometrically, detailed description thereof is omitted here.
実空間上の座標に変換された結果は、A(UA,VA,0)、B(UB,VB,0)、C(UC,VC,0)、D(UD,VD,0)となる。ここで、Wが0となっているは、床面を基準面としているからである。 The results converted into the coordinates in the real space are A (U A , V A , 0), B (U B , V B , 0), C (U C , V C , 0), D (U D , V D, 0) to become. Here, W is 0 because the floor is the reference plane.
また、本実施の形態では、説明を簡単にするため、検出領域を直方体としている。このため、床面にない点であるE、F、G、Hは、数式3にて算出した高さWとなっている。床面にない点であるE、F、G、Hは、E(UE,VE,W)、F(UF,VF,W)、G(UG,VG,W)、H(UH,VH,W)となる。なお、床面以外の点について、個別に高さを設定する場合は、当該点から垂線を下ろした床面上の点のY座標を用いて、個別に算出すればよい。 In the present embodiment, the detection region is a rectangular parallelepiped for the sake of simplicity. For this reason, E, F, G, and H, which are points not on the floor, are the height W calculated by Equation 3. The points E, F, G, and H that are not on the floor are E (U E , V E , W), F (U F , V F , W), G (U G , V G , W), H (U H , V H , W). In addition, when setting height individually about points other than a floor surface, what is necessary is just to calculate separately using the Y coordinate of the point on the floor surface which drew the perpendicular from the said point.
更に、実空間の直交座標系であるU−V−W座標系から検出器10を原点とした極座標系(r,θ,φ)に変換する。かかる極座標系を使用するのは、検出器10が検出器10からの距離r、水平方向の角度θ、及び垂直方向の角度φの情報によって、監視対象の位置を検出するためである。
Furthermore, the coordinate system is converted from the U-VW coordinate system, which is an orthogonal coordinate system in real space, to a polar coordinate system (r, θ, φ) with the
ステップS008では、表示部23に、図4(d)に示す検出領域ABCDEFGH47を表示する。 In step S008, the detection area ABCDEFGH 47 shown in FIG.
ステップS009では、操作者が表示部23の表示を見て、入力された検出領域が所望の領域を示しているか確認する。そして、所望の領域であると確認ができると、OK釦44を押下する。OK釦44が押下されるとステップS011に進む。他方、操作者の意図と異なっていれば、NG釦45を押下する。NG釦45が押下されると、ステップS010に進む。
In step S009, the operator looks at the display on the
ステップS010では、ステップS005〜S008までの処理に使用したデータをクリアし、ステップS005の処理に戻る。 In step S010, the data used for the processes in steps S005 to S008 is cleared, and the process returns to step S005.
ステップS011では、ステップS007において算出した極座標系の検出領域情報を記憶部22に記憶する。
In step S011, the polar coordinate system detection area information calculated in step S007 is stored in the
ステップS012では、操作者が他にも検出領域を指定したい場合に押下する追加釦46が所定時間内に押されたか否か判断する。ここで、追加釦46が押下されると、ステップS005に戻り、次の検出領域の設定を行う。追加釦46の押下がなければ、ステップS013に進む。
In step S012, it is determined whether or not the
ステップS013では、ステップS011にて記憶部22に記憶させた検出領域情報を通信制御部25からLANを介して検出器10に送信し検出領域設定処理を終了する。
なお、検出器10では、かかる検出領域情報を通信手段16にて受信すると、検出器記憶手段15に上書き記憶させる。また、記憶部22に記憶した検出領域情報は削除してもよい。
また、1つの監視装置20に検出器10が複数接続されている場合には、それぞれの検出器について行う。
In step S013, the detection region information stored in the
In the
In addition, when a plurality of
本実施の形態では、検出領域情報が検出器10の監視範囲内に設定されることを前提に説明している。しかし、検出器10における、撮像手段13による撮影した画像がマイクロ波(送信手段11・受信手段12)による監視範囲からはみ出した領域を検出領域に設定している場合に、その旨を表示部23に表示するようにしてもよい。この場合は、予め、監視装置20にマイクロ波による監視範囲の情報を記憶させておき、検出領域情報と当該監視範囲の情報とを比較することで判断できる。
In the present embodiment, description is made on the assumption that the detection area information is set within the monitoring range of the
次に、このように検出領域を設定された検知器10の動作を説明する。彫刻35が持ち去られたことを検出する処理を、図6のフロー図と、展示室36を横から見た図5を用いて説明する。
Next, operation | movement of the
図5(a)は、彫刻35が展示室36の本来の位置に置かれている様子を示している。70aは検出器10から彫刻上部までの距離、71aは検出器10から彫刻中央部までの距離、72aは検出器から彫刻下部までの距離、73は表示部23に表示された直方体ABCDEFGH47から特定される検出領域である。ここでは、説明を簡単にするため、極座標系の距離rに着目して説明する。
FIG. 5A shows a state in which the
まず、ステップS100では、検出器10のセンサ視野内で変動があったかどうかを調べる。変動が検出されない場合は、特に何もせず、このステップS100を繰り返す。
検出器10のセンサ視野内にて変動が検出された場合には、ステップS101に処理に進む。
First, in step S100, it is checked whether or not there is a change in the sensor visual field of the
If a change is detected within the sensor field of the
ステップS101では、ステップS100にて検出された変動が、検出領域73内部であるかどうかを調べる。検出器10は、設定した検出領域73以外でも、センサ視野内であれば変動を検出できるためである。
検出された変動が検出領域73以外の領域で検出された場合には、特に何もせず、ステップS100に処理を戻す。これは例えば、彫刻35の周囲を歩き回る入場者であると考えられ、その場合には特に警報を通報するなどの処理は必要ないからである。
変動が検出領域内で検出された場合には、ステップS102に処理を移す。
In step S101, it is checked whether or not the variation detected in step S100 is within the
If the detected variation is detected in a region other than the
If a change is detected in the detection area, the process proceeds to step S102.
ステップS102では、検出された変動が所定の閾値以上であるかどうかを調べる。
彫刻35が不審者により持ち去られた場合には、図5(b)に示すように、検出器10から彫刻下部までの距離72bは変わらないものの、検出器10から彫刻上部までの距離70b、彫刻中央部までの距離71bは大きく変わることがわかる。
In step S102, it is checked whether or not the detected fluctuation is equal to or greater than a predetermined threshold value.
When the
図5は横から見た、検出器10からの彫刻上部、彫刻中央部、彫刻下部までの3点について示しているが、本実施の形態では検出器10に三次元計測が可能なマイクロ波レーダセンサを用いているので、彫刻の各部について上記のような距離の変動を検出することが可能である。
従って、検出器からの各部の距離の変動が検出され、それが所定の閾値以上の場合には、彫刻35が持ち去られたと判断できるので、ステップS103にて異常信号を監視装置に送信する。
FIG. 5 shows three points from the side, the upper part of the engraving from the
Accordingly, when a variation in the distance of each part from the detector is detected and is greater than or equal to a predetermined threshold value, it can be determined that the
本実施の形態においては、検出器10を屋内に設置して、監視対象物の持ち去り検出処理を例に説明したが、屋外に設置して、侵入監視センサとして用いることも可能である。この場合、例えば、検出器10を軒下に設置して、敷地内に侵入する不審者を検出するよう、門扉付近を検出領域とする。そして、その中に一定以上の変動が検出されたら不審者が侵入したとして警報を通報する。
In the present embodiment, the
本実施の形態においては、検出領域内で検出された変動が所定の閾値以上の場合に、直ちに警報を通報するものとして説明している。これは監視対象物が高価な重要物の場合には有効であるが、何らかのノイズ原因により誤警報を通報する可能性が高まる。そこで検出領域内で検出された変動が、所定の閾値以上である状態が一定時間継続したかどうかも判断の尺度にしても良い。 In the present embodiment, it is described that an alarm is immediately notified when the variation detected in the detection region is equal to or greater than a predetermined threshold. This is effective when the monitored object is an expensive important object, but increases the possibility of reporting a false alarm due to some cause of noise. Therefore, whether or not the state in which the variation detected in the detection region is equal to or greater than a predetermined threshold has continued for a certain period of time may be used as a criterion for judgment.
本実施の形態においては、検出領域の形状は、指定が簡単な直方体の例を示したが、床面に含まれる指定点を先に入力して、その後に高さを入力する手順であれば、直方体に限られない。指定点として底面の頂点と上面の頂点を順次指定し、両者を結ぶ辺を指定していくことで、より複雑な形状の検出領域を指定できる。 In the present embodiment, the shape of the detection region is an example of a rectangular parallelepiped that is easy to specify. However, if the procedure is to input the specified point included in the floor first and then input the height. It is not limited to a rectangular parallelepiped. By specifying the bottom vertex and the top vertex sequentially as the designated points and designating the sides connecting them, a detection area having a more complex shape can be designated.
本実施の形態においては、図3に示すように、検出器10を構成する撮像手段13と、センサ部分である送信手段11と受信手段12を同一の筐体に収納して説明した。このようにすれば、センサ視野と撮像手段13の視野とを略同一に調整する手間が軽減されるというメリットがある。また、監視装置20による異常発生の判断に同期して、例えば、彫刻35の持ち去りの瞬間を撮像手段13により証拠画像として撮像することも可能である。
In the present embodiment, as shown in FIG. 3, the image pickup means 13 constituting the
しかし、撮像手段13を別筐体とし、設置時に、検出器10の他の構成要素と組み合わせても良い。また、撮像手段13は検出領域の設定に使用するのみで、設定終了後は取り外す、という運用方法も考えられる。
この場合には、撮像手段13とセンサ視野との略同一を確保するために、図7に示すように、「はめあい」の構造を有することが望ましい。
However, the imaging means 13 may be a separate housing and may be combined with other components of the
In this case, in order to ensure substantially the same image pickup means 13 and sensor field of view, it is desirable to have a “fitting” structure as shown in FIG.
本実施の形態では、検出領域の設定として説明したが、設定した領域の移動体を検出しないように、いわゆる非検出領域として設定しても良い。 In the present embodiment, the detection area is set. However, the detection area may be set as a so-called non-detection area so as not to detect a moving body in the set area.
10 検出器
11 送信手段
12 受信手段
13 撮像手段
14 検出器制御手段
15 検出器記憶手段
16 通信手段
17 電源
20 監視装置
21 制御部
22 記憶部
23 表示部
24 入力部
25 通信制御部
26 出力I/F
27 電源
28 LAN
29 電話回線
35 彫刻
40 検出器番号
41 入力ガイダンス
42 X軸
43 Y軸
44 OK釦
45 NG釦
46 追加釦
47 検出領域(画像上)
70 彫刻までの距離
71 彫刻までの距離
72 彫刻までの距離
73 検出領域(実空間)
DESCRIPTION OF
27
29
70 Distance to engraving 71 Distance to engraving 72 Distance to engraving 73 Detection area (real space)
Claims (5)
前記監視領域の画像を撮影する撮像部と、
前記撮像部が撮影した画像を表示する表示部と、
前記表示部に表示された画像上にて検出領域または非検出領域の指定操作をする入力部と、
前記撮像部の設置高・俯角・焦点距離を含む撮像パラメータおよび検出領域または非検出領域を記憶する記憶部と、
前記入力部から指定された指定点の画像上の二次元情報を床面上と床面以外とに区別した入力を受け、前記床面上の指定点の二次元情報と前記撮像パラメータおよび前記床面以外の指定点の二次元情報を用いて前記床面以外の指定点の高さ情報を算出し、
前記床面上の指定点は総てを基準の高さ情報とし、前記床面以外の指定点は前記算出した高さ情報として、画像上の二次元情報を三次元情報に変換した検出領域または非検出領域を前記記憶部に記憶させる制御部を具備したことを特徴とする設定装置。 A setting device that sets a detection region or a non-detection region for a part of a monitoring region of a detector that detects a moving object using three-dimensional information,
An imaging unit that captures an image of the monitoring area;
A display unit for displaying an image captured by the imaging unit;
An input unit for performing a designation operation of a detection region or a non-detection region on the image displayed on the display unit;
A storage unit for storing imaging parameters including a setting height, depression angle, and focal length of the imaging unit, and a detection region or a non-detection region;
Two-dimensional information on the image of the designated point designated by the input unit is received separately on the floor surface and other than the floor surface, and the two-dimensional information on the designated point on the floor surface, the imaging parameter, and the floor Calculate the height information of the designated point other than the floor using the two-dimensional information of the designated point other than the surface,
The designated points on the floor are all the reference height information, and the designated points other than the floor are the calculated height information, the detection area obtained by converting the two-dimensional information on the image into three-dimensional information, or A setting device comprising a control unit for storing a non-detection area in the storage unit.
前記制御部は、前記床面上の指定点におけるXY座標情報と、前記撮像パラメータと、床面以外の指定点のY座標情報を用いて、画像の透視変換の逆変換を行ない前記床面以外の高さ情報を算出する請求項1乃至請求項3に記載の設定装置。 Define two-dimensional information on the image as XY coordinates with the horizontal and vertical directions of the image as the X-axis and Y-axis, respectively.
The control unit reverses the perspective transformation of the image using the XY coordinate information at the designated point on the floor surface, the imaging parameter, and the Y coordinate information of the designated point other than the floor surface, and other than the floor surface. The setting device according to claim 1, wherein the height information is calculated.
The setting device according to claim 1, wherein the designated point other than the floor surface designates a position immediately above the designated point on the floor surface in a monitoring area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005194423A JP2007013814A (en) | 2005-07-01 | 2005-07-01 | Setting apparatus for detection region |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005194423A JP2007013814A (en) | 2005-07-01 | 2005-07-01 | Setting apparatus for detection region |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007013814A true JP2007013814A (en) | 2007-01-18 |
Family
ID=37751644
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005194423A Pending JP2007013814A (en) | 2005-07-01 | 2005-07-01 | Setting apparatus for detection region |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007013814A (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008199390A (en) * | 2007-02-14 | 2008-08-28 | Matsushita Electric Ind Co Ltd | Surveillance camera and surveillance camera control method |
JP2010117211A (en) * | 2008-11-12 | 2010-05-27 | East Japan Railway Co | Laser radar installation position verification apparatus, laser radar installation position verification method, and program for laser radar installation position verification apparatus |
CN101819627A (en) * | 2010-03-30 | 2010-09-01 | 北京蓝色星河软件技术发展有限公司 | Method for identifying abnormal behavior of people based on space conversion |
JP2011002337A (en) * | 2009-06-18 | 2011-01-06 | Panasonic Electric Works Co Ltd | Moving object detection device |
KR101144334B1 (en) | 2009-12-28 | 2012-05-11 | 주식회사 에스원 | Roi defining method of 3d acoustic sensor system |
JP2012124839A (en) * | 2010-12-10 | 2012-06-28 | Secom Co Ltd | Image monitoring apparatus |
JP2014123240A (en) * | 2012-12-21 | 2014-07-03 | Casio Comput Co Ltd | Order terminal, bag monitoring method, and program |
JPWO2015125544A1 (en) * | 2014-02-18 | 2017-03-30 | ノーリツプレシジョン株式会社 | Information processing apparatus, information processing method, and program |
JP2018074528A (en) * | 2016-11-02 | 2018-05-10 | キヤノン株式会社 | Information processing system and component apparatus thereof, and method for monitoring real space |
WO2019093371A1 (en) * | 2017-11-09 | 2019-05-16 | コニカミノルタ株式会社 | Object detecting system and object detecting program |
WO2019093372A1 (en) * | 2017-11-09 | 2019-05-16 | コニカミノルタ株式会社 | Object detecting system and object detecting program |
CN113253264A (en) * | 2021-05-10 | 2021-08-13 | 西安西测测试技术股份有限公司 | Ground penetrating radar data acquisition and recombination method |
WO2022190476A1 (en) * | 2021-03-08 | 2022-09-15 | 住友電気工業株式会社 | Radio wave sensor, and method for adjusting radio wave sensor |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08138057A (en) * | 1994-11-04 | 1996-05-31 | Fuji Electric Co Ltd | Object monitoring device |
JPH09282459A (en) * | 1996-04-18 | 1997-10-31 | Matsushita Electric Ind Co Ltd | Body detector |
JP2001155291A (en) * | 1999-11-30 | 2001-06-08 | Omron Corp | Information processor, information processing method, recording medium and object detecting device |
JP2004266633A (en) * | 2003-03-03 | 2004-09-24 | Toa Corp | Photographing apparatus |
-
2005
- 2005-07-01 JP JP2005194423A patent/JP2007013814A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08138057A (en) * | 1994-11-04 | 1996-05-31 | Fuji Electric Co Ltd | Object monitoring device |
JPH09282459A (en) * | 1996-04-18 | 1997-10-31 | Matsushita Electric Ind Co Ltd | Body detector |
JP2001155291A (en) * | 1999-11-30 | 2001-06-08 | Omron Corp | Information processor, information processing method, recording medium and object detecting device |
JP2004266633A (en) * | 2003-03-03 | 2004-09-24 | Toa Corp | Photographing apparatus |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9870685B2 (en) | 2007-02-14 | 2018-01-16 | Panasonic Intellectual Property Management Co., Ltd. | Monitoring camera and monitoring camera control method |
JP2008199390A (en) * | 2007-02-14 | 2008-08-28 | Matsushita Electric Ind Co Ltd | Surveillance camera and surveillance camera control method |
US10861304B2 (en) | 2007-02-14 | 2020-12-08 | Panasonic I-Pro Sensing Solutions Co., Ltd. | Monitoring camera and monitoring camera control method |
US9286775B2 (en) | 2007-02-14 | 2016-03-15 | Panasonic Intellectual Property Management Co., Ltd. | Monitoring camera and monitoring camera control method |
US9437089B2 (en) | 2007-02-14 | 2016-09-06 | Panasonic Intellectual Property Management Co., Ltd. | Monitoring camera and monitoring camera control method |
US10475312B2 (en) | 2007-02-14 | 2019-11-12 | Panasonic intellectual property Management co., Ltd | Monitoring camera and monitoring camera control method |
JP2010117211A (en) * | 2008-11-12 | 2010-05-27 | East Japan Railway Co | Laser radar installation position verification apparatus, laser radar installation position verification method, and program for laser radar installation position verification apparatus |
JP2011002337A (en) * | 2009-06-18 | 2011-01-06 | Panasonic Electric Works Co Ltd | Moving object detection device |
KR101144334B1 (en) | 2009-12-28 | 2012-05-11 | 주식회사 에스원 | Roi defining method of 3d acoustic sensor system |
CN101819627A (en) * | 2010-03-30 | 2010-09-01 | 北京蓝色星河软件技术发展有限公司 | Method for identifying abnormal behavior of people based on space conversion |
JP2012124839A (en) * | 2010-12-10 | 2012-06-28 | Secom Co Ltd | Image monitoring apparatus |
JP2014123240A (en) * | 2012-12-21 | 2014-07-03 | Casio Comput Co Ltd | Order terminal, bag monitoring method, and program |
JPWO2015125544A1 (en) * | 2014-02-18 | 2017-03-30 | ノーリツプレシジョン株式会社 | Information processing apparatus, information processing method, and program |
JP2018074528A (en) * | 2016-11-02 | 2018-05-10 | キヤノン株式会社 | Information processing system and component apparatus thereof, and method for monitoring real space |
WO2019093371A1 (en) * | 2017-11-09 | 2019-05-16 | コニカミノルタ株式会社 | Object detecting system and object detecting program |
WO2019093372A1 (en) * | 2017-11-09 | 2019-05-16 | コニカミノルタ株式会社 | Object detecting system and object detecting program |
JPWO2019093372A1 (en) * | 2017-11-09 | 2020-11-19 | コニカミノルタ株式会社 | Object detection system and object detection program |
JPWO2019093371A1 (en) * | 2017-11-09 | 2020-12-03 | コニカミノルタ株式会社 | Object detection system and object detection program |
JP7244801B2 (en) | 2017-11-09 | 2023-03-23 | コニカミノルタ株式会社 | Object detection system and object detection program |
JP7244802B2 (en) | 2017-11-09 | 2023-03-23 | コニカミノルタ株式会社 | Object detection system and object detection program |
WO2022190476A1 (en) * | 2021-03-08 | 2022-09-15 | 住友電気工業株式会社 | Radio wave sensor, and method for adjusting radio wave sensor |
CN113253264A (en) * | 2021-05-10 | 2021-08-13 | 西安西测测试技术股份有限公司 | Ground penetrating radar data acquisition and recombination method |
CN113253264B (en) * | 2021-05-10 | 2023-09-22 | 西安西测测试技术股份有限公司 | Ground penetrating radar data acquisition and recombination method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101073076B1 (en) | Fire monitoring system and method using compound camera | |
JP2007013814A (en) | Setting apparatus for detection region | |
KR101343975B1 (en) | System for detecting unexpected accident | |
JP6736307B2 (en) | Safety scanner, optical safety system and configuration support device for safety scanner | |
JP2003515811A (en) | Video crisis management curtain | |
US20180259613A1 (en) | Object detection device, object detection system and object detection method | |
KR101666466B1 (en) | Marine risk management system and marine risk management method using marine object distance measuring system with monocular camera | |
US20160163171A1 (en) | Monitoring System | |
KR101048508B1 (en) | System and method for realtime monitoring of harbor image using smart device | |
JP2008241304A (en) | Object detector | |
US20150042645A1 (en) | Processing apparatus for three-dimensional data, processing method therefor, and processing program therefor | |
JP2010232888A (en) | Monitor device | |
WO2018038152A1 (en) | Gas measurement system and gas measurement program | |
JP6045806B2 (en) | Intrusion monitoring device | |
JP4301051B2 (en) | Harbor monitoring system | |
JP2013210904A (en) | Intrusion monitoring device | |
JP6644561B2 (en) | Flying object monitoring system | |
WO2020111053A1 (en) | Monitoring device, monitoring system, monitoring method, and monitoring program | |
JP4880925B2 (en) | Setting device | |
KR102374357B1 (en) | Video Surveillance Apparatus for Congestion Control | |
KR101977344B1 (en) | Monitoring system for main control room in nuclear power plant | |
JP4754283B2 (en) | Monitoring system and setting device | |
JP2009086729A (en) | Monitoring system, security device, sensor and monitoring method | |
JP3875199B2 (en) | Imaging device | |
KR100963108B1 (en) | System and method of watching moving object toward power transmission line |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080514 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110125 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110318 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110412 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110802 |