JP2021072475A - Monitoring system and monitoring system setting program - Google Patents

Monitoring system and monitoring system setting program Download PDF

Info

Publication number
JP2021072475A
JP2021072475A JP2019196411A JP2019196411A JP2021072475A JP 2021072475 A JP2021072475 A JP 2021072475A JP 2019196411 A JP2019196411 A JP 2019196411A JP 2019196411 A JP2019196411 A JP 2019196411A JP 2021072475 A JP2021072475 A JP 2021072475A
Authority
JP
Japan
Prior art keywords
camera
image
monitoring
alarm
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019196411A
Other languages
Japanese (ja)
Inventor
香織 森
Kaori Mori
香織 森
蕗乃 風見
Fukino Kazami
蕗乃 風見
偉志 渡邊
Takeshi Watanabe
偉志 渡邊
伸 山田
Shin Yamada
伸 山田
岩井 和彦
Kazuhiko Iwai
和彦 岩井
祥樹 手島
Yoshiki Tejima
祥樹 手島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2019196411A priority Critical patent/JP2021072475A/en
Publication of JP2021072475A publication Critical patent/JP2021072475A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

To allow an observer to immediately check a specific status of a monitoring event related to an alarm issuance when the occurrence of the monitoring event is detected and the alarm is issued immediately after the alarm is issued, or even in a case in which the chack is delayed from the alarm issuance.SOLUTION: In a case in which an image analysis server 3 detects the occurrence of a predetermined monitoring event on the basis of a real-time camera image taken by a camera in a monitoring area, and when the monitoring event meets a predetermined alarm issuance condition, the image analysis server issues an alarm, transmits event detection information including position information of an object related to the detected monitoring event to a camera management server 2 at the same timing as the alarm issuance, and the camera management server 2 adds a mark image indicating the object related to the monitoring event to a temporarily stored camera image to generate a check image.SELECTED DRAWING: Figure 1

Description

本発明は、監視エリアを撮影したリアルタイムなカメラ画像に基づいて、所定の監視事象の発生を検知してアラーム発報を行う監視システム、および監視システムに関する設定を情報処理装置に行わせる監視システム設定プログラムに関するものである。 The present invention is a monitoring system that detects the occurrence of a predetermined monitoring event and issues an alarm based on a real-time camera image of the monitoring area, and a monitoring system setting that causes an information processing device to make settings related to the monitoring system. It's about the program.

近年、監視地点にカメラを設置して、カメラで撮影したリアルタイムのカメラ画像をモニタの監視画面に表示する監視システムが広く普及している。さらに、カメラ画像に対する画像解析により、所定の監視事象の発生を検知すると、その監視事象の発生を監視員に報知するアラーム発報を行う監視システムも実用化されている。 In recent years, a monitoring system in which a camera is installed at a monitoring point and a real-time camera image taken by the camera is displayed on a monitoring screen of a monitor has become widespread. Further, a monitoring system that issues an alarm to notify the observer of the occurrence of a predetermined monitoring event when the occurrence of a predetermined monitoring event is detected by image analysis of the camera image has also been put into practical use.

このような監視システムでは、監視員は、アラーム発報により監視事象の発生を認識すると、監視画面のカメラ画像により監視事象の具体的な状況を確認することができるが、カメラ画像による確認作業がアラーム発報から遅れてしまうと、リアルタイムのカメラ画像にはもう監視事象が写っていない場合もあるため、監視事象の具体的な状況が分からないという問題がある。 In such a monitoring system, when the observer recognizes the occurrence of the monitoring event by issuing an alarm, the specific status of the monitoring event can be confirmed by the camera image on the monitoring screen, but the confirmation work by the camera image is performed. If the alarm is delayed, the real-time camera image may no longer show the monitoring event, so there is a problem that the specific status of the monitoring event cannot be known.

そこで、このような問題を解決するものとして、従来、所定の侵入禁止エリアに人物が立ち入ったことを検知すると、モニタの監視画面に、検知した人物と、その人物が立ち入った侵入禁止エリアとを強調表示し、さらに、侵入禁止エリアから人物が立ち去った後も、侵入禁止エリアの強調表示を継続する技術が知られている(特許文献1参照)。この技術では、監視画面による確認がアラーム発報から遅れても、侵入禁止エリアの強調表示が継続されているため、監視事象(侵入禁止エリアへの立ち入り)が発生したことを監視員が確認することができる。 Therefore, as a solution to such a problem, conventionally, when it is detected that a person has entered a predetermined intrusion prohibited area, the detected person and the intrusion prohibited area in which the person has entered are displayed on the monitor screen of the monitor. There is known a technique for highlighting and continuing to highlight the intrusion prohibited area even after a person leaves the intrusion prohibited area (see Patent Document 1). With this technology, even if the confirmation on the monitoring screen is delayed from the alarm issuance, the intrusion prohibited area is still highlighted, so the observer confirms that a monitoring event (entry into the intrusion prohibited area) has occurred. be able to.

特開2016−146527号公報Japanese Unexamined Patent Publication No. 2016-146527

しかしながら、従来の技術では、監視画面において侵入禁止エリアの強調表示が継続することで、監視事象が発生したことを監視員が確認できるが、監視画面には、監視事象の発生時点のカメラ画像ではなく、リアルタイムのカメラ画像が表示されるため、確認作業がアラーム発報から遅れてしまうと、監視事象の具体的な状況を確認できないという問題があった。また、レコーダに録画されたカメラ画像を表示させれば、監視事象の具体的な状況が確認できるが、従来の技術では、監視事象の発生時点のカメラ画像を即座に表示できる構成ではないため、監視事象の発生時点のカメラ画像をレコーダから探し出す面倒な作業が必要になるという問題があった。 However, in the conventional technology, the observer can confirm that the monitoring event has occurred by continuously highlighting the intrusion prohibited area on the monitoring screen, but on the monitoring screen, the camera image at the time of the occurrence of the monitoring event is displayed. However, since the real-time camera image is displayed, there is a problem that the specific status of the monitoring event cannot be confirmed if the confirmation work is delayed from the alarm issuance. Further, if the recorded camera image is displayed on the recorder, the specific status of the monitoring event can be confirmed. However, in the conventional technology, the camera image at the time when the monitoring event occurs is not configured to be displayed immediately. There is a problem that the troublesome work of finding the camera image at the time of the occurrence of the monitoring event from the recorder is required.

そこで、本発明は、監視事象の発生を検知してアラーム発報を行った際に、そのアラーム発報に係る監視事象の具体的な状況を、監視員が、アラーム発報の直後に、また、アラーム発報から遅れても即座に確認することができる監視システムおよび監視システム設定プログラムを提供することを主な目的とする。 Therefore, in the present invention, when the occurrence of a monitoring event is detected and an alarm is issued, the observer can determine the specific status of the monitoring event related to the alarm issuance immediately after the alarm is issued. The main purpose is to provide a monitoring system and a monitoring system setting program that can be confirmed immediately even if the alarm is delayed.

本発明の監視システムは、監視エリアを撮影したリアルタイムなカメラ画像に基づいて、所定の監視事象の発生を検知してアラーム発報を行う監視システムであって、前記監視エリアを撮影する少なくとも1つのカメラと、このカメラにより撮影された前記カメラ画像を蓄積する画像蓄積部と、前記カメラ画像に対する画像解析により、前記監視事象の発生を検知して、その監視事象の発生をユーザに通知するためのアラーム発報を行うと共に、検知した前記監視事象に係る物体の位置情報を含む事象検知情報を生成する画像解析部と、前記事象検知情報に基づいて、前記監視事象に係る物体を指し示すマーク画像を、一時的に蓄積された前記カメラ画像に付加して確認画像を生成する確認画像生成部と、前記アラーム発報と同じタイミングで、前記確認画像をユーザ装置に配信する画像配信部と、を備えた構成とする。 The monitoring system of the present invention is a monitoring system that detects the occurrence of a predetermined monitoring event and issues an alarm based on a real-time camera image of the monitoring area, and at least one of the monitoring areas is photographed. A camera, an image storage unit that stores the camera image taken by the camera, and an image analysis of the camera image to detect the occurrence of the monitoring event and notify the user of the occurrence of the monitoring event. An image analysis unit that issues an alarm and generates event detection information including the position information of the detected object related to the monitoring event, and a mark image indicating the object related to the monitoring event based on the event detection information. A confirmation image generation unit that generates a confirmation image by adding the confirmation image to the temporarily stored camera image, and an image distribution unit that distributes the confirmation image to the user device at the same timing as the alarm issuance. The configuration is provided.

また、本発明の監視システム設定プログラムは、監視エリアをカメラにより撮影したリアルタイムなカメラ画像に基づいて、所定の監視事象の発生を検知してアラーム発報を行う監視システムに関する設定を情報処理装置に行わせる監視システム設定プログラムであって、ユーザ装置に設定画面を表示して、その設定画面上でのユーザの画面操作に応じて前記監視システムに関する設定情報を取得し、前記設定画面は、前記監視システムに設けられた複数の前記カメラの中から設定対象となる前記カメラを選択するカメラ選択部と、このカメラ選択部により選択された前記カメラに対して、検知可能な監視事象の複数の種別の中から少なくとも1つを選択する監視事象選択部と、前記カメラ選択部により選択された前記カメラに対応して、前記カメラ画像を蓄積する画像蓄積部、および前記カメラ画像に対する画像解析により、前記監視事象の発生を検知して、その監視事象の発生をユーザに通知するためのアラーム発報を行う画像解析部に関する設定情報を表示する設定情報表示部と、前記カメラ選択部により選択された前記カメラにより撮影されたリアルタイムなカメラ画像を表示する画像表示部と、を備えた構成とする。 Further, the monitoring system setting program of the present invention sets the setting related to the monitoring system that detects the occurrence of a predetermined monitoring event and issues an alarm based on the real-time camera image taken by the camera of the monitoring area in the information processing device. It is a monitoring system setting program to be performed, a setting screen is displayed on a user device, setting information related to the monitoring system is acquired according to a screen operation of the user on the setting screen, and the setting screen is the monitoring. A camera selection unit that selects the camera to be set from a plurality of the cameras provided in the system, and a plurality of types of monitoring events that can be detected for the camera selected by the camera selection unit. The monitoring is performed by a monitoring event selection unit that selects at least one of them, an image storage unit that stores the camera image corresponding to the camera selected by the camera selection unit, and image analysis of the camera image. A setting information display unit that displays setting information related to an image analysis unit that detects the occurrence of an event and issues an alarm to notify the user of the occurrence of the monitoring event, and the camera selected by the camera selection unit. The configuration is provided with an image display unit that displays a real-time camera image taken by the camera.

本発明によれば、監視事象の発生を検知してアラーム発報を行った際に、アラーム発報と略同時に、確認画像(アラーム確認用のカメラ画像)が表示されるため、アラーム発報に係る監視事象の具体的な状況を、監視員が、アラーム発報の直後に、また、アラーム発報から遅れても即座に確認することができる。 According to the present invention, when the occurrence of a monitoring event is detected and an alarm is issued, a confirmation image (camera image for alarm confirmation) is displayed substantially at the same time as the alarm is issued. The observer can immediately confirm the specific status of the monitoring event immediately after the alarm is issued or even if the alarm is delayed.

本実施形態に係る監視システムの全体構成図Overall configuration diagram of the monitoring system according to this embodiment 本監視システムの動作手順を示すシーケンス図Sequence diagram showing the operation procedure of this monitoring system 画像解析サーバ3の動作状況を示すタイミング図Timing diagram showing the operating status of the image analysis server 3 カメラ管理サーバ2、および画像解析サーバ3の概略構成を示すブロック図A block diagram showing a schematic configuration of the camera management server 2 and the image analysis server 3. 画像解析サーバ3の機能的な構成を示すブロック図Block diagram showing the functional configuration of the image analysis server 3 画像解析サーバ3で行われる持ち去り検知処理の概要を示す説明図Explanatory drawing which shows the outline of the take-out detection process performed by the image analysis server 3. 画像解析サーバ3で行われる転倒検知処理の概要を示す説明図Explanatory drawing which shows the outline of the fall detection processing performed by the image analysis server 3. 画像解析サーバ3で行われる滞留検知処理の概要を示す説明図Explanatory drawing which shows the outline of the retention detection processing performed by the image analysis server 3. 画像解析サーバ3で行われる侵入検知処理の概要を示す説明図Explanatory drawing showing the outline of the intrusion detection process performed by the image analysis server 3. 保守端末7に表示される稼働状況確認画面を示す説明図Explanatory diagram showing the operation status confirmation screen displayed on the maintenance terminal 7. 保守端末7に表示される設定画面を示す説明図Explanatory drawing which shows the setting screen displayed on maintenance terminal 7. 持ち去り設定ボタン122および転倒設定ボタン123を操作した際の設定画面の要部を示す説明図Explanatory drawing which shows the main part of the setting screen when the take-out setting button 122 and the fall setting button 123 are operated. 滞留設定ボタン124および侵入設定ボタン125を操作した際の設定画面の要部を示す説明図Explanatory drawing which shows the main part of the setting screen when the stay setting button 124 and the intrusion setting button 125 are operated. エリア設定モードでの設定画面の要部を示す説明図Explanatory drawing showing the main part of the setting screen in the area setting mode 監視端末6に表示される監視画面を示す説明図Explanatory drawing which shows the monitoring screen displayed on the monitoring terminal 6. 第2実施形態に係るカメラ管理サーバ2、および画像解析サーバ3の概略構成を示すブロック図A block diagram showing a schematic configuration of the camera management server 2 and the image analysis server 3 according to the second embodiment.

前記課題を解決するためになされた第1の発明は、監視エリアを撮影したリアルタイムなカメラ画像に基づいて、所定の監視事象の発生を検知してアラーム発報を行う監視システムであって、前記監視エリアを撮影する少なくとも1つのカメラと、このカメラにより撮影された前記カメラ画像を蓄積する画像蓄積部と、前記カメラ画像に対する画像解析により、前記監視事象の発生を検知して、その監視事象の発生をユーザに通知するためのアラーム発報を行うと共に、検知した前記監視事象に係る物体の位置情報を含む事象検知情報を生成する画像解析部と、前記事象検知情報に基づいて、前記監視事象に係る物体を指し示すマーク画像を、一時的に蓄積された前記カメラ画像に付加して確認画像を生成する確認画像生成部と、前記アラーム発報と同じタイミングで、前記確認画像をユーザ装置に配信する画像配信部と、を備えた構成とする。 The first invention made to solve the above-mentioned problems is a monitoring system that detects the occurrence of a predetermined monitoring event and issues an alarm based on a real-time camera image of a monitoring area. The occurrence of the monitoring event is detected by at least one camera that captures the monitoring area, an image storage unit that stores the camera image captured by the camera, and image analysis of the camera image, and the monitoring event is detected. An image analysis unit that issues an alarm to notify the user of the occurrence and generates event detection information including the position information of the object related to the detected monitoring event, and the monitoring based on the event detection information. A confirmation image generator that generates a confirmation image by adding a mark image pointing to an object related to an event to the temporarily accumulated camera image, and the confirmation image to a user device at the same timing as the alarm issuance. It is configured to include an image distribution unit for distribution.

これによると、監視事象の発生を検知してアラーム発報を行った際に、アラーム発報と略同時に、確認画像(アラーム確認用のカメラ画像)が表示されるため、アラーム発報に係る監視事象の具体的な状況を、監視員が、アラーム発報の直後に、また、アラーム発報から遅れても即座に確認することができる。 According to this, when the occurrence of a monitoring event is detected and an alarm is issued, a confirmation image (camera image for alarm confirmation) is displayed almost at the same time as the alarm is issued, so monitoring related to the alarm issuance. The specific situation of the event can be confirmed by the observer immediately after the alarm is issued or immediately after the alarm is issued.

また、第2の発明は、前記画像解析部は、前記監視事象として検知可能な複数の種別の中から、前記カメラごとに予め選択された種別が登録された設定情報に基づいて、前記カメラに対応する種別の監視事象の発生を検知する構成とする。 Further, in the second invention, the image analysis unit attaches the camera to the camera based on the setting information in which the type selected in advance for each camera is registered from the plurality of types that can be detected as the monitoring event. The configuration is such that the occurrence of the corresponding type of monitoring event is detected.

これによると、検知する監視事象の種別をカメラごとに選択することができるため、監視エリアの特徴などに応じた適切な監視を行うことができる。 According to this, since the type of the monitoring event to be detected can be selected for each camera, appropriate monitoring can be performed according to the characteristics of the monitoring area and the like.

また、第3の発明は、前記画像解析部は、前記監視事象として検知可能な種別の最大数より少ない複数の種別をユーザに選択させて前記設定情報の登録を行う構成とする。 Further, in the third invention, the image analysis unit has a configuration in which the user selects a plurality of types smaller than the maximum number of types that can be detected as the monitoring event, and registers the setting information.

これによると、サーバ装置での行動分析にかかる負荷を軽減すると共に、1台のカメラに関して複数の種別の監視事象の発生を検知でき、1つの監視エリアで発生した種別の異なる監視事象に関するアラーム発報を行うことができる。 According to this, it is possible to reduce the load on the behavior analysis in the server device, detect the occurrence of multiple types of monitoring events for one camera, and issue alarms for different types of monitoring events that occur in one monitoring area. You can make a report.

また、第4の発明は、前記確認画像生成部は、前記画像解析部から取得した前記事象検知情報に基づいて、前記監視事象に係る物体を取り囲む枠画像を前記マーク画像として前記カメラ画像に付加して前記確認画像を生成する構成とする。 Further, in the fourth invention, the confirmation image generation unit uses the frame image surrounding the object related to the monitoring event as the mark image in the camera image based on the event detection information acquired from the image analysis unit. In addition, the confirmation image is generated.

これによると、監視事象に係る物体を即座に確認することができる。なお、マーク画像は、枠画像の他に、文字、記号、図形(星印、矢印など)の画像でもよい。 According to this, the object related to the monitoring event can be confirmed immediately. In addition to the frame image, the mark image may be an image of characters, symbols, and figures (stars, arrows, etc.).

また、第5の発明は、前記画像解析部と前記確認画像生成部とが、1つのサーバ装置で構成されるものとする。 Further, in the fifth invention, the image analysis unit and the confirmation image generation unit are configured by one server device.

これによると、監視システムの構成を簡素化することができる。 According to this, the configuration of the monitoring system can be simplified.

また、第6の発明は、監視エリアをカメラにより撮影したリアルタイムなカメラ画像に基づいて、所定の監視事象の発生を検知してアラーム発報を行う監視システムに関する設定を情報処理装置に行わせる監視システム設定プログラムであって、ユーザ装置に設定画面を表示して、その設定画面上でのユーザの画面操作に応じて前記監視システムに関する設定情報を取得し、前記設定画面は、前記監視システムに設けられた複数の前記カメラの中から設定対象となる前記カメラを選択するカメラ選択部と、このカメラ選択部により選択された前記カメラに対して、検知可能な監視事象の複数の種別の中から少なくとも1つを選択する監視事象選択部と、前記カメラ選択部により選択された前記カメラに対応して、前記カメラ画像を蓄積する画像蓄積部、および前記カメラ画像に対する画像解析により、前記監視事象の発生を検知して、その監視事象の発生をユーザに通知するためのアラーム発報を行う画像解析部に関する設定情報を表示する設定情報表示部と、前記カメラ選択部により選択された前記カメラにより撮影されたリアルタイムなカメラ画像を表示する画像表示部と、を備えた構成とする。 Further, the sixth invention is a monitoring in which an information processing apparatus is made to set a monitoring system for detecting the occurrence of a predetermined monitoring event and issuing an alarm based on a real-time camera image taken by a camera in the monitoring area. A system setting program that displays a setting screen on a user device, acquires setting information related to the monitoring system according to a user's screen operation on the setting screen, and provides the setting screen in the monitoring system. A camera selection unit that selects the camera to be set from the plurality of the cameras selected, and at least a plurality of types of monitoring events that can be detected for the camera selected by the camera selection unit. Occurrence of the monitoring event by a monitoring event selection unit that selects one, an image storage unit that stores the camera image corresponding to the camera selected by the camera selection unit, and image analysis of the camera image. Is taken by the setting information display unit that displays the setting information related to the image analysis unit that detects the occurrence of the monitoring event and issues an alarm to notify the user of the occurrence of the monitoring event, and the camera selected by the camera selection unit. The configuration is provided with an image display unit that displays a real-time camera image.

これによると、監視システムに関する設定をカメラを基準にして効率よく行うことができる。 According to this, the settings related to the surveillance system can be efficiently made with reference to the camera.

また、第7の発明は、前記設定画面は、監視事象に係る物体が位置する場合にアラーム発報の対象とする検知エリアの範囲を指定する検知エリア指定部を備えた構成とする。 Further, according to the seventh aspect of the present invention, the setting screen is provided with a detection area designation unit for designating a range of detection areas for which an alarm is issued when an object related to a monitoring event is located.

これによると、撮影エリア内の一部に検知エリアを設定することで、無用なアラーム発報を避けることができる。 According to this, by setting a detection area in a part of the shooting area, it is possible to avoid unnecessary alarm issuance.

また、第8の発明は、前記設定画面は、監視事象に係る物体が位置する場合にアラーム発報の対象から除外するマスクエリアの範囲を指定するマスクエリア指定部を備えた構成とする。 Further, according to the eighth invention, the setting screen is provided with a mask area designation unit for designating a range of mask areas to be excluded from the target of alarm issuance when an object related to a monitoring event is located.

これによると、誤報が発生する可能性が高いエリアをマスクエリアとしてアラーム発報の対象から除外することで、誤報を抑制することができる。 According to this, it is possible to suppress false alarms by excluding areas where false alarms are likely to occur as mask areas from the target of alarm issuance.

以下、本発明の実施の形態を、図面を参照しながら説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(第1実施形態)
図1は、本実施形態に係る監視システムの全体構成図である。
(First Embodiment)
FIG. 1 is an overall configuration diagram of a monitoring system according to the present embodiment.

監視システムは、リゾート施設、商業施設などの施設内の監視エリアにおいて、利用者の異常状態などの所定の監視事象の発生を監視員に報知するものであり、カメラ1と、カメラ管理サーバ2(画像蓄積部、確認画像生成部、画像配信部)と、画像解析サーバ3(画像解析部)と、監視サーバ4と、警報灯5と、監視端末6(ユーザ装置)と、保守端末7(ユーザ装置)と、を備えている。これらの装置は、構内ネットワークなどの適宜な通信経路を介して相互に接続されている。 The monitoring system notifies the observer of the occurrence of a predetermined monitoring event such as an abnormal state of the user in the monitoring area in the facility such as a resort facility or a commercial facility, and the camera 1 and the camera management server 2 ( Image storage unit, confirmation image generation unit, image distribution unit), image analysis server 3 (image analysis unit), monitoring server 4, warning light 5, monitoring terminal 6 (user device), and maintenance terminal 7 (user). The device) and. These devices are connected to each other via an appropriate communication path such as a premises network.

カメラ1は、本監視システムが対象とする施設内の複数の監視地点に設置され、監視地点の周辺を撮影する。 The cameras 1 are installed at a plurality of monitoring points in the facility targeted by this monitoring system, and photograph the surroundings of the monitoring points.

カメラ管理サーバ2は、カメラ1から受信したリアルタイムのカメラ画像(動画)を蓄積する。また、カメラ管理サーバ2は、リアルタイムのカメラ画像をライブ用として監視端末6に配信する。また、カメラ管理サーバ2は、リアルタイムのカメラ画像を画像解析サーバ3に送信する。 The camera management server 2 stores real-time camera images (moving images) received from the camera 1. Further, the camera management server 2 distributes a real-time camera image to the monitoring terminal 6 for live use. Further, the camera management server 2 transmits a real-time camera image to the image analysis server 3.

画像解析サーバ3は、カメラ管理サーバ2からカメラ画像を受信し、そのカメラ画像に対する画像解析(行動分析)により、カメラ画像から監視事象の発生を検知する。本実施形態では、複数の種別の監視事象、具体的には、置き去り、持ち去り、転倒、滞留、侵入、群衆、喧嘩、落とし物の最大で8つの種別の発生を検知することができ、カメラ1の撮影エリアである監視地点の特徴などに応じて、カメラ1ごとに検知する監視事象の種別を選択して登録することができる。以下の説明では、最大で4つの種別の中からカメラ1ごとに2つの種別を選択する例を記載している。このように、画像解析サーバ3の行動分析として、実行すべき種別を制限(8つの種別から4つの種別)、あるいは、カメラ1ごとに画像解析サーバ3で解析可能な種別の最大数より少ない複数の種別を選択できるようにすることで、画像解析サーバ3での行動分析にかかる負荷を大幅に軽減することができ、その結果、画像解析サーバ3の1台あたりのカメラ1の接続台数を増加させることが可能となる。なお、画像解析サーバ3で実行すべき種別の最大数を制限すると共に、カメラ1ごとにその最大数より少ない複数の種別を選択できるようにしてもよい。いずれにしても、画像解析サーバ3またはカメラ1において、必要のない、あるいは、使用頻度の低いと考えられる監視事象に対する解析処理を省略することができるので、監視システムの規模が大きくなるほど、より効率的な行動分析を行うことができる。 The image analysis server 3 receives a camera image from the camera management server 2, and detects the occurrence of a monitoring event from the camera image by image analysis (behavior analysis) of the camera image. In the present embodiment, it is possible to detect a plurality of types of monitoring events, specifically, the occurrence of a maximum of eight types of abandoned, taken away, overturned, stagnant, invaded, crowd, quarrel, and lost property, and the camera 1 It is possible to select and register the type of monitoring event to be detected for each camera 1 according to the characteristics of the monitoring point which is the shooting area of the camera. In the following description, an example of selecting two types for each camera 1 from a maximum of four types is described. In this way, as the behavior analysis of the image analysis server 3, the types to be executed are limited (8 types to 4 types), or a plurality of types less than the maximum number of types that can be analyzed by the image analysis server 3 for each camera 1. By making it possible to select the type of camera 1, the load on the behavior analysis on the image analysis server 3 can be significantly reduced, and as a result, the number of cameras 1 connected to each image analysis server 3 is increased. It becomes possible to make it. The maximum number of types to be executed by the image analysis server 3 may be limited, and a plurality of types less than the maximum number may be selected for each camera 1. In any case, in the image analysis server 3 or the camera 1, it is possible to omit the analysis process for monitoring events that are considered unnecessary or infrequently used. Therefore, the larger the scale of the monitoring system, the more efficient it is. Behavioral analysis can be performed.

ここで、画像解析サーバ3で解析可能な複数の監視事象の種別について説明する。持ち去りとは、備品などの物品が持ち去られた状態である。転倒とは、人物が転倒した状態である。滞留とは、人物が所定エリアに長時間留まっている状態である。侵入とは、利用者の立ち入りに注意する必要がある所定エリアに人物が立ち入った状態である。 Here, the types of a plurality of monitoring events that can be analyzed by the image analysis server 3 will be described. Take-away is a state in which items such as equipment have been taken away. A fall is a state in which a person has fallen. Staying is a state in which a person stays in a predetermined area for a long time. An intrusion is a state in which a person has entered a predetermined area where it is necessary to pay attention to the entry of the user.

また、本実施形態では、必要に応じてアラーム発報条件が設定され、監視事象の発生を検知すると共にアラーム発報条件が成立した場合に、画像解析サーバ3は、検知開始情報およびアラーム発報情報をカメラ管理サーバ2に送信する。また、画像解析サーバ3は、監視事象の検知結果、すなわち、監視事象に係る物体(人物も含む)のカメラ画像上の位置に関する情報を含む事象検知情報をカメラ管理サーバ2に送信する。 Further, in the present embodiment, the alarm issuance condition is set as necessary, and when the occurrence of the monitoring event is detected and the alarm issuance condition is satisfied, the image analysis server 3 detects the detection start information and the alarm issuance. The information is transmitted to the camera management server 2. Further, the image analysis server 3 transmits the detection result of the monitoring event, that is, the event detection information including the information regarding the position of the object (including the person) related to the monitoring event on the camera image to the camera management server 2.

さて、カメラ管理サーバ2は、リアルタイムのカメラ画像を画像解析サーバ3に転送する。また、カメラ管理サーバ2は、リアルタイムのカメラ画像を一時的に蓄積し、画像解析サーバ3から事象検知情報を受信すると、その事象検知情報に基づいて、カメラ画像に写る監視事象に係る物体を指し示す検知枠(マーク画像)をカメラ画像に重畳描画した解析結果画像(確認画像)を生成する。 Now, the camera management server 2 transfers the real-time camera image to the image analysis server 3. Further, the camera management server 2 temporarily stores real-time camera images, and when it receives event detection information from the image analysis server 3, it points to an object related to the monitoring event reflected in the camera image based on the event detection information. An analysis result image (confirmation image) is generated by superimposing the detection frame (mark image) on the camera image.

監視サーバ4は、カメラ管理サーバ2からアラーム発報情報を受信すると、警報灯5にアラーム出力動作を指示する。また、監視サーバ4は、カメラ管理サーバ2から受信したアラーム発報情報を蓄積する。 When the monitoring server 4 receives the alarm issuing information from the camera management server 2, the monitoring server 4 instructs the alarm light 5 to perform an alarm output operation. Further, the monitoring server 4 stores the alarm issuing information received from the camera management server 2.

警報灯5は、監視サーバ4からの指示に応じてアラーム出力動作(ランプの点灯や点滅の動作)を行う。これにより、監視事象の発生を監視員に通知することができる。 The alarm light 5 performs an alarm output operation (lamp lighting or blinking operation) in response to an instruction from the monitoring server 4. As a result, it is possible to notify the observer of the occurrence of the monitoring event.

監視端末6は、監視センターに設置され、監視員が操作するものである。この監視端末6は、カメラ1から送信されてカメラ管理サーバ2を介して受信したリアルタイムのカメラ画像を表示する。また、監視端末6は、カメラ管理サーバ2で生成された解析結果画像(確認画像)を受信して表示する。 The monitoring terminal 6 is installed in the monitoring center and operated by an observer. The monitoring terminal 6 displays a real-time camera image transmitted from the camera 1 and received via the camera management server 2. Further, the monitoring terminal 6 receives and displays the analysis result image (confirmation image) generated by the camera management server 2.

保守端末7は、保守作業者が操作するものである。この保守端末7では、本監視システムに関する保守のための操作が行われる。例えば、保守端末7から画像解析サーバ3にアクセスして、画像解析サーバ3に対応付けられたカメラ1が正常に稼働しているか否かを確認することができる。 The maintenance terminal 7 is operated by a maintenance worker. The maintenance terminal 7 performs maintenance operations related to this monitoring system. For example, it is possible to access the image analysis server 3 from the maintenance terminal 7 and check whether or not the camera 1 associated with the image analysis server 3 is operating normally.

なお、本実施形態では、アラーム発報に応じて監視事象の発生を監視員に報知する警報装置として、警報灯5を設けたが、アラーム音声を出力する警報器を設けるようにしてもよい。また、監視端末6に、解析結果画像(確認画像)とは別に、アラーム画像を表示して、注目事象の発生を監視員に報知するようにしてもよい。 In the present embodiment, the alarm light 5 is provided as an alarm device for notifying the observer of the occurrence of a monitoring event in response to the alarm issuance, but an alarm device that outputs an alarm sound may be provided. Further, the monitoring terminal 6 may display an alarm image in addition to the analysis result image (confirmation image) to notify the observer of the occurrence of the event of interest.

次に、本監視システムの動作手順について説明する。図2は、本監視システムの動作手順を示すシーケンス図である。 Next, the operation procedure of this monitoring system will be described. FIG. 2 is a sequence diagram showing an operation procedure of this monitoring system.

まず、カメラ1が、監視エリアを撮影し、リアルタイムのカメラ画像をカメラ管理サーバ2に送信する。 First, the camera 1 photographs the monitoring area and transmits a real-time camera image to the camera management server 2.

次に、カメラ管理サーバ2が、カメラ1からのリアルタイムのカメラ画像を受信すると、そのライブ画像をそのまま画像解析サーバ3に転送する。また、カメラ管理サーバ2が、リアルタイムのカメラ画像をライブ用として監視端末6に送信する。監視端末6では、リアルタイムのカメラ画像が表示される。 Next, when the camera management server 2 receives the real-time camera image from the camera 1, the live image is transferred to the image analysis server 3 as it is. Further, the camera management server 2 transmits a real-time camera image to the monitoring terminal 6 for live performance. The monitoring terminal 6 displays a real-time camera image.

ここで、カメラ管理サーバ2は、リアルタイムのカメラ画像をバッファ画像(動画)として所定時間(例えば30秒間や1分間)だけ自装置に蓄積する。 Here, the camera management server 2 stores the real-time camera image as a buffer image (moving image) in its own device for a predetermined time (for example, 30 seconds or 1 minute).

次に、画像解析サーバ3は、カメラ管理サーバ2からのリアルタイムのカメラ画像を受信すると、そのリアルタイムのカメラ画像に対する画像解析(行動分析)により、持ち去り、転倒、滞留、および侵入の各監視事象の発生を検知する。そして、アラーム発報条件が成立した場合には、画像解析サーバ3は、アラーム情報をカメラ管理サーバ2に送信する。このアラーム情報は、検知事象の種別(持ち去り、転倒、滞留、侵入)に関する情報を含む。 Next, when the image analysis server 3 receives the real-time camera image from the camera management server 2, the image analysis (behavioral analysis) of the real-time camera image causes each monitoring event of take-away, fall, stay, and intrusion. Is detected. Then, when the alarm issuing condition is satisfied, the image analysis server 3 transmits the alarm information to the camera management server 2. This alarm information includes information on the type of detected event (take-away, fall, stay, intrusion).

次に、カメラ管理サーバ2は、画像解析サーバ3からのアラーム情報を受信すると、そのアラーム情報を監視サーバ4に送信する。 Next, when the camera management server 2 receives the alarm information from the image analysis server 3, the camera management server 2 transmits the alarm information to the monitoring server 4.

次に、監視サーバ4は、カメラ管理サーバ2からのアラーム情報を受信すると、アラーム出力の指示を警報灯5に送信して、警報灯5にアラームの出力動作を行わせる。また、監視サーバ4は、カメラ管理サーバ2から受信したアラーム情報を自装置に蓄積する。 Next, when the monitoring server 4 receives the alarm information from the camera management server 2, it transmits an alarm output instruction to the alarm light 5 and causes the alarm light 5 to perform an alarm output operation. Further, the monitoring server 4 stores the alarm information received from the camera management server 2 in its own device.

また、画像解析サーバ3は、画像解析(行動分析)の結果として、事象検知情報(メタデータ)をカメラ管理サーバ2に送信する。この事象検知情報は、監視事象に係る物体(人物を含む)の位置情報と、監視事象を検知した時刻に関する時間情報と、を含む。 Further, the image analysis server 3 transmits the event detection information (metadata) to the camera management server 2 as a result of the image analysis (behavior analysis). This event detection information includes position information of an object (including a person) related to the monitoring event and time information regarding the time when the monitoring event is detected.

また、カメラ管理サーバ2は、画像解析サーバ3からの事象検知情報を受信すると、その事象検知情報に基づいて、自装置に蓄積されたバッファ画像上に、監視事象に係る物体を指し示すマーク画像、具体的には、監視事象に係る物体を取り囲む矩形の検知枠を重畳描画する処理(枠付け処理)を行い、解析結果画像(確認画像)を生成する。 Further, when the camera management server 2 receives the event detection information from the image analysis server 3, the camera management server 2 receives a mark image indicating an object related to the monitoring event on the buffer image stored in the own device based on the event detection information. Specifically, a process of superimposing and drawing a rectangular detection frame surrounding an object related to a monitoring event (frame frame processing) is performed, and an analysis result image (confirmation image) is generated.

次に、カメラ管理サーバ2は、解析結果画像を監視端末6に送信する。監視端末6では、解析結果画像(確認画像)が表示される。 Next, the camera management server 2 transmits the analysis result image to the monitoring terminal 6. The analysis result image (confirmation image) is displayed on the monitoring terminal 6.

次に、画像解析サーバ3の動作状況について説明する。図3は、画像解析サーバ3の動作状況を示すタイミング図である。 Next, the operating status of the image analysis server 3 will be described. FIG. 3 is a timing diagram showing the operating status of the image analysis server 3.

画像解析サーバ3は、カメラ管理サーバ2からリアルタイムのカメラ画像を受信すると、そのカメラ画像に対する画像解析(行動分析)により、所定の監視事象(持ち去り、転倒、滞留、侵入)の発生を検知する。そして、検知した監視事象に関して所定のアラーム発報条件が成立した場合には、カメラ管理サーバ2に検知開始情報とアラーム発報情報とを送信する。 When the image analysis server 3 receives a real-time camera image from the camera management server 2, it detects the occurrence of a predetermined monitoring event (take-away, fall, stay, intrusion) by image analysis (behavioral analysis) of the camera image. .. Then, when a predetermined alarm issuing condition is satisfied for the detected monitoring event, the detection start information and the alarm issuing information are transmitted to the camera management server 2.

ここで、カメラ管理サーバ2に送信する情報は監視事象の種別に応じて異なる。具体的には、図3(A)に示すように、持ち去りおよび滞留の場合には、アラーム発報情報、検知開始発報情報の順序でこれらの情報をカメラ管理サーバ2に送信する。一方、図3(B)に示すように、転倒および侵入の場合には、アラーム発報情報のみをカメラ管理サーバ2に送信する。 Here, the information transmitted to the camera management server 2 differs depending on the type of monitoring event. Specifically, as shown in FIG. 3A, in the case of taking away and staying, these information are transmitted to the camera management server 2 in the order of alarm issuance information and detection start issuance information. On the other hand, as shown in FIG. 3B, in the case of a fall or intrusion, only the alarm issuance information is transmitted to the camera management server 2.

また、画像解析サーバ3は、監視事象(持ち去り、転倒、滞留、侵入)の発生を検知すると、事象検知情報をカメラ管理サーバ2に送信する。 Further, when the image analysis server 3 detects the occurrence of a monitoring event (take-away, fall, stay, intrusion), the image analysis server 3 transmits the event detection information to the camera management server 2.

ここで、持ち去りおよび滞留の場合には、検知時間(事象検知からアラーム発報までの期間)に関する事象検知情報がカメラ管理サーバ2に送信され、カメラ管理サーバ2において、検知開始時刻からアラーム発報時刻までの時間におけるカメラ画像から解析結果画像が生成される。一方、転倒および侵入の場合には、アラーム発報時刻のカメラ画像に関する事象検知情報がカメラ管理サーバ2に送信され、解析結果画像が生成される。なお、解析結果画像として、アラーム発報時刻の静止画、アラーム発報時刻を起点または中間とした動画が生成される。 Here, in the case of taking away and staying, event detection information regarding the detection time (the period from event detection to alarm issuance) is transmitted to the camera management server 2, and the camera management server 2 issues an alarm from the detection start time. The analysis result image is generated from the camera image in the time until the information time. On the other hand, in the case of a fall or intrusion, the event detection information regarding the camera image at the alarm issuance time is transmitted to the camera management server 2, and the analysis result image is generated. As the analysis result image, a still image of the alarm issuing time and a moving image starting from or in the middle of the alarm issuing time are generated.

次に、第1実施形態に係るカメラ管理サーバ2、および画像解析サーバ3の概略構成について説明する。図4は、カメラ管理サーバ2、および画像解析サーバ3の概略構成を示すブロック図である。 Next, a schematic configuration of the camera management server 2 and the image analysis server 3 according to the first embodiment will be described. FIG. 4 is a block diagram showing a schematic configuration of the camera management server 2 and the image analysis server 3.

カメラ管理サーバ2は、通信部21と、メモリ22と、プロセッサ23と、を備えている。 The camera management server 2 includes a communication unit 21, a memory 22, and a processor 23.

通信部21は、カメラ1、監視サーバ4および監視端末6との間で通信を行う。具体的には、カメラ1からリアルタイムのカメラ画像を受信して、そのリアルタイムなカメラ画像を画像解析サーバ3に転送するとともに、リアルタイムなカメラ画像をライブ用として監視端末6に転送する。また、画像解析サーバ3からアラーム発報情報を受信して、そのアラーム発報情報を監視サーバ4に転送する。また、画像解析サーバ3から解析結果画像を受信して、その解析結果画像を監視端末6に転送する。 The communication unit 21 communicates with the camera 1, the monitoring server 4, and the monitoring terminal 6. Specifically, a real-time camera image is received from the camera 1, the real-time camera image is transferred to the image analysis server 3, and the real-time camera image is transferred to the monitoring terminal 6 for live use. Further, the alarm issuance information is received from the image analysis server 3 and the alarm issuance information is transferred to the monitoring server 4. Further, the analysis result image is received from the image analysis server 3 and the analysis result image is transferred to the monitoring terminal 6.

メモリ22は、プロセッサ23で実行されるプログラムなどを記憶する。また、メモリ22は、カメラ1から受信したカメラ画像を蓄積する。また、メモリ22は、カメラ1から受信したリアルタイムのカメラ画像をバッファ画像として一時的に蓄積する。これにより、画像解析サーバ3で行われる処理が多少遅延しても、画像解析サーバ3の処理結果に基づいて行われる解析結果画像の生成処理などを適切に実施することができる。 The memory 22 stores a program or the like executed by the processor 23. Further, the memory 22 stores the camera image received from the camera 1. Further, the memory 22 temporarily stores the real-time camera image received from the camera 1 as a buffer image. As a result, even if the processing performed by the image analysis server 3 is delayed to some extent, it is possible to appropriately perform the analysis result image generation processing or the like performed based on the processing result of the image analysis server 3.

プロセッサ23は、メモリ22に記憶されたプログラムを実行することで情報収集に係る各種の処理を行う。本実施形態では、プロセッサ23が、カメラ画像の転送に係る制御や、カメラ画像の蓄積制御や、アラーム発報情報の転送に係る制御や、枠付け処理や、解析結果画像の転送に係る制御などを行う。 The processor 23 performs various processes related to information collection by executing the program stored in the memory 22. In the present embodiment, the processor 23 controls the transfer of the camera image, the accumulation control of the camera image, the transfer of the alarm issuance information, the framing process, the control related to the transfer of the analysis result image, and the like. I do.

枠付け処理では、プロセッサ23が、画像解析サーバ3から受信した事象検知情報に基づいて、監視事象に係る物体を指し示す枠画像(マーク画像)をカメラ画像上に重畳描画して、解析結果画像(動画)を生成する。このとき、メモリ22に蓄積されたカメラ画像(バッファ画像)の中から、該当する時刻のカメラ画像を取得して、そのカメラ画像に対して枠付け処理を行う。 In the framing process, the processor 23 superimposes and draws a frame image (mark image) indicating an object related to the monitoring event on the camera image based on the event detection information received from the image analysis server 3, and analyzes the analysis result image ( Video) is generated. At this time, a camera image at a corresponding time is acquired from the camera image (buffer image) stored in the memory 22, and the camera image is framed.

画像解析サーバ3は、通信部31と、メモリ32と、プロセッサ33と、を備えている。 The image analysis server 3 includes a communication unit 31, a memory 32, and a processor 33.

通信部31は、カメラ管理サーバ2、および保守端末7との間で通信を行う。具体的には、通信部31は、カメラ管理サーバ2からカメラ画像を受信する。また、通信部31は、カメラ管理サーバ2にアラーム発報情報を送信する。また、通信部31は、プロセッサ33で生成した事象検知情報をカメラ管理サーバ2に送信する。また、通信部31は、保守端末7で行われる設定操作のための情報を送受信する。 The communication unit 31 communicates with the camera management server 2 and the maintenance terminal 7. Specifically, the communication unit 31 receives the camera image from the camera management server 2. Further, the communication unit 31 transmits the alarm issuing information to the camera management server 2. Further, the communication unit 31 transmits the event detection information generated by the processor 33 to the camera management server 2. Further, the communication unit 31 transmits / receives information for a setting operation performed by the maintenance terminal 7.

メモリ32は、プロセッサ33で実行されるプログラムなどを記憶する。 The memory 32 stores a program or the like executed by the processor 33.

プロセッサ33は、メモリ32に記憶されたプログラムを実行することで画像解析(行動分析)に係る各種の処理を行う。本実施形態では、プロセッサ33が、設定処理、監視事象検知処理、発報要否判定処理、および学習更新処理などを行う。 The processor 33 performs various processes related to image analysis (behavioral analysis) by executing a program stored in the memory 32. In the present embodiment, the processor 33 performs setting processing, monitoring event detection processing, notification necessity determination processing, learning update processing, and the like.

設定処理では、プロセッサ33が、管理者の入力操作に応じて、監視事象検知処理の対象となる検知エリアと、アラーム発報の対象から除外するマスクエリアと、を設定する。また、管理者の入力操作に応じて、各種の判定処理で用いられる閾値を設定する。なお、マスクエリアは、検知エリア内で、部分的に誤報が発生する可能性が高いエリアである。 In the setting process, the processor 33 sets a detection area to be the target of the monitoring event detection process and a mask area to be excluded from the target of the alarm issuance according to the input operation of the administrator. In addition, threshold values used in various determination processes are set according to the input operation of the administrator. The mask area is an area within the detection area where there is a high possibility that a false alarm will partially occur.

監視事象検知処理では、プロセッサ33が、カメラ1ごとに予め選択して設定された種別の監視事象の発生を検知する。本実施形態では、各カメラ画像に対して、監視事象として、持ち去り、転倒、滞留、および侵入の各事象の中から選択された2つの種別の監視事象の発生を検知する。このように、カメラ1ごとに種別の選択を行うことで、カメラ1の設置場所での優先度の高い種別に限定して、より効率的な画像解析(行動分析)を行うことが可能となる。ここで、監視事象の発生を検知すると、検知結果、すなわち、検知した監視事象の種別(持ち去り、転倒、滞留、侵入)、および監視事象に係る物体(備品、人物)の位置情報を含む事象検知情報をカメラ管理サーバ2に送信する。 In the monitoring event detection process, the processor 33 detects the occurrence of a monitoring event of a type selected and set in advance for each camera 1. In the present embodiment, for each camera image, the occurrence of two types of monitoring events selected from the take-away, fall, stay, and intrusion events are detected as monitoring events. In this way, by selecting the type for each camera 1, it is possible to perform more efficient image analysis (behavior analysis) by limiting the type to the type having a high priority at the installation location of the camera 1. .. Here, when the occurrence of a monitoring event is detected, the detection result, that is, an event including the type of the detected monitoring event (take-away, fall, stay, intrusion), and the position information of the object (equipment, person) related to the monitoring event. The detection information is transmitted to the camera management server 2.

発報要否判定処理では、プロセッサ33が、監視事象検知処理の検知結果に基づいて、所定のアラーム発報条件に該当するか否かの判定結果に応じて、アラーム発報の要否を判定する。ここで、アラーム発報条件が成立し、アラーム発報が必要と判定されると、アラーム発報情報をカメラ管理サーバ2に送信する。 In the alarm issuance necessity determination process, the processor 33 determines the necessity of alarm issuance based on the detection result of the monitoring event detection process according to the determination result of whether or not the predetermined alarm issuance condition is satisfied. To do. Here, when the alarm issuance condition is satisfied and it is determined that the alarm issuance is necessary, the alarm issuance information is transmitted to the camera management server 2.

学習更新処理では、プロセッサ33が、転倒検知用の機械学習モデル、滞留検知用の機械学習モデル、および侵入検知用の機械学習モデルを更新する処理を行う。ユーザ(管理者)は、過去に発報されたアラームごとのカメラ画像および解析結果画像などに基づいて、目視でアラームが正報か誤報かを判断し、その結果をアラーム履歴データベースに登録する。プロセッサ33は、誤報と判断されたアラームに関するカメラ画像を学習データとして、機械学習モデルの再学習を行い、機械学習モデルを更新する。 In the learning update process, the processor 33 updates the machine learning model for fall detection, the machine learning model for retention detection, and the machine learning model for intrusion detection. The user (administrator) visually determines whether the alarm is a correct report or a false report based on the camera image and the analysis result image for each alarm issued in the past, and registers the result in the alarm history database. The processor 33 relearns the machine learning model using the camera image related to the alarm determined to be an erroneous report as training data, and updates the machine learning model.

次に、画像解析サーバ3の機能的な構成について説明する。図5は、画像解析サーバ3の機能的な構成を示すブロック図である。 Next, the functional configuration of the image analysis server 3 will be described. FIG. 5 is a block diagram showing a functional configuration of the image analysis server 3.

画像解析サーバ3には、画像解析(行動分析)により監視事象を検知する画像解析プログラムが複数(例えば12)設けられている。この画像解析プログラムは、カメラ画像を独立して処理可能な1つのチャンネルとなる。また、画像解析プログラムの各々は、全ての種別(持ち去り、転倒、滞留、侵入)の監視事象のいずれか1つのみを検知可能に構成され、監視事象の1つの種別の検知処理に1つずつ割り当てられる。また、本実施形態では、1台のカメラ1に対して最大2つの種別の検知処理を実施する。したがって、1台のカメラ1に対して最大2つの画像解析プログラムが割り当てられる。なお、1台のカメラ1に監視事象検知の種別を1つだけ選択して設定する構成とすることもできる。この場合、1台のカメラ1に対して1つの画像解析プログラムが割り当てられる。 The image analysis server 3 is provided with a plurality of image analysis programs (for example, 12) that detect monitoring events by image analysis (behavioral analysis). This image analysis program becomes one channel that can independently process camera images. In addition, each image analysis program is configured to be able to detect only one of all types of monitoring events (take-away, fall, stay, intrusion), and one for one type of monitoring event detection process. Assigned one by one. Further, in the present embodiment, a maximum of two types of detection processing are performed on one camera 1. Therefore, a maximum of two image analysis programs are assigned to one camera 1. It should be noted that it is also possible to select and set only one type of monitoring event detection for one camera 1. In this case, one image analysis program is assigned to one camera 1.

一方、本監視システムが大規模なものであれば、1台の画像解析サーバ3に設けられる画像解析プログラムの数(例えば12)を遙かに超える台数のカメラ1が設置されている。このため、画像解析サーバ3を複数台設けて、カメラ画像の処理を分担する。 On the other hand, if this monitoring system is a large-scale one, the number of cameras 1 far exceeding the number of image analysis programs (for example, 12) provided in one image analysis server 3 is installed. Therefore, a plurality of image analysis servers 3 are provided to share the processing of camera images.

このように本実施形態では、画像解析サーバ3を、複数の種別の監視事象を検知可能に構成し、カメラ1ごとに実施する監視事象検知の種別を設定する。このため、大規模な監視システムで、拡充により徐々に規模が大きくなったために、多様な種類のカメラ1が混在する場合でも、カメラ1の撮影地点の特徴に応じた適切な監視事象検知を行うと共に、全てのカメラ1に対して統一した制御を行うことができる。 As described above, in the present embodiment, the image analysis server 3 is configured to be able to detect a plurality of types of monitoring events, and the type of monitoring event detection to be performed is set for each camera 1. For this reason, in a large-scale monitoring system, the scale has gradually increased due to the expansion, and even when various types of cameras 1 are mixed, appropriate monitoring event detection is performed according to the characteristics of the shooting point of the camera 1. At the same time, unified control can be performed for all the cameras 1.

次に、画像解析サーバ3で行われる持ち去り検知処理について説明する。図6は、画像解析サーバ3で行われる持ち去り検知処理の概要を示す説明図である。 Next, the take-away detection process performed by the image analysis server 3 will be described. FIG. 6 is an explanatory diagram showing an outline of the take-away detection process performed by the image analysis server 3.

持ち去り検知処理では、監視事象に係る物体として、消失した物体(人物以外)をカメラ画像から検出する(物体検出)。具体的には、カメラ画像を、予め取得した背景画像と比較して、消失した物体を検出する。具体的には、背景と物体との特徴量の差分が所定値(特徴量差分閾値)以上となる場合に、物体が消失したと判定する。 In the take-out detection process, a disappeared object (other than a person) is detected from a camera image as an object related to a monitoring event (object detection). Specifically, the camera image is compared with the background image acquired in advance, and the disappeared object is detected. Specifically, when the difference between the feature amount of the background and the object is equal to or larger than a predetermined value (feature amount difference threshold value), it is determined that the object has disappeared.

このとき、カメラ画像(フレーム)上に、消失した物体を取り囲む物体検出枠が設定される。 At this time, an object detection frame surrounding the disappeared object is set on the camera image (frame).

次に、持ち去り検知処理では、アラーム発報に関する位置的な条件として、消失した物体が、検知エリア内のマスクエリアを除く有効エリアに位置するか否かを判定する。持ち去り検知用の検知エリアおよびマスクエリアは、矩形で指定することができる。なお、検知エリアおよびマスクエリアを、所定数以下の頂点で定義される多角形で指定するようにしてもよい。 Next, in the take-away detection process, as a positional condition for issuing an alarm, it is determined whether or not the disappeared object is located in an effective area other than the mask area in the detection area. The detection area and mask area for take-out detection can be specified by a rectangle. The detection area and the mask area may be designated by polygons defined by a predetermined number or less of vertices.

次に、持ち去り検知処理では、アラーム発報に関する時間的な条件として、消失した物体が、消失してから有効エリア内で所定時間(例えば、持ち去り検知時間として、3〜30分の範囲で設定された時間値)以上経過しているか否かを判定する。ここで、物体の消失後の経過時間が持ち去り検知時間となる場合には、アラーム発報を行う。 Next, in the take-away detection process, as a time condition for issuing an alarm, a predetermined time (for example, a take-away detection time is in the range of 3 to 30 minutes) within the effective area after the disappeared object disappears. It is determined whether or not the set time value) or more has passed. Here, when the elapsed time after the disappearance of the object is taken away and the detection time is reached, an alarm is issued.

ここで、カメラ画像から人物を検知し、物品と周辺の人物との位置関係に基づいて、物品が人物の脚元に存在する場合には、その人物の所有物としてみなして、アラーム発報の対象から除外する。 Here, a person is detected from the camera image, and if the article exists at the leg of the person based on the positional relationship between the article and the surrounding person, it is regarded as the property of the person and the alarm is issued. Exclude from the target.

また、消失した物体を検出してから持ち去り検知時間が経過する前に、他の人物などの物体(移動体)により隠蔽された状態が所定時間(隠蔽限度時間、例えば1分間)以上継続すると、アラーム発報の対象から除外する。なお、一時的な隠蔽で、隠蔽限度時間が経過する前に、隠蔽されない状態に復帰した場合には、アラーム発報の対象から除外せず、持ち去り検知時間が経過すると、持ち去りと判定する。 In addition, if the state of being concealed by an object (moving object) such as another person continues for a predetermined time (concealment limit time, for example, 1 minute) or more before the removal detection time elapses after detecting the disappeared object. , Exclude from the target of alarm issuance. If the device returns to the non-concealed state before the concealment limit time elapses due to temporary concealment, it will not be excluded from the alarm issuance target, and if the take-away detection time elapses, it will be determined to be taken away. ..

次に、画像解析サーバ3で行われる転倒検知処理について説明する。図7は、画像解析サーバ3で行われる転倒検知処理の概要を示す説明図である。 Next, the fall detection process performed by the image analysis server 3 will be described. FIG. 7 is an explanatory diagram showing an outline of the fall detection process performed by the image analysis server 3.

転倒検知処理では、監視事象に係る物体として、転倒した人物をカメラ画像から検出する(転倒人物検出)。本実施形態では、ディープラーニングなどによる転倒検知用の機械学習モデルを利用して、カメラ画像(フレーム)から転倒状態の人物を検知する。具体的には、機械学習モデルにカメラ画像を入力し、機械学習モデルから出力される転倒スコア(転倒である可能性の高さを表す尤度)を取得する。そして、転倒スコアが所定値(転倒スコア閾値)以上である場合に転倒状態と判定する。 In the fall detection process, a fallen person is detected from a camera image as an object related to a monitoring event (falling person detection). In the present embodiment, a person in a fall state is detected from a camera image (frame) by using a machine learning model for fall detection by deep learning or the like. Specifically, a camera image is input to the machine learning model, and a fall score (likelihood indicating the high possibility of a fall) output from the machine learning model is acquired. Then, when the fall score is equal to or higher than a predetermined value (fall score threshold value), the fall state is determined.

このとき、カメラ画像(フレーム)上に、転倒した人物を取り囲む転倒検出枠が設定される。 At this time, a fall detection frame surrounding the fallen person is set on the camera image (frame).

次に、転倒検知処理では、アラーム発報に関する位置的な条件として、転倒状態の人物が、検知エリア内のマスクエリアを除く有効エリアに位置しているか否かを判定する。このとき、人物検出枠の基準点が有効エリア内に位置するか否かを判定する。なお、本実施形態では、転倒検出枠の下辺の中心点を基準点とする。また、転倒検知用の検知エリアおよびマスクエリアは、所定数以下(例えば8点)の頂点で定義される多角形で指定することができる。なお、検知エリアおよびマスクエリアを、矩形で指定するようにしてもよい。 Next, in the fall detection process, as a positional condition for issuing an alarm, it is determined whether or not the person in the fall state is located in an effective area other than the mask area in the detection area. At this time, it is determined whether or not the reference point of the person detection frame is located in the effective area. In the present embodiment, the center point of the lower side of the fall detection frame is used as the reference point. Further, the detection area and the mask area for fall detection can be designated by a polygon defined by a predetermined number or less (for example, 8 points) of vertices. The detection area and the mask area may be designated by a rectangle.

次に、転倒検知処理では、アラーム発報に関する時間的な条件として、転倒状態の人物が有効エリア内に位置している場合に、転倒状態の人物が有効エリア内に位置するフレームが、直近の所定数(直近判定フレーム数)のフレームの中に、所定数(転倒継続フレーム数)以上ある否かを判定する。この時間的な条件を満足すると、アラーム発報を行う。 Next, in the fall detection process, as a temporal condition for issuing an alarm, when a person in a fall state is located in the effective area, the frame in which the person in the fall state is located in the effective area is the most recent. It is determined whether or not there are a predetermined number (the number of continuous fall frames) or more in the predetermined number (the number of the latest determination frames). When this time condition is satisfied, an alarm is issued.

したがって、転倒状態の人物を検出しても、転倒検出枠の基準点が検知エリア外である場合や、転倒検出枠の基準点が検知エリア内に存在する状態が転倒継続フレーム数を満たさない場合には、アラーム発報の対象から除外する。 Therefore, even if a person in a fall state is detected, if the reference point of the fall detection frame is outside the detection area, or if the reference point of the fall detection frame exists in the detection area does not satisfy the number of continuous fall frames. Is excluded from the target of alarm issuance.

なお、本実施形態では、アラーム発報条件を、転倒検出枠の下辺中心点が検知エリアに入ることとしたが、これに限定されない。例えば、転倒検出枠の中心点が検知エリアに入ったことを条件としたり、転倒検出枠が検知エリアに重なったことを条件としたりしてもよい。 In the present embodiment, the alarm issuing condition is limited to the case where the center point of the lower side of the fall detection frame enters the detection area. For example, the condition may be that the center point of the fall detection frame has entered the detection area, or the condition may be that the fall detection frame overlaps the detection area.

次に、画像解析サーバ3で行われる滞留検知処理について説明する。図8は、画像解析サーバ3で行われる滞留検知処理の概要を示す説明図である。 Next, the retention detection process performed by the image analysis server 3 will be described. FIG. 8 is an explanatory diagram showing an outline of the retention detection process performed by the image analysis server 3.

滞留検知処理では、監視事象に係る物体として、人物をカメラ画像から検出する(人物検出)。本実施形態では、ディープラーニングなどによる人物検知用の機械学習モデルを利用して、カメラ画像(フレーム)から人物を検知する(人物検知)。このとき、機械学習モデルにカメラ画像を入力し、機械学習モデルから出力される人物スコア(人物である可能性の高さを表す尤度)を取得する。そして、人物スコアが所定値(人物スコア閾値)以上である場合に人物と判定する。 In the retention detection process, a person is detected from a camera image as an object related to a monitoring event (person detection). In this embodiment, a person is detected from a camera image (frame) by using a machine learning model for detecting a person by deep learning or the like (person detection). At this time, the camera image is input to the machine learning model, and the person score (likelihood indicating the high possibility of being a person) output from the machine learning model is acquired. Then, when the person score is equal to or higher than a predetermined value (person score threshold value), it is determined to be a person.

このとき、カメラ画像(フレーム)上に、人物を取り囲む人物検出枠が設定される。 At this time, a person detection frame surrounding the person is set on the camera image (frame).

また、滞留検知処理では、カメラ画像(フレーム)から検出された人物を追跡する(人物追跡)。このとき、人物の色や動き等の複数の特徴に着目して、各フレームから検知された人物の対応付けを行う。特に、今回のフレームと前回のフレームとからそれぞれ検知された人物の特徴量を比較して、両者の特徴量の類似度が所定値(人物類似度閾値)以上となる場合に、同一人物と判定する。 Further, in the retention detection process, a person detected from a camera image (frame) is tracked (person tracking). At this time, paying attention to a plurality of features such as the color and movement of the person, the person detected from each frame is associated with each other. In particular, the feature amounts of the persons detected from the current frame and the previous frame are compared, and when the similarity between the feature amounts of both is equal to or higher than a predetermined value (person similarity degree threshold value), the person is determined to be the same person. To do.

次に、滞留検知処理では、アラーム発報に関する位置的な条件として、追跡中の人物が、検知エリア内のマスクエリアを除く有効エリアに滞在しているか否かを判定する。このとき、人物検出枠の基準点が有効エリア内に位置するか否かを判定する。なお、本実施形態では、人物検出枠の中央点を基準点とする。また、滞留検知用の検知エリアおよびマスクエリアは、矩形で指定することができる。なお、検知エリアおよびマスクエリアを、所定数以下(例えば8点)の頂点で定義される多角形で指定するようにしてもよい。 Next, in the retention detection process, as a positional condition for issuing an alarm, it is determined whether or not the person being tracked is staying in an effective area other than the mask area in the detection area. At this time, it is determined whether or not the reference point of the person detection frame is located in the effective area. In the present embodiment, the center point of the person detection frame is used as a reference point. Further, the detection area and the mask area for stay detection can be designated by a rectangle. The detection area and the mask area may be designated by a polygon defined by a predetermined number or less (for example, 8 points) of vertices.

また、滞留検知処理では、アラーム発報に関する時間的な条件として、追跡中の人物が有効エリア内に所定時間(人物滞在時間)以上継続して滞在しているか否かを判定する。この判定で、追跡中の人物の滞在時間が滞在時間閾値以上となる場合には、アラーム発報を行う。 Further, in the retention detection process, as a temporal condition regarding the alarm issuance, it is determined whether or not the person being tracked continuously stays in the effective area for a predetermined time (person staying time) or more. In this determination, if the staying time of the person being tracked exceeds the staying time threshold value, an alarm is issued.

ここで、人物滞在時間が経過する前に、追跡中の人物が検知エリアから退出した場合、具体的には、人物検出枠の基準点が検知エリア外に移動した場合、アラーム発報の対象から除外する。また、人物滞在時間が経過する前に、看板や柱などの隠蔽物により、追跡中の人物の上半身が隠蔽された場合、アラーム発報の対象から除外する。 Here, if the person being tracked leaves the detection area before the person staying time elapses, specifically, if the reference point of the person detection frame moves out of the detection area, the alarm is issued. exclude. In addition, if the upper body of the person being tracked is concealed by a concealed object such as a signboard or a pillar before the person's staying time elapses, the person is excluded from the alarm.

次に、画像解析サーバ3で行われる侵入検知処理について説明する。図9は、画像解析サーバ3で行われる侵入検知処理の概要を示す説明図である。 Next, the intrusion detection process performed by the image analysis server 3 will be described. FIG. 9 is an explanatory diagram showing an outline of the intrusion detection process performed by the image analysis server 3.

侵入検知処理では、監視事象に係る物体として、人物をカメラ画像から検出する(人物検出)。本実施形態では、ディープラーニングなどによる人物検知用の機械学習モデルを利用して、カメラ画像(フレーム)から人物を検出する。具体的には、機械学習モデルにカメラ画像を入力し、機械学習モデルから出力される人物スコア(人物である可能性の高さを表す尤度)を取得する。そして、人物スコアが所定値(人物スコア閾値)以上である場合に人物と判定する。 In the intrusion detection process, a person is detected from a camera image as an object related to a monitoring event (person detection). In this embodiment, a person is detected from a camera image (frame) by using a machine learning model for detecting a person by deep learning or the like. Specifically, a camera image is input to the machine learning model, and a person score (likelihood indicating the high possibility of being a person) output from the machine learning model is acquired. Then, when the person score is equal to or higher than a predetermined value (person score threshold value), it is determined to be a person.

このとき、カメラ画像(フレーム)上に、人物を取り囲む人物検出枠が設定される。 At this time, a person detection frame surrounding the person is set on the camera image (frame).

次に、侵入検知処理では、アラーム発報に関する位置的な条件として、検出した人物が、検知エリア内のマスクエリアを除く有効エリアに位置しているか否かを判定する。このとき、人物検出枠の基準点が有効エリア内に位置するか否かを判定する。なお、本実施形態では、人物検出枠の中央点を基準点とする。また、侵入検知用の検知エリアおよびマスクエリアは、所定数以下(例えば8点)の頂点で定義される多角形で指定することができる。なお、検知エリアおよびマスクエリアを、矩形で指定するようにしてもよい。また、検知エリアは、利用者の立ち入りに注意する必要があるエリア、例えば、施設の関係者以外の立ち入りが禁止されているエリアなどが設定される。 Next, in the intrusion detection process, as a positional condition for issuing an alarm, it is determined whether or not the detected person is located in an effective area other than the mask area in the detection area. At this time, it is determined whether or not the reference point of the person detection frame is located in the effective area. In the present embodiment, the center point of the person detection frame is used as a reference point. Further, the detection area and the mask area for intrusion detection can be designated by a polygon defined by a predetermined number or less (for example, 8 points) of vertices. The detection area and the mask area may be designated by a rectangle. Further, the detection area is set to an area where it is necessary to pay attention to the entry of the user, for example, an area where the entry is prohibited except for the persons concerned with the facility.

次に、侵入検知処理では、アラーム発報に関する時間的な条件として、検出した人物が有効エリア内に位置している場合に、人物が有効エリア内に位置するフレームが、直近の所定数(直近判定フレーム数)のフレームの中に、所定数(侵入継続フレーム数)以上ある否かを判定する。この時間的な条件を満足すると、アラーム発報を行う。 Next, in the intrusion detection process, as a time condition for issuing an alarm, when the detected person is located in the effective area, the number of frames in which the person is located in the effective area is the latest predetermined number (most recent). It is determined whether or not there are a predetermined number (number of continuous intrusion frames) or more in the frames (number of determination frames). When this time condition is satisfied, an alarm is issued.

次に、保守端末7に表示される稼働状況確認画面について説明する。図10は、保守端末7に表示される稼働状況確認画面を示す説明図である。 Next, the operation status confirmation screen displayed on the maintenance terminal 7 will be described. FIG. 10 is an explanatory diagram showing an operation status confirmation screen displayed on the maintenance terminal 7.

保守端末7では、画像解析サーバ3にアクセスすることで、画像解析サーバ3で実行されている画像解析アプリケーションにより生成される稼働状況確認画面が表示される。 By accessing the image analysis server 3, the maintenance terminal 7 displays an operation status confirmation screen generated by the image analysis application executed by the image analysis server 3.

この稼働状況確認画面には、カメラ一覧表示部101と、設定情報表示部102と、カメラ画像表示部103と、が設けられている。 The operation status confirmation screen is provided with a camera list display unit 101, a setting information display unit 102, and a camera image display unit 103.

カメラ一覧表示部101では、画像解析サーバ3に対応付けられたカメラ1が一覧表示される。このカメラ一覧表示部101では、保守作業者がカメラ1を選択する操作を行うことができる。 The camera list display unit 101 displays a list of cameras 1 associated with the image analysis server 3. In the camera list display unit 101, a maintenance worker can perform an operation of selecting the camera 1.

設定情報表示部102では、行動分析1、行動分析2として、カメラ一覧表示部101で選択したカメラ1に関して画像解析(行動分析)により検知される選択中の監視事象の2つの種別(持ち去り、転倒、滞留、侵入)が表示される。 In the setting information display unit 102, as behavior analysis 1 and behavior analysis 2, two types of monitoring events being selected (taken away, taken away) detected by image analysis (behavior analysis) with respect to the camera 1 selected by the camera list display unit 101. Fall, stay, intrusion) is displayed.

カメラ画像表示部103では、カメラ一覧表示部101で選択したカメラ1で撮影されたリアルタイムのカメラ画像が表示される。 The camera image display unit 103 displays a real-time camera image taken by the camera 1 selected by the camera list display unit 101.

次に、保守端末7に表示される設定画面について説明する。図11は、保守端末7に表示される本体設定ボタン121を操作した際の設定画面を示す説明図である。図12は、持ち去り設定ボタン122および転倒設定ボタン123を操作した際の設定画面の要部を示す説明図である。図13は、滞留設定ボタン124および侵入設定ボタン125を操作した際の設定画面の要部を示す説明図である。図14は、エリア設定モードでの設定画面の要部を示す説明図である。 Next, the setting screen displayed on the maintenance terminal 7 will be described. FIG. 11 is an explanatory diagram showing a setting screen when the main body setting button 121 displayed on the maintenance terminal 7 is operated. FIG. 12 is an explanatory diagram showing a main part of the setting screen when the take-away setting button 122 and the fall setting button 123 are operated. FIG. 13 is an explanatory diagram showing a main part of the setting screen when the residence setting button 124 and the intrusion setting button 125 are operated. FIG. 14 is an explanatory diagram showing a main part of the setting screen in the area setting mode.

図11に示すように、設定画面には、画像解析サーバ設定部111と、カメラ選択部112と、項目別設定入力部113と、カメラ画像表示部114と、ガイドメッセージ表示部115と、が設けられている。 As shown in FIG. 11, the setting screen includes an image analysis server setting unit 111, a camera selection unit 112, an item-specific setting input unit 113, a camera image display unit 114, and a guide message display unit 115. Has been done.

画像解析サーバ設定部111は、サーバ名称表示部126と、一括更新ボタン127と、一括取得ボタン128と、共有設定反映ボタン129と、が設けられている。サーバ名称表示部126には、設定対象となる画像解析サーバ3の名称が表示される。一括更新ボタン127を操作すると、画像解析サーバ3に関する設定情報が格納された設定ファイルを選択する画面(図示せず)に遷移し、ここで設定ファイルを選択すると、その設定ファイルに格納された設定情報に基づいて、全ての設定項目の設定内容が一括して更新される。一括取得ボタン128を操作すると、関係する設定ファイルを一括して保存することができる。共有設定反映ボタン129を操作すると、システム間で共有する設定ファイルから、対象となる画像解析サーバ3に関連する設定情報を取得して、その設定情報の設定内容を反映させることができる。 The image analysis server setting unit 111 is provided with a server name display unit 126, a batch update button 127, a batch acquisition button 128, and a shared setting reflection button 129. The name of the image analysis server 3 to be set is displayed on the server name display unit 126. When the batch update button 127 is operated, a screen (not shown) for selecting a setting file in which setting information related to the image analysis server 3 is stored is displayed. When a setting file is selected here, the setting stored in the setting file is displayed. Based on the information, the setting contents of all the setting items are updated at once. By operating the batch acquisition button 128, related setting files can be saved in a batch. When the sharing setting reflection button 129 is operated, the setting information related to the target image analysis server 3 can be acquired from the setting file shared between the systems, and the setting contents of the setting information can be reflected.

カメラ選択部112では、ユーザが設定対象となるカメラ1を選択することができる。 In the camera selection unit 112, the user can select the camera 1 to be set.

項目別設定入力部113には、本体設定ボタン121、持ち去り設定ボタン122、転倒設定ボタン123、滞留設定ボタン124、侵入設定ボタン125が設けられている。ユーザは、本体設定ボタン121、持ち去り設定ボタン122、転倒設定ボタン123、滞留設定ボタン124、侵入設定ボタン125を操作することで、設定対象となる監視事象の種別を選択することができる。 The item-specific setting input unit 113 is provided with a main body setting button 121, a take-away setting button 122, a fall setting button 123, a retention setting button 124, and an intrusion setting button 125. The user can select the type of monitoring event to be set by operating the main body setting button 121, the take-out setting button 122, the fall setting button 123, the retention setting button 124, and the intrusion setting button 125.

カメラ画像表示部114には、選択されたカメラ1で撮影されたリアルタイムのカメラ画像が表示される。また、持ち去り設定ボタン122、転倒設定ボタン123、滞留設定ボタン124、侵入設定ボタン125の操作により、設定対象となる監視事象の種別を選択した上で所定の操作を行うと、エリア設定モードに遷移し、このエリア設定モードでは、カメラ画像表示部114において、マウス操作により、検知エリアおよびマスクエリアの各範囲を入力することができる。検知エリアおよびマスクエリアが設定された場合には、検知エリアの範囲を表す枠画像とマスクエリアの範囲を表す枠画像とがカメラ画像上に重畳描画される。 The camera image display unit 114 displays a real-time camera image taken by the selected camera 1. In addition, by operating the take-away setting button 122, the fall setting button 123, the retention setting button 124, and the intrusion setting button 125, after selecting the type of monitoring event to be set, if a predetermined operation is performed, the area setting mode is set. In this area setting mode, the camera image display unit 114 can input each range of the detection area and the mask area by operating the mouse. When the detection area and the mask area are set, the frame image representing the range of the detection area and the frame image representing the range of the mask area are superimposed and drawn on the camera image.

ガイドメッセージ表示部115には、エリア設定モードにおいて、検知エリアおよびマスクエリアの範囲を指定するエリア指定操作に関するガイドメッセージが表示される。 In the area setting mode, the guide message display unit 115 displays a guide message regarding an area designation operation for designating the range of the detection area and the mask area.

また、設定画面には、画像取得ボタン116、未登録ボタン117および設定更新ボタン118と、画像読込ボタン119と、が設けられている。画像取得ボタン116を操作すると、最新のカメラ画像を取得することができる。未登録ボタン117を操作すると、カメラ1を未登録にすることができる。設定更新ボタン118を操作すると、設定内容を保存した後に再起動させることができる。画像読込ボタン119を操作すると、予め保存されたカメラ画像を読み込むことができ、選択されたカメラ1のカメラ画像を取得できない状況でもカメラ画像をカメラ画像表示部114に表示させてエリア指定操作を行うことができる。 Further, the setting screen is provided with an image acquisition button 116, an unregistered button 117, a setting update button 118, and an image read button 119. By operating the image acquisition button 116, the latest camera image can be acquired. By operating the unregistered button 117, the camera 1 can be unregistered. By operating the setting update button 118, it is possible to restart after saving the setting contents. By operating the image read button 119, the camera image saved in advance can be read, and even in a situation where the camera image of the selected camera 1 cannot be acquired, the camera image is displayed on the camera image display unit 114 and the area designation operation is performed. be able to.

図11に示すように、本体設定ボタン121が選択された状態(初期状態)では、項目別設定入力部113に、基本的な設定事項に関するものとして、カメラ名称表示部131と、検知事象種別選択部132と、カメラ管理サーバ設定情報表示部133と、が表示される。 As shown in FIG. 11, in the state where the main body setting button 121 is selected (initial state), the item-specific setting input unit 113 has the camera name display unit 131 and the detection event type selection as related to basic setting items. The unit 132 and the camera management server setting information display unit 133 are displayed.

カメラ名称表示部131では、カメラ1の識別情報、例えばカメラ1の設置場所などが表示される。 The camera name display unit 131 displays the identification information of the camera 1, for example, the installation location of the camera 1.

検知事象種別選択部132では、カメラ画像に対して実施する監視事象検知の種別(持ち去り、転倒、滞留、侵入)を選択することができる。本実施形態では、検知事象種別選択部132が2つ設けられており、ユーザが、1台のカメラ1のカメラ画像を対象にした監視事象検知の種別を2つ選択して設定情報として登録することができる。 The detection event type selection unit 132 can select the type of monitoring event detection (take-away, fall, stay, intrusion) to be performed on the camera image. In the present embodiment, two detection event type selection units 132 are provided, and the user selects two types of monitoring event detection targeting the camera image of one camera 1 and registers them as setting information. be able to.

カメラ管理サーバ設定情報表示部133では、カメラ管理サーバ2に関する設定事項として、カメラ管理サーバ2のIPアドレス、ポート番号、およびチャンネル番号が表示される。 The camera management server setting information display unit 133 displays the IP address, port number, and channel number of the camera management server 2 as setting items related to the camera management server 2.

なお、本実施形態では、1台のカメラ1のカメラ画像に対する監視事象検知を、最大で4つの種別の中から2つの種別を選択できるようにしたが、1つの種別または3つの種別を選択できるようにしてもよい。また、選択できる種別を最大で5つ以上とし、その中から所定数の種別を選択するようにしてもよい。 In the present embodiment, two types can be selected from a maximum of four types for monitoring event detection for the camera image of one camera 1, but one type or three types can be selected. You may do so. Further, the maximum number of types that can be selected may be five or more, and a predetermined number of types may be selected from among them.

検知事象種別選択部132で「持ち去り」を選択して持ち去り設定ボタン122を操作すると、図12(A)に示すように、項目別設定入力部113に、持ち去り検知に関する設定事項に関するものとして、発報要否指定部141と、検知エリア指定部142と、マスクエリア指定部143と、処理条件指定部144と、が表示される。 When "take-away" is selected in the detection event type selection unit 132 and the take-out setting button 122 is operated, as shown in FIG. 12 (A), the item-specific setting input unit 113 relates to the setting items related to the take-out detection. The notification necessity designation unit 141, the detection area designation unit 142, the mask area designation unit 143, and the processing condition designation unit 144 are displayed.

発報要否指定部141では、ユーザが、持ち去り検知時のアラーム発報の要否を、ラジオボタンにより指定することができる。 In the alarm issuance necessity designation unit 141, the user can specify the necessity of alarm issuance at the time of the removal detection by the radio button.

検知エリア指定部142には、端点座標入力部151と設定ボタン152とが設けられている。端点座標入力部151では、ユーザが、検知エリアの範囲を規定する端点を入力することができる。持ち去り検知では、検知エリアを矩形で指定することができる。端点座標入力部151には、矩形における対角方向の2つの頂点(端点)のxy座標を入力する。 The detection area designation unit 142 is provided with an end point coordinate input unit 151 and a setting button 152. In the end point coordinate input unit 151, the user can input an end point that defines the range of the detection area. In take-away detection, the detection area can be specified as a rectangle. The xy coordinates of the two vertices (end points) in the diagonal direction in the rectangle are input to the end point coordinate input unit 151.

設定ボタン152をユーザが操作すると、エリア設定モードに遷移する。このエリア設定モードでは、オペレータが、マウスの操作により検知エリアを指定することができる。具体的には、マウスの移動操作により、カメラ画像表示部114のカメラ画像上でポインタを移動させることができ、クリック操作により、矩形における対角方向の2つの頂点(端点)の位置を順次指定することで、検知エリアの矩形が設定される。 When the user operates the setting button 152, the mode shifts to the area setting mode. In this area setting mode, the operator can specify the detection area by operating the mouse. Specifically, the pointer can be moved on the camera image of the camera image display unit 114 by moving the mouse, and the positions of the two vertices (end points) in the diagonal direction in the rectangle are sequentially specified by the click operation. By doing so, the rectangle of the detection area is set.

ここで、エリア設定モードに遷移すると、ガイドメッセージ表示部115にエリア設定に関する操作ガイドメッセージが表示される(図14参照)。検知エリアの矩形が設定されると、カメラ画像表示部114にカメラ画像に重畳して、検知エリアの範囲を表す枠画像が描画される(図14参照)。 Here, when the mode is changed to the area setting mode, the operation guide message related to the area setting is displayed on the guide message display unit 115 (see FIG. 14). When the rectangle of the detection area is set, a frame image representing the range of the detection area is drawn on the camera image display unit 114 by superimposing it on the camera image (see FIG. 14).

マスクエリア指定部143には、エリア数入力部153と端点座標入力部154と追加ボタン155と設定ボタン156と削除ボタン157とが設けられている。エリア数入力部153は、ユーザが、マスクエリアの数を選択することができる。端点座標入力部154では、ユーザが、マスクエリアの範囲を規定する端点を入力することができる。持ち去り検知では、マスクエリアを矩形で指定することができる。端点座標入力部154には、矩形における対角方向の2つの頂点(端点)のxy座標を入力する。なお、マスクエリアは検知エリア内に設定することができる。 The mask area designation unit 143 is provided with an area number input unit 153, an end point coordinate input unit 154, an add button 155, a setting button 156, and a delete button 157. The area number input unit 153 allows the user to select the number of mask areas. In the end point coordinate input unit 154, the user can input an end point that defines the range of the mask area. In the take-out detection, the mask area can be specified by a rectangle. The xy coordinates of the two vertices (end points) in the diagonal direction in the rectangle are input to the end point coordinate input unit 154. The mask area can be set within the detection area.

追加ボタン155は、マスクエリアを追加するものである。追加ボタン155をユーザが操作すると、エリア設定モードに遷移し、マウスの操作により、カメラ画像表示部114のカメラ画像上で新たなマスクエリアの範囲を指定することができる。マスクエリアが設定されると、カメラ画像表示部114にカメラ画像に重畳して、マスクエリアの範囲を表す枠画像が描画される(図14参照)。設定ボタン156は、既に設定されたマスクエリアの範囲を再指定するものである。設定ボタン156をユーザが操作すると、エリア設定モードに遷移し、マウスの操作により、カメラ画像表示部114のカメラ画像上でマスクエリアの範囲を変更することができる。削除ボタン157は、既に設定されたマスクエリアを削除するものである。エリア設定モードにおいて、ユーザが、カメラ画像表示部114に重畳描画されたマスクエリアを選択すると、削除ボタン157をユーザが操作することができ、該当するマスクエリアの設定情報が削除され、カメラ画像表示部114のマスクエリアの枠画像が消去される。 The add button 155 adds a mask area. When the user operates the add button 155, the mode shifts to the area setting mode, and a new mask area range can be specified on the camera image of the camera image display unit 114 by operating the mouse. When the mask area is set, a frame image representing the range of the mask area is drawn on the camera image display unit 114 by superimposing it on the camera image (see FIG. 14). The setting button 156 redesignates the range of the mask area that has already been set. When the user operates the setting button 156, the mode shifts to the area setting mode, and the range of the mask area can be changed on the camera image of the camera image display unit 114 by operating the mouse. The delete button 157 deletes the mask area that has already been set. In the area setting mode, when the user selects the mask area superimposed and drawn on the camera image display unit 114, the user can operate the delete button 157, the setting information of the corresponding mask area is deleted, and the camera image is displayed. The frame image of the mask area of unit 114 is erased.

処理条件指定部144には、持ち去り時間入力部158と特徴量差分閾値入力部159とが設けられている。持ち去り時間入力部158では、ユーザが、持ち去り時間を入力することができる。持ち去り時間は、検知エリアの有効エリア内における物体の静止状態の継続時間に関する閾値である。特徴量差分閾値入力部159では、ユーザが、特徴量差分閾値を入力することができる。特徴量差分閾値は、持ち去り物体と背景とを識別する際の特徴量の差分に関する閾値である。 The processing condition designation unit 144 is provided with a take-away time input unit 158 and a feature amount difference threshold value input unit 159. In the take-out time input unit 158, the user can input the take-out time. The take-away time is a threshold value for the duration of the stationary state of the object in the effective area of the detection area. In the feature amount difference threshold input unit 159, the user can input the feature amount difference threshold value. The feature amount difference threshold value is a threshold value related to the feature amount difference when distinguishing a take-away object from the background.

検知事象種別選択部132で「転倒」を選択して転倒設定ボタン123を操作すると、図12(B)に示すように、項目別設定入力部113に、転倒検知に関する設定事項に関するものとして、発報要否指定部141と、検知エリア指定部142と、マスクエリア指定部143と、処理条件指定部144と、が表示される。 When "fall" is selected in the detection event type selection unit 132 and the fall setting button 123 is operated, as shown in FIG. 12B, the item-specific setting input unit 113 is issued as a setting item related to the fall detection. The report necessity designation unit 141, the detection area designation section 142, the mask area designation section 143, and the processing condition designation section 144 are displayed.

発報要否指定部141では、ユーザが、転倒検知時のアラーム発報の要否を、ラジオボタンにより指定することができる。 In the alarm issuance necessity designation unit 141, the user can specify the necessity of alarm issuance at the time of fall detection by the radio button.

検知エリア指定部142には、エリア数入力部161と端点座標入力部162と追加ボタン163と設定ボタン164と削除ボタン165とが設けられている。エリア数入力部161は、ユーザが、検知エリアの数を選択することができる。端点座標入力部162では、ユーザが、検知エリアの範囲を規定する端点を入力することができる。転倒検知では、検知エリアを多角形で指定することができる。端点座標入力部162には、多角形の全ての頂点(端点)のxy座標を入力する。 The detection area designation unit 142 is provided with an area number input unit 161, an end point coordinate input unit 162, an add button 163, a setting button 164, and a delete button 165. The area number input unit 161 allows the user to select the number of detection areas. In the end point coordinate input unit 162, the user can input an end point that defines the range of the detection area. In fall detection, the detection area can be specified as a polygon. The xy coordinates of all the vertices (end points) of the polygon are input to the end point coordinate input unit 162.

追加ボタン163は、検知エリアを追加するものである。追加ボタン163をユーザが操作すると、エリア設定モードに遷移し、マウスの操作により、カメラ画像表示部114のカメラ画像上で新たな検知エリアの範囲を指定することができる。検知エリアが設定されると、カメラ画像表示部114にカメラ画像上に、検知エリアの範囲を表す枠画像が重畳描画される。設定ボタン156は、既に設定された検知エリアの範囲を再指定するものである。設定ボタン156をユーザが操作すると、エリア設定モードに遷移し、マウスの操作により、カメラ画像表示部114のカメラ画像上で検知エリアの範囲を変更することができる。削除ボタン165は、既に設定された検知エリアを削除するものである。エリア設定モードにおいて、ユーザが、カメラ画像表示部114に重畳描画された検知エリアを選択すると、削除ボタン165をユーザが操作することができ、これにより、該当する検知エリアの設定情報が削除され、カメラ画像表示部114のマスクエリアの枠画像が消去される。 The add button 163 adds a detection area. When the user operates the add button 163, the mode shifts to the area setting mode, and a new detection area range can be specified on the camera image of the camera image display unit 114 by operating the mouse. When the detection area is set, a frame image representing the range of the detection area is superimposed and drawn on the camera image on the camera image display unit 114. The setting button 156 redesignates the range of the detection area that has already been set. When the user operates the setting button 156, the mode shifts to the area setting mode, and the range of the detection area can be changed on the camera image of the camera image display unit 114 by operating the mouse. The delete button 165 deletes the detection area that has already been set. In the area setting mode, when the user selects the detection area superimposed and drawn on the camera image display unit 114, the user can operate the delete button 165, whereby the setting information of the corresponding detection area is deleted. The frame image in the mask area of the camera image display unit 114 is erased.

マスクエリア指定部143には、エリア数入力部153と端点座標入力部154と追加ボタン155と設定ボタン156と削除ボタン157とが設けられている。このエリア数入力部153、端点座標入力部154、追加ボタン155、設定ボタン156および削除ボタン157は、図12(A)に示した持ち去り検知の場合と同様である。ただし、転倒検知の場合には、検知エリアを多角形で指定することができ、端点座標入力部154には、多角形の全ての頂点(端点)のxy座標を入力する。 The mask area designation unit 143 is provided with an area number input unit 153, an end point coordinate input unit 154, an add button 155, a setting button 156, and a delete button 157. The area number input unit 153, the end point coordinate input unit 154, the add button 155, the setting button 156, and the delete button 157 are the same as in the case of the take-away detection shown in FIG. 12 (A). However, in the case of fall detection, the detection area can be specified by a polygon, and the xy coordinates of all the vertices (end points) of the polygon are input to the end point coordinate input unit 154.

追加ボタン155、設定ボタン156および削除ボタン157は、図12(A)に示した持ち去り検知の場合と同様である。 The add button 155, the setting button 156, and the delete button 157 are the same as in the case of the take-away detection shown in FIG. 12 (A).

処理条件指定部144には、直近判定フレーム数入力部167と転倒継続フレーム数入力部168と転倒スコア閾値入力部169とが設けられている。直近判定フレーム数入力部167では、ユーザが、直近判定フレーム数を入力することができる。直近判定フレーム数は、アラーム発報の要否を判定する際に、対象となるフレーム(カメラ画像)の総数である。転倒継続フレーム数入力部168では、ユーザが、転倒継続フレーム数を入力することができる。転倒継続フレーム数は、転倒状態の人物が有効エリア内に位置するフレーム(カメラ画像)の数に関する閾値であり、直近判定フレーム数のフレームのうち、転倒状態の人物が有効エリア内に位置するフレームが転倒継続フレーム数以上であると、アラーム発報が必要と判定する。転倒スコア閾値入力部169では、ユーザが、転倒スコア閾値を入力することができる。転倒スコア閾値は、転倒状態と判定する際の転倒スコア(転倒である可能性の高さを表す尤度)に関する閾値である。 The processing condition designation unit 144 is provided with the latest determination frame number input unit 167, the fall continuation frame number input unit 168, and the fall score threshold value input unit 169. In the latest determination frame number input unit 167, the user can input the latest determination frame number. The latest determination frame is the total number of target frames (camera images) when determining the necessity of alarm issuance. In the fall continuation frame number input unit 168, the user can input the fall continuation frame number. The number of continuous fall frames is a threshold value related to the number of frames (camera images) in which a person in a fall state is located in the effective area, and among the frames of the number of most recent determination frames, a frame in which a person in a fall state is located in the effective area. If is greater than or equal to the number of continuous fall frames, it is determined that an alarm is required. In the fall score threshold input unit 169, the user can input the fall score threshold. The fall score threshold is a threshold related to the fall score (likelihood indicating the high possibility of falling) when determining the fall state.

検知事象種別選択部132で「滞留」を選択して滞留設定ボタン124を操作すると、図13(A)に示すように、項目別設定入力部113に、滞留検知に関する設定事項に関するものとして、発報要否指定部141と、検知エリア指定部142と、マスクエリア指定部143と、処理条件指定部144と、が表示される。 When "retention" is selected in the detection event type selection unit 132 and the retention setting button 124 is operated, as shown in FIG. 13A, the item-specific setting input unit 113 is issued as a setting item related to retention detection. The report necessity designation unit 141, the detection area designation section 142, the mask area designation section 143, and the processing condition designation section 144 are displayed.

発報要否指定部141では、ユーザが、滞留検知時のアラーム発報の要否を、ラジオボタンにより指定することができる。 In the alarm issuance necessity designation unit 141, the user can specify the necessity of alarm issuance at the time of retention detection by the radio button.

検知エリア指定部142には、端点座標入力部151と設定ボタン152とが設けられている。この端点座標入力部151および設定ボタン152は、図12(A)に示した持ち去り検知の場合と同様である。 The detection area designation unit 142 is provided with an end point coordinate input unit 151 and a setting button 152. The end point coordinate input unit 151 and the setting button 152 are the same as in the case of the take-away detection shown in FIG. 12 (A).

マスクエリア指定部143には、エリア数入力部153と端点座標入力部154と追加ボタン155と設定ボタン156と削除ボタン157とが設けられている。このエリア数入力部153、端点座標入力部154、追加ボタン155、設定ボタン156および削除ボタン157は、図12(A)に示した持ち去り検知の場合と同様である。 The mask area designation unit 143 is provided with an area number input unit 153, an end point coordinate input unit 154, an add button 155, a setting button 156, and a delete button 157. The area number input unit 153, the end point coordinate input unit 154, the add button 155, the setting button 156, and the delete button 157 are the same as in the case of the take-away detection shown in FIG. 12 (A).

処理条件指定部144には、人物滞在時間入力部171と人物スコア閾値入力部172と人物類似度閾値入力部173とが設けられている。人物滞在時間入力部171は、ユーザが、人物滞在時間を入力することができる。人物滞在時間は、滞留と判定する際の人物の滞在時間に関する閾値である。人物スコア閾値入力部172は、ユーザが、人物スコア閾値を入力することができる。人物スコア閾値は、人物と判定する際の人物スコア(人物である可能性の高さを表す尤度)に関する閾値である。人物類似度閾値入力部173は、ユーザが、人物類似度閾値を入力することができる。人物類似度閾値は、人物追跡において前後のフレームでそれぞれ検知された人物を同一人物と判定する際の人物の特徴量の類似度に関する閾値である。 The processing condition designation unit 144 is provided with a person stay time input unit 171, a person score threshold value input unit 172, and a person similarity threshold value input unit 173. The person staying time input unit 171 allows the user to input the person staying time. The person staying time is a threshold value regarding the person's staying time when determining that the person stays. The person score threshold input unit 172 allows the user to input the person score threshold. The person score threshold value is a threshold value related to a person score (likelihood indicating a high possibility of being a person) when determining a person. The person similarity threshold input unit 173 allows the user to input the person similarity threshold. The person similarity threshold is a threshold related to the similarity of the feature amount of a person when determining the person detected in the previous and next frames in the person tracking as the same person.

検知事象種別選択部132で「侵入」を選択して侵入設定ボタン125を操作すると、図13(B)に示すように、項目別設定入力部113に、侵入検知に関する設定事項に関するものとして、発報要否指定部141と、検知エリア指定部142と、マスクエリア指定部143と、処理条件指定部144と、が表示される。 When "intrusion" is selected in the detection event type selection unit 132 and the intrusion setting button 125 is operated, as shown in FIG. 13B, the item-specific setting input unit 113 is issued as a setting item related to intrusion detection. The report necessity designation unit 141, the detection area designation section 142, the mask area designation section 143, and the processing condition designation section 144 are displayed.

発報要否指定部141では、ユーザが、侵入検知時のアラーム発報の要否を、ラジオボタンにより指定することができる。 In the alarm issuance necessity designation unit 141, the user can specify the necessity of alarm issuance at the time of intrusion detection by the radio button.

検知エリア指定部142には、端点座標入力部151と設定ボタン152とが設けられている。この端点座標入力部151および設定ボタン152は、図12(A)に示した持ち去り検知の場合と同様である。ただし、侵入検知の場合には、検知エリアを多角形で指定することができる。 The detection area designation unit 142 is provided with an end point coordinate input unit 151 and a setting button 152. The end point coordinate input unit 151 and the setting button 152 are the same as in the case of the take-away detection shown in FIG. 12 (A). However, in the case of intrusion detection, the detection area can be specified as a polygon.

マスクエリア指定部143には、エリア数入力部153と端点座標入力部154と追加ボタン155と設定ボタン156と削除ボタン157とが設けられている。このエリア数入力部153、端点座標入力部154、追加ボタン155、設定ボタン156および削除ボタン157は、図12(A)に示した持ち去り検知の場合と同様である。ただし、侵入検知の場合には、マスクエリアを多角形で指定することができる。 The mask area designation unit 143 is provided with an area number input unit 153, an end point coordinate input unit 154, an add button 155, a setting button 156, and a delete button 157. The area number input unit 153, the end point coordinate input unit 154, the add button 155, the setting button 156, and the delete button 157 are the same as in the case of the take-away detection shown in FIG. 12 (A). However, in the case of intrusion detection, the mask area can be specified as a polygon.

処理条件指定部144には、直近判定フレーム数入力部167と侵入継続フレーム数入力部175と人物スコア閾値入力部172とが設けられている。直近判定フレーム数入力部167では、ユーザが、直近判定フレーム数を入力することができる。直近判定フレーム数は、アラーム発報の要否を判定する際に、対象となるフレーム(カメラ画像)の総数である。侵入継続フレーム数入力部175では、ユーザが、侵入継続フレーム数を入力することができる。侵入継続フレーム数は、人物が有効エリア内に位置するフレーム(カメラ画像)の数に関する閾値であり、直近判定フレーム数のフレームのうち、人物が有効エリア内に位置するフレームが侵入継続フレーム数以上であると、アラーム発報が必要と判定する。人物スコア閾値入力部172では、ユーザが、人物スコア閾値を入力することができる。人物スコア閾値は、人物と判定する際の人物スコア(人物である可能性の高さを表す尤度)に関する閾値である。 The processing condition designation unit 144 is provided with the latest determination frame number input unit 167, the intrusion continuation frame number input unit 175, and the person score threshold value input unit 172. In the latest determination frame number input unit 167, the user can input the latest determination frame number. The latest determination frame is the total number of target frames (camera images) when determining the necessity of alarm issuance. In the intrusion continuation frame number input unit 175, the user can input the intrusion continuation frame number. The number of continuous intrusion frames is a threshold value related to the number of frames (camera images) in which the person is located in the effective area, and among the frames of the most recent judgment frame number, the frame in which the person is located in the effective area is equal to or greater than the number of continuous intrusion frames. If, it is determined that an alarm is required. In the person score threshold input unit 172, the user can input the person score threshold. The person score threshold value is a threshold value related to a person score (likelihood indicating a high possibility of being a person) when determining a person.

次に、監視端末6に表示される監視画面について説明する。図15は、監視端末6に表示される監視画面を示す説明図である。 Next, the monitoring screen displayed on the monitoring terminal 6 will be described. FIG. 15 is an explanatory diagram showing a monitoring screen displayed on the monitoring terminal 6.

この監視画面には、ライブ画像表示部181と解析結果画像表示部182と再生操作部183とイベント画像表示部184とが設けられている。 The monitoring screen is provided with a live image display unit 181, an analysis result image display unit 182, a playback operation unit 183, and an event image display unit 184.

ライブ画像表示部181には、カメラ管理サーバ2から受信したリアルタイムのカメラ画像が表示される。このライブ画像表示部181では、複数のカメラ1ごとのリアルタイムのカメラ画像が並べて表示される。また、ライブ画像表示部181は、選択状態で表示枠が強調表示される。 The live image display unit 181 displays a real-time camera image received from the camera management server 2. In the live image display unit 181, real-time camera images for each of the plurality of cameras 1 are displayed side by side. In addition, the display frame of the live image display unit 181 is highlighted in the selected state.

解析結果画像表示部182には、カメラ管理サーバ2から受信した解析結果画像が表示される。解析結果画像は、アラーム発報時刻を基準にした所定期間のカメラ画像(動画)上に、監視事象(持ち去り、転倒、滞留、および侵入)に係る物体を取り囲む検知枠(枠画像)が重畳描画されたものである。具体的には、持ち去りの場合には、消失した人物以外の物体に検知枠が表示される。転倒の場合には、転倒状態の人物に検知枠が表示される。滞留の場合には、所定エリア内に長時間留まる人物に検知枠が表示される。侵入の場合には、所定エリアに侵入した人物に検知枠が表示される。なお、所定期間のカメラ画像(動画)において、検知枠はアラーム発報時刻以降も検知状態にある限り継続して表示される。なお、監視事象が持ち去りの場合、検知開始後は物体が消失し、検知枠のみの表示となるため、検知開始前の画像から物体に検知枠を表示した解析結果画像を生成して、消失した物体が何かを確認できるようにする。 The analysis result image display unit 182 displays the analysis result image received from the camera management server 2. In the analysis result image, a detection frame (frame image) surrounding an object related to a monitoring event (take-away, fall, stay, and intrusion) is superimposed on a camera image (video) for a predetermined period based on the alarm issuance time. It is drawn. Specifically, in the case of taking away, the detection frame is displayed on an object other than the disappeared person. In the case of a fall, a detection frame is displayed on the person in the fall state. In the case of staying, a detection frame is displayed for a person who stays in a predetermined area for a long time. In the case of intrusion, a detection frame is displayed for the person who invaded the predetermined area. In the camera image (moving image) for a predetermined period, the detection frame is continuously displayed even after the alarm issuance time as long as it is in the detection state. If the monitoring event is taken away, the object disappears after the start of detection, and only the detection frame is displayed. Therefore, an analysis result image in which the detection frame is displayed on the object is generated from the image before the start of detection and disappears. Make it possible to confirm what the object is.

再生操作部183は、解析結果画像表示部182に表示された解析結果画像の再生を制御するものであり、再生、早送り、早戻しなどの操作を行うことができる。 The reproduction operation unit 183 controls the reproduction of the analysis result image displayed on the analysis result image display unit 182, and can perform operations such as reproduction, fast forward, and fast rewind.

イベント画像表示部184には、イベント画像が表示される。イベント画像は、アラーム発報時刻のカメラ画像(静止画像)である。例えば、解析結果画像の中で、初めて検知枠が重畳されたフレーム画像をイベント画像とすることができる。 The event image is displayed on the event image display unit 184. The event image is a camera image (still image) at the time when the alarm is issued. For example, among the analysis result images, the frame image on which the detection frame is superimposed can be used as the event image for the first time.

この監視画面では、アラーム発報、具体的には警報灯5が点灯したタイミングと略同時に、解析結果画像表示部182に解析結果画像が再生可能に表示される。これにより、監視員が、アラーム発報に気付いてからすぐに、アラーム発報に係る監視事象が写る解析結果画像(確認画像)を閲覧することで、監視事象の実際の状況を即座にかつ詳細に把握することができる。 On this monitoring screen, the analysis result image is reproducibly displayed on the analysis result image display unit 182 substantially at the same time as the alarm issuance, specifically, the timing when the alarm light 5 is turned on. As a result, the observer can immediately and in detail the actual situation of the monitoring event by viewing the analysis result image (confirmation image) showing the monitoring event related to the alarm issuance immediately after noticing the alarm issuance. Can be grasped.

(第2実施形態)
次に、第2実施形態について説明する。なお、ここで特に言及しない点は前記の実施形態と同様である。図16は、第2実施形態に係るカメラ管理サーバ2、および画像解析サーバ3の概略構成を示すブロック図である。
(Second Embodiment)
Next, the second embodiment will be described. It should be noted that the points not particularly mentioned here are the same as those in the above-described embodiment. FIG. 16 is a block diagram showing a schematic configuration of the camera management server 2 and the image analysis server 3 according to the second embodiment.

第1実施形態(図4参照)では、監視事象検知処理、すなわち、画像解析(行動分析)により、持ち去り、転倒、滞留、および侵入の各監視事象の発生を検知する画像解析サーバ3と、枠付け処理、すなわち、監視事象の発生を監視員に報知する検知枠をカメラ画像に付加して解析結果画像を生成するカメラ管理サーバ2と、を設けたが、本実施形態では、カメラ管理サーバ2の枠付け処理機能を画像解析サーバ3に統合し、画像解析サーバ3が枠付け処理を行う。 In the first embodiment (see FIG. 4), a monitoring event detection process, that is, an image analysis server 3 that detects the occurrence of each monitoring event of take-away, fall, stay, and intrusion by image analysis (behavior analysis), and A frame processing, that is, a camera management server 2 for generating an analysis result image by adding a detection frame for notifying the observer of the occurrence of a monitoring event to the camera image is provided, but in the present embodiment, the camera management server is provided. The frame processing function of 2 is integrated into the image analysis server 3, and the image analysis server 3 performs the frame processing.

この場合、画像解析サーバ3では、プロセッサ33が、設定処理、監視事象検知処理、発報要否判定処理、および学習更新処理の他に枠付け処理を行う。また、通信部31が、カメラ管理サーバ2からリアルタイムのカメラ画像を受信し、アラーム発報情報および解析結果画像をカメラ管理サーバ2に送信する。 In this case, in the image analysis server 3, the processor 33 performs frame processing in addition to setting processing, monitoring event detection processing, notification necessity determination processing, and learning update processing. Further, the communication unit 31 receives the real-time camera image from the camera management server 2 and transmits the alarm issuance information and the analysis result image to the camera management server 2.

なお、本実施形態では、カメラ管理サーバ2の枠付け処理機能を画像解析サーバ3に統合したが、カメラ管理サーバ2と画像解析サーバ3とを1つのサーバに統合するようにしてもよい。 In the present embodiment, the frame processing function of the camera management server 2 is integrated into the image analysis server 3, but the camera management server 2 and the image analysis server 3 may be integrated into one server.

以上のように、本出願において開示する技術の例示として、実施形態を説明した。しかしながら、本開示における技術は、これに限定されず、変更、置き換え、付加、省略などを行った実施形態にも適用できる。また、上記の実施形態で説明した各構成要素を組み合わせて、新たな実施形態とすることも可能である。 As described above, embodiments have been described as examples of the techniques disclosed in this application. However, the technique in the present disclosure is not limited to this, and can be applied to embodiments in which changes, replacements, additions, omissions, etc. have been made. It is also possible to combine the components described in the above embodiments to form a new embodiment.

本発明に係る監視システムおよび監視システム設定プログラムは、監視事象の発生を検知してアラーム発報を行った際に、そのアラーム発報に係る監視事象の具体的な状況を、監視員が、アラーム発報の直後に、また、アラーム発報から遅れても即座に確認することができる効果を有し、監視エリアを撮影したリアルタイムなカメラ画像に基づいて、所定の監視事象の発生を検知してアラーム発報を行う監視システム、および監視システムに関する設定を情報処理装置に行わせる監視システム設定プログラムなどとして有用である。 In the monitoring system and the monitoring system setting program according to the present invention, when an alarm is issued by detecting the occurrence of a monitoring event, the observer gives an alarm about the specific status of the monitoring event related to the alarm issuance. It has the effect of being able to immediately confirm immediately after the alarm is issued, and even if it is delayed from the alarm issuance, and detects the occurrence of a predetermined monitoring event based on the real-time camera image of the monitoring area. It is useful as a monitoring system that issues an alarm, and a monitoring system setting program that allows an information processing device to make settings related to the monitoring system.

1 カメラ
2 カメラ管理サーバ(画像蓄積部、画像配信部、確認画像生成部)
3 画像解析サーバ(画像解析部)
4 監視サーバ
5 警報灯
6 監視端末(ユーザ装置)
7 保守端末(ユーザ装置)
112 カメラ選択部
114 カメラ画像表示部
132 検知事象種別選択部(監視事象選択部)
133 カメラ管理サーバ設定情報表示部
142 検知エリア指定部
143 マスクエリア指定部
1 Camera 2 Camera management server (image storage unit, image distribution unit, confirmation image generation unit)
3 Image analysis server (image analysis unit)
4 Monitoring server 5 Alarm light 6 Monitoring terminal (user device)
7 Maintenance terminal (user device)
112 Camera selection unit 114 Camera image display unit 132 Detection event type selection unit (monitoring event selection unit)
133 Camera management server setting information display unit 142 Detection area designation unit 143 Mask area designation unit

Claims (8)

監視エリアを撮影したリアルタイムなカメラ画像に基づいて、所定の監視事象の発生を検知してアラーム発報を行う監視システムであって、
前記監視エリアを撮影する少なくとも1つのカメラと、
このカメラにより撮影された前記カメラ画像を蓄積する画像蓄積部と、
前記カメラ画像に対する画像解析により、前記監視事象の発生を検知して、その監視事象の発生をユーザに通知するためのアラーム発報を行うと共に、検知した前記監視事象に係る物体の位置情報を含む事象検知情報を生成する画像解析部と、
前記事象検知情報に基づいて、前記監視事象に係る物体を指し示すマーク画像を、一時的に蓄積された前記カメラ画像に付加して確認画像を生成する確認画像生成部と、
前記アラーム発報と同じタイミングで、前記確認画像をユーザ装置に配信する画像配信部と、を備えたことを特徴とする監視システム。
A monitoring system that detects the occurrence of a predetermined monitoring event and issues an alarm based on a real-time camera image of the monitoring area.
At least one camera that captures the surveillance area,
An image storage unit that stores the camera images taken by this camera, and
By image analysis of the camera image, the occurrence of the monitoring event is detected, an alarm is issued to notify the user of the occurrence of the monitoring event, and the position information of the object related to the detected monitoring event is included. An image analysis unit that generates event detection information,
A confirmation image generation unit that generates a confirmation image by adding a mark image pointing to an object related to the monitoring event to the temporarily accumulated camera image based on the event detection information.
A monitoring system including an image distribution unit that distributes the confirmation image to a user device at the same timing as the alarm issuance.
前記画像解析部は、
前記監視事象として検知可能な複数の種別の中から、前記カメラごとに予め選択された種別が登録された設定情報に基づいて、前記カメラに対応する種別の監視事象の発生を検知することを特徴とする請求項1に記載の監視システム。
The image analysis unit
It is characterized in that the occurrence of a monitoring event of a type corresponding to the camera is detected based on setting information in which a type selected in advance for each camera is registered from a plurality of types that can be detected as the monitoring event. The monitoring system according to claim 1.
前記画像解析部は、
前記監視事象として検知可能な種別の最大数より少ない複数の種別をユーザに選択させて前記設定情報の登録を行うことを特徴とする請求項2に記載の監視システム。
The image analysis unit
The monitoring system according to claim 2, wherein a plurality of types smaller than the maximum number of types that can be detected as the monitoring event are selected by the user and the setting information is registered.
前記確認画像生成部は、
前記画像解析部から取得した前記事象検知情報に基づいて、前記監視事象に係る物体を取り囲む枠画像を前記マーク画像として前記カメラ画像に付加して前記確認画像を生成することを特徴とする請求項1に記載の監視システム。
The confirmation image generation unit
A claim characterized in that a frame image surrounding an object related to the monitoring event is added to the camera image as the mark image based on the event detection information acquired from the image analysis unit to generate the confirmation image. Item 1. The monitoring system according to item 1.
前記画像解析部と前記確認画像生成部とが、1つのサーバ装置で構成されることを特徴とする請求項1に記載の監視システム。 The monitoring system according to claim 1, wherein the image analysis unit and the confirmation image generation unit are composed of one server device. 監視エリアをカメラにより撮影したリアルタイムなカメラ画像に基づいて、所定の監視事象の発生を検知してアラーム発報を行う監視システムに関する設定を情報処理装置に行わせる監視システム設定プログラムであって、
ユーザ装置に設定画面を表示して、その設定画面上でのユーザの画面操作に応じて前記監視システムに関する設定情報を取得し、
前記設定画面は、
前記監視システムに設けられた複数の前記カメラの中から設定対象となる前記カメラを選択するカメラ選択部と、
このカメラ選択部により選択された前記カメラに対して、検知可能な監視事象の複数の種別の中から少なくとも1つを選択する監視事象選択部と、
前記カメラ選択部により選択された前記カメラに対応して、前記カメラ画像を蓄積する画像蓄積部、および前記カメラ画像に対する画像解析により、前記監視事象の発生を検知して、その監視事象の発生をユーザに通知するためのアラーム発報を行う画像解析部に関する設定情報を表示する設定情報表示部と、
前記カメラ選択部により選択された前記カメラにより撮影されたリアルタイムなカメラ画像を表示する画像表示部と、
を備えたことを特徴とする監視システム設定プログラム。
A monitoring system setting program that allows an information processing device to make settings related to a monitoring system that detects the occurrence of a predetermined monitoring event and issues an alarm based on a real-time camera image of the monitoring area taken by a camera.
A setting screen is displayed on the user device, and setting information related to the monitoring system is acquired according to the user's screen operation on the setting screen.
The setting screen is
A camera selection unit that selects the camera to be set from the plurality of cameras provided in the surveillance system, and a camera selection unit.
A monitoring event selection unit that selects at least one of a plurality of types of detectable monitoring events for the camera selected by the camera selection unit.
The occurrence of the monitoring event is detected by the image storage unit that stores the camera image corresponding to the camera selected by the camera selection unit and the image analysis of the camera image, and the occurrence of the monitoring event is detected. A setting information display unit that displays setting information related to the image analysis unit that issues an alarm to notify the user, and a setting information display unit.
An image display unit that displays a real-time camera image taken by the camera selected by the camera selection unit, and an image display unit.
A monitoring system setting program characterized by being equipped with.
前記設定画面は、
監視事象に係る物体が位置する場合にアラーム発報の対象とする検知エリアの範囲を指定する検知エリア指定部を備えたことを特徴とする請求項6に記載の監視システム設定プログラム。
The setting screen is
The monitoring system setting program according to claim 6, further comprising a detection area designation unit that specifies a range of detection areas for which an alarm is issued when an object related to a monitoring event is located.
前記設定画面は、
監視事象に係る物体が位置する場合にアラーム発報の対象から除外するマスクエリアの範囲を指定するマスクエリア指定部を備えたことを特徴とする請求項7に記載の監視システム設定プログラム。
The setting screen is
The monitoring system setting program according to claim 7, further comprising a mask area designation unit that specifies a range of mask areas to be excluded from the target of alarm issuance when an object related to a monitoring event is located.
JP2019196411A 2019-10-29 2019-10-29 Monitoring system and monitoring system setting program Pending JP2021072475A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019196411A JP2021072475A (en) 2019-10-29 2019-10-29 Monitoring system and monitoring system setting program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019196411A JP2021072475A (en) 2019-10-29 2019-10-29 Monitoring system and monitoring system setting program

Publications (1)

Publication Number Publication Date
JP2021072475A true JP2021072475A (en) 2021-05-06

Family

ID=75714068

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019196411A Pending JP2021072475A (en) 2019-10-29 2019-10-29 Monitoring system and monitoring system setting program

Country Status (1)

Country Link
JP (1) JP2021072475A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115866210A (en) * 2023-02-16 2023-03-28 肯特智能技术(深圳)股份有限公司 Security protection analytic control system for supervisory equipment based on thing networking
JP7279241B1 (en) 2022-08-03 2023-05-22 セーフィー株式会社 system and program
JP7302088B1 (en) 2022-12-28 2023-07-03 セーフィー株式会社 system and program
WO2023234040A1 (en) * 2022-06-03 2023-12-07 パナソニックIpマネジメント株式会社 Learning device and learning method
WO2024014199A1 (en) * 2022-07-15 2024-01-18 コニカミノルタ株式会社 Image identification method, image identification program, and image identification device
WO2024069664A1 (en) * 2022-09-26 2024-04-04 三菱電機株式会社 Management device, management system, management method, and setting method
JP7500895B1 (en) 2023-09-21 2024-06-17 株式会社 日立産業制御ソリューションズ Work management device, work management system, and work management method
JP7564147B2 (en) 2022-03-23 2024-10-08 パナソニック ネットソリューションズ株式会社 VIDEO DISPLAY SYSTEM, VIDEO DISPLAY METHOD, AND PROGRAM

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008016898A (en) * 2006-06-30 2008-01-24 Sony Corp Monitoring apparatus, monitoring system and filter setting method
JP2012217056A (en) * 2011-03-31 2012-11-08 Saxa Inc Leaving or carrying-away detecting system and method for detecting leaving or carrying-away occurrence time in the same
JP2013211775A (en) * 2012-03-30 2013-10-10 Saxa Inc Leave or carry-away detection system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008016898A (en) * 2006-06-30 2008-01-24 Sony Corp Monitoring apparatus, monitoring system and filter setting method
JP2012217056A (en) * 2011-03-31 2012-11-08 Saxa Inc Leaving or carrying-away detecting system and method for detecting leaving or carrying-away occurrence time in the same
JP2013211775A (en) * 2012-03-30 2013-10-10 Saxa Inc Leave or carry-away detection system

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7564147B2 (en) 2022-03-23 2024-10-08 パナソニック ネットソリューションズ株式会社 VIDEO DISPLAY SYSTEM, VIDEO DISPLAY METHOD, AND PROGRAM
WO2023234040A1 (en) * 2022-06-03 2023-12-07 パナソニックIpマネジメント株式会社 Learning device and learning method
WO2024014199A1 (en) * 2022-07-15 2024-01-18 コニカミノルタ株式会社 Image identification method, image identification program, and image identification device
JP7279241B1 (en) 2022-08-03 2023-05-22 セーフィー株式会社 system and program
JP2024021191A (en) * 2022-08-03 2024-02-16 セーフィー株式会社 System and program
US12100219B2 (en) 2022-08-03 2024-09-24 Safie Inc. Generating images or timelines based on user-configured thresholds for number of people and staying time in target area
WO2024069664A1 (en) * 2022-09-26 2024-04-04 三菱電機株式会社 Management device, management system, management method, and setting method
JP7302088B1 (en) 2022-12-28 2023-07-03 セーフィー株式会社 system and program
JP2024094914A (en) * 2022-12-28 2024-07-10 セーフィー株式会社 System and Program
CN115866210A (en) * 2023-02-16 2023-03-28 肯特智能技术(深圳)股份有限公司 Security protection analytic control system for supervisory equipment based on thing networking
CN115866210B (en) * 2023-02-16 2023-05-12 肯特智能技术(深圳)股份有限公司 Analysis control system for security monitoring equipment based on Internet of things
JP7500895B1 (en) 2023-09-21 2024-06-17 株式会社 日立産業制御ソリューションズ Work management device, work management system, and work management method

Similar Documents

Publication Publication Date Title
JP2021072475A (en) Monitoring system and monitoring system setting program
US11030463B2 (en) Systems and methods for displaying captured videos of persons similar to a search target person
US11157778B2 (en) Image analysis system, image analysis method, and storage medium
JP5058279B2 (en) Image search device
US8619140B2 (en) Automatic adjustment of area monitoring based on camera motion
JP6171374B2 (en) Information processing apparatus, information processing method, program, and information processing system
US20180115749A1 (en) Surveillance system and surveillance method
JP2011233133A (en) Shoplifting preventing system
WO2017115598A1 (en) Image transmission device, image transmission method, and program
JPWO2016157327A1 (en) Video surveillance system and video surveillance method
JPWO2018116488A1 (en) Analysis server, monitoring system, monitoring method and program
US20140226857A1 (en) Information processing system, information processing method and program
JP2021132267A (en) Video monitoring system and video monitoring method
CN107920223B (en) Object behavior detection method and device
JP6867056B2 (en) Information processing equipment, control methods, and programs
JP2005086626A (en) Wide area monitoring device
JP2009159448A (en) Object detecting apparatus, and object detecting method
JP2021072474A (en) Server device and alarm check image generation method
US12106612B2 (en) Investigation assistance system and investigation assistance method
US20180197000A1 (en) Image processing device and image processing system
CN111228706A (en) GIS-based building interior fire fighting equipment control method and device
JP2004187116A (en) Action monitoring system and program
JP7433193B2 (en) Suspicious behavior monitoring support system and suspicious behavior monitoring support method
WO2022059223A1 (en) Video analyzing system and video analyzing method
JP2022098663A (en) Monitoring system, abnormality sensing detection method of monitoring system, and abnormality sensing detection program of monitoring system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230907

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231107