JPH0869596A - Traffic monitoring device - Google Patents
Traffic monitoring deviceInfo
- Publication number
- JPH0869596A JPH0869596A JP6204014A JP20401494A JPH0869596A JP H0869596 A JPH0869596 A JP H0869596A JP 6204014 A JP6204014 A JP 6204014A JP 20401494 A JP20401494 A JP 20401494A JP H0869596 A JPH0869596 A JP H0869596A
- Authority
- JP
- Japan
- Prior art keywords
- image
- moving body
- camera
- marker
- moving
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、移動体の交通を監視す
る交通監視装置に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a traffic monitoring device for monitoring traffic of a moving body.
【0002】[0002]
【従来の技術】従来、道路を通過する車両を監視する場
合、モニタ映像を監視員が眺めてその状態を監視してい
たが、トンネルや急カーブなどの事故多発地点などに
は、人間に代わり画像処理によって、車の台数や速度な
どを計測することで状態を監視している。2. Description of the Related Art Conventionally, when observing a vehicle passing on a road, an observer watches a monitor image to monitor the state of the vehicle. The state is monitored by measuring the number and speed of vehicles by image processing.
【0003】[0003]
【発明が解決しようとする課題】従来の画像処理による
交通監視では、カメラの設置位置、取り付け角度、レン
ズの画角が変わると、それらのデータをもとに道路面と
画像面を対応付ける距離テーブルを幾何学的に計算して
作成しており手間がかかっていた。In the conventional traffic monitoring by image processing, when the camera installation position, the installation angle, and the lens angle of view change, a distance table that associates the road surface with the image surface based on those data. Was calculated geometrically and it was troublesome.
【0004】また、夜間の可視カメラの使用時に画像処
理による交通量や異常事象の検出を行う場合、ヘッドラ
イトやテールライトなどのライトをもとに検出していた
ため、大型トラックのように1台に複数のライトが点灯
している車両の計測制度が悪化してしまうという問題が
あった。When detecting a traffic volume or an abnormal event by image processing when a visible camera is used at night, it is detected based on lights such as headlights and taillights. However, there was a problem that the measurement system of a vehicle with multiple lights turned on deteriorated.
【0005】本発明は、これらの問題を解決するため、
カメラで撮影した移動体の画像から移動体の抽出および
数量算出した後、較正して実際の大きさや速度を算出
し、これをもとに移動体の通過台数、速度、車間の計測
や、渋滞、事故、火災などの事象の自動検出を実現する
ことを目的としている。The present invention solves these problems.
After extracting and calculating the number of moving objects from the images of the moving objects taken by the camera, the actual size and speed are calculated by calibration, and based on this, the number of moving objects passing, the speed, the measurement between vehicles, and traffic congestion The purpose is to realize automatic detection of events such as accidents and fires.
【0006】[0006]
【課題を解決するための手段】図1は、本発明の原理ブ
ロック図を示す。図1において、交通監視装置1は、道
路上を走行する移動体を監視するものであって、カメラ
2および画像処理装置3などから構成されるものであ
る。FIG. 1 shows a block diagram of the principle of the present invention. In FIG. 1, a traffic monitoring device 1 monitors a moving object traveling on a road, and is composed of a camera 2, an image processing device 3, and the like.
【0007】カメラ2は、移動体の画像を撮影するもの
である。このカメラ2で撮影した移動体の画像をリアル
タイムに画像処理装置3に入力したり、あるいはVTR
23によってビデオテープ23に一度録画し、後日VT
R24によって再生して画像処理装置3に入力したりの
いずれでもよい。The camera 2 captures an image of a moving body. The image of the moving body taken by the camera 2 is input to the image processing device 3 in real time, or
Recorded once on video tape 23 by 23, and later VT
It may be reproduced by R24 and input to the image processing apparatus 3.
【0008】画像処理装置3は、カメラ2からの画像を
もとに距離テーブルを作成する距離テーブル作成手段3
5を持ち、その他に入力画像を画像処理して移動体の速
度、大きさ、通過台数などを算出したり、各種事象を検
出して管理者に通知したり、各種警報表示したりなどす
るものであって、35、4から7によって構成されるも
のである。The image processing device 3 is a distance table creating means 3 for creating a distance table based on an image from the camera 2.
In addition to 5, the input image is image-processed to calculate the speed, size, number of passing vehicles, etc., various events are detected and notified to the administrator, various alarms are displayed, etc. , And 35, 4 to 7.
【0009】距離テーブル作成手段35は、背景画像に
映る実際の位置関係が既知であるマーカの画像上での位
置から観測面と道路面を対応付ける距離テーブルを作成
するものである。The distance table creating means 35 creates a distance table that associates the observation surface with the road surface from the positions on the image of the markers whose actual positional relationship is known in the background image.
【0010】切出手段4は、カメラ2によって撮影した
画像から予め設定されたマスク設定範囲内の画像を切り
出すものである。移動体抽出手段5は、切出手段4によ
って切り出した画像上で移動する移動体および大きさを
抽出などするものである。The cutting-out means 4 cuts out an image within a preset mask setting range from the image taken by the camera 2. The moving body extraction means 5 extracts the moving body and the size which move on the image cut out by the cutting means 4.
【0011】算出手段6は、移動体抽出手段5によって
抽出された移動体の速度などを算出するものである。判
定手段7は、移動体の位置と他の移動体の位置、算出し
た移動体の単位時間当たりの通過台数、あるいは複数台
のカメラ2によって撮影した画像などをもとに、車間距
離を判定したり、渋滞を判定したり、渋滞の先頭を判定
したりなどの各種事象を判定するものである。The calculating means 6 calculates the speed of the moving body extracted by the moving body extracting means 5. The determining means 7 determines the inter-vehicle distance based on the position of the moving body and the positions of other moving bodies, the calculated number of passing moving bodies per unit time, images taken by a plurality of cameras 2, and the like. Various kinds of events such as determining traffic congestion, determining the beginning of traffic congestion, and the like are determined.
【0012】[0012]
【作用】本発明は、図1に示すように、カメラ2によっ
て撮影した実際の位置関係が既知であるマーカを含む背
景画像についてマーカの画像面上での位置から観測面と
画像面とを対応付ける距離テーブルを距離テーブル作成
手段35によって作成し、更にカメラ2により移動体を
撮影した画像を生成し、切出手段4がこの画像から予め
設定されたマスク設定範囲内の画像を切り出し、移動体
抽出手段5がこの切り出した画像上で移動する移動体、
大きさおよび通過台数を抽出し、算出手段6がこの抽出
された移動体の速度を算出するようにしている。According to the present invention, as shown in FIG. 1, with respect to a background image containing a marker whose actual positional relationship is photographed by the camera 2, the observation surface and the image surface are associated from the position of the marker on the image surface. A distance table is created by the distance table creating means 35, and an image of the moving body taken by the camera 2 is created, and the cutout means 4 cuts out an image within a preset mask setting range from this image to extract the moving body. A moving body that the means 5 moves on the cut-out image,
The size and the number of passing vehicles are extracted, and the calculating means 6 calculates the speed of the extracted moving body.
【0013】この際、移動体抽出手段5が切り出された
画像と予め登録してある背景画像との差分画像を算出し
た後、移動方向に直角方向の投影値を算出して当該投影
値の末尾あるいは先頭を移動体の位置として抽出すると
共に当該投影値の大きさから移動体の大きさを算出およ
び当該投影値の数から移動体の数量(通過台数)を算出
するようにしている。At this time, the moving body extracting means 5 calculates a difference image between the cut-out image and the background image registered in advance, and then calculates a projection value in a direction perpendicular to the moving direction to end the projection value. Alternatively, the head is extracted as the position of the moving body, the size of the moving body is calculated from the magnitude of the projection value, and the number of moving bodies (the number of passing vehicles) is calculated from the number of the projection values.
【0014】また、カメラ2によって移動体のランプな
どのマーカ画像を撮影し、切出手段4がこのマーカ画像
上で移動するマーカを抽出し、移動体抽出手段5がこの
抽出されたマーカの距離が所定値以下のときに同一の移
動体上のものと判定して統合し、一方、所定値以上のと
きに異なる移動体上のものと判定し、算出手段6がこの
判定されたマーカあるいは統合した複数のマーカからな
る移動体の速度を算出するようにしている。Further, a marker image such as a lamp of a moving body is photographed by the camera 2, the cutting means 4 extracts a marker which moves on the marker image, and the moving body extracting means 5 extracts the distance between the extracted markers. Is a predetermined value or less, it is determined that they are on the same moving body and they are integrated. On the other hand, when is a predetermined value or more, it is determined that they are on different moving bodies, and the calculating means 6 determines the marker or the integration. The velocity of the moving body composed of the plurality of markers is calculated.
【0015】また、事象判定手段7が算出した移動体の
速度が徐々に小さくなっていると検出されたときに渋滞
発生予測表示するようにしている。従って、カメラ2で
撮影した移動体の画像からマスク設定範囲の画像を切り
出して移動体の抽出および数量算出した後、較正して実
際の大きさや速度を算出でき、更にこれをもとに移動体
の通過台数、速度、車間の計測や、渋滞、事故などの事
象の自動検出を実現することが可能となる。Further, when it is detected that the speed of the moving body calculated by the event judging means 7 is gradually decreasing, the congestion occurrence prediction display is performed. Therefore, after extracting the image of the mask setting range from the image of the moving body taken by the camera 2 and extracting and calculating the number of moving bodies, it is possible to calibrate and calculate the actual size and speed. It will be possible to measure the number of vehicles passing through the vehicle, speed, distance between vehicles, and automatic detection of events such as traffic jams and accidents.
【0016】[0016]
【実施例】次に、図2から図16を用いて本発明の実施
例の構成および動作を順次詳細に説明する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Next, the construction and operation of an embodiment of the present invention will be described in detail with reference to FIGS.
【0017】図2は、本発明の動作説明フローチャート
を示す。これは、図1の構成のもとで、道路上を走行す
る移動体をカメラ2で撮影し、画像処理して移動体の
数、大きさ、速度を算出するときの手順である。FIG. 2 shows a flowchart for explaining the operation of the present invention. This is a procedure when the moving body traveling on the road is photographed by the camera 2 and the image processing is performed to calculate the number, size, and speed of the moving body under the configuration of FIG.
【0018】図2において、S1は、移動体の画像を撮
影する。これは、図1のカメラ2によって道路上を移動
する移動体の画像を撮影する。S2は、マスク設定範囲
の画像を切り出す。これは、S1で撮影した道路上の移
動体を含む画像中から、移動体が走行する範囲として予
め設定されたマスク設定範囲内の画像のみを切り出す。
例えば後述する図3に示すように、中央破線を挟んで左
側の左車線処理用および右側の右車線処理用のマスク設
定範囲内の画像のみを切り出し、画像処理範囲を必要最
小限にして画像処理量を削減する。In FIG. 2, S1 captures an image of a moving body. This captures an image of a moving object moving on the road by the camera 2 of FIG. In S2, the image in the mask setting range is cut out. This cuts out only the image within the mask setting range preset as the range in which the moving body travels from the image including the moving body on the road captured in S1.
For example, as shown in FIG. 3 to be described later, only the image within the mask setting range for the left lane processing on the left side and the right lane processing for the right side is cut out across the central broken line, and the image processing range is set to the necessary minimum image processing. Reduce the amount.
【0019】S3は、移動体を抽出し、数量を算出す
る。これは、後述する図5の(a)に示すS2で切り出
した画像と、予め撮影しておいた移動体が走行していな
い背景画像との差分を取った差分画像(図5の(b))
を求め、この差分画像を走行方向と直角方向(図5の
(b)では水平方向)へ投影した投影値を求め、この投
影値の先頭あるいは末尾(あるいは両者の平均でもよ
い)を当該移動体の位置として、所定時刻毎に当該位置
を移動体位置テーブル9に設定すると共に、投影値の長
さを移動体の大きさとする。これらにより、移動体の画
像上の位置、大きさ、および数が求められたこととな
る。In step S3, the moving body is extracted and the quantity is calculated. This is a difference image ((b) of FIG. 5) obtained by taking a difference between the image cut out in S2 shown in (a) of FIG. )
Then, the projection value obtained by projecting this difference image in the direction perpendicular to the traveling direction (horizontal direction in FIG. 5B) is obtained, and the head or the tail (or the average of both) of this projection value can be used for the moving body. The position is set in the moving body position table 9 every predetermined time, and the length of the projection value is set to the size of the moving body. From these, the position, size, and number of the moving body on the image are obtained.
【0020】S4は、移動体の大きさ・動きを較正す
る。これは、S3で求めた画像上における移動体の位置
および大きさを実際の道路上の位置および大きさに較正
する。この較正は、後述する図4に示すように、道路上
に予め判明したマーク(例えば道路上に所定距離毎に描
かれた側線)をカメラ2で撮影した画像での画素と当該
マークの長さとの対応関係を求めておく。例えば図4に
示すように較正値を求めて距離テーブル8に登録してお
く(図9参照)。画像上の長さ(画素数)を実際の長さ
(m)に距離テーブル8を参照して較正し、移動体の実
際の大きさや動きを求める。In step S4, the size and movement of the moving body are calibrated. This calibrates the position and size of the moving body on the image obtained in S3 to the actual position and size on the road. As shown in FIG. 4, which will be described later, this calibration is performed by determining the pixel and the length of the mark in the image captured by the camera 2 of a previously known mark on the road (for example, a lateral line drawn at a predetermined distance on the road). The correspondence of is asked. For example, as shown in FIG. 4, a calibration value is obtained and registered in the distance table 8 (see FIG. 9). The length (number of pixels) on the image is calibrated to the actual length (m) by referring to the distance table 8 to obtain the actual size and movement of the moving body.
【0021】S5は、速度・大きさを算出する。これ
は、S4で較正した実際の移動体の速度、大きさを算出
する。以上によって、カメラ2によって道路上を移動す
る移動体を撮影し、この撮影した画像からマスク設定範
囲のみを切り出し、この切り出した画像と背景画像との
差分画像を求めた走行方向と直角方向の投影値を求め、
この投影値の先頭、末尾あるいは平均を移動体の位置と
して時刻に対応づけて移動体位置テーブル9に登録し、
移動体の画像上の速度、大きさ、数を求め、較正して実
際の道路上の移動体の大きさ、および速度を求める。こ
れらにより、カメラ2によって道路上を走行する移動体
を撮影し、移動体の通過した台数、大きさ、および速度
を検出することが可能となる。以下図3から図11を用
いて順次詳細に説明する。In step S5, the speed and size are calculated. This calculates the speed and size of the actual moving body calibrated in S4. As described above, the moving body moving on the road is photographed by the camera 2, only the mask setting range is cut out from the photographed image, and the difference image between the cut-out image and the background image is obtained. Find the value,
The head, the tail, or the average of these projection values are registered as the position of the moving body in the moving body position table 9 in association with the time,
The speed, size and number of the moving body on the image are obtained and calibrated to obtain the size and speed of the moving body on the actual road. As a result, it is possible to capture an image of a moving body traveling on the road by the camera 2 and detect the number of passing moving bodies, the size, and the speed. Details will be sequentially described below with reference to FIGS. 3 to 11.
【0022】図3は、本発明のマスク設定範囲例を示
す。これは、カメラ2によって撮影した道路上の画像か
ら、予め設定したマスク設定範囲、ここでは、 ・中央破線抽出用 ・右車線処理用 ・左車線処理用 の予め設定した3つのマスク設定範囲内の画像のみを切
り出す。以下の説明では、右車線処理用および左車線処
理用の画像を使って画像処理して移動体の抽出などを行
い、処理する対象の画像を必要最小限に削減し、処理速
度を高める。FIG. 3 shows an example of the mask setting range of the present invention. This is a mask setting range set in advance from an image on the road taken by the camera 2, here, for extracting the center broken line, for right lane processing, and for left lane processing. Cut out only the image. In the following description, the image for the right lane processing and the image for the left lane processing are used to perform image processing to extract a moving object, reduce the image to be processed to a necessary minimum, and increase the processing speed.
【0023】図4は、本発明の画像の較正説明図を示
す。これは、カメラ2によって道路上の撮影した画像上
の長さと、実際の道路上の長さとの対応関係を求めて較
正値を算出したものである。ここでは、図示のように、
画像上の長さ(画素数)と、実際の道路上の長さ(m)
との対応関係を求める。この対応関係の求め方は、道路
上に所定間隔毎のライン、例えば道路の所定間隔毎に描
画したラインをカメラ2で撮影し、撮影した画像上の当
該ラインの間隔の長さ(ドット数)と、実際の道路上の
ラインの間隔の長さとの対応関係を求める。例えば図示
の 画像上の長さ(ドット数) 実際の長さ(m) 5 8 のように、画像上の各位置における実際の道路上の長さ
(m)を求めて距離テーブル8に登録しておく。これに
より、画像上で移動体の長さ(ドット数)が判れば、実
際の道路上の長さ(m)に較正できる。FIG. 4 shows an explanatory diagram of the image calibration of the present invention. This is a calculation of the calibration value by obtaining the correspondence between the length on the image taken on the road by the camera 2 and the actual length on the road. Here, as shown,
Length on the image (number of pixels) and actual length on the road (m)
Find the correspondence with. The correspondence is determined by taking a line on the road at a predetermined interval, for example, a line drawn at a predetermined interval on the road with the camera 2, and measuring the length of the line interval (number of dots) on the taken image. And the actual length of the line interval on the road are found. For example, the actual length (m) on each position on the image is calculated and registered in the distance table 8 like the length (dots) actual length (m) 58 on the image shown. Keep it. Accordingly, if the length (dot number) of the moving body is known on the image, it can be calibrated to the actual length (m) on the road.
【0024】図5は、移動体の検出説明図を示す。図5
の(a)は、カメラで撮影した画像を示す。図5の
(b)は、左車線の移動体抽出後の画像を示す。これ
は、図5の(a)の画像から、図3の左車線処理用のマ
スク設定範囲内のもののみを切り出した後の画像と、移
動体が走行していない状態で予め撮影しておいた背景画
像との差分の差分画像を求め、左車線の移動体のみを抽
出した後の画像である。FIG. 5 is an explanatory diagram for detecting a moving body. Figure 5
(A) indicates an image taken by the camera. FIG. 5B shows an image after the moving body in the left lane is extracted. This is an image obtained by cutting out only the image within the mask setting range for left lane processing of FIG. 3 from the image of FIG. This is an image after obtaining a difference image of the difference from the background image that was present and extracting only the moving body in the left lane.
【0025】図5の(c)は、水平方向への投影値を示
す。これは、図5の(b)の左車線処理用の画像につい
て、走行方向と直角方向、ここでは水平方向に投影し、
その投影後の値を所定閾値で2値化した後の投影値を示
す。1の部分が移動体が存在し、0の部分が移動体が存
在しない。この投影値の移動方向に向かって先頭、末尾
あるいは両者の平均の位置を当該移動体の位置と決定す
る。また、移動体の長さは、投影値が1の範囲の長さで
表す。実際の道路上の移動体の長さは、図4で登録した
値(距離テーブル8)を用いて実際の道路上の移動体の
長さに較正する。FIG. 5C shows the projection value in the horizontal direction. This is for the image for left lane processing in FIG. 5B, which is projected in the direction perpendicular to the traveling direction, here in the horizontal direction,
The projection value after binarizing the value after the projection with a predetermined threshold value is shown. The portion 1 has a moving body, and the portion 0 has no moving body. The head position, the tail position, or the average position of the two values is determined as the position of the moving body in the moving direction of the projection value. In addition, the length of the moving body is represented by the length in the range where the projection value is 1. The actual length of the moving body on the road is calibrated to the actual length of the moving body on the road using the values (distance table 8) registered in FIG.
【0026】図6は、本発明のカメラの設置位置例を示
す。図6の(a)は、側面図を示す。カメラ2は、例え
ば道路上に跨がって陸橋の10mの高さの位置に、移動
体の走行方向に向けて図示のような角度に調整し、観測
区間が約100m位となるように設置する。FIG. 6 shows an example of the installation position of the camera of the present invention. FIG. 6A shows a side view. The camera 2 is installed, for example, at a height of 10 m on the overpass across the road, adjusted to the angle as shown in the drawing toward the traveling direction of the moving body, and the observation section is set to about 100 m. To do.
【0027】図6の(b)は、上面図を示す。カメラ2
は、図示のように、高さ約10mの陸橋上の中央破線の
真上に設置し、ここでは、2車線の各車線上を走行する
移動体を同時に撮影し、左側車線用および右側車線用に
切り出して両者をそれぞれ独立に画像処理し、移動体の
台数、長さ、速度などを並列に算出する。FIG. 6B shows a top view. Camera 2
Is installed right above the central broken line on the overpass with a height of about 10 m as shown in the figure. Here, the moving body traveling on each lane of two lanes is photographed at the same time for the left lane and the right lane. Then, the two are image-processed independently, and the number of moving bodies, length, speed, etc. are calculated in parallel.
【0028】図7は、本発明のマスク設定範囲の画像切
出フローチャートを示す。これは、図2のS2の詳細な
フローチャートである。図7において、S11は、移動
体の画像を撮影する。これは、図1のカメラ2によって
道路上を走行する移動体を撮影する。FIG. 7 shows a flow chart of image cutting of the mask setting range according to the present invention. This is a detailed flowchart of S2 in FIG. In FIG. 7, in S11, an image of the moving body is captured. This captures an image of a moving body traveling on a road by the camera 2 shown in FIG.
【0029】S12は、ディスプレイ上に表示する。S
13は、道路上の中央破線、側線の検出を行う。これ
は、S11で撮影した画面上で道路上の中央破線および
側線、例えば白のラインの検出を行う。S12 is displayed on the display. S
13 detects the central broken line and side line on the road. This detects the central broken line and side lines on the road, for example, a white line on the screen imaged in S11.
【0030】S14は、中央破線と側線の間の領域をマ
スク設定範囲と決定する。これは、S13で検出した白
ラインの中央破線と側線の間の領域をマスク設定範囲
(左車線処理用および右車線処理用のマスク設定範囲)
と決定する。In step S14, the area between the central broken line and the side line is determined as the mask setting range. This is a mask setting range for the area between the central broken line and the side line of the white line detected in S13 (mask setting range for left lane processing and right lane processing).
To decide.
【0031】S15は、確認画面をディスプレイ上に表
示する。これは、左車線処理用の画像を切り出すマスク
設定範囲、および右車線処理の画像を切り出すマスク設
定範囲がディスプレイ上に表示されるので、これを見た
オペレータが正しくマスク設定範囲が自動設定されたか
否かを確認する。YESの場合には、オペレータが自動
設定されたマスク設定範囲が正しいと指示したと判明し
たので、S18で左車線処理用および右車線処理用のマ
スク設定範囲(更に中央破線抽出用)のマスク設定範囲
をそれぞれ登録する。一方、NOの場合には、S17で
オペレータが修正し、S19で登録する。In step S15, a confirmation screen is displayed on the display. This is because the mask setting range for cutting out the image for left lane processing and the mask setting range for cutting out the image for right lane processing are displayed on the display. Confirm whether or not. In the case of YES, since it has been found that the operator has instructed that the automatically set mask setting range is correct, in S18, the mask setting of the mask setting range for the left lane processing and the right lane processing (further for extracting the central broken line) Register each range. On the other hand, in the case of NO, the operator corrects in S17 and registers in S19.
【0032】以上によって、カメラ2によって撮影した
画像上から左車線用、右車線用、更に中央破線抽出用の
マスク設定範囲が登録されたこととなる。以降は、この
登録されたマスク設定範囲の画像のみが、中央破線抽出
用、左車線処理用、右車線処理用の画像となる。As described above, the mask setting ranges for the left lane, the right lane, and the central broken line extraction are registered from the image captured by the camera 2. After that, only the image of the registered mask setting range becomes the image for extracting the central broken line, for the left lane processing, and for the right lane processing.
【0033】図8は、本発明の移動体抽出、数量算出フ
ローチャートを示す。図8において、S21は、移動体
の画像を撮影する。これは、図1でカメラ2が道路上の
移動体の画像を撮影する。FIG. 8 shows a flow chart for extracting a moving body and calculating a quantity according to the present invention. In FIG. 8, in S21, an image of the moving body is captured. This is because the camera 2 in FIG. 1 captures an image of a moving object on the road.
【0034】S22は、マスク設定範囲の画像を切り出
す。これは、図5の(b)に示すように、画像からマス
ク設定範囲内の画像、例えば左車線処理用の画像を切り
出す。In step S22, the image in the mask setting range is cut out. As shown in FIG. 5B, this cuts out an image within the mask setting range, for example, an image for left lane processing from the image.
【0035】S23は、予め登録してある背景画像と入
力画像との差分を算出する。S24は、2値化する。こ
れは、S23で算出した差分画像を所定閾値で2値化す
る。In step S23, the difference between the previously registered background image and the input image is calculated. S24 is binarized. This binarizes the difference image calculated in S23 with a predetermined threshold value.
【0036】S25は、投影値を算出する。これは、例
えば図5の(c)に示すように、図5の(b)の2値化
した差分画像を、走行方向と直角方向に投影した投影値
を算出する。In step S25, the projection value is calculated. For example, as shown in (c) of FIG. 5, a projection value obtained by projecting the binarized difference image of (b) of FIG. 5 in the direction orthogonal to the traveling direction is calculated.
【0037】S26は、移動体の末尾部分の検出を行
う。この検出は、進行方向に投影値を走査して0から1
に変わる点を検出する。この検出した位置を移動体位置
テーブル9に時刻に対応づけて登録する。In step S26, the tail portion of the moving body is detected. This detection is carried out by scanning the projection value in the traveling direction from 0 to 1.
Detect points that change to. The detected position is registered in the moving body position table 9 in association with the time.
【0038】S27は、数量をカウントする。これは、
投影値の数、即ち移動体の数量(通過台数)をカウント
すると共に、移動体の大きさ(投影値の1の部分の大き
さ)をカウントして記録する。In step S27, the quantity is counted. this is,
The number of projected values, that is, the number of moving objects (the number of passing objects) is counted, and the size of the moving object (the size of the portion of the projected value of 1) is counted and recorded.
【0039】S28は、終了か判別する。これは、全て
の投影値について処理を終了か判別する。YESの場合
には、終了する。NOの場合には、S29で所定フレー
ム毎に次の画像を入力し、S23以降を繰り返す。In step S28, it is determined whether or not it has ended. This determines whether the processing has been completed for all projection values. If YES, then end. In the case of NO, the next image is input for each predetermined frame in S29, and S23 and subsequent steps are repeated.
【0040】以上によって、マスク設定範囲内の切り出
した画像について、所定フレーム毎に当該画像と背景画
像との差分画像を2値化、投影値算出し、この投影値を
走査して移動体の位置を検出して時刻に対応づけて移動
体位置テーブル9に登録すると共に、移動体の画像上の
大きさを算出する。これらにより、画像上で移動体の通
過台数、大きさを求めると共に、時刻に対応づけて位置
を移動体位置テーブル9に登録できたこととなる。As described above, with respect to the image cut out within the mask setting range, the difference image between the image and the background image is binarized and the projection value is calculated for each predetermined frame, and the projection value is scanned to move the position of the moving body. Is detected and registered in the moving body position table 9 in association with the time, and the size of the moving body on the image is calculated. As a result, the number and size of passing mobile bodies can be obtained on the image, and the position can be registered in the mobile body position table 9 in association with the time.
【0041】図9は、本発明の画像の較正説明図を示
す。図9の(a)は、フローチャートを示す。図9の
(a)において、S31は、マーカ付きの背景画像を取
り込む。これは、白の線の距離が判明している側線をマ
ーカとした背景画像を取り込む。FIG. 9 shows an explanatory diagram of image calibration according to the present invention. FIG. 9A shows a flowchart. In FIG. 9A, in S31, a background image with a marker is captured. This captures the background image with the side line whose distance of the white line is known as a marker.
【0042】S32は、マーカ部分の切り出しを行う。
S33は、マーカ部分の画像上での画素数を算出する。
S34は、マーカ部分の画素当たりの長さに変換して距
離テーブル8に保存する。これは、例えば図9の(b)
に示すように、画面に表示した画像上の画素の進行方向
に向かって番号を付与し、この画素番号に対応づけて実
際の道路上の移動体の位置(距離)を登録する。具体的
には、既述した図4に示す画像上の長さ(画素数)で実
際の長さ(m)を除算し、この除算後の画素当たりの実
際の移動体の長さを当該画素番号に対応づけてI0、
I1、I2・・・といように距離テーブル8に登録する。At S32, the marker portion is cut out.
In S33, the number of pixels on the image of the marker portion is calculated.
In S34, the distance is converted into the length per pixel of the marker portion and stored in the distance table 8. This is, for example, in (b) of FIG.
As shown in, a number is given in the traveling direction of the pixel on the image displayed on the screen, and the actual position (distance) of the moving body on the road is registered in association with this pixel number. Specifically, the actual length (m) is divided by the length (the number of pixels) on the image shown in FIG. 4 described above, and the actual length of the moving body per pixel after the division is calculated as the pixel. I 0 corresponding to the number,
Registered in the distance table 8 as I 1 , I 2, ...
【0043】図9の(b)は、距離テーブルを示す。こ
れは、画像上の画素番号に対応づけて実際の道路上の移
動体の長さ(m)を求めて登録したものである。以上に
よって、カメラ2によって撮影した画像上の長さを、距
離テーブル8を参照して実際の道路上の移動体の長さ
(m)に較正することが可能となった。FIG. 9B shows a distance table. This is obtained by obtaining and registering the actual length (m) of the moving body on the road in association with the pixel number on the image. As described above, it becomes possible to calibrate the length on the image captured by the camera 2 to the actual length (m) of the moving body on the road by referring to the distance table 8.
【0044】図10は、本発明の移動体の速度算出説明
図を示す。図10の(a)は、フローチャートを示す。
図10の(a)において、S41は、移動体毎の時刻と
位置情報を取り込み、距離テーブル8をもとに移動体位
置テーブル9を作成する。これは、移動体毎の時刻と位
置の情報を取り込み、既述した図9の(b)の画像上の
画素と実際の移動体上の位置との対応関係を登録した距
離テーブル8を参照し、移動体の当該時刻t0、t1、t
2・・・における移動体の位置y0、y1、y2・・・を図
10の(b)の移動体位置テーブル9に格納してを作成
する。FIG. 10 is a diagram for explaining the velocity calculation of the moving body of the present invention. FIG. 10A shows a flowchart.
In FIG. 10A, in S41, the time and position information for each moving body is fetched, and the moving body position table 9 is created based on the distance table 8. This is done by referring to the distance table 8 in which the information on the time and position of each moving body is fetched and the correspondence between the pixels on the image of FIG. 9B and the actual position on the moving body is registered. , The time t 0 , t 1 , t of the moving body
The position y 0, y 1, y 2 ··· mobile in 2 ... to create and store the vehicle location table 9 of FIG. 10 (b).
【0045】S42は、移動体位置テーブル9をもとに
速度を算出する。これは、S41で作成した図10の
(b)の移動体位置テーブル9をもとに、図10の
(c)に示すように、各時刻t0、t1、t2・・・とそ
のときの移動体の位置y0、y1、y2・・・とを直線で
近似し、当該直線の傾きである速度を算出する。In S42, the speed is calculated based on the moving body position table 9. This is based on the moving body position table 9 of FIG. 10B created in S41, as shown in FIG. 10C, at times t 0 , t 1 , t 2, ... The positions y 0 , y 1 , y 2, ... Of the moving body at that time are approximated by a straight line, and the velocity that is the inclination of the straight line is calculated.
【0046】以上によって、画像上における移動体毎の
時刻と位置の情報を取り込み、既述した図9の(b)の
距離テーブル8を参照して実際の移動体の時刻と位置の
関係を求めた図10の(b)の移動体位置テーブル9を
作成し、この移動体位置テーブル9をもとに移動体の速
度をそれぞれ算出することが可能となる。As described above, the time and position information of each moving body on the image is fetched, and the actual time and position relationship of the moving body is obtained by referring to the distance table 8 in FIG. It is possible to create the moving body position table 9 of FIG. 10B and calculate the speed of each moving body based on this moving body position table 9.
【0047】図10の(b)は、移動体位置テーブルを
示す。この移動体位置テーブル9は、時刻に対応づけて
実際の移動体の位置を図10の(a)のフローチャート
に従って作成したものである。FIG. 10B shows a moving body position table. This moving body position table 9 is created by associating the actual position of the moving body with the time according to the flowchart of FIG.
【0048】図10の(c)は、速度算出方法の例を示
す。これは、図10の(b)の移動体位置テーブル9の
時刻と移動体の位置とを直線で結び、そのときの傾きを
求めて速度としたものである。FIG. 10C shows an example of the speed calculation method. This is one in which the time of the moving body position table 9 in FIG. 10B and the position of the moving body are connected by a straight line, and the inclination at that time is obtained and used as the speed.
【0049】図11は、本発明の移動体の大きさ算出フ
ローチャートを示す。図11において、S51は、移動
体の任意の時刻における投影値を算出する。これは、既
述した図8のS25で算出した投影値、即ち、移動体の
画像と背景画像との差分画像を移動方向と直角方向に投
影した投影値について、任意の時刻のものを算出する。FIG. 11 shows a flow chart for calculating the size of the moving body of the present invention. In FIG. 11, S51 calculates the projection value of the moving body at an arbitrary time. This is to calculate the projection value calculated in S25 of FIG. 8 described above, that is, the projection value obtained by projecting the difference image between the image of the moving body and the background image in the direction perpendicular to the moving direction, at any time. .
【0050】S52は、距離テーブルをもとに較正す
る。これは、S51で算出した投影値を距離テーブル8
をもとに実際の移動体の大きさに較正する。以上によっ
て、画像の投影値から実際の移動体の移動方向の大きさ
(長さ)が算出できたこととなる。S52 is calibrated based on the distance table. This is because the projection value calculated in S51 is calculated by the distance table 8
It is calibrated to the actual size of the moving body based on. As described above, the actual size (length) of the moving body in the moving direction can be calculated from the projected value of the image.
【0051】次に、図12から図16を用いて道路管理
分野における応用を順次説明する。図12は、本発明の
車速と車間距離計測の統計および異常事象の検知・発生
予測説明図を示す。Next, applications in the field of road management will be sequentially described with reference to FIGS. FIG. 12 shows the vehicle speed and inter-vehicle distance measurement statistics of the present invention, and an explanatory diagram of detection / occurrence prediction of abnormal events.
【0052】図12の(a)は、フローチャートを示
す。図12の(a)において、S101は、車速・車間
距離を算出する。既述したように、画像上から車両の車
速および車間距離を算出する。FIG. 12A shows a flowchart. In (a) of FIG. 12, S101 calculates the vehicle speed and the inter-vehicle distance. As described above, the vehicle speed and the inter-vehicle distance of the vehicle are calculated from the image.
【0053】S102は、任意時間における平均値をリ
アルタイムで算出する。S103は、グラフに出力す
る。S104は、グラフの傾きの特徴検出する。検出さ
れたグラフの傾きのパターンの特徴に応じてパターン
(a)、パターン(b)、パターン(c)、パターン
(d)あるいはそれ以外に分類し、そのパターンに対応
する判断あるいは予測する。In step S102, the average value at any time is calculated in real time. S103 outputs to a graph. In S104, the feature of the inclination of the graph is detected. The patterns are classified into pattern (a), pattern (b), pattern (c), pattern (d), and others according to the characteristics of the detected pattern of the inclination of the graph, and the judgment or prediction corresponding to the pattern is performed.
【0054】S105は、パターン(a)の時であっ
て、図12の(b)のパターン(a)に示すように、車
速および車間距離がともに速いおよび長い場合であるの
で、S106で正常と判断する。S105 is the time of the pattern (a), and as shown in the pattern (a) of FIG. 12B, the vehicle speed and the inter-vehicle distance are both fast and long. to decide.
【0055】S107は、パターン(b)の時であっ
て、図12の(b)のパターン(b)に示すように、車
速および車間距離がともに遅いおよび短い場合であるの
で、S108で渋滞中と判断する。Step S107 is the time of the pattern (b), and as shown in the pattern (b) of FIG. 12B, the vehicle speed and the inter-vehicle distance are both slow and short. To judge.
【0056】S109は、パターン(c)の時であっ
て、図12の(b)のパターン(c)に示すように、車
速および車間距離がともに徐々に遅いおよび短くなって
いる場合であるので、S110で渋滞の発生を予測す
る。S109 is the time of the pattern (c), and as shown in the pattern (c) of FIG. 12B, both the vehicle speed and the inter-vehicle distance are gradually slowed and shortened. , S110 predicts the occurrence of congestion.
【0057】S111は、パターン(d)の時であっ
て、図12の(b)のパターン(d)に示すように、車
速および車間距離が急激にほぼ零になった場合であるの
で、S112で次のいずれかと判断する。S111 is the time of the pattern (d), and as shown in the pattern (d) of FIG. 12B, the vehicle speed and the inter-vehicle distance suddenly become almost zero. And determine one of the following.
【0058】・渋滞の末尾 ・事故発生 ・落下物発生 ・その他災害発生 S113は、パターン(a)〜(d)以外の時、ここで
は、何もしなく終了する。-End of traffic jam-Accident occurrence-Falling object occurrence-Other disaster occurrence In step S113, except for patterns (a) to (d), nothing is done here.
【0059】図12の(b)は、グラフのパターン例を
示す。ここで、実線は車速を表し、点線は車間を表す。 パターン(a):車速および車間がともに速いおよび長
い場合であって、正常時のパターンである。FIG. 12B shows a graph pattern example. Here, the solid line represents the vehicle speed, and the dotted line represents the vehicle distance. Pattern (a): a normal pattern when the vehicle speed and the vehicle distance are both fast and long.
【0060】パターン(b):車速および車間がともに
遅いおよび短い場合であって、渋滞中のパターンであ
る。 パターン(c):車速および車間が徐々に遅くおよび短
くなっている場合であって、渋滞の発生が予測されるパ
ターンである。Pattern (b): a pattern in which the vehicle speed and the distance between vehicles are both slow and short, and the traffic is congested. Pattern (c): a pattern in which the occurrence of traffic congestion is predicted when the vehicle speed and the distance between vehicles are gradually slowing and shortening.
【0061】パターン(d):車速および車間が急激に
ほぼ零になった場合であって、事故などの異常事態が発
生したパターンである。 図13は、本発明の車速と車間距離計測の統計および異
常事象の検知・発生予測説明図を示す。Pattern (d): a pattern in which an abnormal situation such as an accident occurs when the vehicle speed and the vehicle distance suddenly become almost zero. FIG. 13 shows a vehicle speed and inter-vehicle distance measurement statistics and an abnormal event detection / occurrence prediction explanatory diagram of the present invention.
【0062】図13の(a)は、フローチャートを示
す。図13の(a)において、S121は、車両通過台
数を算出する。これは、既述した投影値の数を計測し、
車両の通過台数を算出する。FIG. 13A shows a flowchart. In (a) of FIG. 13, S121 calculates the number of passing vehicles. This measures the number of projection values mentioned above,
Calculate the number of passing vehicles.
【0063】S122は、任意時間単位の台数をリアル
タイムで統計を行う。S123は、グラフに出力する。
S124は、統計値に急激な変化があるか判別する。Y
ESの場合には、S125で事故等の事象発生を推測す
る。一方、NOの場合には、S126に進む。In S122, the number of vehicles in arbitrary time units is statistically calculated in real time. S123 outputs to a graph.
In S124, it is determined whether or not there is a sudden change in the statistical value. Y
In the case of ES, the occurrence of an event such as an accident is estimated in S125. On the other hand, if NO, the process proceeds to S126.
【0064】S126は、統計値に変化があるか判別す
る。YESの場合には、S127で渋滞等の事象発生を
予測する。一方、NOの場合には、正常であるので、終
了する。In step S126, it is determined whether the statistical value has changed. In the case of YES, the occurrence of an event such as traffic jam is predicted in S127. On the other hand, in the case of NO, since it is normal, the process ends.
【0065】図13の(b)は、グラフ出力の例を示
す。横軸は1分単位の時間を表し、縦軸は各1分単位に
おける車両通過台数を表す。実線は全車両を表し、点線
は大型車両を表し、一点鎖線は小型車両を表す。ここで
は、中央部分統計値に急減な変化があって、車両通過台
数が零になったときに事故等が発生したと判断する。FIG. 13B shows an example of graph output. The horizontal axis represents time in units of 1 minute, and the vertical axis represents the number of vehicles passing in units of 1 minute. The solid line represents all vehicles, the dotted line represents large vehicles, and the alternate long and short dash line represents small vehicles. Here, it is determined that an accident or the like has occurred when there is a sudden change in the central statistical value and the number of vehicles passing through becomes zero.
【0066】図14は、本発明の渋滞の先頭/末尾位置
の予測説明図を示す。図14の(a)は、フローチャー
トを示す。図14の(a)において、S151は、渋滞
の検出を行う。FIG. 14 is a diagram for explaining the prediction of the head / tail position of the traffic jam of the present invention. FIG. 14A shows a flowchart. In FIG. 14A, S151 detects traffic congestion.
【0067】S152は、前方および後方に隣接する他
のカメラからの画像が渋滞を検出しているか判別する。
YESの場合には、S152およびS154を繰り返
す。一方、NOの場合には、渋滞の先頭および末尾位置
を推測し、S156で渋滞の長さを推測する。In step S152, it is determined whether or not images from other cameras adjacent to the front and the rear detect congestion.
If YES, S152 and S154 are repeated. On the other hand, in the case of NO, the head and tail positions of the traffic jam are estimated, and the length of the traffic jam is estimated in S156.
【0068】図14の(b)は、説明図を示す。ここで
は、車両の進行方向に沿って複数台のカメラ2を設置
し、各カメラ2からの画像をもとに既述した渋滞を検出
する。そして、進行方向の先頭および末尾から順にいず
れのカメラ2で撮影した画像から渋滞が検出されなくな
った位置およびその1つ手前のカメラ2の位置の間に渋
滞の先頭および末尾が位置すると判断する。これによ
り、渋滞の長さや、カメラの死角において発生した事故
等の異常事態発生と、おおまかな発生位置を判断する。FIG. 14B shows an explanatory diagram. Here, a plurality of cameras 2 are installed along the traveling direction of the vehicle, and the traffic congestion described above is detected based on the images from the cameras 2. Then, it is determined that the head and the tail of the traffic jam are located between the position where the traffic is no longer detected from the image captured by any of the cameras 2 from the head and the tail in the traveling direction and the position of the camera 2 immediately before the position. As a result, the length of the traffic jam, the occurrence of an abnormal situation such as an accident in the blind spot of the camera, and the rough occurrence position are determined.
【0069】図15は、本発明のマーカによる移動体の
検出説明図を示す。図15の(a)は、フローチャート
を示す。図15の(a)において、S171は、マーカ
の抽出およびマーカ位置テーブルの作成を行う。これ
は、例えば夜間において走行する車両のテールランプを
カメラ2で撮影した画像から当該テールランプを移動体
のマーカとして抽出し、時刻と位置をマーカ位置テーブ
ル10に格納して作成する。FIG. 15 is a diagram for explaining detection of a moving body by the marker of the present invention. FIG. 15A shows a flowchart. In FIG. 15A, in S171, a marker is extracted and a marker position table is created. This is created, for example, by extracting the tail lamp of a vehicle traveling at night from an image taken by the camera 2 as the marker of the moving body, and storing the time and position in the marker position table 10.
【0070】S172は、ある時刻における隣接するマ
ーカ間の距離を算出する。S173は、ある値よりも小
さいか判別する。YESの場合には、S174で同一移
動体上のマーカ群と判断し、更に隣接するマーカとの距
離の比較を行うために、S172以降を繰り返す。これ
により、マーカ間の距離がある値よりも小さいものは全
て1つの移動体のものと判断して統合する。例えば後述
する図22の(a)のトラックなどのランプが複数点灯
されているものは各ランプに対応するマーカをまとめて
1台のトラックのものと判断する。一方、S173のN
Oの場合には、S175に進む。In S172, the distance between the adjacent markers at a certain time is calculated. In S173, it is determined whether it is smaller than a certain value. In the case of YES, it is determined in S174 that the marker group is on the same moving body, and S172 and subsequent steps are repeated in order to compare the distances with the adjacent markers. As a result, all the distances between the markers that are smaller than a certain value are determined to be one moving body and are integrated. For example, in the case where a plurality of lamps such as the track shown in FIG. 22A described later are turned on, the markers corresponding to the respective lamps are collectively determined as one track. On the other hand, N in S173
In the case of O, the process proceeds to S175.
【0071】S175は、異なる移動体上のマーカ群と
判断する。これは、マーカ間の距離がある値よりも大き
いと判明したので、異なる移動体上のマーカと判断した
ものである。In S175, it is determined that the markers are on different moving bodies. This is because the distance between the markers was found to be larger than a certain value, so it was determined that the markers were on different moving bodies.
【0072】S176は、移動体1つをカウントする。
以上によって、夜間において走行する車両のランプをカ
メラ2で撮影した画像から、マーカを抽出してマーカ位
置テーブル10に登録し、このマーカ位置テーブル10
から同時刻における隣接するマーカの位置を取り出して
両者の距離を求め、この距離がある値よりも小さいとき
に統合し、ある値よりも大きいと判明したときに他の移
動体のものと判断することを繰り返し、マーカを統合す
る。これら統合した後の位置(例えば先頭のマーカ、平
均、あるいは後尾のマーカの位置)および時刻を既述し
た移動体位置テーブル9に登録すると共に通過台数を計
数することが可能となる。In S176, one moving body is counted.
As described above, the marker is extracted from the image obtained by photographing the lamp of the vehicle traveling at night with the camera 2, and the marker is registered in the marker position table 10.
Then, the positions of the adjacent markers at the same time are taken out to obtain the distance between them, and when the distance is smaller than a certain value, it is integrated, and when it is found to be larger than a certain value, it is judged as that of another moving body. Repeat the process to integrate the markers. It is possible to register the position after integration (for example, the position of the leading marker, the average, or the position of the trailing marker) and the time in the moving body position table 9 described above, and count the number of passing vehicles.
【0073】図15の(b)は、マーカ位置テーブルを
示す。これは、図15の(a)のS171で作成したも
のであって、テールランプの点灯した車両をカメラ2で
撮影した画像からマーカの位置および時刻を抽出して登
録したものである。FIG. 15B shows a marker position table. This is created in S171 of FIG. 15A, and the position and time of the marker are extracted and registered from the image captured by the camera 2 of the vehicle with the tail lamp lit.
【0074】図16は、本発明のマーカの統合説明図を
示す。図16の(a)は、入力画像(1)を示す。これ
は、複数のランプの点灯したトラックなどをカメラ2で
撮影した画像であって、★の部分がマーカの部分であ
る。FIG. 16 shows an integrated explanatory diagram of the marker of the present invention. FIG. 16A shows the input image (1). This is an image taken by the camera 2 of a truck or the like in which a plurality of lamps are lit, and the mark * indicates the marker.
【0075】図16の(b)は、図16の(a)の画像
上からマーカの移動体抽出後の様子を示す。この場合に
は、右側に記載したように、マーカ間の距離l、mがあ
る値よりもそれぞれ小さいので、合計6個のマーカを1
群に統合し、1台と判断した例である。FIG. 16B shows a state after the moving body of the marker is extracted from the image of FIG. In this case, as described on the right side, the distances l and m between the markers are each smaller than a certain value, so that a total of 6 markers are set to 1
This is an example in which it is integrated into a group and judged as one unit.
【0076】図16の(c)は、入力画像(2)を示
す。これは、複数のランプの点灯した2台の乗用車をカ
メラ2で撮影した画像であって、★の部分がマーカの部
分である。FIG. 16C shows the input image (2). This is an image obtained by photographing two passenger cars with a plurality of lamps turned on by the camera 2, and the part of * is a part of the marker.
【0077】図16の(d)は、図16の(c)の画像
上からマーカの移動体抽出後の様子を示す。この場合に
は、右側に記載したように、マーカ間の距離nがある値
よりも大きいので、2台と判断した例である。FIG. 16D shows a state after the moving body of the marker is extracted from the image of FIG. 16C. In this case, as described on the right side, the distance n between the markers is larger than a certain value, and thus it is an example in which it is determined that the number is two.
【0078】[0078]
【発明の効果】以上説明したように、本発明によれば、
カメラ2で撮影した画像から距離テーブルが作成でき、
従来のようにカメラ位置、角度等を物理的に計測しなく
ても済むようになり、その距離テーブルにより移動体の
画像から移動体の抽出および数量算出した後、較正して
実際の大きさや速度を算出できるようになった。As described above, according to the present invention,
You can create a distance table from the images taken by camera 2,
It is no longer necessary to physically measure the camera position, angle, etc. as in the past, and the distance table is used to extract the moving objects from the images of the moving objects and calculate the quantity, and then calibrate the actual size and speed. Can now be calculated.
【0079】また、夜間の交通監視においても、可視カ
メラの画像からでも、車両の通過台数などを計測できる
ようになった。Also, in nighttime traffic monitoring, the number of vehicles passing through can be measured from the image of the visible camera.
【図1】本発明の原理ブロック図である。FIG. 1 is a principle block diagram of the present invention.
【図2】本発明の動作説明フローチャートである。FIG. 2 is a flowchart explaining the operation of the present invention.
【図3】本発明のマスク設定範囲例である。FIG. 3 is an example of a mask setting range of the present invention.
【図4】本発明の画像の較正説明図である。FIG. 4 is an explanatory diagram of image calibration according to the present invention.
【図5】本発明の移動体の検出説明図である。FIG. 5 is an explanatory diagram of detecting a moving body of the present invention.
【図6】本発明のカメラの設定位置例である。FIG. 6 is an example of setting positions of the camera of the present invention.
【図7】本発明のマスク設定範囲の画像切出フローチャ
ートである。FIG. 7 is a flowchart for cutting out an image of a mask setting range according to the present invention.
【図8】本発明の移動体抽出、数量算出フローチャート
である。FIG. 8 is a flowchart of mobile unit extraction and quantity calculation of the present invention.
【図9】本発明の画像の較正説明図である。FIG. 9 is an explanatory diagram of image calibration according to the present invention.
【図10】本発明の移動体の速度算出説明図である。FIG. 10 is an explanatory diagram of speed calculation of a moving body according to the present invention.
【図11】本発明の移動体の大きさ算出フローチャート
である。FIG. 11 is a flowchart for calculating the size of a moving body according to the present invention.
【図12】本発明の車速と車間距離計測の統計および異
常事象の検知・発生説明図である。FIG. 12 is a diagram illustrating statistics of vehicle speed and vehicle distance measurement and detection / occurrence of an abnormal event according to the present invention.
【図13】本発明の車速と車間距離計測の統計および異
常事象の検知・発生説明図である。FIG. 13 is an explanatory diagram of statistics of vehicle speed and inter-vehicle distance measurement and detection / occurrence of abnormal events according to the present invention.
【図14】本発明の渋滞の先頭/末尾位置の予測説明図
である。FIG. 14 is an explanatory diagram for predicting the start / end positions of a traffic jam according to the present invention.
【図15】本発明のマーカによる移動体の検出説明図で
ある。FIG. 15 is an explanatory diagram for detecting a moving body by the marker of the present invention.
【図16】本発明のマーカの統合説明図である。FIG. 16 is an explanatory diagram for integrating markers according to the present invention.
1:交通監視装置 2:カメラ 3:画像処理装置 35:距離テーブル作成手段 4:切出手段 5:移動体抽出手段 6:算出手段 7:判定手段 8:距離テーブル 9:移動体位置テーブル 10:マーカ位置テーブル 1: Traffic monitoring device 2: Camera 3: Image processing device 35: Distance table creating means 4: Cutting means 5: Moving body extracting means 6: Calculating means 7: Judging means 8: Distance table 9: Moving body position table 10: Marker position table
フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04N 7/18 D Continuation of front page (51) Int.Cl. 6 Identification number Office reference number FI Technical display area H04N 7/18 D
Claims (3)
いて、 移動体の画像を撮影するカメラ(2)と、 このカメラ(2)によって撮影した背景画像の実際の位
置と画像上での位置から求められる観測面と画像面とを
対応付ける距離テーブルと、 交通監視装置によって入力画像から抽出した個々の移動
体についての画像面における位置、面積、時間的変化を
距離テーブルで較正することで、個々の移動体の速度や
大きさを算出する算出手段(6)とを備えたことを特徴
とする交通監視装置。1. A traffic monitoring device for monitoring traffic of a mobile body, wherein a camera (2) for capturing an image of the mobile body, an actual position of a background image captured by the camera (2) and a position on the image. By calibrating the distance table that correlates the observation surface and the image surface obtained from, and the position, area, and temporal change on the image surface of each moving object extracted from the input image by the traffic monitoring device with the distance table, And a calculating means (6) for calculating the speed and size of the moving body.
いて、 移動体のランプなどのマーカ画像を撮影するカメラ
(2)と、 このマーカ画像上で移動するマーカを抽出する移動体抽
出手段(5)と、 この移動体抽出手段(5)によって抽出されたマーカの
距離が所定値以下のときに同一の移動体上のものと判定
して統合し、一方、所定値以上のときに異なる移動体上
のものと判定する移動体抽出手段(5)と、 この判定されたマーカあるいは統合した複数のマーカか
らなる移動体の速度を算出する算出手段(6)とを備え
たことを特徴とする交通監視装置。2. A traffic monitoring device for monitoring traffic of a moving body, wherein a camera (2) for photographing a marker image such as a lamp of the moving body, and a moving body extracting means for extracting a marker moving on the marker image ( 5) and the marker extracted by the moving object extracting means (5) are integrated on the same moving object when the distance is less than or equal to a predetermined value. A moving body extracting means (5) for judging that the moving body is on the body; and a calculating means (6) for calculating the speed of the moving body composed of the judged marker or a plurality of integrated markers. Traffic monitoring device.
遅いと検出されたときに渋滞中表示し、速度が徐々に小
さくなっていると検出されたときに渋滞発生予測表示
し、または速度が急激に低下して非常に遅いまたは停止
と検出されたときに事故発生などの障害発生とする事象
判定手段(7)を備えたことを特徴とする請求項1ある
いは請求項2に記載の交通監視装置。3. A traffic jam is displayed when it is detected that the calculated speed of the moving body is slower than an average value, and a traffic jam prediction display is displayed when it is detected that the speed is gradually decreasing, or The event determination means (7) for determining a failure such as an accident when the speed is suddenly reduced to be extremely slow or stopped is provided, and the event determination means (7) is provided. Traffic monitoring device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6204014A JPH0869596A (en) | 1994-08-29 | 1994-08-29 | Traffic monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6204014A JPH0869596A (en) | 1994-08-29 | 1994-08-29 | Traffic monitoring device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0869596A true JPH0869596A (en) | 1996-03-12 |
Family
ID=16483346
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP6204014A Withdrawn JPH0869596A (en) | 1994-08-29 | 1994-08-29 | Traffic monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0869596A (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000209570A (en) * | 1999-01-20 | 2000-07-28 | Toshiba Corp | Moving object monitor |
JP2002222486A (en) * | 2001-01-29 | 2002-08-09 | Toshiba Corp | Road monitoring system |
JP2002260144A (en) * | 2001-03-06 | 2002-09-13 | Natl Inst For Land & Infrastructure Management Mlit | Road status grasping system |
JP2003346278A (en) * | 2002-04-04 | 2003-12-05 | Lg Industrial Syst Co Ltd | Apparatus and method for measuring queue length of vehicles |
GB2395551A (en) * | 2002-11-19 | 2004-05-26 | Baxall Ltd | Self calibrating surveillance system |
JP2012037964A (en) * | 2010-08-04 | 2012-02-23 | Toyota Motor Corp | Vehicle information acquisition device and vehicle information acquisition method |
JP2014006697A (en) * | 2012-06-25 | 2014-01-16 | Saxa Inc | Monitoring system |
JP2014006696A (en) * | 2012-06-25 | 2014-01-16 | Saxa Inc | Monitoring system |
JP2014135062A (en) * | 2014-02-07 | 2014-07-24 | Fuji Heavy Ind Ltd | Vehicle detector |
JP2017010293A (en) * | 2015-06-23 | 2017-01-12 | 株式会社東芝 | Information processing apparatus and congestion monitoring method |
CN106463060A (en) * | 2014-05-19 | 2017-02-22 | 株式会社理光 | Processing apparatus, processing system, processing program, and processing method |
CN106781477A (en) * | 2016-12-22 | 2017-05-31 | 东莞华南设计创新院 | A kind of highway information intelligence system |
TWI723299B (en) * | 2018-11-20 | 2021-04-01 | 遠創智慧股份有限公司 | Traffic condition monitoring method and system using the same |
-
1994
- 1994-08-29 JP JP6204014A patent/JPH0869596A/en not_active Withdrawn
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000209570A (en) * | 1999-01-20 | 2000-07-28 | Toshiba Corp | Moving object monitor |
JP2002222486A (en) * | 2001-01-29 | 2002-08-09 | Toshiba Corp | Road monitoring system |
JP2002260144A (en) * | 2001-03-06 | 2002-09-13 | Natl Inst For Land & Infrastructure Management Mlit | Road status grasping system |
JP2003346278A (en) * | 2002-04-04 | 2003-12-05 | Lg Industrial Syst Co Ltd | Apparatus and method for measuring queue length of vehicles |
GB2395551A (en) * | 2002-11-19 | 2004-05-26 | Baxall Ltd | Self calibrating surveillance system |
GB2395551B (en) * | 2002-11-19 | 2005-10-05 | Baxall Ltd | Surveillance system |
JP2012037964A (en) * | 2010-08-04 | 2012-02-23 | Toyota Motor Corp | Vehicle information acquisition device and vehicle information acquisition method |
JP2014006696A (en) * | 2012-06-25 | 2014-01-16 | Saxa Inc | Monitoring system |
JP2014006697A (en) * | 2012-06-25 | 2014-01-16 | Saxa Inc | Monitoring system |
JP2014135062A (en) * | 2014-02-07 | 2014-07-24 | Fuji Heavy Ind Ltd | Vehicle detector |
CN106463060A (en) * | 2014-05-19 | 2017-02-22 | 株式会社理光 | Processing apparatus, processing system, processing program, and processing method |
US10402664B2 (en) | 2014-05-19 | 2019-09-03 | Ricoh Company, Limited | Processing apparatus, processing system, processing program, and processing method |
CN106463060B (en) * | 2014-05-19 | 2020-01-10 | 株式会社理光 | Processing apparatus, processing system, and processing method |
JP2017010293A (en) * | 2015-06-23 | 2017-01-12 | 株式会社東芝 | Information processing apparatus and congestion monitoring method |
CN106781477A (en) * | 2016-12-22 | 2017-05-31 | 东莞华南设计创新院 | A kind of highway information intelligence system |
TWI723299B (en) * | 2018-11-20 | 2021-04-01 | 遠創智慧股份有限公司 | Traffic condition monitoring method and system using the same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100373002B1 (en) | Method for judgment out of lane of vehicle | |
US7218207B2 (en) | Method for detecting position of lane marker, apparatus for detection position of lane marker and alarm apparatus for lane deviation | |
US6744380B2 (en) | Apparatus for monitoring area adjacent to vehicle | |
JPH0869596A (en) | Traffic monitoring device | |
KR102267335B1 (en) | Method for detecting a speed employing difference of distance between an object and a monitoring camera | |
US20110234749A1 (en) | System and method for detecting and recording traffic law violation events | |
US20080095403A1 (en) | Electronic traffic monitor | |
JP5105400B2 (en) | Traffic measuring method and traffic measuring device | |
KR102283483B1 (en) | Image analysis system for calculating traffic volume | |
KR102185100B1 (en) | Safety Management System on a Crosswalk for Pedestrian and its Method | |
KR101405085B1 (en) | Device and method for video analysis | |
CN107458308A (en) | A kind of auxiliary driving method and system | |
JPH1040490A (en) | Road monitoring device | |
KR100690279B1 (en) | Multipurpose video image detection system | |
JP2001357396A (en) | Image processor and image recognizing device | |
KR102418344B1 (en) | Traffic information analysis apparatus and method | |
JP2000149181A (en) | Traffic stream measurement system | |
KR102036593B1 (en) | Forward and back ward detecting system for emergency vehicle on bad visuality | |
JPH06341837A (en) | Distance-between-cars measuring apparatus, camera-position correction device and collision warning device | |
JP3224875B2 (en) | Image-based signal ignoring vehicle detection method | |
JP2000030181A (en) | Road surface abnormality detecting device and impact alarming device using the same | |
JP2001273587A (en) | Road monitor system | |
AU785266B2 (en) | Traffic violation detection system | |
JP2001216598A (en) | Traffic flow measuring instrument | |
JPH06147887A (en) | Distance detector for vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20011106 |