JP3384526B2 - Logistics measurement equipment - Google Patents
Logistics measurement equipmentInfo
- Publication number
- JP3384526B2 JP3384526B2 JP34025596A JP34025596A JP3384526B2 JP 3384526 B2 JP3384526 B2 JP 3384526B2 JP 34025596 A JP34025596 A JP 34025596A JP 34025596 A JP34025596 A JP 34025596A JP 3384526 B2 JP3384526 B2 JP 3384526B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- unit
- dimensional data
- parallax
- plane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Instructional Devices (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
【0001】[0001]
【発明の属する技術分野】本発明は、交通管制に有用と
されるステレオ画像計測を用いた交通流計測装置等に使
用される物流計測装置に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a physical distribution measuring device used for a traffic flow measuring device or the like using stereo image measurement which is useful for traffic control.
【0002】[0002]
【従来の技術】まず、ステレオ画像計測の原理について
説明する。ステレオ画像計測技術は、左右2台の撮像装
置によって同一の物体を撮影し、三角測量の原理で物点
pまでの距離を計測するものである。図7では光軸が水
平かつ平行に配置された2台の撮像装置の撮像面70
1、702と物点pが示してある。実際には撮像装置の
撮像面701、702はx軸より手前に存在するが、説
明の便宜上このように示すことにする。今、物点pまで
の距離zpを計測するとする。物点pは左右の画像上で
それぞれ点PL 、PR に結像し、点PL 、PR の画像上
でのx方向の座標をそれぞれXL 、XR とすると、視差
Sは式(1)のように求められる。
視差S=XL−XR ・・・(1)
この左右の画像から点PL (XL ,YL )、P
R (XR ,YR ){但しYL =Y R }を見つけ出す処理
を対応付け処理という。対応付けは左右の画像中から相
関が最も高い一対の領域を見つけだすことで行われる。
また、視差Sから式(2)により撮像装置から物体pま
での距離zp を算出することができる。
物点pまでの距離zp =(B×f)/s ・・・(2)
但し、B:撮像装置の配置間隔
f:レンズの焦点距離2. Description of the Related Art First, the principle of stereo image measurement
explain. The stereo image measurement technology uses two left and right imaging devices.
The same object is photographed by the table, and the object point is detected by the triangulation principle.
The distance to p is measured. In Figure 7, the optical axis is water
Imaging planes 70 of two imaging devices arranged flat and parallel
1, 702 and the object point p are shown. In reality,
The imaging planes 701 and 702 exist in front of the x-axis, but
For the sake of clarity, I will show it like this. Now up to object point p
Suppose that the distance zp is measured. The object point p is on the left and right images
Each point PL, PRImage at point PL, PROn the image
X coordinate in x directionL, XRThen parallax
S is calculated as in Expression (1).
Parallax S = XL-XR (1)
From the left and right images, point PL(XL, YL), P
R(XR, YR) {However, YL= Y R} Process to find
Is referred to as association processing. Correlation is done from the left and right images
This is done by finding the pair of areas with the highest seki.
In addition, from the parallax S to the object p from the image pickup device according to Expression (2).
At distance zpCan be calculated.
Distance z to object point pp= (B × f) / s (2)
However, B: arrangement interval of the imaging device
f: lens focal length
【0003】次に、ステレオ画像計測を用いて観測面の
3次元的な位置を推定する技術として、特願平7−23
4019号公報に記載の「平面推定方法」について説明
する。なお以下の説明では、道路面の3次元的位置を推
定することを例にして、物体を車両に、観測面を道路面
に置き換えて説明する。Next, as a technique for estimating the three-dimensional position of the observation surface by using stereo image measurement, Japanese Patent Application No. 7-23.
The "plane estimation method" described in Japanese Patent No. 4019 will be described. In the following description, estimating the three-dimensional position of the road surface will be described as an example by replacing the object with the vehicle and the observation surface with the road surface.
【0004】道路高所に設置した複数の撮像装置によ
り、車両が存在しない道路面のステレオ画像を撮影す
る。ステレオ画像のうち、基準とする一方の画像(左画
像)を図8中、画像面801のように水平X方向M個、
垂直Y方向N個の合計M×NのブロックBK(X,Y)
に分割し、各ブロックごとに視差を計測する。各ブロッ
クにおいて計測された視差データをS(X,Y)と表記
する。これを図8に示すX−Y−S 座標上にプロットす
る。インデックスY(1≦Y≦N)を固定したときの視
差S(X,Y)は同一平面内にあり、かつ一本の直線上
にあるはずなので、ハフ変換を用いて直線を近似する。
この直線は道路面を通過していることから平面通過直線
802と呼ぶことにする。ハフ変換によって得られる平
面通過直線の直線パラメータとして、直線からY 軸へ
下ろした垂線の長さρと、垂線の傾きθを用いることに
すると、各平面通過直線は式(3)のように表すことが
できる。
ρY =XsinθY +YsinθY ・・・(3)
但し、ρY :Y軸から平面通過直線までの距離
θY :平面通過直線から下ろした垂線とX−Y平面がな
す角度(添字Yは各インデックスYを示す)A plurality of image pickup devices installed at a high place on the road capture a stereo image of the road surface where no vehicle exists. Of the stereo images, one reference image (left image) is shown in FIG.
A total of M × N blocks BK (X, Y) in the vertical Y direction
Then, the parallax is measured for each block. The parallax data measured in each block is described as S (X, Y). This is plotted on the XYS coordinate shown in FIG. Since the parallax S (X, Y) when the index Y (1 ≦ Y ≦ N) is fixed should be on the same plane and on one straight line, the straight line is approximated using the Hough transform.
Since this straight line passes through the road surface, it will be referred to as a plane passing straight line 802. As the straight line parameters of the plane passing straight line obtained by the Hough transformation, the length ρ of the perpendicular line drawn from the straight line to the Y axis and the inclination θ of the perpendicular line are used, and each plane passing straight line is expressed by the equation (3). be able to. ρ Y = X sin θ Y + Y sin θ Y (3) where ρ Y : Distance from Y axis to plane passing straight line θ Y : Angle formed by perpendicular line drawn from plane passing straight line and XY plane (subscript Y is each Indicates index Y)
【0005】各インデックスY毎に以上のようにして平
面通過直線を近似する。結果として道路面803は平面
通過直線群で近似できるようになり、特徴不足等の原因
で視差が獲得できないブロックでは、平面通過直線群か
ら道路面上の視差RS(X,Y)を推定により求めるこ
とができる。The plane passing straight line is approximated for each index Y as described above. As a result, the road surface 803 can be approximated by a plane passing straight line group, and in a block where parallax cannot be acquired due to insufficient features or the like, the parallax RS (X, Y) on the road surface is obtained from the plane passing straight line group by estimation. be able to.
【0006】次に、従来のステレオ画像計測を用いた物
流計測装置として、特願平8−113897号公報に記
載の「車両検出装置」について図9を用いて説明する。
光軸が平行となるように左右に配置される2台の撮像装
置CU1、CU2によって道路のステレオ画像を撮像
し、ステレオ画像のうち左画像を基準画像とする。Next, a "vehicle detection device" described in Japanese Patent Application No. 8-113897 will be described with reference to FIG. 9 as a physical distribution measurement device using conventional stereo image measurement.
A stereo image of the road is captured by the two imaging devices CU1 and CU2 arranged on the left and right so that the optical axes are parallel to each other, and the left image of the stereo images is used as the reference image.
【0007】対応付け部ST1では左画像を水平X方向
M、垂直Y方向Nの計M×N個のブロックBK(X,
Y)に分割し、各ブロック毎に右画像から類似した領域
を見つけ、視差S(X,Y)を獲得する。獲得した視差
S(X,Y){1≦X≦M、1≦Y≦N}を視差画像と
呼ぶことにする。ただし道路面等で画像として特徴の無
い領域は対応付けを行うことができないため、すべての
ブロックで視差が獲得できるわけではない。In the associating unit ST1, the left image is divided into a total of M × N blocks BK (X,
Y), find a similar region in the right image for each block, and obtain the parallax S (X, Y). The acquired parallax S (X, Y) {1 ≦ X ≦ M, 1 ≦ Y ≦ N} will be referred to as a parallax image. However, since a region having no feature as an image on the road surface or the like cannot be associated, parallax cannot be acquired in all blocks.
【0008】平面推定部ST2では、対応付け部ST1
から出力される各ブロック毎の視差を用いて、従来の技
術で説明したようにハフ変換を用いて3次元的に道路面
の位置を推定し、車両が存在しない状況での道路平面全
体の視差を獲得する。In the plane estimation unit ST2, the correspondence unit ST1
The position of the road surface is three-dimensionally estimated using the Hough transform as described in the related art using the parallax of each block output from the parallax, and the parallax of the entire road plane in the absence of a vehicle is calculated. To win.
【0009】座標変換部ST3では、図10に示すとお
り、撮像面を基準とした座標系co1における視差S
(X,Y)を、道路面を基準とした座標系co2におけ
る3次元データH(U,V)に変換する。道路面を基準
とした座標系co2は道路面上の位置を示す2つの次元
U、Vと、道路上の物体の高さを示す1つの次元Hから
なる。座標変換は3つのフェーズで行われ、以下におい
て各フェーズについて説明する。
1.フェーズ1(U方向の変換)
まず、U(X,Y)を算出する。路上高所に撮像装置を
設置した場合、撮像される画像は図11(a)のように
なる。これを水平方向に関して、データの配列間隔が実
際の道路面の一定間隔毎になるように変換する。具体的
な手法は画像を小レーン1101に分割し、各小レーン
1101が平行になるようにデータを再配置すること
で、まずU(X,Y)を決定する。以上の処理を模式的
に説明すれば、図11(a)のデータ配置を図11
(b)データ配置とする処理である。
2.フェーズ2(H方向の変換)
フェーズ2では獲得された視差S(X,Y)を用いて、
撮影された車両の道路面からの高さH(X,Y)を算出
する。道路面からの車両の高さH(X,Y)は、図12
に示すような撮像装置CU1、CU2と道路面1201
と検出する車両TRとの幾何学的関係において式(4)
を用いて算出できる。In the coordinate conversion unit ST3, as shown in FIG. 10, the parallax S in the coordinate system co1 with the image pickup surface as a reference.
(X, Y) is converted into three-dimensional data H (U, V) in the coordinate system co2 with the road surface as a reference. The coordinate system co2 based on the road surface is composed of two dimensions U and V indicating the position on the road surface and one dimension H indicating the height of the object on the road. The coordinate conversion is performed in three phases, and each phase will be described below. 1. Phase 1 (conversion in U direction) First, U (X, Y) is calculated. When the imaging device is installed at a high place on the road, the imaged image is as shown in FIG. This is converted in the horizontal direction so that the data array intervals are at regular intervals on the actual road surface. Specifically, the image is divided into small lanes 1101 and the data is rearranged so that the small lanes 1101 are parallel to each other, so that U (X, Y) is first determined. If the above process is schematically explained, the data arrangement of FIG.
(B) This is a process for allocating data. 2. Phase 2 (conversion in H direction) In Phase 2, using the parallax S (X, Y) acquired,
The height H (X, Y) of the photographed vehicle from the road surface is calculated. The height H (X, Y) of the vehicle from the road surface is shown in FIG.
Image pickup devices CU1 and CU2 and a road surface 1201 as shown in FIG.
(4) in the geometrical relationship with the vehicle TR to be detected
Can be calculated using
【0010】[0010]
【数1】
・・・(4)
ただし、zK (X,Y):撮像装置から車両までの距離
h:撮像装置の道路面からの高さ
zRK(X,Y):撮像装置から道路面までの距離
なお、先にも述べたが視差S(X,Y)は式(2)によ
って容易に距離zK (X,Y)に変換でき、撮像装置か
ら道路面までの距離zRK(X,Y)に関しても、同様に
して道路面の視差RS(X,Y)から算出できる。ま
た、高さH(X,Y)を算出することは、図11(b)
において、紙面の法線方向の値を求めることである。
3.フェーズ3(V方向の変換)
フェーズ3ではV(X,Y)を算出する。具体的にV
(X,Y)は、図12に示すような撮像装置CU1、C
U2と道路面1201と検出する車両TRとの幾何学的
関係において式(5)を用いて算出される。[Equation 1] (4) where z K (X, Y): distance from the image pickup device to the vehicle h: height of the image pickup device from the road surface z RK (X, Y): distance from the image pickup device to the road surface As described above, the parallax S (X, Y) can be easily converted into the distance z K (X, Y) by the equation (2), and the distance z RK (X, Y) from the image pickup device to the road surface can be obtained. In the same manner, the same can be calculated from the parallax RS (X, Y) of the road surface. In addition, the calculation of the height H (X, Y) is performed according to FIG.
In, the value in the normal direction of the paper is calculated. 3. Phase 3 (V-direction conversion) In phase 3, V (X, Y) is calculated. Specifically V
(X, Y) are image pickup devices CU1 and C as shown in FIG.
The geometrical relationship between U2, the road surface 1201 and the detected vehicle TR is calculated using equation (5).
【0011】[0011]
【数2】
・・・(5)
ただし、zK (X,Y):撮像装置から車両までの距離
h:撮像装置の道路面からの高さ
zRK(X,Y):撮像装置から道路面までの距離
θ :垂線と撮像装置の光軸がなす角
以上のように、3次元データは視差画像S(X,Y)を
H(U(X,Y),V(X,Y))に変換することで得
られる。[Equation 2] (5) where z K (X, Y): distance from the imaging device to the vehicle h: height of the imaging device from the road surface z RK (X, Y): distance from the imaging device to the road surface θ: Convert the parallax image S (X, Y) into H (U (X, Y), V (X, Y)) for the three-dimensional data as described above, which is the angle formed by the perpendicular and the optical axis of the imaging device. Can be obtained at.
【0012】図9に戻って、車線検出部ST5では、座
標変換によって得られた3次元データU,V,Hを、車
両の進行方向あるいはその逆方向に投影する。例えば図
8において、車両と道路の3次元データをU−H平面に
投影するということである。投影像から道路の車線位置
を検出するには、例えばU軸上で車両の高さHが閾値以
上となる位置を見付ければよい。なお、車線検出部では
ある一定以上の時間において安定して存在する車線位置
のみを出力することにより、車線変更等を行う車両等に
影響されずに車線位置を検出する。Returning to FIG. 9, the lane detector ST5 projects the three-dimensional data U, V, H obtained by the coordinate conversion in the traveling direction of the vehicle or the opposite direction. For example, in FIG. 8, the three-dimensional data of the vehicle and the road is projected on the UH plane. In order to detect the lane position of the road from the projected image, for example, a position where the height H of the vehicle is equal to or larger than a threshold value may be found on the U axis. Note that the lane detection unit outputs only the lane position that is stable over a certain period of time, thereby detecting the lane position without being affected by the vehicle or the like that changes the lane.
【0013】投影車両検出部ST6では、まず車線検出
部ST5で得られた車線位置を基に3次元データを車線
毎に分割し、各車線毎の3次元データを図8中のH−V
平面に投影する。例えば、図13の右車線上の空間RL
の3次元データをH−V平面に投影すれば、投影データ
PRのようになる。ただし投影像は誤差の影響により、
車両を真横から見たような形状にはなりにくい。次に車
両の検出は、投影データに対しV軸に沿ってウインドウ
WNを走査し、高さHが閾値以上の投影データの数がウ
ィンドウ内で閾値以上の数に達した場合に車両が存在す
ると判断し、投影データが立ち上がる位置(先頭位置あ
るいは後端位置)をもって車両の位置として検出する。In the projection vehicle detection unit ST6, first, the three-dimensional data is divided into lanes based on the lane position obtained by the lane detection unit ST5, and the three-dimensional data of each lane is taken as HV in FIG.
Project on a plane. For example, the space RL on the right lane in FIG.
If the three-dimensional data of is projected on the HV plane, it becomes projection data PR. However, the projected image is affected by the error,
It is unlikely that the vehicle will look like it is seen from the side. Next, the vehicle is detected by scanning the window WN along the V axis with respect to the projection data, and when the number of projection data whose height H is equal to or larger than the threshold value reaches the number equal to or larger than the threshold value within the window, the vehicle exists. The position where the projection data rises (the head position or the rear end position) is detected as the position of the vehicle.
【0014】車種判別部ST7では、図2に示すような
投影像から車両のV軸方向の長さや車両の高さHを計測
し、あらかじめ把握している各車種の諸元データと比較
することで、大型車、小型車、二輪車等を判別する。In the vehicle type discriminating section ST7, the length of the vehicle in the V-axis direction and the height H of the vehicle are measured from the projected image as shown in FIG. 2 and compared with the data of each vehicle type which is known in advance. Distinguish large vehicles, small vehicles, motorcycles, etc.
【0015】次に、従来の物流計測装置における停止物
体検出について、「違法駐車監視装置」(電気学会技術
報告 第512号 知的交通計測 96項)を例に説明
する。図14に示すように、あらかじめ路側帯部に設定
した計測領域1401内の計測サンプル点1402の輝
度データを3値化して車両の特徴点として抽出する。車
両が計測領域で停止している時間を計測することによ
り、駐車車両1403を検出する。検出アルゴリズムの
フローを図15に示し、各フェーズについて以下に順を
追って説明する。Next, detection of a stationary object in a conventional physical distribution measuring device will be described by taking an example of "illegal parking monitoring device" (Technical Report No. 512 of the Institute of Electrical Engineers of Japan, Intelligent Traffic Measurement Section 96). As shown in FIG. 14, the luminance data of the measurement sample points 1402 in the measurement area 1401 set in advance on the roadside band is ternarized and extracted as the characteristic points of the vehicle. The parked vehicle 1403 is detected by measuring the time when the vehicle is stopped in the measurement area. The flow of the detection algorithm is shown in FIG. 15, and each phase will be described below in order.
【0016】ステップ1501(計測領域の設定)
車両を計測する領域を設定し、道路面上で等間隔となる
ように輝度データの抽出用のポイント(上記計測サンプ
ル点1402)を決定する。
ステップ1502(3値化処理)
計測領域を路面1404の明るさ(輝度)を基準に、路
面より明るい領域と、路面より暗い領域と、路面とに分
類し、それぞれに1、−1、0の値を与え3値化する。
ステップ1503(車両の検出)
一定時間間隔で連続して3値化した画面を重ね合わせ
て、移動物体と停止物体に分別する。この停止物体の大
きさ等から停止車両と特定する。
ステップ1504(駐車の判定)
一定周期毎に検出される車両が、計測領域内での存在範
囲が時間とともに変動するかどうかを判定し、一定時間
以上静止している車両を「駐車」とする。Step 1501 (setting of measurement area) The area for measuring the vehicle is set, and the points for extracting the brightness data (the above measurement sample points 1402) are determined so as to be evenly spaced on the road surface. Step 1502 (Ternary processing) Based on the brightness (luminance) of the road surface 1404, the measurement area is classified into an area brighter than the road surface, an area darker than the road surface, and a road surface. Give a value and make it three-valued. Step 1503 (Detection of Vehicle) Continuously ternized screens are overlapped at a fixed time interval to classify them into a moving object and a stationary object. A stopped vehicle is identified based on the size of the stopped object. Step 1504 (determination of parking) It is determined whether or not the existence range of the vehicle detected in each constant cycle changes with time, and the vehicle that has been stationary for a certain time or more is set as "parking".
【0017】次に、従来の物流計測装置における占有率
の計測手法として、道路における占有率の計測手法につ
いて図16を参照して説明する。道路上方に超音波式車
両感知器1601を設置し、これは感知器の下に車両1
602が存在することを感知するものである。単位時間
当りに、感知器の下を通過する車両1602によって占
有される時間の割合を算出することで時間占有率が得ら
れる。例えば100秒間中70秒間車両が感知されれば
時間占有率70%となる。超音波式車両感知器を用いた
従来方式では、空間占有率(ある瞬間に道路の一定区間
に存在する車両によって占められる空間の割合)は計測
できない。Next, as an occupancy rate measuring method in the conventional physical distribution measuring apparatus, a road occupancy rate measuring method will be described with reference to FIG. An ultrasonic vehicle detector 1601 is installed above the road, and this is the vehicle 1 below the detector.
The presence of 602 is sensed. The time occupancy is obtained by calculating the percentage of time occupied by the vehicle 1602 passing under the sensor per unit time. For example, if a vehicle is detected for 70 seconds in 100 seconds, the time occupancy rate becomes 70%. In the conventional method using the ultrasonic type vehicle sensor, the space occupancy (the ratio of the space occupied by the vehicles existing in a certain section of the road at a certain moment) cannot be measured.
【0018】[0018]
【発明が解決しようとする課題】しかしながら、上記従
来の物流計測装置においては、移動中の物体を検出する
ことは比較的容易であるが、物体が停止し、かつ画像上
で物体同士が前後左右に重なって見えるような場合に、
各々の物体を分離して検出することは困難であった。ま
た、停止物体の検出は、画像の輝度情報を用いて行われ
ていたが、観測面に発生する影、光の反射による影響で
誤検出や検出漏れが発生することが考えられる。さら
に、道路の混雑度合いを判断する情報として空間占有率
があり、従来用いられてきた時間占有率に代わってより
高度な情報である空間占有率を計測する手法が求められ
ている。However, in the above-mentioned conventional physical distribution measuring device, although it is relatively easy to detect a moving object, the object is stopped and the objects are front, rear, left and right on the image. When it seems to overlap
It was difficult to detect each object separately. Further, although the stationary object is detected using the brightness information of the image, it is conceivable that erroneous detection or detection omission may occur due to the influence of the shadow generated on the observation surface and the reflection of light. Further, there is a space occupancy rate as information for judging the degree of congestion of roads, and there is a demand for a method of measuring the space occupancy rate, which is more advanced information, in place of the time occupancy rate used conventionally.
【0019】したがって、本発明の物流計測装置では、
停止してかつ重なって見える物体同士であっても、各々
を精度良く分離して検出できるようにすることを第1の
目的とする。また、本発明は、3次元情報を用いて駐車
車両、故障車両、事故車両等の停止物体をより精度良く
検出することを第2の目的とする。さらに、本発明で
は、従来の超音波式車両感知器では計測できなかった空
間占有率を計測することを第3の目的とする。Therefore, in the physical distribution measuring device of the present invention,
A first object of the present invention is to enable objects to be accurately separated and detected even when they are stopped and appear to overlap each other. A second object of the present invention is to detect a stopped object such as a parked vehicle, a broken vehicle, or an accident vehicle with higher accuracy using three-dimensional information. Further, the third object of the present invention is to measure the space occupancy rate, which cannot be measured by the conventional ultrasonic type vehicle sensor.
【0020】[0020]
【課題を解決するための手段】第1の目的を達成するた
めに、本発明では、車両同士が画像上で重なって見える
状態で停止していると判断できる場合、停止時に適した
車両検出方式に切り替えるようにしたものである。これ
により画像上で重なって見える物体車両でも分離して検
出することができる。In order to achieve the first object, according to the present invention, a vehicle detection method suitable for stopping when it can be determined that the vehicles are stopped in a state where they appear to overlap each other in an image. It is intended to switch to. As a result, even object vehicles that appear to overlap in the image can be detected separately.
【0021】第2の目的を達成するために、本発明で
は、物体の3次元情報である3次元データを積分処理す
ることにより影や光の反射等、外乱の影響を受けず安定
して停止物体の検出を行おうとするものである。これに
より、停止物体を精度良く検出することができる。In order to achieve the second object, according to the present invention, the three-dimensional data, which is the three-dimensional information of the object, is integrated to stably stop without being affected by disturbance such as shadow or light reflection. It is intended to detect an object. Thereby, the stationary object can be detected with high accuracy.
【0022】第3の目的を達成するために、本発明で
は、車両を含む道路環境をステレオ画像計測によって3
次元的に計測し、座標変換、投影処理を行うようにした
ものである。これにより空間占有率を計測することがで
きる。In order to achieve the third object, according to the present invention, the road environment including a vehicle is measured by stereo image measurement.
The measurement is performed dimensionally, and coordinate conversion and projection processing are performed. Thereby, the space occupancy rate can be measured.
【0023】[0023]
【発明の実施の形態】本発明の請求項1に記載の発明
は、観測面を撮影して複数の画像を得る複数台の撮像装
置と、複数の画像間で相関が高い領域を対応付けて視差
を獲得する対応付け部と、前記視差から前記観測面の位
置を3次元的に推定する平面推定部と、前記視差と前記
観測面の位置から3次元データを獲得する座標変換部
と、前記3次元データのフレーム間差分と空間占有率を
算出して物体が渋滞により停止したか否かを判断する停
止判断部と、前記3次元データと前記判断から物体の位
置を検出する適応型物体検出部とを備えた物流計測装置
であり、複数台の撮像装置と、対応付け部と、平面推定
部と、座標変換部とによって得られた3次元データを用
いて、停止判断部では3次元データのフレーム間差分と
空間占有率を算出して画像上で物体同士が重なって見え
る状態で停止しているか否かを判断する。適応型物体検
出部では、前記停止判断部が渋滞と判断した場合に、停
止時に適した物体検出方式に切り替え、前記3次元デー
タを積分して物体の位置を検出することで、結果として
重なって見える各停止物体を個々に分離して検出する精
度を向上する作用を有する。BEST MODE FOR CARRYING OUT THE INVENTION The invention according to claim 1 of the present invention associates a plurality of image pickup devices for obtaining a plurality of images by photographing an observation surface with a region having a high correlation between the plurality of images. a mapping unit for acquiring a parallax, and a plane estimating section for estimating the position of the observation surface three-dimensionally from the parallax, a coordinate transformation unit for acquiring 3-dimensional data from the position of the parallax between the observation surface, the The difference between three-dimensional data frames and the space occupancy
A stop determination section which calculates to an object, it is determined whether the stop by a traffic jam, a distribution measuring apparatus equipped with an adaptive object detecting unit that detects a position of an object from the determined to the three-dimensional data, a plurality Using the three-dimensional data obtained by the single imaging device, the associating unit, the plane estimation unit, and the coordinate conversion unit, the stop determination unit calculates the inter-frame difference of the three-dimensional data.
The space occupancy rate is calculated to determine whether or not the objects are stopped in a state where the objects appear to overlap each other on the image. When the stop determination unit determines that the traffic is congested , the adaptive object detection unit switches to an object detection method suitable for the stop , and the three-dimensional data is detected.
In Rukoto detecting the position of an object by integrating the data has the effect of improving the accuracy of separating and detecting each stop objects appear overlapped as a result individually.
【0024】[0024]
【0025】本発明の請求項2に記載の発明は、観測面
を道路面とし、物体を車両とすることを特徴とする請求
項1記載の物流計測装置であり、道路上の停止車両を正
確に計測する作用を有する。The invention according to claim 2 of the present invention is characterized in that the observation surface is a road surface and the object is a vehicle.
The physical distribution measuring device according to Item 1, which has an action of accurately measuring a stopped vehicle on a road.
【0026】[0026]
【0027】[0027]
【0028】本発明の請求項3に記載の発明は、観測面
を撮影して複数の画像を得る複数台の撮像装置と、複数
の画像間で相関が高い領域を対応付けて視差を獲得する
対応付け部と、前記視差から観測面の位置を3次元的に
推定する平面推定部と、前記視差と前記観測面の位置か
ら3次元データを獲得する座標変換部と、前記3次元デ
ータから特定空間内の空間占有率を計測する占有率計測
部とを備えた物流計測装置であり、複数台の撮像装置
と、対応付け部と、平面推定部と、座標変換部によって
得られた3次元データを用いて、占有率計測部は観測面
の投影データを作成し、且つ「空間占有率=計測領域内
の投影データ数/計測領域内の最大投影データ数」の演
算により前記空間占有率を計測することで、特定空間内
の空間占有率を計測する作用を有する。According to a third aspect of the present invention , the parallax is obtained by associating a plurality of image pickup devices for taking a plurality of images by photographing the observation surface with regions having a high correlation between the plurality of images. An associating unit, a plane estimation unit that three-dimensionally estimates the position of the observation plane from the parallax, a coordinate conversion unit that obtains three-dimensional data from the parallax and the position of the observation plane, and a specification from the three-dimensional data A three-dimensional data obtained by a physical distribution measuring device including an occupancy measuring unit that measures a space occupying ratio in a space, and a plurality of imaging devices, an associating unit, a plane estimating unit, and a coordinate converting unit. The occupancy measuring unit creates the projection data of the observation surface by using, and measures the space occupancy by calculating "space occupancy = number of projection data in measurement area / maximum number of projection data in measurement area". By measuring the space occupancy rate in a specific space It has the effect that.
【0029】本発明の請求項4に記載の発明は、観測面
を道路面とし、物体を車両とし、特定空間内の空間占有
率を各車内の空間占有率とすることを特徴とする請求項
3記載の物流計測装置であり、道路上における車両の空
間占有率を正確に計測する作用を有する。The invention according to claim 4 of the present invention is characterized in that the observation surface is a road surface, the object is a vehicle, and the space occupancy in a specific space is the space occupancy in each vehicle.
The physical distribution measuring device described in 3, which has an action of accurately measuring the space occupancy of the vehicle on the road.
【0030】以下、本発明の実施の形態について図面を
参照して説明する。
(実施の形態1)本発明の請求項1、2および3に対応
する実施の形態1について図1から図3を用いて説明す
る。撮像装置CU1,CU2と、対応付け部ST1、平
面推定部ST2、座標変換部ST3の動作については、
従来の技術の項説明したとおりである。以下の実施の形
態では、道路環境において各車両が重なって見える場合
の分離検出を例にして、請求項における観測面は道路面
に、物体は車両に置き換えて説明する。Embodiments of the present invention will be described below with reference to the drawings. (Embodiment 1) Embodiment 1 corresponding to claims 1, 2 and 3 of the present invention will be described with reference to FIGS. Regarding the operations of the imaging devices CU1 and CU2, the associating unit ST1, the plane estimating unit ST2, and the coordinate converting unit ST3,
This is as described in the section of the related art. In the following embodiments, separation detection in the case where vehicles appear to overlap in a road environment is taken as an example, and the observation surface in the claims is replaced with the road surface and the object is replaced with the vehicle.
【0031】停止判断部101では、まず座標変換部S
T3により得られる3次元データを用いて、従来の技術
の項でも説明した手法で各車線毎に投影データを作成す
る。次に、3次元データと投影データによって、各車線
毎にフレーム間における3次元データの差分量と空間占
有率を計算する。フレーム間における3次元データの差
分量とは、現在の時刻TNにおける3次元データから、
過去の時刻TPにおける3次元データを引き算し、絶対
値をとって車線内で合計したものである。具体的には下
記式(6)を用いて計算する。In the stop determination unit 101, first, the coordinate conversion unit S
Using the three-dimensional data obtained by T3, the projection data is created for each lane by the method described in the section of the related art. Next, the difference amount and the space occupancy rate of the three-dimensional data between the frames are calculated for each lane using the three-dimensional data and the projection data. The difference amount of the three-dimensional data between the frames is calculated from the three-dimensional data at the current time TN.
It is the one obtained by subtracting the three-dimensional data at the past time TP, taking the absolute value, and summing up in the lane. Specifically, the calculation is performed using the following formula (6).
【0032】[0032]
【数3】 ・・・(6) ただし、HTN(U,V):現在の3次元データ HTP(U,V):過去の3次元データ 集合Φn:車線n内のすべての(U,V)[Equation 3] (6) However, HTN (U, V): Current three-dimensional data HTP (U, V): Past three-dimensional data set Φn: All (U, V) in lane n
【0033】一般に車線内の車両が動いている場合は差
分量が大きく、車両が存在しない場合や停止している場
合は差分量が小さくなる。現在時刻TNと過去時刻TP
との時間的な間隔は特に限定せず、1フレーム間隔以上
とする。Generally, the difference amount is large when the vehicle in the lane is moving, and the difference amount is small when the vehicle does not exist or is stopped. Current time TN and past time TP
The time interval between and is not particularly limited and is 1 frame interval or more.
【0034】空間占有率とは道路上ある区間において、
区間内の車両の全長の和をその区間の総距離で除算した
ものである。空間占有率は一般的に下記式(7)で求め
られ、例えば画像中の計測領域40mの中に全長5mの
車両が2台存在する場合、空間占有率は25%となる。
空間占有率=区間内の車両の全長の和/区間内の総距離 ・・・(7)The space occupancy is a certain section on the road,
It is the sum of the total lengths of vehicles in a section divided by the total distance of the section. The space occupancy is generally obtained by the following equation (7). For example, when two vehicles having a total length of 5 m are present in the measurement area 40 m in the image, the space occupancy is 25%. Space occupancy = sum of the total length of vehicles in the section / total distance in the section (7)
【0035】また、上記式(7)を下記式(8)に近似
して計算することも可能であるので、本発明では下記式
(8)を用いて計算している。
空間占有率=計測領域内の投影データ数/計測領域内の最大投影データ数
・・・(8)
ただし、投影データ数とは図13において閾値以上の高
さHを持つ投影データPRの総数のことであり、最大投
影データ数とは計測範囲において取りうる投影データ数
の最大数である。通常、渋滞等である区間に車両が集中
した場合、空間占有率は高くなる。Since it is possible to calculate the above equation (7) by approximating it to the following equation (8), the following equation (8) is used in the present invention. Space occupancy rate = number of projection data in measurement area / maximum number of projection data in measurement area (8) However, the number of projection data is the total number of projection data PR having a height H equal to or higher than a threshold in FIG. The maximum number of projection data is the maximum number of projection data that can be taken in the measurement range. Normally, when vehicles are concentrated in a section such as a traffic jam, the space occupancy rate becomes high.
【0036】以上のように計算されるフレーム間の3次
元データ差分と、空間占有率を用いて、空間占有率が高
く、かつフレーム間3次元データ差分が十分に小さい
時、その車線を走行する車両は渋滞により車両間隔が短
い状態で停車していると判断する。Using the three-dimensional data difference between the frames calculated as described above and the space occupancy rate, when the space occupancy rate is high and the three-dimensional data difference between the frames is sufficiently small, the vehicle runs in the lane. It is determined that the vehicle is stopped due to traffic congestion and the vehicle interval is short.
【0037】適応型物体検出部102では、停止判断部
101において渋滞で車両が停車していると判断された
場合、車両検出方式を停車時に適した方式に切り替え、
それ以外の場合つまりスムースに車両が走行している場
合と区別して車両の検出を行う。それぞれの場合の車両
検出方法について以下に説明する。In the adaptive object detection unit 102, when the stop determination unit 101 determines that the vehicle is stopped due to congestion, the vehicle detection system is switched to a system suitable for the stop.
In other cases, that is, when the vehicle is traveling smoothly, the vehicle is detected separately. The vehicle detection method in each case will be described below.
【0038】まず、車両がスムースに走行している場合
の車両検出方法について図2を用いて説明する。各車線
毎の投影データPRに対してウインドウWNを走査し、
閾値α以上の高さを持つ投影データPRが一部分に集中
している場合その部分を車両であると判断し、その部分
の端を車両の先頭位置TPあるいは後端位置として検出
する。検出の具体的手法を以下に示す。ウィンドウWN
内にn個のセルがあるとし、各セル内の投影データ値を
CL(i){0≦i<n}と表記する。下記式(9)の
条件を満たす場合に、CL(2)の位置を車両の先頭位
置TPあるいは後端位置として検出する。
{CL(0)< α}かつ、{CL(1)< α}かつ、{CL(2)>α}かつ、
{3≦i<nにおいてα以上のCL(i)がm個以上} ・・・(9)First, a method for detecting a vehicle when the vehicle is running smoothly will be described with reference to FIG. Scan the window WN for the projection data PR for each lane,
When the projection data PR having a height equal to or higher than the threshold value α is concentrated on a part, it is determined that the part is a vehicle, and the end of the part is detected as the head position TP or the rear end position of the vehicle. The specific method of detection is shown below. Window WN
If there are n cells inside, the projection data value in each cell is expressed as CL (i) {0 ≦ i <n}. When the condition of the following expression (9) is satisfied, the position of CL (2) is detected as the head position TP or the rear end position of the vehicle. {CL (0) <α} and {CL (1) <α} and {CL (2)> α} and {m ≦ 3 CL (i) with α or more in 3 ≦ i <n}.・ ・ (9)
【0039】次に、車両が停止してる場合の検出方法に
ついて図3を用いて説明するが、基本的にはスムーズに
流れている場合と同じであり、積分処理した投影データ
を用いることのみ異なる。図3のように前後の車両の間
隔が小さい場合に、前後車両の投影データの間に閾値α
を越えるランダム誤差によるにせの投影データが発生し
た時、前後車両の投影データが連結して後続車の先頭位
置が特定できず検出漏れとなる。そこで投影データに対
し積分処理を行う。積分処理とは、車両が停止している
状態での過去数フレームの投影データを加算して、加算
したフレーム数で除算する処理のことである。つまり過
去数フレームの投影データを時間方向に平滑化して用い
る。積分処理した投影データに対しウインドウWNを走
査し、上記した手法で車両の先頭位置TPあるいは後端
位置を検出する。投影データに対して積分処理を行うこ
とでランダム誤差の影響を低減することができ、その結
果安定した渋滞時の車両検出が行える。Next, will be described with reference to FIG detection method when the vehicle is stopped, but the same as the case is basically flowing smoothly, integrating the processed projection data
Different only be used. When the distance between the front and rear vehicles is small as shown in FIG. 3, the threshold α is set between the projection data of the front and rear vehicles.
When the false projection data is generated due to the random error exceeding, the projection data of the preceding and following vehicles are connected and the leading position of the following vehicle cannot be specified, resulting in detection failure. Therefore, the integration process is performed on the projection data. The integration process is a process of adding projection data of the past several frames when the vehicle is stopped and dividing by the added number of frames. That is, the projection data of the past several frames are smoothed and used in the time direction. The window WN is scanned with respect to the projection data subjected to the integration processing, and the head position TP or the rear end position of the vehicle is detected by the above-mentioned method. By performing integration processing on the projection data, the influence of random errors can be reduced, and as a result, stable vehicle detection during traffic congestion can be performed.
【0040】以下、本発明の実施の形態1による物流計
測装置と従来の交通流計測装置の特性を(表1)を用い
て比較する。Hereinafter, the characteristics of the physical distribution measuring device according to the first embodiment of the present invention and the conventional traffic flow measuring device will be compared using (Table 1).
【0041】[0041]
【表1】
(表1)からも明らかなように、本発明の実施の形態1
による物流計測装置は、渋滞時における停止車両の検出
において良好な効果が得られる。なお、以上の説明では
道路の停車車両検出について説明したが、道路面は観測
面に、車両は物体に置き換え、停止物体の検出も行え
る。[Table 1] As is clear from Table 1, the first embodiment of the present invention
The physical distribution measuring device according to the above can obtain a good effect in detecting a stopped vehicle at the time of traffic jam. In the above description, the detection of the stopped vehicle on the road has been described, but the road surface may be replaced with the observation surface and the vehicle may be replaced with an object to detect a stopped object.
【0042】(実施の形態2)次に、本発明の請求項4
および5に対応する実施の形態2について説明する。図
4は本実施の形態2における停止物体を検出する物流計
測装置を示しており、撮像装置CU1,CU2と、対応
付け部ST1、平面推定部ST2、座標変換部ST3ま
での処理は、従来の技術の項と同様である。以下では道
路環境における駐車車両等の停車車両検出を例に、請求
項における観測面を道路面に、物体を車両に置き換えて
説明する。(Embodiment 2) Next, claim 4 of the present invention
Embodiment 2 corresponding to 5 and 5 will be described. FIG. 4 shows a physical distribution measuring device for detecting a stationary object according to the second embodiment, and the processes up to the image pickup devices CU1 and CU2, the associating unit ST1, the plane estimating unit ST2, and the coordinate converting unit ST3 are the same as those in the related art. Same as the technical section. In the following, the detection of a stopped vehicle such as a parked vehicle in a road environment will be described as an example by replacing the observation surface in the claims with the road surface and the object with the vehicle.
【0043】停止物体検出部402では、駐車車両、故
障車両、事故車両等、道路上の停車車両を検出する。停
車車両検出部では、まず3次元データH(U,V)を積
分処理する。積分処理は、計測範囲とする道路面上の3
次元データを一定時間積分して、積分したフレーム数で
除算する処理である。積分処理を行った3次元データを
3次元積分データと呼ぶことにする。以下、具体的な3
次元積分データの計算手法について説明する。順次得ら
れている3次元データを時刻TsからTe まで積分する
操作は道路上の各位置(U,V)毎に、下記式(10)
を用いて行われる。The stopped object detection unit 402 detects stopped vehicles on the road such as parked vehicles, broken vehicles, and accident vehicles. The stopped vehicle detection unit first integrates the three-dimensional data H (U, V). The integration process is 3 on the road surface that is the measurement range.
This is a process of integrating the dimensional data for a certain period of time and dividing by the number of integrated frames. The three-dimensional data that has been subjected to the integration process will be called three-dimensional integrated data. Below, concrete 3
A method of calculating the dimensional integral data will be described. The operation of integrating the sequentially obtained three-dimensional data from time Ts to Te is performed by the following formula (10) for each position (U, V) on the road.
Is performed using.
【0044】[0044]
【数4】 ただし、HS(U,V):積分処理された3次元データ Ht(U. V):時刻tの3次元データ Fn:時刻TsからTeまでのフレーム数・・・(10)[Equation 4] However, HS (U, V): three-dimensional data subjected to integration processing Ht (U.V): three-dimensional data at time t Fn: number of frames from time Ts to Te ... (10)
【0045】次に、3次元積分データを用いて停車車両
を検出する手法を説明する。図5に模式的に示すよう
に、3次元積分データでは、時刻T1から時刻Tnまで
積分処理を行ったとすると、その間駐車されていた車両
の領域が、そうでない領域に比較して高さ方向に大きく
なる。3次元積分データHS(U,V)中の高さが閾値
以上であり、かつ車両としてしかるべき形状と寸法をも
つ物体の領域を駐車車両の領域と判断することで、駐車
車両を検出することができる。Next, a method of detecting a stopped vehicle using three-dimensional integral data will be described. As schematically shown in FIG. 5, in the three-dimensional integration data, if the integration process is performed from time T1 to time Tn, the area of the vehicle parked during that time is higher in the height direction than the area that is not. growing. Detecting a parked vehicle by determining an area of an object having a height in the three-dimensional integration data HS (U, V) that is equal to or greater than a threshold value and having an appropriate shape and size as a vehicle to be an area of the parked vehicle. You can
【0046】以上の説明においては、3次元データを積
分処理するとしたが、各車線の投影データを算出し投影
データを積分処理したり、下式のようなH(X,Y)が
閾値β以上であるときに1、γ以下の時に0とするよう
な関数R(X,Y){R(X,Y)=0or1}を積分処
理する方法でも良い。
if(H(U,V)> γ)R(U,V)= 1
else R(U,V)= 0 ・・・(11)
また、以上の説明では道路の停車車両検出について説明
したが、道路面は観測面に、車両は物体に置き換え、停
止物体の検出も行える。In the above description, it is assumed that the three-dimensional data is integrated, but the projection data of each lane is calculated and the projection data is integrated, or H (X, Y) in the following equation is equal to or larger than the threshold β. Alternatively, a method of integrating the function R (X, Y) {R (X, Y) = 0 or 1} such that 1 is set to 0 and 0 is set to γ or less may be used. if (H (U, V)> γ) R (U, V) = 1 else R (U, V) = 0 (11) In the above description, detection of a stopped vehicle on the road has been described. The road surface can be replaced with an observation surface, the vehicle can be replaced with an object, and a stationary object can be detected.
【0047】(実施の形態3)次に、本発明の請求項6
および7に対応する実施の形態3について説明する。図
6は本実施の形態3における空間占有率を計測する物流
計測装置を示しており、対応付け部ST1、平面推定部
ST2、座標変換部ST3までは実施の形態1、実施の
形態2と同様である。占有率計測部601では空間占有
率が計測される。まず、座標変換部ST3で得られた3
次元データから、各車線の投影データを作成する。3次
元データから投影データを作成する手法は前記したもの
と同様である。投影データから空間占有率を計算するに
は式(8)を用いる。(Third Embodiment) Next, a sixth aspect of the present invention will be described.
A third embodiment corresponding to Nos. 7 and 7 will be described. FIG. 6 shows a physical distribution measuring apparatus for measuring the space occupancy rate in the third embodiment, and the correspondence unit ST1, the plane estimating unit ST2, and the coordinate converting unit ST3 are the same as in the first and second embodiments. Is. The occupancy rate measuring unit 601 measures the space occupancy rate. First, the 3 obtained in the coordinate conversion unit ST3
The projection data of each lane is created from the dimension data. The method of creating projection data from three-dimensional data is the same as that described above. Equation (8) is used to calculate the space occupancy from the projection data.
【0048】以上により各車線毎に空間占有率が把握で
きる。なお以上の実施の形態では、道路環境における各
車線毎の空間占有率計測手法について説明したが、車線
を特定空間に置き換えることも可能である。From the above, the space occupancy rate can be grasped for each lane. In the above embodiments, the space occupancy ratio measuring method for each lane in the road environment has been described, but the lane may be replaced with the specific space.
【0049】[0049]
【発明の効果】本発明は、上記実施の形態1から明らか
なように、停止判断部を持ち物体が停止したことを検知
し、物体検出方式を停止時に適した方式に切り替えるこ
とで、車両同士の重なりが多く発生する停止時にも精度
良く車両を検出することができる。As is apparent from the first embodiment, the present invention detects that an object has stopped with a stop determination unit, and switches the object detection method to a method suitable for stopping the vehicles. It is possible to accurately detect the vehicle even when the vehicle is stopped due to a large number of overlapping points.
【0050】本発明は、上記実施の形態2から明らかな
ように、影やヘッドライトのなど輝度の変化に影響を受
けない3次元データを積分処理することで、外乱等の多
い屋外環境下であっても駐車車両、故障車両、事故車両
など停車物体を精度良く検出することができる。As is apparent from the second embodiment, the present invention integrates three-dimensional data such as shadows and headlights that are not affected by changes in brightness, so that it can be used in an outdoor environment with many disturbances. Even if there is, a stopped object such as a parked vehicle, a broken vehicle, or an accident vehicle can be accurately detected.
【0051】本発明は、上記実施の形態3から明らかな
ように、車両を含む道路の立体的な形状を計測すること
で交通管制において交通状況の把握の為のデータとして
有用である空間占有率を、画像処理によって計測するこ
とができる。As is clear from the third embodiment, the present invention measures the three-dimensional shape of the road including the vehicle and is useful as data for grasping the traffic situation in traffic control. Can be measured by image processing.
【図1】本発明の実施の形態1における交通流計測装置
の構成を示すブロック図FIG. 1 is a block diagram showing a configuration of a traffic flow measuring device according to a first embodiment of the present invention.
【図2】本発明の実施の形態1における車両の検出を説
明する模式図FIG. 2 is a schematic diagram illustrating vehicle detection according to the first embodiment of the present invention.
【図3】本発明の実施の形態1における車両の検出を説
明する模式図FIG. 3 is a schematic diagram illustrating vehicle detection according to the first embodiment of the present invention.
【図4】本発明の実施の形態2における停止物体検出部
を持つ交通流計測装置の構成を示すブロック図FIG. 4 is a block diagram showing a configuration of a traffic flow measuring device having a stationary object detection unit according to a second embodiment of the present invention.
【図5】本発明の実施の形態2における停止車両の検出
の原理を説明する模式図FIG. 5 is a schematic diagram illustrating a principle of detecting a stopped vehicle according to the second embodiment of the present invention.
【図6】本発明の実施の形態3における占有率計測部を
持つ交通流計測装置の構成を示すブロック図FIG. 6 is a block diagram showing a configuration of a traffic flow measuring device having an occupancy rate measuring unit according to a third embodiment of the present invention.
【図7】従来の技術におけるステレオ画像計測の原理を
示す模式図FIG. 7 is a schematic diagram showing the principle of stereo image measurement in a conventional technique.
【図8】従来の技術における平面推定方式についての模
式図FIG. 8 is a schematic diagram of a plane estimation method in a conventional technique.
【図9】従来の技術における交通流計測装置の構成を示
すブロック図FIG. 9 is a block diagram showing a configuration of a traffic flow measuring device according to a conventional technique.
【図10】従来の技術における座標変換を説明する模式
図FIG. 10 is a schematic diagram illustrating coordinate conversion in a conventional technique.
【図11】従来の技術における座標変換を説明する模式
図FIG. 11 is a schematic diagram illustrating coordinate conversion in a conventional technique.
【図12】従来の技術における撮像装置、道路面、車両
の幾何学的関係を示す模式図FIG. 12 is a schematic diagram showing a geometrical relationship among an image pickup device, a road surface, and a vehicle in a conventional technique.
【図13】従来の技術における3次元データと投影デー
タの関係を示す模式図FIG. 13 is a schematic diagram showing the relationship between three-dimensional data and projection data in the conventional technique.
【図14】従来の技術における駐車車両検出を説明する
模式図FIG. 14 is a schematic diagram illustrating detection of a parked vehicle in the related art.
【図15】従来の技術における駐車車両検出の処理の流
れを示すフロー図FIG. 15 is a flowchart showing a flow of processing for detecting a parked vehicle in the related art.
【図16】従来の技術における占有率計測を説明する模
式図FIG. 16 is a schematic diagram illustrating occupancy rate measurement in the conventional technique.
CU1、CU2 撮像装置 ST1 対応付け部 ST2 平面推定部 ST3 座標変換部 101 停止判断部 102 適応型車両検出部 401 停車車両検出部 HS 積分した3次元データ 601 占有率計測部 701 撮像面(左画像) 702 撮像面(右画像) B 基線長(カメラ間隔) f 焦点距離 P 物体 801 画像面 802 平面通過直線 803 道路平面 BK ブロック ST5 車線検出部 ST6 投影車両検出部 ST7 車種判断部 co1 撮像面を基準とした座標系 co2 道路面を基準とした座標系 1101 小レーン RK 撮像装置から道路面までの距離 RS 道路面の視差 K 撮像装置から車両までの距離 TR 車両 1201 道路面 RL 右車線上の空間 PR 投影データ WN ウィンドウ 1401 計測領域 1402 輝度サンプル点 1403 駐車車両 1404 路面 1601 超音波式車両感知器 1602 車両 TP 車両の先頭位置 CU1, CU2 imaging device ST1 associating unit ST2 Plane estimation unit ST3 Coordinate conversion unit 101 Stop judgment unit 102 Adaptive vehicle detector 401 Stopped vehicle detection unit HS integrated 3D data 601 Occupancy rate measurement unit 701 Imaging surface (left image) 702 Imaging surface (right image) B Baseline length (camera interval) f Focal length P object 801 Image side 802 plane passing straight line 803 road plane BK block ST5 Lane detection unit ST6 Projection vehicle detector ST7 Vehicle type determination section co1 Coordinate system based on the imaging surface co2 Coordinate system based on the road surface 1101 small lane Distance from RK imager to road surface RS Road surface parallax K Distance from imaging device to vehicle TR vehicle 1201 road surface RL Space on the right lane PR projection data WN window 1401 measurement area 1402 luminance sample points 1403 Parking vehicle 1404 Road surface 1601 Ultrasonic vehicle detector 1602 vehicle TP vehicle start position
───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G06T 1/00 330 G01B 11/00 G01C 3/06 G08G 1/04 G09B 29/10 ─────────────────────────────────────────────────── ─── Continued Front Page (58) Fields surveyed (Int.Cl. 7 , DB name) G06T 1/00 330 G01B 11/00 G01C 3/06 G08G 1/04 G09B 29/10
Claims (4)
台の撮像装置と、複数の画像間で相関が高い領域を対応
付けて視差を獲得する対応付け部と、前記視差から前記
観測面の位置を3次元的に推定する平面推定部と、前記
視差と前記観測面の位置から3次元データを獲得する座
標変換部と、前記3次元データのフレーム間差分と空間
占有率を算出して物体が渋滞により停止したか否かを判
断する停止判断部と、前記3次元データと前記判断から
の物体の位置を検出する適応型物体検出部とを備え、前
記適応型物体検出部は前記停止判断部が渋滞と判断した
場合に前記3次元データを積分して物体の位置を検出す
ることを特徴とする物流計測装置。1. A plurality of imaging devices that capture a plurality of images by imaging an observation surface, an associating unit that obtains parallax by associating regions having a high correlation between the plurality of images, and the observation from the parallax. A plane estimation unit that three-dimensionally estimates the position of a plane, a coordinate conversion unit that obtains three-dimensional data from the parallax and the position of the observation plane, an inter-frame difference of the three-dimensional data, and a space occupancy rate are calculated. A stop determination unit that determines whether or not the object has stopped due to congestion, and an adaptive object detection unit that detects the position of the object from the three-dimensional data and the determination, and the adaptive object detection unit is the A physical distribution measuring device characterized by integrating the three-dimensional data and detecting the position of an object when the stop determination unit determines that the traffic is congested.
ことを特徴とする請求項1記載の物流計測装置。2. The physical distribution measuring device according to claim 1, wherein the observation surface is a road surface and the object is a vehicle.
台の撮像装置と、複数の画像間で相関が高い領域を対応
付けて視差を獲得する対応付け部と、前記視差から観測
面の位置を3次元的に推定する平面推定部と、前記視差
と前記観測面の位置から3次元データを獲得する座標変
換部と、前記3次元データから特定空間内の空間占有率
を計測する占有率計測部とを備え、前記占有率計測部
は、前記座標変換部で得られた前記3次元データから、
観測面の投影データを作成し、 空間占有率=計測領域内の投影データ数/計測領域内の最大投影データ数 の演算により特定空間内の空間占有率を計測することを
特徴とする物流計測装置。 3. A plurality of image pickup devices for capturing a plurality of images by photographing an observation plane, an associating unit for obtaining a parallax by associating regions having a high correlation between the plurality of images, and an observation plane from the parallax. Plane estimation unit that three-dimensionally estimates the position, a coordinate conversion unit that obtains three-dimensional data from the parallax and the position of the observation plane, and an occupancy that measures a space occupancy rate in a specific space from the three-dimensional data. A ratio measuring unit, wherein the occupation ratio measuring unit uses the three-dimensional data obtained by the coordinate conversion unit,
A physical distribution measuring device characterized in that projection data of an observation surface is created, and space occupancy in a specific space is measured by calculating space occupancy = number of projection data in measurement area / maximum number of projection data in measurement area. .
特定空間内の空間占有率を各車内の空間占有率とするこ
とを特徴とする請求項3記載の物流計測装置。 4. An observation surface is a road surface and an object is a vehicle,
The physical distribution measuring device according to claim 3 , wherein the space occupancy rate in the specific space is set as a space occupancy rate in each vehicle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP34025596A JP3384526B2 (en) | 1996-12-19 | 1996-12-19 | Logistics measurement equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP34025596A JP3384526B2 (en) | 1996-12-19 | 1996-12-19 | Logistics measurement equipment |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH10187975A JPH10187975A (en) | 1998-07-21 |
JP3384526B2 true JP3384526B2 (en) | 2003-03-10 |
Family
ID=18335192
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP34025596A Expired - Fee Related JP3384526B2 (en) | 1996-12-19 | 1996-12-19 | Logistics measurement equipment |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3384526B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4100823B2 (en) * | 1999-05-27 | 2008-06-11 | 本田技研工業株式会社 | Object judgment device |
JP4150218B2 (en) * | 2002-06-25 | 2008-09-17 | 富士重工業株式会社 | Terrain recognition device and terrain recognition method |
JP5811975B2 (en) * | 2012-09-14 | 2015-11-11 | 沖電気工業株式会社 | Information processing apparatus, information processing method, and program |
CN104251684B (en) * | 2014-10-22 | 2017-01-25 | 湖州科尼物流设备有限公司 | Cargo width detector |
-
1996
- 1996-12-19 JP JP34025596A patent/JP3384526B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH10187975A (en) | 1998-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6813370B1 (en) | Lane marker recognizing apparatus | |
US7899211B2 (en) | Object detecting system and object detecting method | |
KR101411668B1 (en) | A calibration apparatus, a distance measurement system, a calibration method, and a computer readable medium recording a calibration program | |
JP4714104B2 (en) | Object tilt detection device | |
JP3727400B2 (en) | Crossing detection device | |
JP3710548B2 (en) | Vehicle detection device | |
JP2008219063A (en) | Apparatus and method for monitoring vehicle's surrounding | |
CN108645375B (en) | Rapid vehicle distance measurement optimization method for vehicle-mounted binocular system | |
JP4032843B2 (en) | Monitoring system and monitoring method, distance correction device and distance correction method in the monitoring system | |
CN105512641B (en) | A method of dynamic pedestrian and vehicle under calibration sleet state in video | |
JP4067340B2 (en) | Object recognition device and object recognition method | |
JP2008309519A (en) | Object detection device using image processing | |
JP4956099B2 (en) | Wall detector | |
JPH11257931A (en) | Object recognizing device | |
KR20120065558A (en) | Detection method vehicle in road using region of interest | |
JP3384526B2 (en) | Logistics measurement equipment | |
KR100631082B1 (en) | Method for acquiring three-dimensional image information using single camera and video traffic monitoring method using the same | |
JP5891802B2 (en) | Vehicle position calculation device | |
JP5903901B2 (en) | Vehicle position calculation device | |
JP4106163B2 (en) | Obstacle detection apparatus and method | |
JP2001116545A (en) | Distance image calculator | |
JP2006010652A (en) | Object-detecting device | |
JPH0979821A (en) | Obstacle recognizing device | |
JP3507857B2 (en) | Traffic flow detector | |
WO2024150471A1 (en) | Image processing device and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071227 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081227 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091227 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091227 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101227 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101227 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111227 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |