KR101537559B1 - Device for detecting object, device for detecting object for vehicle and method thereof - Google Patents
Device for detecting object, device for detecting object for vehicle and method thereof Download PDFInfo
- Publication number
- KR101537559B1 KR101537559B1 KR1020130166368A KR20130166368A KR101537559B1 KR 101537559 B1 KR101537559 B1 KR 101537559B1 KR 1020130166368 A KR1020130166368 A KR 1020130166368A KR 20130166368 A KR20130166368 A KR 20130166368A KR 101537559 B1 KR101537559 B1 KR 101537559B1
- Authority
- KR
- South Korea
- Prior art keywords
- frame
- movement amount
- background
- current frame
- calculating
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000003287 optical effect Effects 0.000 claims abstract description 34
- 238000001514 detection method Methods 0.000 claims abstract description 30
- 239000000284 extract Substances 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims 1
- 238000000926 separation method Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 10
- 239000013598 vector Substances 0.000 description 10
- 238000000605 extraction Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/94—Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
객체 검출 방법이 개시된다. 이 방법은 옵티컬 플로우 방식을 이용하여 모든 화소들에 대한 이전 프레임과 현재 프레임 사이에서의 평균 이동량를 계산하는 과정과 계산된 평균 이동량만큼 상기 이전 프레임의 배경 프레임의 배경 이동량을 보상하여, 배경 이동량이 보상된 상기 배경 프레임을 상기 현재 프레임의 배경 프레임으로 구성하는 과정과, 상기 옵티컬 플로우 방식을 이용하여 상기 현재 프레임과 상기 구성된 배경 프레임 간의 각 화소들의 이동량을 계산하는 과정 및 기 설정된 임계치 이상의 이동량에 해당하는 각 화소들의 좌표값을 계산하여, 검출된 좌표값을 상기 현재 프레임 내의 객체 영역으로 검출하는 과정을 포함한다. An object detection method is disclosed. The method includes calculating an average movement amount between a previous frame and a current frame for all the pixels using the optical flow method and compensating a background movement amount of the background frame of the previous frame by a calculated average movement amount, Calculating a movement amount of each pixel between the current frame and the configured background frame by using the optical flow method; calculating a movement amount of each pixel between the current frame and the configured background frame by using the optical flow method; Calculating coordinates of each pixel, and detecting the detected coordinate value as an object region in the current frame.
Description
본 발명은 객체 검출 장치, 차량용 객체 검출 장치 및 이들의 방법에 관한 것으로서, 보다 상세하게는 카메라와 같은 영상 획득 수단이 이동하는 환경에서 획득된 영상 내의 배경으로부터 객체를 검출하는 객체 검출 장치 및 이의 방법에 관한 것이다.
The present invention relates to an object detecting apparatus, a vehicle object detecting apparatus and a method thereof, and more particularly, to an object detecting apparatus and method for detecting an object from a background in an image acquired in an environment in which an image acquiring means such as a camera moves .
일반적으로 영상 정보만을 이용하여 움직이는 물체 또는 사람과 같은 객체를 검출하는 방법에는 옵티컬 플로우(optical flow) 기술과 배경 분리(background subtraction) 기술이 대표적이다.In general, optical flow technique and background subtraction technique are typical methods for detecting an object such as a moving object or a person using only image information.
옵티컬 플로우 기술은 두 영상 프레임 사이에서 각 화소들이 움직인 방향과 거리 벡터를 계산하여 비슷한 형질을 가지는 벡터들을 군집하는 방법으로 객체를 검출하는 방식이다.The optical flow technique is a method of detecting the object by grouping vectors having similar characteristics by calculating the direction and distance vector of each pixel between two image frames.
배경 분리 방법은 영상 프레임을 순차적으로 입력받아서, 프레임 단위로 각 영상 프레임의 화소값 정보를 누적하여 배경 프레임을 만들고 움직이는 물체 부분을 현재 프레임과 배경 프레임의 차이가 큰 부분으로 정의하여, 이러한 차이에 기초해 객체를 검출하는 방식이다.In the background separation method, the image frame is sequentially received, the pixel value information of each image frame is accumulated on a frame basis, a background frame is created, and a moving object part is defined as a part having a large difference between the current frame and the background frame. It is a method to detect an object based on
그러나, 상기와 같은 종래의 기술들은 모두 한 장소에 고정 설치된 카메라, 예를 들어 CCTV에서 수집된 영상에 대해서만 움직이는 객체를 오류 없이 찾아낼 수 있으며, 카메라가 움직임으로써 배경도 함께 움직이는 일반적인 영상에 대해서는 벡터들을 군집하지 못하거나 화소값의 차이로 인해 배경 프레임을 누적하지 못하고 객체를 정확히 찾을 수 없는 문제점이 있다.
However, all of the above-described conventional techniques can find an object moving only on a camera installed in a place, for example, a CCTV, without errors, and for a general image in which a background moves as a camera moves, The background frame can not be accumulated due to the difference of the pixel values, and the object can not be accurately searched.
따라서, 본 발명의 목적은 카메라와 같은 영상 획득 수단이 이동하는 환경에서 획득된 영상에서 객체를 오류 없이 검출하는 객체 검출 장치, 차량용 객체 검출 장치 및 이의 방법을 제공하는 데 있다.
Accordingly, it is an object of the present invention to provide an object detection apparatus, an object detection apparatus for a vehicle, and a method thereof, which detect an object without error in an image acquired in an environment in which an image acquisition means such as a camera moves.
상기와 같은 목적을 달성하기 위한 본 발명의 일면에 따른 객체 검출 방법은, 옵티컬 플로우 방식을 이용하여 이전 프레임과 현재 프레임 간의 각 화소들의 평균 이동량를 계산하는 과정과, 계산된 평균 이동량만큼 상기 이전 프레임의 배경 프레임의 배경 이동량을 보상하여, 배경 이동량이 보상된 상기 배경 프레임을 상기 현재 프레임의 배경 프레임으로 구성하는 과정과, 상기 옵티컬 플로우 방식을 이용하여 상기 현재 프레임과 상기 구성된 배경 프레임 간의 각 화소들의 이동량을 계산하는 과정 및 기 설정된 임계치 이상의 이동량에 해당하는 각 화소들의 좌표값을 계산하여, 검출된 좌표값을 상기 현재 프레임 내의 객체 영역으로 검출하는 과정을 포함한다.According to another aspect of the present invention, there is provided an object detecting method comprising: calculating an average moving amount of each pixel between a previous frame and a current frame using an optical flow method; The method comprising the steps of: constructing the background frame compensated for background movement amount as a background frame of the current frame by compensating a background movement amount of the background frame; calculating a movement amount of each pixel between the current frame and the configured background frame Calculating a coordinate value of each pixel corresponding to a movement amount exceeding a preset threshold value, and detecting the detected coordinate value as an object region in the current frame.
본 발명의 다른 일면에 따른 객체 검출 장치는, 이동 환경에서 주변 상황을 촬영하여 이전 프레임과 현재 프레임을 순차적으로 출력하는 영상 획득부와, 옵티컬 플로우 방식을 이용하여 이전 프레임과 현재 프레임 간의 각 화소들의 평균 이동량를 계산하고, 계산된 평균 이동량만큼 상기 이전 프레임의 배경 프레임의 배경 이동량을 보상하여, 배경 이동량이 보상된 상기 배경 프레임을 상기 현재 프레임의 배경 프레임으로 추출하는 배경 추출부 및 상기 옵티컬 플로우 방식을 이용하여 상기 현재 프레임과 상기 보상된 배경 프레임 간의 각 화소들의 이동량을 계산하고, 기 설정된 임계치 이상의 이동량에 해당하는 각 화소들의 좌표값을 계산하여, 검출된 좌표값을 상기 현재 프레임 내의 객체 영역으로 검출하는 객체 검출부를 포함한다.According to another aspect of the present invention, there is provided an apparatus for detecting an object, comprising: an image acquisition unit that captures a surrounding situation in a mobile environment and sequentially outputs a previous frame and a current frame; A background extracting unit for calculating an average movement amount, compensating a background movement amount of the background frame of the previous frame by the calculated average movement amount, and extracting the background frame compensated for the background movement amount as a background frame of the current frame; Calculates a movement amount of each pixel between the current frame and the compensated background frame, calculates a coordinate value of each pixel corresponding to a movement amount exceeding a preset threshold value, detects the detected coordinate value as an object area in the current frame And an object detection unit.
본 발명의 또 다른 일면에 따른 차량용 객체 검출 장치에 있어서, 상기 차량 주행 중에 상기 차량의 주변 상황을 촬영하여 이전 프레임과 현재 프레임을 순차적으로 출력하는 영상 획득부와, 옵티컬 플로우 방식을 이용하여 이전 프레임과 현재 프레임 간의 각 화소들의 평균 이동량를 계산하고, 계산된 평균 이동량만큼 상기 이전 프레임의 배경 프레임의 배경 이동량을 보상하여, 배경 이동량이 보상된 상기 배경 프레임을 상기 현재 프레임의 배경 프레임으로 추출하는 배경 추출부 및 상기 옵티컬 플로우 방식을 이용하여 상기 현재 프레임과 상기 보상된 배경 프레임 간의 각 화소들의 이동량을 계산하고, 상기 차량 내의 전자 제어 유닛으로부터 제공되는 차량의 주행 속도값에 따라 임계치를 결정하고, 결정된 상기 임계치 이상의 이동량에 해당하는 각 화소들의 좌표값을 계산하여, 검출된 좌표값을 상기 현재 프레임 내의 객체 영역으로 검출하는 객체 검출부를 포함한다.In the vehicle object detecting apparatus according to another aspect of the present invention, there is provided an apparatus for detecting an object for a vehicle, the apparatus comprising: an image acquiring unit for photographing a circumstance of the vehicle during driving of the vehicle and successively outputting a previous frame and a current frame; And a background extracting unit for calculating a background movement amount of the background frame of the previous frame by the calculated average movement amount and extracting the background frame compensated for the background movement amount as a background frame of the current frame, Calculating an amount of movement of each pixel between the current frame and the compensated background frame using the optical flow method, determining a threshold value according to a running speed value of the vehicle provided from an electronic control unit in the vehicle, Corresponding to the movement amount exceeding the threshold value And an object detection unit for calculating coordinate values of the respective pixels and detecting the detected coordinate values as the object region in the current frame.
본 발명의 또 다른 일면에 따른 차량용 객체 검출 장치를 이용한 객체 검출 방법에 있어서, 상기 차량 주행 중에 상기 차량의 주변 상황을 촬영하여 이전 프레임과 현재 프레임을 순차적으로 출력하는 과정과, 옵티컬 플로우 방식을 이용하여 이전 프레임과 현재 프레임 간의 각 화소들의 평균 이동량를 계산하고, 계산된 평균 이동량만큼 상기 이전 프레임의 배경 프레임의 배경 이동량을 보상하여, 배경 이동량이 보상된 상기 배경 프레임을 상기 현재 프레임의 배경 프레임으로 추출하는 과정 및 상기 옵티컬 플로우 방식을 이용하여 상기 현재 프레임과 상기 보상된 배경 프레임 간의 각 화소들의 이동량을 계산하고, 상기 차량 내의 전자 제어 유닛으로부터 제공되는 차량의 주행 속도값에 따라 임계치를 결정하고, 결정된 상기 임계치 이상의 이동량에 해당하는 각 화소들의 좌표값을 계산하여, 검출된 좌표값을 상기 현재 프레임 내의 객체 영역으로 검출하는 과정을 포함한다.
A method of detecting an object using a vehicle object detecting apparatus according to another aspect of the present invention, the method comprising: capturing a surrounding situation of the vehicle during driving of the vehicle, sequentially outputting a previous frame and a current frame; Calculates the average movement amount of each pixel between the previous frame and the current frame, compensates the background movement amount of the background frame of the previous frame by the calculated average movement amount, extracts the background frame with the background movement amount compensated as the background frame of the current frame Calculating a movement amount of each pixel between the current frame and the compensated background frame using the optical flow method, determining a threshold value according to a running speed value of the vehicle provided from an electronic control unit in the vehicle, The movement amount exceeding the threshold value By calculating the coordinate values of the respective pixels, the coordinate values of the detected current includes the step of detecting the object region in the frame.
본 발명에 의하면, 이동하는 카메라에서 획득한 영상에서 배경의 이동량을 계산하고, 계산된 이동량만큼 영상을 보정하여 카메라의 이동에 따른 배경 오차를 보상하여 배경을 추출함으로써, 카메라가 이동하는 환경에서 배경의 움직임이 그대로 반영한 상태로 객체를 추출함에 따른 객체 검출 오차를 줄일 수 있다. 또한 옵티컬 플로우와 배경 분리 방법을 결합함으로써, 움직이는 객체 검출의 정확도를 효율적으로 높일 수 있다.
According to the present invention, the amount of movement of the background is calculated from the image acquired by the moving camera, the image is corrected by the calculated amount of movement, and the background is extracted by compensating the background error due to the movement of the camera. The object detection error due to the extraction of the object in a state in which the motion of the object is reflected as it is can be reduced. In addition, by combining optical flow and background separation methods, the accuracy of moving object detection can be efficiently increased.
도 1은 본 발명의 일 실시 예에 따른 객체 검출 장치의 내부 구성을 개략적으로 보여주는 블록도이다.
도 2는 도 1에 도시된 배경 추출부의 구성을 보여주는 블록도이다.
도 3은 도 1에 도시된 객체 검출부의 구성을 보여주는 블록도이다.
도 4는 도 1에 도시된 객체 검출부의 다른 실시 예를 보여주는 블록도이다.
도 5는 도 1에 도시된 객체 검출부의 또 다른 실시 예를 보여주는 블록도이다.
도 6은 본 발명의 일 실시 예에 따른 객체 검출 방법을 보여주는 순서도이다.1 is a block diagram schematically illustrating an internal configuration of an object detecting apparatus according to an embodiment of the present invention.
FIG. 2 is a block diagram showing the configuration of the background extracting unit shown in FIG. 1. FIG.
3 is a block diagram showing the configuration of the object detection unit shown in FIG.
4 is a block diagram showing another embodiment of the object detection unit shown in FIG.
FIG. 5 is a block diagram showing another embodiment of the object detection unit shown in FIG. 1. FIG.
6 is a flowchart illustrating an object detection method according to an embodiment of the present invention.
본 발명은 움직이는 카메라에서 촬영한 영상에서 배경의 이동량을 계산하고,The present invention calculates a background movement amount in an image captured by a moving camera,
이동량만큼 영상을 움직여 카메라의 움직임을 보상한 배경을 추출함으로써, 배경의 움직임이 그대로 반영되는 종래 기술과는 달리, 움직임이 보상된 배경과 입력 영상을 이용하여 움직이는 객체를 검출하는 방법을 제공한다. 또한 옵티컬 플로우와 배경 분리 방법을 결합하여 움직이는 객체 검출의 정확도를 높이는 방법을 제공한다. 이렇게 함으로써, 카메라의 시점이 이동 중에도 배경의 움직임을 보상하면서 움직이는 객체를 검출 할 수 있으므로, 팬 틸트 기능이 있는 CCTV나 자동차의 전후방카메라 등과 같이 카메라가 이동하는 환경에서 취득한 영상에서 움직이는 객체를 찾아 사용자에게 경고하는 등의 후속 처리를 위한 다양한 기술분야에서 활용될 수 있다.The present invention provides a motion compensated background and a method of detecting an object moving using an input image, unlike the prior art in which motion of a background is directly reflected by extracting a background compensating a motion of a camera by moving an image by a movement amount. It also provides a way to increase the accuracy of moving object detection by combining optical flow and background separation methods. Accordingly, it is possible to detect a moving object while compensating for the movement of the background even when the camera's viewpoint is moving. Therefore, it is possible to detect a moving object in a video captured in an environment where a camera moves, such as a CCTV having a pan- And may be utilized in various technical fields for subsequent processing such as warning.
이하, 첨부된 도면을 참조하여 본 발명의 일 실시 예에 대해 상세히 설명하기로 한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 용이하게 이해할 수 있도록 제공되는 것이며, 본 발명은 청구항의 기재에 의해 정의된다. 한편, 본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자 이외의 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the concept of the invention to those skilled in the art. And the present invention is defined by the description of the claims. It is to be understood that the terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. It is noted that " comprises, " or "comprising," as used herein, means the presence or absence of one or more other components, steps, operations, and / Do not exclude the addition.
도 1은 본 발명의 일 실시 예에 따른 객체 검출 장치의 구성을 개략적으로 보여주는 블록도이다.1 is a block diagram schematically showing the configuration of an object detecting apparatus according to an embodiment of the present invention.
본 발명의 일 실시 예에 따른 객체 검출 장치는(100)는 옵티컬 플로우 방식을 이용하여 카메라가 움직이는 환경에서 프레임간에서 발생하는 배경 이동량을 보상하고, 옵티컬 플로우 방식을 이용하여 현재 프레임과 보상된 배경 이동량에 따라 구성된 배경 프레임 간의 이동량에 기초해 영상 내의 객체를 검출한다.The
이를 위해, 본 발명의 일 실시 예에 따른 객체 검출 장치는(100)는 도 1에 도시된 바와 같이, 영상 획득부(110), 프레임 메모리(120), 배경 추출부(130) 및 객체 검출부(140)를 포함한다. 1, the
영상 획득부(110)는 주변 상황을 촬영하여 이전 영상 프레임(I(n-1): 이하, 이전 프레임이라 한다.)과 현재 영상 프레임(I(n): 이하, 현재 프레임)의 영상을 순차적으로 출력하는 구성으로서, 팬 틸트 기능을 갖는 카메라 또는 차량에 장착되는 전후방 카메라일 수 있으며, 이에 특별히 한정되지 않고, 이동 환경에서 주변 상황을 촬영할 수 있는 모든 종류의 촬영 수단을 포함한다.The
프레임 메모리(120)는 상기 영상 획득부(110)로부터 현재 프레임(I(n))을 입력받아서 일시적으로 저장하는 일종의 버퍼로서, 상기 현재 프레임(I(n))의 입력에 따라 이전에 저장된 이전 프레임(I(n-1))을 출력한다.The
배경 추출부(130)는 상기 영상 획득부(110)로부터의 현재 프레임(I(n))과 프레임 메모리(120)로부터의 이전 프레임(I(n-1))을 입력받고, 이전 프레임(I(n-1))과 현재 프레임(I(n)) 간의 옵티컬 플로우를 이용하여 상기 이전 프레임(I(n-1))에 포함된 이전의 배경 영상 프레임(B(n-1): 이하, 이전 배경 프레임이라 한다.)을 보상하고, 보상된 이전의 배경 프레임 (B(n-1)')을 현재의 프레임의 배경 프레임(B(n))으로서 추출(분리 또는 구성)한다. 이에 대한 구체적인 설명은 아래의 도 2를 참조하여 상세히 설명하기로 한다.The
객체 검출부(140)는 배경 추출부(130)로부터의 보상된 배경 프레임(B(n-1)' 또는 B(n))과 상기 현재 프레임(I(n)) 간의 옵티컬 플로우를 이용하여 상기 현재 프레임(I(n)) 내의 객체 영역을 검출한다. 이에 대한 구체적인 설명은 아래의 도 3 내지 도 5를 참조하여 상세히 설명하기로 한다.The
먼저, 도 1에 도시된 배경 추출부(130)의 일 실시 예에 대해 상세히 설명한다.
First, an embodiment of the
도 2는 도 1에 도시된 배경 추출부의 구성을 보여주는 블록도이다.FIG. 2 is a block diagram showing the configuration of the background extracting unit shown in FIG. 1. FIG.
도 2를 참조하면, 배경 추출부(130)은 제1 옵티컬 플로우(OF) 계산부(132), 배경 OF 기준값 생성부(134), 배경 보상부(136) 및 프레임 메모리(138)를 포함한다.2, the
제1 OF 계산부(132)는 모든 화소들에 대해 이전 프레임(I(n-1))과 현재 프레임(I(n)) 사이에서의 이동량(옵티컬 플로우값 또는 이동 벡터값)을 계산하고, 계산된 결과를 현재 프레임(I(n))에 대한 제1 OF 프레임(OF1(n))으로서 출력한다. 이때, 출력되는 제1 OF 프레임(OF1(n))는 배경 이동량과 객체 이동량을 모두 포함한 형태로 출력된다. 일례로, 이동량의 계산은 T.Brox에 의해 제안된 "High accuracy optical flow estimation based on a theory for warping" 방법에 따라 계산될 수 있다.The
배경 OF 기준값 생성부(134)는 제1 OF 프레임(OF1(n))에 포함된 배경 이동량과 객체 이동량 중에서 배경 이동량을 분리(추출 또는 검출)하여 이를 이전 프레임(I(n-1))의 배경 프레임(B(n-1))을 보상하기 위한 기준값(REF)으로 생성한다. 이를 위해, 배경 OF 기준값 생성부(134)는 제1 OF 프레임(OF1(n)) 내의 모든 화소들의 이동량을 크기 순으로 배열하고, 크기 순으로 배열된 이동량을 일정 단위의 구간으로 등분하는 과정을 수행한다. 이후, 등분된 구간들 중 가장 많은 이동량이 분포한 구간을 선정하고, 선정된 상기 구간 내에 분포한 이동량들의 평균치(또는 평균 이동량)를 상기 배경 OF 기준값(RFE)으로 생성한다. 예컨대, 제1 OF 프레임(OF1(n)) 내의 최대 이동량(최대 옵티컬 플로우값 또는 최대 이동 벡터값)과 최소 이동량(최소 옵티컬 플로우값 또는 최소 이동 벡터값) 사이 구간을 100 등분하여 모든 화소들에 대한 이동량을 등분된 구간들로 분류한 후, 가장 많은 개수의 이동량들을 포함하고 있는 구간을 선정하고, 선정된 구간의 중앙값 또는 평균값을 이전 프레임(I(n-1))의 배경 프레임(B(n-1))을 보상하기 위한 기준값(RFE)으로 사용한다. 이를 히스토그램 상에서 살펴보면, 히스토그램 상 최대빈도 구간의 중앙값이다.The background OF
배경 보상부(136)는 배경 OF 기준값 생성부(134)로부터의 상기 배경 OF 기준값(RFE)을 이용하여 뒷단의 프레임 메모리(138)로부터의 이전 프레임(I(n-1))의 배경 프레임(B(n-1))을 보상하는 구성으로서, 상기 배경 OF 기준값(RFE)인 평균 이동량만큼 상기 이전 프레임(I(n-1))의 배경 프레임(B(n-1)) 내에 존재하는 각 화소들을 이동량을 보상한다. 만일, 프레임 메모리(138)에 이전에 보상된 배경 프레임이 없는 경우, 즉, 최초 프레임 자체를 이전에 구성한(생성한 또는 분리한) 배경 프레임으로 간주한다. 이렇게 보상된 배경 프레임(B(n-1)')을 구성한 배경 보상부(136)는 영상 획득부(110)로부터의 현재 프레임(I(n))을 더 입력 받아서, 상기 보상된 배경 프레임(B(n-1)')의 화소들을 상기 입력 받은 현재 프레임(I(n))의 대응하는 화소들의 화소값으로 대체(맵핑 또는 보상)한다. 이렇게 함으로써, 배경 이동량이 보상된 최종 배경 프레임을 분리 추출한다. 이때, 상기 보상된 배경 프레임(B(n-1)')의 화소들을 현재 프레임(I(n))의 대응하는 화소들의 화소값에 그대로 대체(맵핑 또는 보상)하지 않고, 현재 프레임(I(n))의 대응하는 화소들의 화소값을 사전에 설정한 학습 계수(예컨대, 0.1)만큼 곱한 화소값으로 보상하고, 상기 보상된 배경 프레임(B(n-1)')의 화소들을 상기 학습 계수에 의해 보상된 화소값으로 대체(맵핑 또는 보상)할 수도 있다. 즉, B(n)의 화소값은, 이동시킨 B(n-1) 프레임을 기준으로 특정 위치에 있는 화소값에, I(n)의 해당 위치의 화소값과 이동된 B(n-1)프레임에서의 화소값과의 차이와 학습계수를 곱한 결과값을 더한 값과 같다. 이를 수학식으로 표현하면, 아래의 수학식 1과 같다.The
여기서, k는 학습 계수이다. Here, k is a learning coefficient.
이하, 상기 배경 추출부(130)에 의해 분리 추출된 배경 프레임을 이용하여 객체 영역을 추출하는 객체 추출부(140)에 대해 상세히 설명하기로 한다.Hereinafter, the
도 3은 도 1에 도시된 객체 검출부의 구성을 보여주는 블록도이다.3 is a block diagram showing the configuration of the object detection unit shown in FIG.
도 3을 참조하면, 객체 검출부(140)는 제2 OF 계산부(142) 및 객체 영역 분리부(144)를 포함한다.Referring to FIG. 3, the
제2 OF 계산부(142)는 상기 배경 추출부(130)로부터의 배경 이동량이 보상된 배경 프레임(B(n))과 상기 영상 획득부(110)로부터의 현재 프레임(I(n))을 입력 받아서, 옵티컬 플로우를 이용하여 모든 화소들에 대해 상기 배경 프레임(B(n))과 현재 프레임(I(n)) 간의 이동량을 계산하여, 상기 현재 프레임(I(n))에 대한 제2 OP 프레임(OF2(n))을 출력한다. 여기서, 제2 OP 프레임(OF2(n))은 앞에서 설명한 제1 OF 계산부(132)로부터 출력되는 제1 OP 프레임(OF2(n))와는 달리 배경 이동량이 보상된 배경 프레임(B(n))을 현재 프레임(I(n))의 배경 프레임으로 간주할 수 있으므로, 현재 프레임(I(n))의 객체를 구성하는 화소들의 이동량이 두드러지게 나타난 형태로 출력될 것이다.The second OF
객체 영역 분리부(144)는 설계자에 의해 설정된 임계값(TH)을 이용하여 제2 OP 프레임(OF2(n)) 내의 객체 영역을 분리 추출한다. 예컨대, 상기 임계값 이상에 해당하는 각 화소들의 좌표값을 계산하여, 검출된 좌표값을 상기 현재 프레임 내의 객체 영역으로 검출할 수 있다. 이때, 배경 분리 마스크를 이용하여 객체 검출의 정확도를 높일 수 있다. 이에 대한 설명은 아래의 도 4를 참조하여 설명하기로 한다.The
도 4는 도 1에 도시된 객체 검출부의 다른 실시 예를 보여주는 블록도이다.4 is a block diagram showing another embodiment of the object detection unit shown in FIG.
도 4에 도시된 다른 실시 예에 따른 객체 검출부(140)는 도 3의 실시 예에 마스크 생성부(146)와 필터부(148)를 추가한 점을 제외하면, 도 3의 실시 예와 동일한 동작 및 기능을 수행한다.The
마스크 생성부(146)는 객체 검출의 정확도를 높이기 위해, 배경 분리 마스크를 생성하는 구성으로서, 현재 프레임(I(n))과 배경 이동량이 보상된 배경 프레임(B(n))을 입력받아서, 이들 프레임들의 차이에 해당하는 마스크 프레임(47)을 생성하고, 이를 상기 배경 분리 마스크로 출력한다. The
필터부(148)는 상기 마스트 생성부(146)로부터의 마스크 프레임(47)을 이용하여 객체 영역 분리부(144)로부터 출력되는 객체 영역에 포함된 노이즈를 필터링 한다. 이렇게 함으로써, 객체 검출의 정확도를 높일 수 있다. The
한편, 객체 영역 분리부(144)에 적용되는 임계값(TH)을 카메라의 이동 속도를 고려하여 다양하게 설정함으로써, 객체 검출의 정확도를 높일 수도 있다. 이에 대해서는 도 5를 참조하여 설명하기로 한다. On the other hand, by setting the threshold value TH applied to the object
도 5는 도 1에 도시된 객체 검출부의 또 다른 실시 예를 보여주는 블록도이다.FIG. 5 is a block diagram showing another embodiment of the object detection unit shown in FIG. 1. FIG.
도 5에서는 본 발명의 객체 검출 장치(100)가 차량에 탑재된 경우, 차량의 주행 속도 즉, 차량에 장착된 카메라의 이동 속도에 따라 임계치(TH)가 조정되는 예를 설명한 것이다. 본 발명의 객체 검출 장치(100)가 차량에 적용되는 경우, 본 발명의 또 다른 실시 예에 따른 객체 검출부(140)는 CAN 통신 또는 LIN 통신과 같은 차량 내의 네트워크 통신(40)을 통해 차량 내의 전자 제어 유닛(200)으로부터 차량의 주행 속도를 제공받을 수 있다.5 illustrates an example in which the threshold value TH is adjusted according to the running speed of the vehicle, that is, the moving speed of the camera mounted on the vehicle, when the
상기 전자 제어 유닛(200)으로부터 차량이 주행 속도를 제공받는 객체 검출부(140)는 도 3에 도시된 구성들에 추가로 임계값 생성부(149)를 더 포함할 수 있다. 이러한 임계값 생성부(149)는 설계자에 의해 설정된 기준 속도(예컨대, 10 Km/h)와 전자 제어 유닛(200)로부터 수신된 차량의 주행 속도를 비교하고, 차량의 주행 속도가 상기 기준속도보다 낮으며, 제1 임계치(TH1)를 상기 객체 영역 분리부(144)로 출력하고, 반대로 차량의 주행 속도가 상기 기준속도보다 높으면, 상기 제1 임계치(TH1)보다 큰 제2 임계치(TH2)를 상기 객체 영역 분리부(144)으로 출력한다. 그러면, 객체 영역 분리부(144)는 현재의 차량 주행 속도 즉, 카메라의 이동 속도에 따라 임계치를 조절하여 제2 OF 프레임(OF2(n)) 내이 객체 영역을 적응적으로 검출할 수 있다. 차량의 속도가 높은 경우, 즉, 카메라의 이동속도가 높은 환경에서 획득된 프레임들의 경우, 그 인접한 프레임들 간의 옵티컬 플로우의 이동량 편차는 크므로, 이런 경우에, 낮은 임계치를 적용하게 되면, 정확한 객체 검출이 어렵다. 반대로 카메라의 이동속도가 낮은 환경에서 획득된 프레임들의 경우, 인접한 프레임들 간의 옵티컬 플로우의 이동량 편차는 작으므로, 이런 경우에 높은 임계치를 적용하게 되면, 마찬가지로 정확한 객체 검출이 어렵다. 그러나, 본 발명에서는 위와 같이, 카메라의 이동속도가 높은 경우에는 높은 임계치를 적용하고, 반대의 경우에는 낮은 임계치를 적용함으로써, 객체 검출의 정확도를 높일 수 있다.The
본 실시 예에서는, 객체 검출의 정확도를 높이기 위한 방안으로, 도 4와 도 5의 2가지 실시 예를 제시하고 있지만, 이들 실시 예들의 결합을 통해 객체 검출의 정확도를 더욱 높일 수 도 있다. 이러한 결합된 실시 예는 당업자라면 도 4와 도 5의 설명을 통해 충분히 구현할 수 있는 것이므로, 이에 대한 구체적인 설명은 생략하기로 한다.In this embodiment, although two embodiments of FIGS. 4 and 5 are shown as methods for improving the accuracy of object detection, the accuracy of object detection can be further improved through the combination of these embodiments. Those skilled in the art will appreciate that such a combined embodiment can be sufficiently implemented through the description of FIGS. 4 and 5, so a detailed description thereof will be omitted.
도 6은 본 발명의 일 실시 예에 따른 객체 검출 방법을 보여주는 순서도로서, 도 6에 도시된 각 단계의 수행 주체는 도 1 내지 도 5의 설명을 통해 명확히 이해될 수 있으므로, 아래의 설명에서는 각 단계의 수행 주체를 언급하지 않는다.FIG. 6 is a flowchart showing an object detection method according to an embodiment of the present invention. The subject of each step shown in FIG. 6 can be clearly understood by referring to FIG. 1 to FIG. 5, It does not refer to the person performing the step.
도 6을 참조하면, 먼저, S610에서, 옵티컬 플로우 방식을 이용하여 모든 화소들에 대한 이전 프레임과 현재 프레임 사이에서의 평균 이동량을 계산하는 과정이 수행된다. 평균 이동량을 계산하는 과정은 이전 프레임과 현재 프레임 간의 각 화소들의 이동량를 계산하여, 상기 각 화소들의 이동량을 크기 순으로 배열하는 과정과, 크기 순으로 배열된 이동량을 일정 단위의 구간으로 등분하고, 등분된 구간들 중 가장 많은 이동량이 분포한 구간을 선정하는 과정 및 선정된 상기 구간 내에 분포한 이동량들의 평균치를 상기 평균 이동량으로 계산하는 과정을 포함한다. Referring to FIG. 6, in step S610, an average movement amount between a previous frame and a current frame is calculated for all pixels using an optical flow scheme. Calculating an average movement amount includes: calculating a movement amount of each pixel between a previous frame and a current frame, and arranging the movement amounts of the pixels in order of magnitude; dividing the movement amount arranged in the size order into a predetermined unit interval, And a step of calculating an average value of the movement amounts distributed in the predetermined interval as the average movement amount.
이어, S620에서, 계산된 평균 이동량만큼 상기 이전 프레임의 배경 프레임의 배경 이동량을 보상하여, 배경 이동량이 보상된 상기 배경 프레임을 상기 현재 프레임의 배경 프레임으로 구성하는 과정이 수행된다. 이 과정은 상기 현재 프레임의 배경 프레임 내의 각 화소들의 화소값을 추출하는 과정과, 추출된 상기 화소값과, 상기 화소값의 위치에 해당하는 상기 보상된 배경 프레임의 화소값의 차이에 기 설정된 학습 계수를 연산하는 과정 및 상기 연산 결과에 따른 화소값을 상기 보상된 배경 프레임 내의 각 화소들의 화소값으로 대체하는 과정을 포함한다. Next, in step S620, the process of compensating the background movement amount of the background frame of the previous frame by the calculated average movement amount and constructing the background frame with the background movement amount compensated as the background frame of the current frame is performed. The method includes the steps of extracting a pixel value of each pixel in a background frame of the current frame, performing a predetermined learning on a difference between the extracted pixel value and a pixel value of the compensated background frame corresponding to a position of the pixel value, And a step of replacing the pixel value according to the calculation result with the pixel value of each pixel in the compensated background frame.
이어, S630에서, 상기 화소값으로 대체된 배경 프레임을 현재 프레임 내의 배경 프레임의 구성하는 과정이 수행된다. In step S630, a background frame replaced with the pixel value is constructed as a background frame in the current frame.
이어, S640에서, 상기 옵티컬 플로우 방식을 이용하여 상기 현재 프레임과 상기 구성된 배경 프레임 간의 각 화소들의 이동량을 계산하는 과정이 수행된 후, S650에서, 기 설정된 임계치 이상의 이동량에 해당하는 각 화소들의 좌표값을 계산하여, 검출된 좌표값을 상기 현재 프레임 내의 객체 영역으로 검출하는 과정이 수행된다. 이때, 객체 영역의 검출 정확도를 높이기 위해, 상기 보상된 배경 프레임과 현재 프레임 간이 차이에 해당하는 마스크 프레임을 생성하는 과정과, 상기 검출된 객체 영역을 상기 마스크 프레임을 이용하여 필터링하는 과정 및 필터링된 상기 객체 영역을 상기 현재 프레임 내의 최종 객체 영역으로 검출하는 과정이 더 수행될 수 있다. 선택적으로, 카메라의 이동 속도값에 따라 상기 임계치를 적응적으로 조절하는 과정이 더 수행될 수 있다. 예컨대, 차량에 탑재된 카메라의 경우, 차량의 주행 속도가 상기 기준속도보다 낮으며, 제1 임계치(TH1) 이상의 이동량에 해당하는 각 화소들의 좌표값을 객체 영역으로 검출하고, 차량의 주행 속도가 상기 기준속도보다 높으면, 상기 제1 임계치(TH1)보다 큰 제2 임계치(TH2) 이상이 이동량에 해당하는 각 화소들의 좌표값을 객체 영역으로 검출할 수 있다.In step S640, the process of computing the movement amount of each pixel between the current frame and the configured background frame is performed using the optical flow method. In step S650, the coordinate value of each pixel corresponding to the movement amount exceeding the preset threshold value And detecting the detected coordinate value as the object region in the current frame is performed. In order to increase the detection accuracy of the object region, a mask frame corresponding to the difference between the compensated background frame and the current frame is generated. The detected object region is filtered using the mask frame, And detecting the object region as a final object region in the current frame. Alternatively, the threshold value may be adaptively adjusted according to the moving speed value of the camera. For example, in the case of a camera mounted on a vehicle, a coordinate value of each pixel corresponding to a moving amount exceeding the first threshold value TH1 is detected as an object area, When the reference speed is higher than the reference speed, the coordinate value of each pixel corresponding to the movement amount equal to or larger than the second threshold value TH2 larger than the first threshold value TH1 can be detected as the object area.
이상 설명한 바와 같이, 본 발명은 옵티컬 플로우를 이용한 배경 분리 방법을 제공함으로써, 영상에서 두 개의 연속적인 프레임을 입력 받아 옵티컬 플로우를 통해 영상 화소 전체의 이동량(또는, 이동 벡터)를 계산하고, 계산 결과 동일한 이동량의 개수를 기준으로 예컨대, 7할 이상을 차지하는 이동량을 이전 프레임에 역으로 적용하여 배경의 움직임을 보상한다. 그러면, 보상된 이전 프레임과 현재 프레임을 이용하여 통해 배경 프레임을 분리한다. 분리된 배경 프레임과 현재 프레임을 다시 옵티컬 플로우를 통해 이동하는 객체들에 대한 군집화된 이동량(벡터)를 얻는다. 군집의 개수에 따라 선형적으로 이동체를 구분하는 이동량의 기준값(벡터 경계값)을 자동 결정하여 이동량이 가장 큰 소수의 군집들만 결정한다. 결정된 군집들에 대해 배경 분리 마스크와 같은 이미지 노이즈 저감 필터들을 적용하고, 배경 프레임과 현재 프레임을 배경 분리 방법을 통해 얻은 배경 분리 마스크를 결정된 군집에 적용하여 정확도를 높인다. 마스크 프레임까지 통과한 군집에 한해 군집들의 이동량(벡터) 위치를 원본 영상의 좌표계로 변환하여 출력함으로써, 최종 객체 영역을 검출한다.As described above, the present invention provides a background separation method using an optical flow, in which two consecutive frames are input from an image and a movement amount (or a motion vector) of the entire image pixel is calculated through an optical flow, For example, a moving amount occupying more than 70% is applied to the previous frame in reverse based on the same number of movement amounts to compensate for background motion. Then, the background frame is separated using the compensated previous frame and the current frame. We obtain clustering movement vector (vector) for separated background frame and objects moving through the optical flow back to the current frame. The reference value (vector boundary value) of the movement amount that linearly divides the moving object is automatically determined according to the number of clusters, and only a small number of clusters having the largest movement amount are determined. Image noise reduction filters such as a background separation mask are applied to the determined clusters, and the background separation mask obtained through background separation of the background frame and the current frame is applied to the determined clusters to increase the accuracy. The vector of the movement of the clusters is transformed into the coordinate system of the original image and outputted, thereby detecting the final object area.
이제까지 본 발명의 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.The embodiments of the present invention have been described above. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.
Claims (8)
계산된 평균 이동량만큼 상기 이전 프레임의 배경 프레임의 배경 이동량을 보상하여, 배경 이동량이 보상된 상기 배경 프레임을 상기 현재 프레임의 배경 프레임으로 구성하는 과정;
상기 옵티컬 플로우 방식을 이용하여 상기 현재 프레임과 상기 구성된 배경 프레임 간의 각 화소들의 이동량을 계산하는 과정; 및
기 설정된 임계치 이상의 이동량에 해당하는 각 화소들의 좌표값을 계산하여, 검출된 좌표값을 상기 현재 프레임 내의 객체 영역으로 검출하는 과정을 포함하되,
상기 평균 이동량을 계산하는 과정은,
이전 프레임과 현재 프레임 간의 각 화소들의 이동량를 계산하여, 상기 각 화소들의 이동량을 크기 순으로 배열하는 과정;
크기 순으로 배열된 이동량을 일정 단위의 구간으로 등분하고, 등분된 구간들 중 가장 많은 이동량이 분포한 구간을 선정하는 과정; 및
선정된 상기 구간 내에 분포한 이동량들의 평균치를 상기 평균 이동량으로 계산하는 과정;
을 포함하는 객체 검출 방법.
Calculating an average movement amount between a previous frame and a current frame for all pixels using an optical flow scheme;
Compensating the background movement amount of the background frame of the previous frame by the calculated average movement amount and constructing the background frame in which the background movement amount is compensated as the background frame of the current frame;
Calculating a movement amount of each pixel between the current frame and the configured background frame using the optical flow scheme; And
Calculating a coordinate value of each pixel corresponding to a movement amount equal to or greater than a predetermined threshold value and detecting the detected coordinate value as an object region in the current frame,
The step of calculating the average movement amount includes:
Calculating a movement amount of each pixel between a previous frame and a current frame, and arranging movement amounts of the pixels in order of magnitude;
A step of equally dividing the movement amount arranged in the order of magnitude into a predetermined unit interval, and selecting an interval in which the greatest amount of movement is distributed among the equally divided intervals; And
Calculating an average value of the movement amounts distributed in the predetermined interval as the average movement amount;
/ RTI >
상기 현재 프레임의 배경 프레임 내의 각 화소들의 화소값을 추출하는 과정;
추출된 상기 화소값에 기 설정된 학습 계수를 연산한 보상된 화소값을 계산하는 과정; 및
상기 보상된 화소값을 상기 배경 이동량이 보상된 배경 프레임 내의 각 화소들의 화소값으로 대체하는 과정;
을 포함하는 객체 검출 방법.
2. The method of claim 1, wherein the background frame comprises:
Extracting a pixel value of each pixel in a background frame of the current frame;
Calculating a compensated pixel value by calculating a predetermined learning coefficient for the extracted pixel value; And
Replacing the compensated pixel value with a pixel value of each pixel in the background frame compensated for by the background movement amount;
/ RTI >
상기 보상된 배경 프레임과 현재 프레임 간이 차이에 해당하는 마스크 프레임을 생성하는 과정;
상기 검출된 객체 영역을 상기 마스크 프레임을 이용하여 필터링하는 과정; 및
필터링된 상기 객체 영역을 상기 현재 프레임 내의 최종 객체 영역으로 검출하는 과정;
을 포함하는 객체 검출 방법.
The method of claim 1, wherein the step of detecting an object region in the current frame comprises:
Generating a mask frame corresponding to a difference between the compensated background frame and the current frame;
Filtering the detected object region using the mask frame; And
Detecting the filtered object region as a final object region in the current frame;
/ RTI >
상기 이전 프레임과 현재 프레임을 획득하는 카메라의 이동 속도값에 따라 결정되는 것인 객체 검출 방법.
2. The apparatus of claim 1,
The current frame is determined according to a moving speed value of a camera that acquires the previous frame and the current frame.
옵티컬 플로우 방식을 이용하여 모든 화소들에 대해 이전 프레임과 현재 프레임 사이에서의 평균 이동량를 계산하고, 계산된 평균 이동량만큼 상기 이전 프레임의 배경 프레임의 배경 이동량을 보상하여, 배경 이동량이 보상된 상기 배경 프레임을 상기 현재 프레임의 배경 프레임으로 추출하는 배경 추출부; 및
상기 옵티컬 플로우 방식을 이용하여 상기 현재 프레임과 상기 보상된 배경 프레임 간의 각 화소들의 이동량을 계산하고, 기 설정된 임계치 이상의 이동량에 해당하는 각 화소들의 좌표값을 계산하여, 검출된 좌표값을 상기 현재 프레임 내의 객체 영역으로 검출하는 객체 검출부를 포함하되,
상기 배경 추출부는,
이전 프레임과 현재 프레임 간의 각 화소들의 이동량를 계산하여, 상기 각 화소들의 이동량을 크기 순으로 배열하고, 크기 순으로 배열된 이동량을 일정 단위의 구간으로 등분하고, 등분된 구간들 중 가장 많은 이동량이 분포한 구간을 선정하여, 선정된 상기 구간 내에 분포한 이동량들의 평균치를 상기 평균 이동량으로 계산함을 특징으로 하는 객체 추출 장치.
An image acquiring unit that photographs a surrounding situation in a mobile environment and sequentially outputs a previous frame and a current frame;
Calculates an average movement amount between the previous frame and the current frame for all the pixels using the optical flow method, compensates the background movement amount of the background frame of the previous frame by the calculated average movement amount, To a background frame of the current frame; And
Calculating a movement amount of each pixel between the current frame and the compensated background frame using the optical flow method, calculating coordinate values of each pixel corresponding to a movement amount exceeding a preset threshold value, And an object detection unit for detecting the object region in the object region,
The background extracting unit extracts,
The amount of movement of each pixel between the previous frame and the current frame is calculated, the movement amounts of the pixels are arranged in order of magnitude, the movement amount arranged in the order of magnitude is equally divided into a predetermined unit interval, And selecting an interval and calculating an average value of the movement amounts distributed in the selected interval as the average movement amount.
상기 차량 주행 중에 상기 차량의 주변 상황을 촬영하여 이전 프레임과 현재 프레임을 순차적으로 출력하는 영상 획득부;
옵티컬 플로우 방식을 이용하여 모든 화소들에 대해 이전 프레임과 현재 프레임 사이에서의 평균 이동량를 계산하고, 계산된 평균 이동량만큼 상기 이전 프레임의 배경 프레임의 배경 이동량을 보상하여, 배경 이동량이 보상된 상기 배경 프레임을 상기 현재 프레임의 배경 프레임으로 추출하는 배경 추출부; 및
상기 옵티컬 플로우 방식을 이용하여 상기 현재 프레임과 상기 보상된 배경 프레임 간의 각 화소들의 이동량을 계산하고, 상기 차량 내의 전자 제어 유닛으로부터 제공되는 차량의 주행 속도값에 따라 임계치를 결정하고, 결정된 상기 임계치 이상의 이동량에 해당하는 각 화소들의 좌표값을 계산하여, 검출된 좌표값을 상기 현재 프레임 내의 객체 영역으로 검출하는 객체 검출부를 포함하되,
상기 배경 추출부는,
이전 프레임과 현재 프레임 간의 각 화소들의 이동량를 계산하여, 상기 각 화소들의 이동량을 크기 순으로 배열하고, 크기 순으로 배열된 이동량을 일정 단위의 구간으로 등분하고, 등분된 구간들 중 가장 많은 이동량이 분포한 구간을 선정하여, 선정된 상기 구간 내에 분포한 이동량들의 평균치를 상기 평균 이동량으로 계산함을 특징으로 하는 객체 추출 장치.A vehicle object detecting apparatus mounted on a vehicle,
An image acquiring unit that photographs a surrounding situation of the vehicle while the vehicle is running, and sequentially outputs a previous frame and a current frame;
Calculates an average movement amount between the previous frame and the current frame for all the pixels using the optical flow method, compensates the background movement amount of the background frame of the previous frame by the calculated average movement amount, To a background frame of the current frame; And
Calculating a movement amount of each pixel between the current frame and the compensated background frame using the optical flow method, determining a threshold value according to a running speed value of the vehicle provided from an electronic control unit in the vehicle, And an object detecting unit for calculating coordinate values of each pixel corresponding to the movement amount and detecting the detected coordinate value as an object region in the current frame,
The background extracting unit extracts,
The amount of movement of each pixel between the previous frame and the current frame is calculated, the movement amounts of the pixels are arranged in order of magnitude, the movement amount arranged in the order of magnitude is equally divided into a predetermined unit interval, And selecting an interval and calculating an average value of the movement amounts distributed in the selected interval as the average movement amount.
상기 차량 주행 중에 상기 차량의 주변 상황을 촬영하여 이전 프레임과 현재 프레임을 순차적으로 출력하는 과정
옵티컬 플로우 방식을 이용하여 모든 화소들에 대해 이전 프레임과 현재 프레임 사이에서의 평균 이동량를 계산하고, 계산된 평균 이동량만큼 상기 이전 프레임의 배경 프레임의 배경 이동량을 보상하여, 배경 이동량이 보상된 상기 배경 프레임을 상기 현재 프레임의 배경 프레임으로 추출하는 과정; 및
상기 옵티컬 플로우 방식을 이용하여 상기 현재 프레임과 상기 보상된 배경 프레임 간의 각 화소들의 이동량을 계산하고, 상기 차량 내의 전자 제어 유닛으로부터 제공되는 차량의 주행 속도값에 따라 임계치를 결정하고, 결정된 상기 임계치 이상의 이동량에 해당하는 각 화소들의 좌표값을 계산하여, 검출된 좌표값을 상기 현재 프레임 내의 객체 영역으로 검출하는 과정;을 포함하되,
상기 현재 프레임의 배경 프레임으로 추출하는 과정에서 상기 평균 이동량을 계산하는 과정은,
이전 프레임과 현재 프레임 간의 각 화소들의 이동량를 계산하여, 상기 각 화소들의 이동량을 크기 순으로 배열하는 과정;
크기 순으로 배열된 이동량을 일정 단위의 구간으로 등분하고, 등분된 구간들 중 가장 많은 이동량이 분포한 구간을 선정하는 과정; 및
선정된 상기 구간 내에 분포한 이동량들의 평균치를 상기 평균 이동량으로 계산하는 과정을 포함하는 차량에 탑재된 차량용 객체 검출 장치를 이용한 객체 검출 방법.A method of detecting an object using a vehicle object detecting apparatus mounted on a vehicle,
A step of photographing a surrounding situation of the vehicle during driving of the vehicle and successively outputting a previous frame and a current frame
Calculates an average movement amount between the previous frame and the current frame for all the pixels using the optical flow method, compensates the background movement amount of the background frame of the previous frame by the calculated average movement amount, Extracting a current frame as a background frame of the current frame; And
Calculating a movement amount of each pixel between the current frame and the compensated background frame using the optical flow method, determining a threshold value according to a running speed value of the vehicle provided from an electronic control unit in the vehicle, Calculating a coordinate value of each pixel corresponding to the movement amount and detecting the detected coordinate value as an object region in the current frame,
Wherein the step of calculating the average movement amount in the process of extracting the background frame of the current frame includes:
Calculating a movement amount of each pixel between a previous frame and a current frame, and arranging movement amounts of the pixels in order of magnitude;
A step of equally dividing the movement amount arranged in the order of magnitude into a predetermined unit interval, and selecting an interval in which the greatest amount of movement is distributed among the equally divided intervals; And
And calculating an average value of the movement amounts distributed in the predetermined interval as the average movement amount.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130166368A KR101537559B1 (en) | 2013-12-30 | 2013-12-30 | Device for detecting object, device for detecting object for vehicle and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130166368A KR101537559B1 (en) | 2013-12-30 | 2013-12-30 | Device for detecting object, device for detecting object for vehicle and method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150077654A KR20150077654A (en) | 2015-07-08 |
KR101537559B1 true KR101537559B1 (en) | 2015-07-20 |
Family
ID=53790364
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130166368A KR101537559B1 (en) | 2013-12-30 | 2013-12-30 | Device for detecting object, device for detecting object for vehicle and method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101537559B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102015939B1 (en) * | 2018-09-27 | 2019-08-28 | 주식회사 크라우드웍스 | Method, apparatus and program for sampling a learning target frame image of video for image learning of artificial intelligence and image learning method thereof |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102474837B1 (en) * | 2015-09-14 | 2022-12-07 | 주식회사 한화 | Foreground area extracting method and apparatus |
EP3290905B1 (en) * | 2016-09-05 | 2022-10-19 | F. Hoffmann-La Roche AG | Signal offset determination and correction |
KR102631964B1 (en) | 2016-11-23 | 2024-01-31 | 엘지이노텍 주식회사 | Method, Apparatus, System, Program and Recording Medium for Analyzing Image using Vehicle Driving Information |
KR102211541B1 (en) * | 2019-01-16 | 2021-02-02 | 연세대학교 산학협력단 | Apparatus and method for validating image data for learning |
CN111753762B (en) | 2020-06-28 | 2024-03-15 | 北京百度网讯科技有限公司 | Method, device, equipment and storage medium for identifying key identification in video |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0944681A (en) * | 1995-08-01 | 1997-02-14 | Matsushita Electric Ind Co Ltd | Moving object area detector |
KR20030087960A (en) * | 2002-05-09 | 2003-11-15 | 마츠시타 덴끼 산교 가부시키가이샤 | Monitoring device, monitoring method and program for monitoring |
-
2013
- 2013-12-30 KR KR1020130166368A patent/KR101537559B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0944681A (en) * | 1995-08-01 | 1997-02-14 | Matsushita Electric Ind Co Ltd | Moving object area detector |
KR20030087960A (en) * | 2002-05-09 | 2003-11-15 | 마츠시타 덴끼 산교 가부시키가이샤 | Monitoring device, monitoring method and program for monitoring |
Non-Patent Citations (1)
Title |
---|
방송공학회 논문 "객체 추적 카메라 제어를 위한 고속의 움직임 검출 및 추적 알고리즘" * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102015939B1 (en) * | 2018-09-27 | 2019-08-28 | 주식회사 크라우드웍스 | Method, apparatus and program for sampling a learning target frame image of video for image learning of artificial intelligence and image learning method thereof |
WO2020067632A1 (en) * | 2018-09-27 | 2020-04-02 | 주식회사 크라우드웍스 | Method, apparatus, and program for sampling learning target frame image of video for ai image learning, and method of same image learning |
US11295169B2 (en) | 2018-09-27 | 2022-04-05 | Crowdworks Inc. | Method, device, and program for sampling frame image of object to be learned in video for artificial intelligence video learning, and image learning method thereof |
Also Published As
Publication number | Publication date |
---|---|
KR20150077654A (en) | 2015-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101537559B1 (en) | Device for detecting object, device for detecting object for vehicle and method thereof | |
US10867166B2 (en) | Image processing apparatus, image processing system, and image processing method | |
JP6439820B2 (en) | Object identification method, object identification device, and classifier training method | |
KR101310213B1 (en) | Method and apparatus for improving quality of depth image | |
KR102182695B1 (en) | Method and Apparatus for Noise Reduction | |
KR101299237B1 (en) | Apparatus and method for detecting object using PTZ camera | |
US9202263B2 (en) | System and method for spatio video image enhancement | |
US20120019728A1 (en) | Dynamic Illumination Compensation For Background Subtraction | |
US11132538B2 (en) | Image processing apparatus, image processing system, and image processing method | |
EP2632160A1 (en) | Method and apparatus for image processing | |
KR100953076B1 (en) | Multi-view matching method and device using foreground/background separation | |
WO2008020598A1 (en) | Subject number detecting device and subject number detecting method | |
WO2016021147A1 (en) | Image processing system for detecting retention of moving body from image, image processing method, and recording medium | |
KR20110136152A (en) | Apparatus and method of creating high dynamic range image empty ghost image by using filtering | |
KR20170038144A (en) | Attention detection apparatus and attention detection method | |
CN102457724B (en) | Image motion detecting system and method | |
US20110085026A1 (en) | Detection method and detection system of moving object | |
US20160035107A1 (en) | Moving object detection | |
US20210049773A1 (en) | Image-based target tracking | |
JP2014110020A (en) | Image processor, image processing method and image processing program | |
US9113142B2 (en) | Method and device for providing temporally consistent disparity estimations | |
KR20140045834A (en) | Method and apparatus for monitoring video for estimating size of single object | |
CN109313808B (en) | Image processing system | |
US20160093062A1 (en) | Method and apparatus for estimating absolute motion values in image sequences | |
JP6405765B2 (en) | Imaging apparatus and determination method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20180627 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20190708 Year of fee payment: 5 |