KR101921608B1 - Apparatus and method for generating depth information - Google Patents

Apparatus and method for generating depth information Download PDF

Info

Publication number
KR101921608B1
KR101921608B1 KR1020180010958A KR20180010958A KR101921608B1 KR 101921608 B1 KR101921608 B1 KR 101921608B1 KR 1020180010958 A KR1020180010958 A KR 1020180010958A KR 20180010958 A KR20180010958 A KR 20180010958A KR 101921608 B1 KR101921608 B1 KR 101921608B1
Authority
KR
South Korea
Prior art keywords
information
image
blur
feature information
patch
Prior art date
Application number
KR1020180010958A
Other languages
Korean (ko)
Other versions
KR20180014149A (en
Inventor
권인소
박진선
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020180010958A priority Critical patent/KR101921608B1/en
Publication of KR20180014149A publication Critical patent/KR20180014149A/en
Application granted granted Critical
Publication of KR101921608B1 publication Critical patent/KR101921608B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

깊이 정보 생성 장치로서, 입력 영상의 경계 성분을 추출하고, 상기 경계 성분의 강도에 따라 다중 크기(Multi-scale)의 영상 패치를 추출하는 패치 추출부, 상기 영상 패치로부터 상기 입력 영상의 흐림 정보를 판단하기 위한 적어도 하나 이상의 특징 정보를 추출하는 특징 정보 추출부, 상기 특징 정보를 이용하여 상기 영상 패치의 흐림 정보를 계산하는 흐림 정보 획득부, 그리고 상기 영상 패치들의 깊이 정보와 상기 입력 영상의 색상 정보를 이용하여 전체 영상의 깊이 정보를 획득하는 깊이 정보 획득부를 포함한다.An apparatus for generating depth information, comprising: a patch extracting unit for extracting a boundary component of an input image and extracting a multi-scale image patch according to the intensity of the boundary component; A blur information acquiring unit that calculates blur information of the image patch using the feature information, and a blur information acquiring unit that acquires depth information of the image patches and color information of the input image And a depth information obtaining unit for obtaining depth information of the entire image using the depth information.

Description

깊이 정보 생성 장치 및 방법{APPARATUS AND METHOD FOR GENERATING DEPTH INFORMATION}[0001] APPARATUS AND METHOD FOR GENERATING DEPTH INFORMATION [0002]

본 발명은 깊이 정보 생성 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for generating depth information.

일반적으로 영상에서 흐림 정도 및 깊이 정보를 추정하는 방법은 초점 거리를 다르게 하여 획득한 영상을 토대로 정보를 획득하므로, 여러 장의 영상을 획득해야 한다. Generally, the method of estimating the degree of blur and depth information in an image acquires information based on an image obtained by varying the focal distance, so that a plurality of images must be acquired.

단일 영상에서 깊이 정보를 추정하는 일반적인 방법에서는 균일한 영역(Homogeneous region)에서는 흐림 정도의 불확실성이 존재하며, 패치 기반(Patch based) 연구의 경우 패치 크기의 불확실성이 흐림 추정의 불확실성 (depth uncertainty)을 증가시켜 정확한 깊이 정보를 획득하는데 어려움이 있다. In the general method of estimating depth information in a single image, there is uncertainty in the degree of blur in a homogeneous region, and in the case of a patch-based study, the uncertainty of the patch size causes a depth uncertainty It is difficult to acquire accurate depth information.

본 발명이 해결하고자 하는 과제는 한 프레임의 단일 영상으로부터 정확한 깊이 정보를 추정하는 장치 및 방법을 제공하는 것이다.An object of the present invention is to provide an apparatus and method for estimating accurate depth information from a single image of one frame.

본 발명의 한 실시예에서 깊이 정보 생성 장치는 입력 영상의 경계 성분을 추출하고, 상기 경계 성분의 강도에 따라 다중 크기(Multi-scale)의 영상 패치를 추출하는 패치 추출부, 상기 영상 패치로부터 상기 입력 영상의 흐림 정보를 판단하기 위한 적어도 하나 이상의 특징 정보를 추출하는 특징 정보 추출부, 상기 특징 정보를 이용하여 상기 영상 패치의 흐림 정보를 계산하는 흐림 정보 획득부, 그리고 상기 영상 패치들의 깊이 정보와 상기 입력 영상의 색상 정보를 이용하여 전체 영상의 깊이 정보를 획득하는 깊이 정보 획득부를 포함한다.In one embodiment of the present invention, a depth information generating apparatus includes a patch extracting unit for extracting a boundary component of an input image and extracting a multi-scale image patch according to the intensity of the boundary component, A feature information extracting unit for extracting at least one feature information for determining blur information of an input image, a blur information acquiring unit for calculating blur information of the image patch using the feature information, And a depth information obtaining unit for obtaining depth information of the entire image using the color information of the input image.

상기 패치 추출부는 캐니 경계 검출기(canny edge detector)를 이용하여 상기 영상에 포함된 픽셀 중 그 경계 값이 기준값 이하인 부분은 약한 경계로 결정하고, 상기 기준값 초과인 부분은 강한 경계로 결정할 수 있다. The patch extracting unit may use a canny edge detector to determine a weak boundary between pixels included in the image whose boundary value is less than or equal to a reference value and determine a strong boundary to be a portion that exceeds the reference value.

상기 기준값은 상기 강한 경계를 결정하기 위한 제1 기준값과, 상기 약한 경계를 결정하기 위한 제2 기준값을 포함할 수 있다. The reference value may include a first reference value for determining the strong boundary and a second reference value for determining the weak boundary.

상기 특징 정보 추출부는 상기 영상 패치에 대한 2D 이산 코사인 변환(Discrete Cosine Transform, DCT)값을 기초로 DCT 특징 정보를 계산하는 DCT특징 정보 추출부, 상기 영상 패치 내부의 경사도(Gradient)값을 기초로 경사도 히스토그램을 추출하고, 상기 경사도 히스토그램을 이용하여 경사 특징 정보를 계산하는 경사 특징 정보 추출부, 상기 영상 패치의 특이값 분해(Singular Value Decomposition, SVD)를 통해 특이값(Singular Value)을 추출하고, 상기 특이값을 이용하여 SVD 특징 정보를 계산하는 SVD 특징 정보 추출부, 그리고 상기 영상 패치의 RGB 값을 이용하여 깊은 특징 정보를 계산하는 깊은 특징 정보 추출부를 포함할 수 있다. Wherein the feature information extracting unit includes a DCT feature information extracting unit that calculates DCT feature information based on a 2D discrete cosine transform (DCT) value of the image patch, a DCT feature information extracting unit that extracts DCT feature information based on a Gradient value A slope feature information extracting unit for extracting a slope histogram and calculating slope feature information using the slope histogram, extracting a singular value from a singular value decomposition (SVD) of the image patch, An SVD feature information extracting unit for calculating SVD feature information using the specific value, and a deep feature information extracting unit for calculating deep feature information using RGB values of the image patch.

상기 흐림 정보 획득부는 상기 DCT 특징 정보, 상기 경사 특징 정보, 상기 SVD 특징 정보, 그리고 깊은 특징 정보를 기초로 학습 데이터로 학습된 분류기(Classifier)를 통하여 상기 영상 패치의 흐림 정도를 계산할 수 있다. The blur information acquiring unit may calculate blur extent of the image patch through a classifier that is learned as learning data based on the DCT feature information, the slant feature information, the SVD feature information, and the deep feature information.

상기 깊이 정보 획득부는 상기 영상 패치의 흐림 정도와 상기 영상 패치의 색상 정보를 초기 깊이 정보로 사용하여 주변의 깊이 정보를 추정하는 깊이 전파 방법(depth propagation method)을 이용하여 상기 입력 영상에 포함된 픽셀의 깊이 정보를 획득할 수 있다. The depth information obtaining unit obtains depth information of a pixel included in the input image by using a depth propagation method for estimating surrounding depth information using the degree of blur of the image patch and the color information of the image patch as initial depth information, Can be obtained.

본 발명의 한 실시예에 따른 깊이 정보 생성 장치는 프로그램을 저장하는 메모리, 상기 메모리와 연동하여 상기 프로그램에 구현된 동작을 실행하는 프로세서를 포함하고, 상기 프로그램은 입력 영상으로부터 깊이 정보를 생성하기 위한 프로그램을 포함하고, 상기 프로그램은 상기 입력 영상의 경계 성분의 강도에 따라 다중 크기의 영상 패치를 추출하고, 상기 영상 패치로부터 적어도 하나 이상의 특징 정보를 추출하고, 상기 특징 정보를 이용하여 상기 영상 패치의 흐림 정도를 계산하며, 상기 흐림 정도와 상기 입력 영상의 색상 정보를 이용하여 전체 영상의 깊이 정보를 계산하는 명령어들을 포함한다.According to an aspect of the present invention, there is provided an apparatus for generating depth information, the apparatus including a memory for storing a program, a processor for executing an operation implemented in the program in association with the memory, Wherein the program extracts a multi-size image patch according to the intensity of a boundary component of the input image, extracts at least one feature information from the image patch, And calculating depth information of the entire image using the degree of blur and the color information of the input image.

상기 프로그램은 캐니 경계 검출기(canny edge detector)를 이용하여 상기 영상에 포함된 픽셀 중 그 경계 값이 기준 값 이하인 부분은 약한 경계로 결정하고, 상기 기준 값 초과인 부분은 강한 경계로 결정하는 명령어들을 포함할 수 있다. The program uses a canny edge detector to determine a weak boundary between a portion of the pixels included in the image and a boundary of which the boundary value is less than a reference value, .

상기 기준값은 상기 강한 경계를 결정하기 위한 제1 기준값과, 상기 약한 경계를 결정하기 위한 제2 기준값을 포함할 수 있다. The reference value may include a first reference value for determining the strong boundary and a second reference value for determining the weak boundary.

상기 프로그램은 상기 영상 패치에 대한 2D 이산 코사인 변환(Discrete Cosine Transform, DCT)값을 기초로 DCT 특징 정보를 계산하고, 상기 영상 패치 내부의 경사도(Gradient)값을 기초로 경사 특징 정보를 계산하고, 상기 영상 패치의 특이값 분해(Singular Value Decomposition, SVD)를 통해 특이값(Singular Value)을 추출하고, 상기 특이값을 이용하여 SVD 특징 정보를 계산하며, 상기 영상 패치의 RGB 값을 이용하여 깊은 특징 정보를 계산하는 명령어들을 포함할 수 있다. The program calculates DCT feature information based on a 2D discrete cosine transform (DCT) value for the image patch, calculates gradient feature information based on a gradient value inside the image patch, A SVD feature information is calculated using the singular value by singular value decomposition (SVD) of the image patch, and the SVD feature information is calculated using the singular value, And may include instructions for computing information.

상기 프로그램은 학습 데이터로 학습된 분류기(Classifier)를 통하여 상기 DCT 특징 정보, 상기 경사 특징 정보, 상기 SVD 특징 정보, 그리고 깊은 특징 정보를 기초로 상기 영상 패치의 흐림 정도를 계산하는 명령어들을 포함할 수 있다. The program may include instructions for calculating a fog degree of the image patch based on the DCT feature information, the slope feature information, the SVD feature information, and the deep feature information through a classifier learned by learning data have.

상기 프로그램은 상기 영상 패치의 흐림 정도와 상기 영상 패치의 색상 정보를 초기 깊이 정보로 사용하여 주변의 깊이 정보를 추정하는 깊이 전파 방법(depth propagation method)을 이용하여 상기 입력 영상에 포함된 픽셀의 깊이 정보를 계산하는 명령어들을 포함할 수 있다. The program may further comprise a depth propagation method for estimating surrounding depth information using the degree of blur of the image patch and the color information of the image patch as initial depth information to calculate a depth of a pixel included in the input image And may include instructions for computing information.

본 발명의 한 실시예에 따른 장치의 깊이 정보 생성 방법은 한 프레임의 단일 영상을 입력 받는 단계, 상기 영상 경계의 세기에 따라 다중 스케일의 영상 패치를 추출하는 단계, 상기 영상 패치로부터 적어도 하나의 특징 정보를 추출하는 단계, 상기 특징 정보를 기초로 영상 흐림 정보를 추출하는 단계, 그리고 상기 영상 흐림 정보를 기초로 전체 영상 픽셀의 깊이 정보를 획득하는 단계를 포함한다.A method of generating depth information of an apparatus according to an embodiment of the present invention includes receiving a single image of one frame, extracting a multi-scale image patch according to the intensity of the image boundary, extracting at least one feature Extracting image blur information based on the feature information, and acquiring depth information of all image pixels based on the image blur information.

상기 영상 패치를 추출하는 단계는 캐니 경계 검출 방법(canny edge detect method)을 이용하여 상기 영상에 포함된 픽셀 중 그 경계 값이 기준값 이하인 부분은 약한 경계로 결정하고, 상기 기준값 초과인 부분은 강한 경계로 결정할 수 있다. Wherein the step of extracting the image patch uses a canny edge detection method to determine a portion of the pixels included in the image whose boundary value is less than or equal to a reference value as a weak boundary, .

상기 특징 정보를 추출하는 단계는 상기 영상 패치에 대한 2D 이산 코사인 변환(Discrete Cosine Transform, DCT)값을 기초로 DCT 특징 정보를 계산하는 단계, 상기 영상 패치 내부의 경사도(Gradient)값을 기초로 경사도 히스토그램을 추출하고, 상기 경사도 히스토그램을 이용하여 경사 특징 정보를 계산하는 단계, 상기 영상 패치의 특이값 분해(Singular Value Decomposition, SVD)를 통해 특이값(Singular Value)을 추출하고, 상기 특이값을 이용하여 SVD 특징 정보를 계산하는 단계, 그리고 상기 영상 패치의 RGB 값을 이용하여 깊은 특징 정보를 계산하는 단계를 포함할 수 있다. The step of extracting the feature information may include calculating DCT feature information based on a 2D discrete cosine transform (DCT) value of the image patch, calculating a slope based on a gradient value in the image patch, Extracting a histogram and calculating inclination feature information using the inclination histogram; extracting a singular value through singular value decomposition (SVD) of the image patch; Calculating SVD feature information, and calculating deep feature information using the RGB values of the image patch.

상기 영상 흐림 정보를 추출하는 단계는 상기 DCT 특징 정보, 상기 경사 특징 정보, 상기 SVD 특징 정보, 그리고 깊은 특징 정보를 기초로 학습 데이터로 학습된 분류기(Classifier)를 통하여 상기 영상 패치의 흐림 정도를 계산할 수 있다. The step of extracting the image blur information may include calculating a degree of blur of the image patch through a classifier learned as learning data based on the DCT feature information, the slant feature information, the SVD feature information, and the deep feature information .

상기 깊이 정보를 획득하는 단계는 상기 영상 패치의 흐림 정도와 상기 영상 패치의 색상 정보를 초기 깊이 정보로 사용하여 주변의 깊이 정보를 추정하는 깊이 전파 방법(depth propagation method)을 이용하여 상기 입력 영상에 포함된 픽셀의 깊이 정보를 획득할 수 있다. Wherein the step of acquiring the depth information comprises the steps of: obtaining depth information of the image patch by using a depth propagation method for estimating surrounding depth information using the degree of blur of the image patch and the color information of the image patch as initial depth information; The depth information of the included pixels can be obtained.

본 발명의 실시예에 따르면 한 프레임의 단일 영상으로부터 보다 정확한 고품질의 깊이 정보를 획득할 수 있다. According to the embodiment of the present invention, accurate and high-quality depth information can be obtained from a single image of one frame.

도 1은 본 발명의 한 실시예에 따른 깊이 지도 정보 생성 장치의 구성도이다.
도 2는 본 발명의 한 실시예에 따라 입력 영상으로부터 약한 경계와 강한 경계를 추출한 것을 나타내는 도면이다.
도 3은 본 발명의 한 실시예에 따라 입력 영상 패치로부터 DCT 특징 정보를 추출하는 과정을 나타내는 도면이다.
도 4는 본 발명의 한 실시예에 따라 입력 영상 패치로부터 경사 특징 정보를 추출하는 과정을 나타내는 도면이다.
도 5는 본 발명의 한 실시예에 따라 입력 영상 패치로부터 추출한 SVD 특징 정보를 나타내는 도면이다.
도 6은 본 발명의 한 실시예에 따라 입력 영상 패치로부터 깊은 특징 정보를 추출하는 과정을 나타내는 도면이다.
도 7은 본 발명의 한 실시예에 따라 입력 영상 패치로부터 추출한 깊은 특징 정보를 나타내는 도면이다.
도 8은 본 발명의 한 실시예에 따라 입력 영상 패치의 특징 정보로부터 흐림 정보를 추출하는 과정을 나타내는 도면이다.
도 9는 특징 정보에 해당 특징이 추출된 영상 패치의 크기 정보를 포함하는 것을 나타내는 도면이다.
도 10은 본 발명의 한 실시예에 따른 깊이 정보 생성 방법의 흐름도이다.
도 11은 본 발명의 한 실시예에 따른 깊이 정보 생성 방법을 나타내는 도면이다.
도 12 내지 도 15는 본 발명의 한 실시예에 따라 획득한 깊이 정보를 응용할 수 있는 기술 분야의 예시이다.
1 is a configuration diagram of an apparatus for generating depth map information according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating extraction of weak boundaries and strong boundaries from an input image according to an embodiment of the present invention.
FIG. 3 illustrates a process of extracting DCT feature information from an input image patch according to an embodiment of the present invention. Referring to FIG.
4 is a diagram illustrating a process of extracting gradient feature information from an input image patch according to an embodiment of the present invention.
5 is a diagram illustrating SVD feature information extracted from an input image patch according to an embodiment of the present invention.
6 is a diagram illustrating a process of extracting deep feature information from an input image patch according to an embodiment of the present invention.
7 is a diagram illustrating deep feature information extracted from an input image patch according to an embodiment of the present invention.
8 is a diagram illustrating a process of extracting blur information from feature information of an input image patch according to an embodiment of the present invention.
FIG. 9 is a diagram showing that feature information includes size information of an image patch from which the feature is extracted.
10 is a flowchart of a depth information generating method according to an embodiment of the present invention.
11 is a diagram illustrating a depth information generating method according to an embodiment of the present invention.
FIGS. 12 to 15 are examples of a technology field in which depth information obtained according to an embodiment of the present invention can be applied.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Throughout the specification, when an element is referred to as " comprising ", it means that it can include other elements as well, without excluding other elements unless specifically stated otherwise. Also, the terms " part, " " module, " and " module ", etc. in the specification mean a unit for processing at least one function or operation and may be implemented by hardware or software or a combination of hardware and software have.

한 프레임의 단일 영상은 예를 들면, 모바일 단말이나 DSLR과 같은 디지털 카메라로 촬영된 영상일 수 있다. 하나의 영상에서는 정확한 깊이 정보를 획득하기 쉽지 않다. 다음에서 한 프레임의 영상에서 조밀한 깊이 지도(dense depth map)를 생성하는 방법에 대해 설명한다.A single image of one frame may be, for example, an image photographed with a digital camera such as a mobile terminal or DSLR. It is not easy to acquire accurate depth information in one image. In the following, a method of generating a dense depth map from an image of one frame will be described.

도 1은 본 발명의 한 실시예에 따른 깊이 지도 정보 생성 장치의 구성도이다. 1 is a configuration diagram of an apparatus for generating depth map information according to an embodiment of the present invention.

도 1을 참고하면, 깊이 정보 생성 장치(100)는 하나의 영상으로부터 다중 크기의 패치를 추출하고, 다중 크기의 패치로부터 영상 특징 정보를 획득하며, 이를 이용하여 영상 전체에 대한 깊이 정보를 획득한다. 이를 위해, 깊이 정보 생성 장치(100)는 영상 입력부(110), 패치 추출부(130), 특징 정보 추출부(150), 흐림 정보 획득부(170), 그리고 깊이 정보 획득부(190)를 포함한다. 깊이 정보 생성 장치(100)는 적어도 하나의 프로세서와 적어도 하나의 메모리를 포함하고, 프로세서와 메모리를 이용하여 본 발명에서 설명한 동작을 구현한 프로그램을 구동한다.Referring to FIG. 1, the depth information generation apparatus 100 extracts multi-size patches from one image, acquires image feature information from a multi-size patch, and acquires depth information on the entire image using the acquired image feature information . To this end, the depth information generation apparatus 100 includes an image input unit 110, a patch extraction unit 130, a feature information extraction unit 150, a blur information acquisition unit 170, and a depth information acquisition unit 190 do. The depth information generation apparatus 100 includes at least one processor and at least one memory, and uses a processor and a memory to drive a program that implements the operations described in the present invention.

영상 입력부(110)는 깊이 정보 획득에 사용되는 영상을 입력받는다. 영상 입력부(110)는 하나의 프레임 영상을 입력 받는 것을 가정한다. The image input unit 110 receives an image used for acquiring depth information. It is assumed that the image input unit 110 receives one frame image.

패치 추출부(130)는 입력 영상의 흐림 추정을 위하여 영상의 경계의 세기에 따라 다양한 크기의 패치(Patch)를 추출(extraction)한다. 일반적으로 강한 경계의 경우 흐림 및 깊이 정보 추정에 많은 정보를 제공할 수 있는 경계 성분과 질감 성분을 포함하고 있으므로, 강한 경계에서는 작은 크기의 패치를 추출하고, 반면 약한 경계의 경우 정보의 양이 부족하므로, 큰 패치를 추출함으로써 흐림 및 깊이 정보 추정에 도움이 되는 정보를 많이 추출한다. 즉, 패치 추출부(130)는 입력 영상에서 질감(Texture)이 없이 균일한(Homogeneous) 부분은 흐림 정도를 파악하기 위한 정보를 포함하고 있지 않기 때문에, 질감이 있는 부분의 패치만을 추출한다. The patch extracting unit 130 extracts patches of various sizes according to the intensity of the boundary of the image to estimate blur of the input image. Generally, strong boundary includes boundary component and texture component which can provide much information for estimation of cloudiness and depth information. Therefore, patches of small size are extracted at strong boundaries, whereas in case of weak boundary, Therefore, we extract a lot of information that helps to estimate cloudiness and depth information by extracting large patches. That is, the patch extraction unit 130 extracts only the patches of the textured portion because the homogeneous portion without the texture does not include the information for grasping the blurring degree in the input image.

패치 추출부(130)는 영상의 에지(Edge) 정보를 검출하여 강한 경계 부분과 약한 경계 부분을 구별한다. 도 2는 본 발명의 한 실시예에 따라 입력 영상으로부터 약한 경계와 강한 경계를 추출한 것을 나타내는 도면이다. 도 2를 참고하면, 패치 추출부(130)는 캐니 경계 검출기(canny edge detector)를 이용하여 영상에 포함된 픽셀 중 경계값이 기준값 이하인 부분은 약한 경계로 결정하고, 기준값 초과인 부분은 강한 경계로 결정할 수 있다.The patch extracting unit 130 detects edge information of an image and distinguishes a strong boundary portion from a weak boundary portion. FIG. 2 is a diagram illustrating extraction of weak boundaries and strong boundaries from an input image according to an embodiment of the present invention. Referring to FIG. 2, the patch extracting unit 130 uses a canny edge detector to determine a weak boundary between pixels included in the image and a strong boundary .

기준값은 강한 경계를 결정하기 위한 제1 기준값과, 약한 경계를 결정하기 위한 제2 기준값을 포함할 수 있으며, 기준값은 더 강한 경계값을 추출하기 위하여 조절될 수 있다. 그리고 패치 추출부(130)는 강한 경계로 판단된 부분은 작은 스케일(scale)의 패치로, 약한 경계로 판단된 부분은 큰 스케일(scale)의 패치로 추출한다. The reference value may include a first reference value for determining a strong boundary and a second reference value for determining a weak boundary, and the reference value may be adjusted to extract a stronger boundary value. The patch extracting unit 130 extracts a portion determined to be a strong boundary with a patch of a small scale and a portion determined to be a weak boundary with a patch having a large scale.

특징 정보 추출부(150)는 입력 영상에서 특징 정보를 추출(extraction)한다. 특징 정보란 입력 영상으로부터 깊이 정보를 획득하기 위하여 추출한 영상의 특징점(features)을 의미하며 특징 정보 추출부(150)는 영상의 필수 행렬(essential matrix)을 이용하여 특징 정보를 추출한다.The feature information extraction unit 150 extracts feature information from the input image. The feature information refers to features of the extracted image in order to obtain depth information from the input image, and the feature information extraction unit 150 extracts feature information using an essential matrix of the image.

본 발명에 따른 깊이 정보 생성 장치(100)는 하나의 영상으로부터 깊이 정보를 획득하기 위하여 영상 패치의 고주파 성분, 경계값, 디테일을 분석하기 위하여 다양한 방식으로 영상의 특징점을 추출한다. 깊이 정보 생성 장치(100)는 DCT특징 정보 추출부(151), 경사 특징 정보 추출부(153), SVD 특징 정보 추출부(155), 그리고 깊은 특징 정보 추출부(157)를 포함한다. The depth information generation apparatus 100 according to the present invention extracts feature points of an image in various ways in order to analyze high frequency components, boundary values, and details of an image patch in order to acquire depth information from one image. The depth information generation apparatus 100 includes a DCT feature information extraction unit 151, a gradient feature information extraction unit 153, an SVD feature information extraction unit 155, and a deep feature information extraction unit 157.

도 3은 본 발명의 한 실시예에 따라 입력 영상 패치로부터 DCT 특징 정보를 추출하는 과정을 나타내는 도면이다. FIG. 3 illustrates a process of extracting DCT feature information from an input image patch according to an embodiment of the present invention. Referring to FIG.

도 3을 참고하면, DCT 특징 정보 추출부(151)는 패치 추출부(130)에서 추출한 영상 패치에 고주파 성분이 얼마나 포함되어 있는지를 분석하기 위하여 이산 코사인 변환(Discrete Cosine Transform, DCT) 특징값을 계산한다. DCT 특징 값(fD)은 수학식 1과 같이 표현될 수 있다. 3, the DCT feature information extracting unit 151 extracts discrete cosine transform (DCT) feature values to analyze how much high frequency components are included in the image patch extracted by the patch extracting unit 130 . The DCT feature value f D can be expressed by Equation (1).

Figure 112018010237635-pat00001
Figure 112018010237635-pat00001

DCT 특징 정보 추출부(151)가 수학식 1로부터 획득하는 값은 fD이다. 여기서, fD는 nD-차원의 벡터로 나타나는 DCT 특징 정보를 의미한다. The value obtained by the DCT characteristic information extracting unit 151 from Equation (1) is f D. Here, f D denotes DCT feature information represented by a vector of n D -dimensions.

Figure 112018010237635-pat00002
는 극 좌표(Polar Coordinates)로 표현된 DCT 패치이다. DCT 패치는 패치 추출부(130)에서 추출한 패치에 대한 2D DCT를 계산하여 획득할 수 있다.
Figure 112018010237635-pat00003
는 Radial axis의 k번째 경계값을 의미하고,
Figure 112018010237635-pat00004
Figure 112018010237635-pat00005
Figure 112018010237635-pat00006
로 둘러싸인 영역의 넓이, WD는 특징의 합을 1로 만들기 위한 표준화 값, 그리고 nD는 특징의 차원을 나타낸다.
Figure 112018010237635-pat00002
Is a DCT patch expressed in Polar Coordinates. The DCT patch can be obtained by calculating the 2D DCT for the patch extracted by the patch extracting unit 130. [
Figure 112018010237635-pat00003
Denotes the kth boundary of the radial axis,
Figure 112018010237635-pat00004
The
Figure 112018010237635-pat00005
Wow
Figure 112018010237635-pat00006
W D is the normalized value to make the sum of the features equal to 1, and n D is the dimension of the feature.

도 4는 본 발명의 한 실시예에 따라 입력 영상 패치로부터 경사 특징 정보를 추출하는 과정을 나타내는 도면이다. 4 is a diagram illustrating a process of extracting gradient feature information from an input image patch according to an embodiment of the present invention.

도 4를 참고하면, 경사 특징 정보 추출부(153)는 영상에 강한 경사도가 얼마나 포함되어 있는지 분석하기 위하여 영상 패치 내부의 경사도(Gradient)값 들을 이용하여 경사도 히스토그램을 추출(도 4a)하고, 이를 이용하여 경사 특징 값을 계산한다(도 4b). 경사 특징점(fG)은 수학식 2와 같이 표현될 수 있다. 4, the gradient feature information extracting unit 153 extracts a gradient histogram using the gradient values inside the image patch (FIG. 4A) in order to analyze how strong a gradient is included in the image, To calculate a slope feature value (Fig. 4B). The slant feature point f G can be expressed by Equation (2).

Figure 112018010237635-pat00007
Figure 112018010237635-pat00007

HG는 영상 패치의 Gradient 히스토그램이고, WG는 특징의 합을 1로 만들기 위한 표준화 값, 그리고 nD는 특징의 차원이다. H G is the Gradient histogram of the image patch, W G is the normalized value to make the sum of the features equal to 1, and n D is the dimension of the feature.

도 5는 본 발명의 한 실시예에 따라 입력 영상 패치로부터 추출한 SVD 특징 정보를 나타내는 도면이다. 5 is a diagram illustrating SVD feature information extracted from an input image patch according to an embodiment of the present invention.

SVD 특징 정보 추출부(155)는 영상의 디테일이 포함되어 있는지 분석하기 위하여 영상 패치의 특이값 분해(Singular Value Decomposition, SVD)를 통해 특이값(Singular Value)을 도출하고, 이를 이용하여 SVD 특징값을 추출한다. SVD 특징 값(fs)은 수학식 3과 같이 표현될 수 있다. The SVD feature information extracting unit 155 derives a Singular Value through Singular Value Decomposition (SVD) of the image patch in order to analyze whether the detail of the image is included, and uses the SVD feature value . The SVD feature value (f s ) can be expressed as Equation (3).

Figure 112018010237635-pat00008
Figure 112018010237635-pat00008

Figure 112018010237635-pat00009
는 k번째 특이값(singular value)이고, Ws는 특징의 합을 1로 만들기 위한 표준화 값, 그리고 nS는 특징의 차원을 나타낸다.
Figure 112018010237635-pat00009
Is the k-th singular value decomposition (singular value), W s is a standard value for making the sum of the characteristics with 1, and S n represents the dimension of the feature.

입력 영상 크기가 [15x15]일 경우 특이값을 15개 얻을 수 있으며, 그 중 크기가 큰 순서대로 13개를 계산하여 특징 계산의 입력(

Figure 112018010237635-pat00010
)으로 사용하고, [27x27]일 경우 27개를 얻을 수 있으며, 그 중 크기가 큰 순서대로 25개를 계산하여 특징 계산의 입력(
Figure 112018010237635-pat00011
)으로 사용한다. 이것을 입력으로 계산한 SVD 특징은 fs로 나타내며, 이것은 nS-차원의 벡터로 나타낸다. 즉,
Figure 112018010237635-pat00012
의 출력을 얻게 된다.If the input image size is [15x15], 15 outlier values can be obtained,
Figure 112018010237635-pat00010
), 27 for [27x27] and 27 for 27 [27x27], and 25 of them are calculated in order of size,
Figure 112018010237635-pat00011
). The SVD feature, calculated as an input, is denoted by f s , which is represented by a vector of n S -dimensions. In other words,
Figure 112018010237635-pat00012
.

도 6은 본 발명의 한 실시예에 따라 입력 영상 패치로부터 깊은 특징 정보를 추출하는 과정을 나타내는 도면이고, 도 7은 본 발명의 한 실시예에 따라 입력 영상 패치로부터 추출한 깊은 특징 정보를 나타내는 도면이다.FIG. 6 is a diagram illustrating a process of extracting deep feature information from an input image patch according to an embodiment of the present invention, and FIG. 7 is a diagram illustrating deep feature information extracted from an input image patch according to an embodiment of the present invention .

깊은 특징점 추출부(157)는 R,G,B 영상 패치를 이용하여 깊은 특징 정보(Deep Feature)을 추출한다. The deep feature point extracting unit 157 extracts deep feature information using R, G, and B image patches.

깊은 특징 추출부(157)는 많은 수의 학습 데이터로 훈련된 컨벌루젼 네트워크(Convolutional Network)를 이용한다. 즉, R,G,B 영상 패치를 컨벌루젼 레이어(Convolutional Layer)와 풀링 레이어(Pooling Layer)의 반복으로 구성된 컨벌루젼 네트워크(Convolutional Network)를 통하여 깊은 특징점을 추출한다. The deep feature extraction unit 157 uses a convolutional network that is trained with a large number of learning data. That is, the R, G, and B image patches are extracted through the Convolutional Network, which consists of a convolutional layer and a pooling layer.

도 6를 참고하면, 첫번째 컨벌루젼 레이어에서 25개의 각각 다른 3x3 컨벌루젼 커널을 이용한 컨벌루젼 연산을 통해 특징맵(Feature Map)이 형성된다. 다음 특징맵은 2칸씩 이동하며 3x3 Max Pooling을 실시한다. 다음 컨벌루젼 레이어(Convolutional Layer)에서는 50개의 3x3 커널을 이용한 컨벌루젼을 실시하여 특징맵을 형성한다. 이 특징맵 역시 stride 2인 3x3 Max Pooling을 적용한다. 이어서 50개의 1x1 커널 을 이용해 컨벌루젼 연산을 적용하고, 마지막 레이어에서 25개의 1x1 커널을 이용해 컨벌루젼 연산을 수행한다. 각각의 컨벌루젼 이후에는 ReLU(Rectified Linear Unit) 정류기를 이용하였다. 마지막 25개의 1x1 커널을 이용해 25-크기 벡터(Dimensional Vector)로 나타나는 깊은 특징 정보(fc)을 얻을 수 있다. Referring to FIG. 6, a feature map is formed through convolution operations using 25 different 3x3 convolution kernels in the first convolution layer. The next feature map moves by 2 spaces and performs 3x3 Max Pooling. In the next convolution layer, a convolution using 50 3x3 kernels is performed to form a feature map. This feature map also applies stride 2, 3x3 Max Pooling. We then apply convolution operations using 50 1x1 kernels and convolution operations using 25 1x1 kernels in the last layer. After each convolution, a ReLU (Rectified Linear Unit) rectifier was used. The last 25 1x1 kernels can be used to obtain deep feature information (fc) represented by a 25-dimensional vector.

도 8은 본 발명의 한 실시예에 따라 입력 영상 패치의 특징 정보로부터 흐림 정보를 추출하는 과정을 나타내는 도면이고, 도 9는 특징 정보에 해당 특징이 추출된 영상 패치의 크기 정보를 포함하는 것을 나타내는 도면이다. FIG. 8 is a diagram illustrating a process of extracting blur information from feature information of an input image patch according to an embodiment of the present invention, and FIG. 9 is a flowchart illustrating a process of extracting blur information from feature information, FIG.

도 8을 참고하면 흐림 정보 획득부(170)는 특징 정보 추출부(150)에서 추출한 특징 정보들을 이용하여 영상 패치의 흐림 정보를 계산한다. 흐림 정보 획득부(170)는 학습 데이터(Training data)를 이용하여 학습된 분류기(Classifier)를 이용하여 영상의 흐림 정보를 판별한다. 학습 데이터는 영상 패치와 그 패치에 해당하는 흐림 정도에 대한 레이블(Label)로 구성되어 있으며, 초점이 정확히 맞은 영상 내의 강한 경계에서 영상 패치를 추출하여, 임의로 생성한 흐림 커널(Blur kernel)을 적용하여 흐려진 패치를 만드는 방식으로 생성된다. 흐려진 영상 패치는 수학식 4와 같이 표현될 수 있다. Referring to FIG. 8, the blur information obtaining unit 170 calculates blur information of the image patch using the feature information extracted by the feature information extracting unit 150. FIG. The blur information obtaining unit 170 determines blur information of an image using a learned classifier using training data. The training data consists of image patches and labels for the degree of blur corresponding to the patches. The image patches are extracted at strong boundaries in the image with the correct focus, and a randomly generated blur kernel is applied To create a blurred patch. The blurred image patch can be expressed as Equation (4).

Figure 112018010237635-pat00013
Figure 112018010237635-pat00013

Figure 112018010237635-pat00014
는 초점이 정확히 맞은 영상 내의 강한 경계에서 추출된 영상 패치이고,
Figure 112018010237635-pat00015
는 흐림 커널이다.
Figure 112018010237635-pat00014
Is an image patch extracted from a strong boundary in an image with the correct focus,
Figure 112018010237635-pat00015
Is a cloudy kernel.

흐림 커널(

Figure 112018010237635-pat00016
)은 수학식 5와 같이 표현될 수 있다. Cloudy kernel (
Figure 112018010237635-pat00016
Can be expressed as Equation (5).

Figure 112018010237635-pat00017
Figure 112018010237635-pat00017

x,y는 영상 패치 중심으로부터의 거리이고

Figure 112018010237635-pat00018
은 l번째 흐림 커널의 표준편차 값이다.x, y is the distance from the center of the image patch
Figure 112018010237635-pat00018
Is the standard deviation value of the lth blur kernel.

이 연산을 통해 알고 있는 흐림 커널을 통해 흐려진 영상 패치

Figure 112018010237635-pat00019
를 얻을 수 있다.
Figure 112018010237635-pat00020
에 대하여 각각 다른 값을 할당할 수 있고, 따라서 만일 어떤 영상 패치가 몇 번째 l 에 해당하는 흐림 커널로 생성된 흐려진 영상 패치임을 판별해 낼 수 있다면, 해당하는 흐림 커널인
Figure 112018010237635-pat00021
를 바로 알아낼 수 있다. Through this operation, blurred image patch
Figure 112018010237635-pat00019
Can be obtained.
Figure 112018010237635-pat00020
So that if it is possible to determine which image patch is a blurred image patch generated by a blur kernel corresponding to a certain number of l,
Figure 112018010237635-pat00021
.

상술한 바와 같은 학습 데이터로 학습된 분류기(Classifier)는 특징 정보 추출부(150)에서 추출한 특징 정보를 이용하여 영상의 흐림 정도를 판단한다. 흐림 정보 획득부(170)는 특징 정보 추출부(150)에서 추출한 DCT 특징 정보, 경사 특징 정보, SVD 특징 정보, 그리고 깊은 특징 정보를 연결한 벡터를 이용하여 3 층의 각기 다른 수의 node를 가지는 Fully Connected Layer를 지나 최종적으로 1부터 L까지의 레이블에 해당할 확률을 반환하고, 가장 큰 확률을 가지는 레이블을 해당 입력의 레이블로 지정한다. 이 레이블이 바로 입력 패치의 흐림 정도의 척도가 된다. The classifier learned by the learning data as described above determines the degree of blur of the image using the feature information extracted by the feature information extracting unit 150. The blur information obtaining unit 170 obtains the blur information using the vectors connecting the DCT feature information, the gradient feature information, the SVD feature information, and the deep feature information extracted by the feature information extracting unit 150, It returns the probability that it will correspond to the label from 1 to L finally through the Fully Connected Layer, and assigns the label having the highest probability to the label of the corresponding input. This label is a measure of the fuzziness of the input patches.

도 8를 참고하면, 첫번째 층은 300개의 Node를 가지고 있고, ReLU(Rectified Linear Unit) 정류기를 이용하여 다음 층에 입력을 전달해 준다. 두 번째 층은 150개의 Node를 가지고 있고, 역시 ReLU 정류기를 이용하여 다음 층에 입력을 전달해 준다. 세 번째 층은 11개(L과 동일한 숫자)의 Node를 가지고 있고, 각 레이블에 속할 확률을 구하기 위해 ReLU정류기와 Softmax function을 사용하였다.Referring to FIG. 8, the first layer has 300 nodes, and the input is delivered to the next layer using a rectified linear unit (ReLU) rectifier. The second layer has 150 Nodes and also uses the ReLU rectifier to pass the input to the next layer. The third layer has 11 nodes (the same number as L), and the ReLU rectifier and Softmax function are used to find the probabilities belonging to each label.

이때, 영상 패치의 크기는 일률적이지 않고, 경계값의 특성에 따라 멀티 스케일로 구성되어 있으므로, 학습 자료를 만드는 경우 학습이 수렴하지 않을 수 있다. 따라서 도 9와 같이 특징 정보 자체에 크기 정보를 포함하기 위하여 각 크기에서 추출된 특징을 기록하는 위치를 정하고, 각 위치에 해당하는 Neural Network의 Bias term을 대체하기 위한 상수 위치를 추가적으로 할당한다. 추가적으로 할당된 상수 위치에 해당하는 Weight는 Bias의 역할을 대신하게 되고, 다중 크기(Multi-scale)에서 추출된 특징을 이용한 학습의 수렴이 가능하도록 하였다. At this time, since the size of the image patch is not uniform but multi-scale according to the characteristics of the boundary value, learning may not converge when creating the learning data. Therefore, as shown in FIG. 9, in order to include the size information in the feature information itself, a position for recording the feature extracted in each size is determined, and a constant position for replacing the Bias term of the corresponding Neural Network is additionally allocated. In addition, the weight corresponding to the assigned constant position replaces the role of Bias, and enables the convergence of learning using features extracted from the multi-scale.

이렇게, 흐림 정보 획득부(170)는 복원된 깊이 정보를 획득할 수 있지만, 희소한 추출 패치의 깊이 정보만을 추출하기 때문에 전체 영상의 정확한 깊이 정보를 생성하기에는 불충분하다. 다음에서, 영상 전체의 조밀(dense) 깊이 정보를 획득하는 방법에 대해 설명한다.In this way, the blur information acquiring unit 170 can acquire the reconstructed depth information, but extracts only the depth information of a rare extraction patch, so that it is not sufficient to generate accurate depth information of the entire image. Next, a method of acquiring dense depth information of the entire image will be described.

깊이 정보 획득부(190)는 흐림 정보 획득부(170)에서 영상 패치의 흐림 정보를 기초로 영상 전체 픽셀의 깊이 정보를 복원한다. 깊이 정보 획득부(190)는 흐림 정보 획득부(170)에서 추출한 영상 패치의 흐림 정보를 초기 깊이 정보로 사용하는 깊이 전파 방법(depth propagation method)을 이용하여 영상 전체의 깊이 정보를 획득할 수 있다.The depth information obtaining unit 190 restores the depth information of all the pixels of the image based on the blur information of the image patch in the blur information obtaining unit 170. The depth information obtaining unit 190 can obtain the depth information of the entire image using the depth propagation method using the blur information of the image patch extracted by the blur information obtaining unit 170 as the initial depth information .

깊이 정보 획득부(190)는 영상 전체에 대한 깊이 정보 획득을 위해 영상의 색 정보와 흐림 정보를 이용한다. 이때, 입력 영상을 그대로 사용한다면 영상 패치에 포함되어 있는 작은 질감에 의해 전파 과정시 잡음이 발생할 가능성이 있으므로, 경계 보존형 평활 필터(Edge-preserving smoothing filter)를 적용할 수 있다. The depth information obtaining unit 190 uses the color information and the blur information of the image to obtain depth information of the entire image. In this case, if the input image is used as it is, a small texture included in the image patch may cause noise during the propagation process, so that an edge-preserving smoothing filter can be applied.

입력 영상의 경계에서 얻은 흐림 정보를 이웃한 픽셀에 전파하기 위하여 이웃한 픽셀간의 색은 RGB 공간의 직선상에 존재한다는 컬러 라인 모델(color line model)을 적용하였으며, 컬러 라인 모델을 이용한 한 매팅 라플라시안 매트릭스(matting Laplacian matrix)는 수학식 6과 같이 표현될 수 있다. In order to propagate the blurring information obtained at the boundary of the input image to neighboring pixels, a color line model in which neighboring pixels exist on a straight line of RGB space is applied, and a matting Laplacian The matting Laplacian matrix can be expressed as Equation (6).

Figure 112018010237635-pat00022
Figure 112018010237635-pat00022

수학식 6에서 i,j,k는 각각 픽셀의 선형 인덱스 값, wk는 중심이 k인 관심 영역,

Figure 112018010237635-pat00023
는 Kronecker 델타 함수,
Figure 112018010237635-pat00024
는 관심 영역의 평균 및 분산값,
Figure 112018010237635-pat00025
는 단위행렬, 그리고
Figure 112018010237635-pat00026
는 정규화 상수이다. 경계 보존형 평활 필터를 적용한 입력 영상
Figure 112018010237635-pat00027
의 각 픽셀 위치(i,j,k)에서의 RGB값([r,g,b])을 이용하여 관심 영역의 평균 및 분산값을 계산하고, 이를 통해 매팅 라플라시안 매트릭스(L)을 계산한다.In Equation (6), i, j and k denote the linear index values of the pixels, w k denotes the region of interest with the center k,
Figure 112018010237635-pat00023
The Kronecker delta function,
Figure 112018010237635-pat00024
Is the mean and variance of the region of interest,
Figure 112018010237635-pat00025
Is the unit matrix, and
Figure 112018010237635-pat00026
Is a normalization constant. Input image with boundary preservation type smoothing filter
Figure 112018010237635-pat00027
The average and variance values of the ROIs are calculated using the RGB values ([r, g, b]) at the respective pixel positions (i, j, k) of the Laplacian matrix L and the matched Laplacian matrix L is calculated.

최종적으로, 깊이 정보 획득부(190)는 입력 영상의 매팅 라플라시안 매트릭스(L)와 흐림 정보 획득부(170)에서 획득한 경계에서의 흐림 정도 값을 기초로 전체 영상의 깊이 정보 IF를 계산하며, 전체 영상의 깊이 정보는 수학식 7과 같이 표현될 수 있다. Finally, the depth information obtaining unit 190 calculates the depth information I F of the entire image based on the matched Laplacian matrix L of the input image and the blur accuracy value at the boundary acquired by the blur information acquiring unit 170 , The depth information of the entire image can be expressed by Equation (7).

Figure 112018010237635-pat00028
Figure 112018010237635-pat00028

수학식 7에서, IS는 영상 경계에서의 흐림 정보,

Figure 112018010237635-pat00029
는 사용자 변수, 그리고
Figure 112018010237635-pat00030
는 IS(t)가 0이 아닐 경우 D(i,j)가
Figure 112018010237635-pat00031
인 행렬이다. In Equation (7), I S is the blur information at the image boundary,
Figure 112018010237635-pat00029
Is a user variable, and
Figure 112018010237635-pat00030
If the I S (t) is not 0 D (i, j) is
Figure 112018010237635-pat00031
.

도 10은 본 발명의 한 실시예에 따른 깊이 정보 생성 방법의 흐름도이고, 도 11은 본 발명의 한 실시예에 따른 깊이 정보 생성 방법을 나타내는 도면이다.FIG. 10 is a flowchart of a depth information generating method according to an embodiment of the present invention, and FIG. 11 is a diagram illustrating a depth information generating method according to an embodiment of the present invention.

도 10과 도 11을 참고하면, 깊이 정보 생성 장치(100)는 한 프레임의 단일 영상을 입력 받는다(S110). Referring to FIGS. 10 and 11, the depth information generation apparatus 100 receives a single image of one frame (S110).

깊이 정보 생성 장치(100)는 입력 영상의 경계의 세기에 따라 다중스케일의 영상 패치를 추출한다(S120). 깊이 정보 생성 장치(100)는 영상의 에지(Edge) 정보를 검출하여 강한 경계 부분과 약한 경계 부분을 구별한 다음, 강한 경계로 판단된 부분은 작은 스케일(scale)의 패치로, 약한 경계로 판단된 부분은 큰 스케일(scale)의 패치로 추출한다. The depth information generation apparatus 100 extracts a multi-scale image patch according to the intensity of the boundary of the input image (S120). The depth information generation apparatus 100 detects edge information of an image to discriminate a strong boundary portion from a weak boundary portion. The portion determined as a strong boundary is a patch of a small scale and is determined as a weak boundary The extracted part is extracted with a patch of a large scale.

깊이 정보 생성 장치(100)는 추출한 다중 스케일의 영상 패치로부터 희소 특징 정보를 구한다(S130). 이때, 특징 정보란 입력 영상으로부터 깊이 정보를 획득하기 위하여 추출한 영상의 특징점이다. 깊이 정보 생성 장치(100)는 수학식 1, 수학식 2, 수학식 3을 사용하여 영상의 DCT 특징 정보, 경사도 특징 정보, SVD 특징 정보, 그리고 깊은 특징 정보를 계산한다. 즉, 깊이 정보 생성 장치(100)는 단일 영상으로부터 깊이 정보를 획득하기 위하여 다양한 방식으로 영상의 특징 정보를 계산한다. The depth information generation apparatus 100 obtains the sparse feature information from the extracted multi-scale image patch (S130). The feature information is a feature point of the extracted image to obtain depth information from the input image. The depth information generation apparatus 100 calculates DCT feature information, gradient feature information, SVD feature information, and deep feature information of an image using Equations (1), (2) and (3) That is, the depth information generation apparatus 100 calculates feature information of an image in various ways in order to acquire depth information from a single image.

깊이 정보 생성 장치(100)는 특징 정보를 종합하여 영상의 흐림 정도를 계산한다(S140). 깊이 정보 생성 장치(100)는 학습 데이터로 학습된 분류기(Classifier)를 이용하여 추출한 특징 정보를 기초로 영상의 흐림 정도를 추출한다.The depth information generation apparatus 100 calculates the blur extent of the image by combining the feature information (S140). The depth information generation apparatus 100 extracts the degree of blur of the image based on the feature information extracted using the classifier learned by the learning data.

깊이 정보 생성 장치(100)는 흐림 정보를 기초로 영상 전체 픽셀의 깊이 정보를 복원한다(S150). 깊이 정보 생성 장치(100)는 깊이 전파 방법(depth propagation method)을 이용하여 흐름 정보로부터 조밀한 깊이 정보를 획득할 수 있다. 깊이 정보 생성 장치(100)는 영상 전체에 대한 깊이 정보 획득을 위해 영상의 색 정보와 흐름 정보를 나타내는 특징점들의 3차원 좌표를 이용할 수 있다. The depth information generation apparatus 100 restores depth information of all the pixels of the image based on the blur information (S150). The depth information generation apparatus 100 can acquire dense depth information from the flow information using a depth propagation method. The depth information generation apparatus 100 may use three-dimensional coordinates of feature points representing color information and flow information of an image in order to acquire depth information on the entire image.

이와 같은 방법으로 깊이 정보 생성 장치(100)는 한 프레임의 단일 영상으로부터 도 11의 (h)와 같은 깊이 정보를 획득할 수 있다.In this way, the depth information generation apparatus 100 can acquire depth information as shown in FIG. 11 (h) from a single image of one frame.

다음에서 깊이 정보 생성 장치(100)에 의해 생성된 깊이 정보를 이용하여 응용할 수 있는 분야에 대하여 설명한다. Next, a description will be given of a field that can be applied by using the depth information generated by the depth information generating apparatus 100. FIG.

도 12 내지 도 15는 본 발명의 한 실시예에 따라 획득한 깊이 정보를 응용할 수 있는 기술 분야의 예시이다.FIGS. 12 to 15 are examples of a technology field in which depth information obtained according to an embodiment of the present invention can be applied.

도 12를 참고하면, 본 발명은 단일 입력 영상으로부터 깊이 및 흐림 정보를 추출하여 다른 영상과의 합성에 응용할 수 있다. 이때, 추정된 흐림 및 깊이 정보를 통해 추출한 전경 및 배경 영역을 이용하여 영상 합성을 수행할 수 있다. Referring to FIG. 12, the present invention can extract depth and blur information from a single input image and apply it to synthesis with other images. At this time, the image synthesis can be performed using the foreground and background areas extracted through the estimated blur and depth information.

도 13을 참고하면, 본 발명은 단일 입력 영상으로부터 깊이 및 흐림 정보를 추출하여 흐림 정도를 증가하여 영상의 전경을 강조하는데 이용될 수 있다. Referring to FIG. 13, the present invention can be used to emphasize the foreground of an image by extracting depth and blur information from a single input image and increasing blurring degree.

도 14를 참고하면, 본 발명은 단일 입력 영상으로부터 깊이 및 흐림 정보를 추출하여 디블러링(deblurring) 즉, 초점을 복원하는 데에 이용될 수 있다. Referring to FIG. 14, the present invention can be used for extracting depth and blur information from a single input image and restoring deblurring, that is, focus.

도 15를 참고하면, 본 발명은 단일 입력 영상으로부터 깊이 및 흐림 정보를 추출하여 3D 영상으로 복원하는데 이용될 수 있다. Referring to FIG. 15, the present invention can be used to extract depth and blur information from a single input image and restore it to a 3D image.

도 15는 본 발명의 한 실시예에 따라 생성된 깊이 정보 및 3차원 영상과 종래 기술에 의해 생성된 깊이 지도 및 3차원 영상을 비교한다.Figure 15 compares depth information and 3D images generated according to one embodiment of the present invention with depth maps and 3D images generated by the prior art.

일반적으로 종래에는 한 장의 영상을 이용해 흐림 정도를 추정할 때, 원본 영상의 경계 크기(Edge gradient magnitude)와 임의로 생성한 흐림 커널(Blur kernel)에 의해 흐려진(Blurred) 경계 크기와의 비율을 이용하여 흐림 정도를 추정한다. 경계에서 추정된 흐림 정도는 입력 영상의 색 정보(Color Information)을 이용하여 전체 영상으로 전파된다. 이 방법의 정확도는 경계 정렬(Edge alignment)의 정확도에 크게 좌우되며, 입력 영상을 이용한 전파의 경우 작은 질감(Small texture)에 의해 쉽게 잘못된 값으로 전파되는 경우가 많다. 따라서 전체 흐림 정도의 신뢰성이 매우 떨어진다. In general, conventionally, when estimating the degree of blur using a single image, the ratio of the edge gradient magnitude of the original image to the blurred boundary magnitude by the arbitrarily generated blur kernel is used Estimate the degree of cloudiness. The degree of blur estimated at the boundary is propagated to the entire image using the color information of the input image. The accuracy of this method depends largely on the accuracy of edge alignment. In the case of radio waves using an input image, it is often propagated to a wrong value by a small texture. Therefore, the reliability of the entire blur degree is very low.

도 15를 참고하면, 본 발명이 종래 기술보다 고품질의 깊이 정보를 획득하고, 정확한 3차원 영상을 획득할 수 있다. Referring to FIG. 15, the present invention can acquire high-quality depth information and acquire an accurate three-dimensional image.

이와 같이, 본 발명은 하나의 단일 영상으로부터 정확한 깊이 정보를 획득할 수 있다. Thus, the present invention can acquire accurate depth information from one single image.

이상에서 설명한 본 발명의 실시예는 장치 및 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있다.The embodiments of the present invention described above are not implemented only by the apparatus and method, but may be implemented through a program for realizing the function corresponding to the configuration of the embodiment of the present invention or a recording medium on which the program is recorded.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, It belongs to the scope of right.

Claims (10)

깊이 정보 생성 장치로서,
입력 영상에서 경계 강도에 반비례하는 패치 크기로 다중 크기(Multi-scale)의 영상 패치들을 추출하는 패치 추출부,
상기 영상 패치들 각각으로부터 해당 영상 패치의 특징 정보를 추출하는 특징 정보 추출부,
학습용 영상 패치들의 특징 정보로부터 흐림 정보가 출력되도록 학습된 흐림 정보 분류기를 기초로, 상기 특징 정보 추출부에서 추출된 특징 정보들에 해당하는 흐림 정보를 계산하는 흐림 정보 획득부, 그리고
상기 흐림 정보 획득부에서 획득된 상기 입력 영상의 흐림 정보와 상기 입력 영상의 색상 정보로 깊이 전파(depth propagation)하여, 상기 입력 영상의 전체 깊이 정보를 획득하는 깊이 정보 획득부
를 포함하는 깊이 정보 생성 장치.
As a depth information generating apparatus,
A patch extracting unit for extracting multi-scale image patches with a patch size inversely proportional to a boundary strength in an input image,
A feature information extracting unit for extracting feature information of the image patch from each of the image patches,
A blur information acquiring unit for calculating blur information corresponding to the feature information extracted by the feature information extracting unit based on the blur information classifier learned to output blur information from the feature information of the training image patches,
A depth information acquiring unit for acquiring the depth information of the input image by depth propagating the blur information of the input image obtained by the blur information acquiring unit and the color information of the input image,
And a depth information generating unit for generating depth information.
제1항에서,
상기 패치 추출부는
상기 입력 영상에 포함된 경계 성분의 경계값을 기초로 상기 경계 성분의 경계 강도를 결정하는, 깊이 정보 생성 장치.
The method of claim 1,
The patch extracting unit
And determines a boundary strength of the boundary component based on a boundary value of the boundary component included in the input image.
제1항에서,
상기 특징 정보 추출부는
각 영상 패치에 대한 2D 이산 코사인 변환(Discrete Cosine Transform, DCT)값을 기초로 DCT 특징 정보를 계산하는 DCT특징 정보 추출부,
각 영상 패치 내부의 경사도(Gradient)값을 기초로 경사도 히스토그램을 추출하고, 상기 경사도 히스토그램을 이용하여 경사 특징 정보를 계산하는 경사 특징 정보 추출부,
각 영상 패치의 특이값 분해(Singular Value Decomposition, SVD)를 통해 특이값(Singular Value)을 추출하고, 상기 특이값을 이용하여 SVD 특징 정보를 계산하는 SVD 특징 정보 추출부, 그리고
각 영상 패치의 RGB 값을 이용하여 깊은 특징 정보를 계산하는 깊은 특징 정보 추출부 중 적어도 하나를 포함하며,
상기 흐림 정보 획득부는
상기 특징 정보 추출부에서 추출된 각 영상 패치의 적어도 하나의 특징 정보를 상기 흐림 정보 분류기로 입력하여 해당 영상 패치의 흐림 정보를 계산하는, 깊이 정보 생성 장치.
The method of claim 1,
The feature information extracting unit
A DCT feature information extracting unit for calculating DCT feature information based on a 2D discrete cosine transform (DCT) value for each image patch,
A slope feature information extracting unit for extracting a slope histogram based on a gradient value of each image patch and calculating slope feature information using the slope histogram,
An SVD feature information extracting unit for extracting a singular value through singular value decomposition (SVD) of each image patch and calculating SVD feature information using the singular value;
And a deep feature information extracting unit for calculating deep feature information using RGB values of each image patch,
The blur information obtaining unit
Wherein at least one feature information of each image patch extracted by the feature information extracting unit is input to the blur information classifier to calculate blur information of the corresponding image patch.
제1항에서,
상기 깊이 정보 획득부는
컨볼루젼 네트워크에서 상기 영상 패치들의 흐림 정보와 상기 영상 패치들의 색상 정보를 초기 깊이 정보로 사용하여 주변의 깊이 정보를 추정하는 깊이 전파 방법으로 상기 입력 영상의 조밀한 깊이 정보를 획득하는, 깊이 정보 생성 장치.
The method of claim 1,
The depth information obtaining unit
A depth information propagation method for estimating neighboring depth information using blur information of the image patches and color information of the image patches as initial depth information in a convolution network, Device.
깊이 정보 생성 장치로서,
입력 영상으로부터 깊이 정보를 생성하는 프로그램을 저장하는 메모리, 그리고
상기 메모리와 연동하여 상기 프로그램에 구현된 동작을 실행하는 프로세서를 포함하고,
상기 프로그램은 깊이 정보 계산 프로그램을 포함하고,
상기 깊이 정보 계산 프로그램은
상기 입력 영상에서 경계 강도에 반비례하는 패치 크기로 다중 크기(Multi-scale)의 영상 패치들을 추출하는 단계,
상기 영상 패치들 각각으로부터 해당 영상 패치의 특징 정보를 추출하는 단계,
학습용 영상 패치들의 특징 정보로부터 흐림 정보가 출력되도록 학습된 흐림 정보 분류기를 기초로, 상기 영상 패치들 각각에서 추출된 특징 정보에 해당하는 흐림 정보를 계산하는 단계, 그리고
상기 입력 영상에서 계산된 상기 영상 패치들의 흐림 정보와 상기 입력 영상의 색상 정보로 깊이 전파(depth propagation)하여, 상기 입력 영상의 전체 깊이 정보를 계산하는 단계
를 실행하는 명령어들을 포함하는 깊이 정보 생성 장치.
As a depth information generating apparatus,
A memory for storing a program for generating depth information from an input image, and
And a processor for executing an operation implemented in the program in association with the memory,
The program including a depth information calculation program,
The depth information calculation program
Extracting multi-scale image patches with a patch size inversely proportional to a boundary strength in the input image,
Extracting feature information of the image patch from each of the image patches,
Calculating blur information corresponding to the feature information extracted from each of the image patches based on the blur information classifier learned to output blur information from the feature information of the training image patches, and
Calculating depth information of the input image by depth propagation of the blur information of the image patches calculated in the input image and color information of the input image,
The depth information generating apparatus comprising:
제5항에서,
상기 프로그램은 상기 깊이 정보 계산 프로그램에서 사용되는 상기 흐림 정보 분류기를 학습시키는 학습 프로그램을 더 포함하고,
상기 학습 프로그램은
학습용 영상들에서 초점이 맞은 강한 경계의 영상 패치를 추출하고, 상기 강한 경계의 영상 패치에 흐림 커널(Blur kernel)을 적용하여 흐려진 패치를 만들어 상기 학습용 영상 패치들을 생성하는 단계, 그리고
상기 학습용 영상 패치들을 입력받아 상기 흐림 정보 분류기를 학습시키는 단계
를 실행하는 명령어들을 포함하는 깊이 정보 생성 장치.
The method of claim 5,
The program further comprises a learning program for learning the blur information classifier used in the depth information calculation program,
The learning program
Extracting an image patch having a strong boundary focused on the learning images, applying a blur kernel to the image patch of the strong boundary to generate a blurred patch to generate the learning image patches, and
A step of learning the blur information classifier by receiving the learning image patches
The depth information generating apparatus comprising:
제5항에서,
상기 깊이 정보 계산 프로그램은
상기 특징 정보를 추출하는 단계에서,
각 영상 패치의 2D 이산 코사인 변환(Discrete Cosine Transform, DCT) 특징 정보, 각 영상 패치의 경사도(Gradient) 특징 정보, 각 영상 패치의 특이값 분해(Singular Value Decomposition, SVD) 특징 정보, 그리고 각 영상 패치의 RGB 값을 이용한 깊은 특징 정보를 계산하는 명령어들을 포함하고,
상기 흐림 정보를 계산하는 단계에서,
각 영상 패치의 특징 정보들로부터 해당 영상 패치의 흐림 정보를 계산하는 명령어들을 포함하는, 깊이 정보 생성 장치.
The method of claim 5,
The depth information calculation program
In the step of extracting the feature information,
Discrete Cosine Transform (DCT) feature information of each image patch, gradient feature information of each image patch, Singular Value Decomposition (SVD) feature information of each image patch, and each image patch And calculating the deep feature information using the RGB values of the depth information,
In the step of calculating the blur information,
And calculating blur information of the corresponding image patch from feature information of each image patch.
장치의 깊이 정보 생성 방법으로서,
입력 영상에서 경계 강도에 반비례하는 패치 크기로 다중 크기(Multi-scale)의 영상 패치들을 추출하는 단계,
상기 영상 패치들 각각으로부터 해당 영상 패치의 특징 정보를 추출하는 단계,
학습용 영상 패치들의 특징 정보들로부터 흐림 정보가 출력되도록 학습된 흐림 정보 분류기를 기초로, 상기 영상 패치들 각각에서 추출된 특징 정보에 해당하는 흐림 정보를 계산하는 단계, 그리고
상기 입력 영상에서 계산된 상기 영상 패치들의 흐림 정보와 상기 입력 영상의 색상 정보로 깊이 전파(depth propagation)하여, 상기 입력 영상의 전체 깊이 정보를 획득하는 단계
를 포함하는 깊이 정보 생성 방법.
A method of generating depth information of an apparatus,
Extracting multi-scale image patches with a patch size inversely proportional to the boundary strength in the input image,
Extracting feature information of the image patch from each of the image patches,
Calculating blur information corresponding to the feature information extracted from each of the image patches based on the blur information classifier learned to output blur information from the feature information of the training image patches, and
Acquiring the depth information of the input image by performing depth propagation on the blur information of the image patches calculated in the input image and the color information of the input image,
And generating a depth information.
제8항에서,
상기 특징 정보를 추출하는 단계는
각 영상 패치로부터 적어도 하나의 특징 정보를 추출하고,
상기 적어도 하나의 특징 정보는 2D 이산 코사인 변환(Discrete Cosine Transform, DCT) 특징 정보, 경사도(Gradient) 특징 정보, 특이값 분해(Singular Value Decomposition, SVD) 특징 정보, 그리고 RGB 값을 이용한 깊은 특징 정보 중 적어도 하나를 포함하는, 깊이 정보 생성 방법.
9. The method of claim 8,
The step of extracting the feature information
Extracting at least one feature information from each image patch,
The at least one feature information may include at least one of 2D discrete cosine transform (DCT) feature information, gradient feature information, singular value decomposition (SVD) feature information, and deep feature information using RGB values Wherein the depth information comprises at least one of the depth information.
제8항에서,
상기 흐림 정보를 계산하는 단계 이전에, 상기 흐림 정보 분류기를 학습하는 단계를 더 포함하고,
상기 흐림 정보 분류기를 학습하는 단계는
학습용 영상들에서 초점이 맞은 강한 경계의 영상 패치를 추출하고, 상기 강한 경계의 영상 패치에 흐림 커널(Blur kernel)을 적용하여 흐려진 패치를 만들어 상기 학습용 영상 패치들을 생성하는 단계, 그리고
상기 학습용 영상 패치들을 입력받아 상기 흐림 정보 분류기를 학습시키는 단계를 포함하는, 깊이 정보 생성 방법.
9. The method of claim 8,
Further comprising learning the blur information classifier prior to calculating the blur information,
The step of learning the blur information classifier
Extracting an image patch having a strong boundary focused on the learning images, applying a blur kernel to the image patch of the strong boundary to generate a blurred patch to generate the learning image patches, and
And receiving the training image patches and learning the blur information classifier.
KR1020180010958A 2018-01-29 2018-01-29 Apparatus and method for generating depth information KR101921608B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180010958A KR101921608B1 (en) 2018-01-29 2018-01-29 Apparatus and method for generating depth information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180010958A KR101921608B1 (en) 2018-01-29 2018-01-29 Apparatus and method for generating depth information

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020160043345A Division KR101825218B1 (en) 2016-04-08 2016-04-08 Apparatus and method for generaing depth information

Publications (2)

Publication Number Publication Date
KR20180014149A KR20180014149A (en) 2018-02-07
KR101921608B1 true KR101921608B1 (en) 2018-11-26

Family

ID=61204600

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180010958A KR101921608B1 (en) 2018-01-29 2018-01-29 Apparatus and method for generating depth information

Country Status (1)

Country Link
KR (1) KR101921608B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11417007B2 (en) 2019-11-20 2022-08-16 Samsung Electronics Co., Ltd. Electronic apparatus and method for controlling thereof

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111369505B (en) * 2020-02-26 2024-04-30 广东省电信规划设计院有限公司 Position correction method and device for chip components
CN116525073B (en) * 2023-07-03 2023-09-15 山东第一医科大学第一附属医院(山东省千佛山医院) Database intelligent management system based on health physical examination big data

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000306104A (en) 1999-04-26 2000-11-02 Matsushita Electric Ind Co Ltd Method and device for picture area division
JP2009517951A (en) 2005-12-02 2009-04-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Stereoscopic image display method and method and apparatus for generating three-dimensional image data from input of two-dimensional image data
JP2016018340A (en) 2014-07-07 2016-02-01 サクサ株式会社 Image processing apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000306104A (en) 1999-04-26 2000-11-02 Matsushita Electric Ind Co Ltd Method and device for picture area division
JP2009517951A (en) 2005-12-02 2009-04-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Stereoscopic image display method and method and apparatus for generating three-dimensional image data from input of two-dimensional image data
JP2016018340A (en) 2014-07-07 2016-02-01 サクサ株式会社 Image processing apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11417007B2 (en) 2019-11-20 2022-08-16 Samsung Electronics Co., Ltd. Electronic apparatus and method for controlling thereof

Also Published As

Publication number Publication date
KR20180014149A (en) 2018-02-07

Similar Documents

Publication Publication Date Title
US10339643B2 (en) Algorithm and device for image processing
Zhu et al. Joint bi-layer optimization for single-image rain streak removal
Pan et al. Phase-only image based kernel estimation for single image blind deblurring
CN108694705B (en) Multi-frame image registration and fusion denoising method
US8385630B2 (en) System and method of processing stereo images
US20140355901A1 (en) Algorithm for minimizing latent sharp image cost function and point spread function cost function with a spatial mask in a regularization term
US9589328B2 (en) Globally dominant point spread function estimation
TW200840365A (en) Motion-blur degraded image restoration method
CN107025660B (en) Method and device for determining image parallax of binocular dynamic vision sensor
Chen et al. Blind deblurring for saturated images
US10628924B2 (en) Method and device for deblurring out-of-focus blurred images
CN103473743B (en) A kind of method obtaining image depth information
Sun et al. HDR image construction from multi-exposed stereo LDR images
Zhang et al. Pixel screening based intermediate correction for blind deblurring
CN109064504A (en) Image processing method, device and computer storage medium
KR101921608B1 (en) Apparatus and method for generating depth information
CN110505398B (en) Image processing method and device, electronic equipment and storage medium
KR101825218B1 (en) Apparatus and method for generaing depth information
CN110443228B (en) Pedestrian matching method and device, electronic equipment and storage medium
Tallon et al. Space-variant blur deconvolution and denoising in the dual exposure problem
Jung et al. Multispectral fusion of rgb and nir images using weighted least squares and convolution neural networks
Zhao et al. Iterative range-domain weighted filter for structural preserving image smoothing and de-noising
CN111951178A (en) Image processing method and device for remarkably improving image quality and electronic equipment
Ahn et al. Segmenting a noisy low-depth-of-field image using adaptive second-order statistics
CN112801903B (en) Target tracking method and device based on video noise reduction and computer equipment

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant