KR102386002B1 - Method and apparatus for estimating disparity in element image array - Google Patents
Method and apparatus for estimating disparity in element image array Download PDFInfo
- Publication number
- KR102386002B1 KR102386002B1 KR1020200157880A KR20200157880A KR102386002B1 KR 102386002 B1 KR102386002 B1 KR 102386002B1 KR 1020200157880 A KR1020200157880 A KR 1020200157880A KR 20200157880 A KR20200157880 A KR 20200157880A KR 102386002 B1 KR102386002 B1 KR 102386002B1
- Authority
- KR
- South Korea
- Prior art keywords
- disparity
- vector
- array
- element image
- image
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 82
- 239000013598 vector Substances 0.000 claims abstract description 110
- 230000002093 peripheral effect Effects 0.000 claims abstract description 34
- 230000008569 process Effects 0.000 claims abstract description 26
- 238000000605 extraction Methods 0.000 claims description 24
- 239000000284 extract Substances 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 9
- 238000005516 engineering process Methods 0.000 description 16
- 238000003384 imaging method Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 10
- 230000003287 optical effect Effects 0.000 description 8
- 230000001174 ascending effect Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000013507 mapping Methods 0.000 description 3
- 230000008707 rearrangement Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 1
- 238000001093 holography Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- G06T5/001—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
Description
본 발명은 집적 영상 기술(integral imaging technology)에 관한 것으로, 특히, 요소 영상 배열에서 디스패리티(disparity)를 추정하는 기술과 관련된 것이다.The present invention relates to integral imaging technology, and more particularly, to a technology for estimating disparity in an elemental image array.
집적 영상 기술은 3차원 영상을 이미징하고 시각화하기 위한 기술이다 이 기술은 stereoscopy, holography 기술과 비교하였을 때, 부가적인 광학장치인 안경(Head Mounted Display, HMD) 없이, 백색광을 이용한 full parallax와 연속 시점을 제공한다. Integrated imaging technology is a technology for imaging and visualizing three-dimensional images. Compared with stereoscopy and holography technology, this technology provides full parallax and continuous viewpoints using white light without additional optical devices (Head Mounted Display, HMD). provides
이러한 집적 영상 기술은 다양한 응용분야, 예를 들면, 3차원 객체 시각화(3D object visualization), 3차원 객체 인식(3D object recognition), 무인자동차 시스템, 3차원 엔터테인먼트(3D entertainment)의 응용분야에서 큰 관심을 받고 있다.Such integrated imaging technology is of great interest in various application fields, for example, 3D object visualization, 3D object recognition, driverless car system, and 3D entertainment. are receiving
도 1은 기존의 집적 영상 시스템에서 수행되는 픽업 과정과 복원 과정을 설명하기 위한 도면이다.1 is a view for explaining a pickup process and a restoration process performed in a conventional integrated imaging system.
도 1을 참조하면, 집적 영상 시스템은 픽업 과정과 복원(재구성) 과정을 수행한다. Referring to FIG. 1 , the integrated imaging system performs a pickup process and a restoration (reconstruction) process.
먼저, 픽업 단계에서는, 3차원 물체(10, 3D object)로부터 나온 light ray가 렌즈 배열(20, Lenslet Array)에 의해 픽업 되어 픽업 장치에서 캡쳐된다. 도 1에서는 픽업 장치를 도시하지 않았으나, CCD 카메라일 수 있다. 픽업 방식에는 렌즈 배열을 대신하는 카메라 배열 방식의 픽업 방식도 존재한다. 픽업 장치부터 얻은 다양한 시야각도의 영상은 2차원 배열 구조를 가지며, 이를 요소 영상 배열(30, Elemental Image Array; EIA)라고 한다.First, in the pickup step, the light ray from the three-dimensional object (10, 3D object) is picked up by the lens array (20, Lenslet Array) is captured by the pickup device. Although the pickup device is not shown in FIG. 1 , it may be a CCD camera. In the pickup method, there is also a pickup method of a camera arrangement method instead of a lens arrangement. The images of various viewing angles obtained from the pickup device have a two-dimensional array structure, which is called an Elemental Image Array (EIA).
복원 단계에서는, 광학적으로 또는 디지털적으로 3차원 영상이 복원(재구성)된다. 복원 방식에는 Optical integral imaging(OII)과 computational integral imaging(CII)In the restoration step, a 3D image is restored (reconstructed) optically or digitally. The restoration methods include Optical integral imaging (OII) and computational integral imaging (CII).
Optical integral imaging(OII)에서는, EIA는 광학 디스플레이 패널에서 디스플레이 되고, 그 다음 3D 물체는 렌즈 배열을 통하여 관측된다. In optical integral imaging (OII), the EIA is displayed on an optical display panel, and then a 3D object is observed through a lens array.
반대로, 컴퓨터적 집적 영상 복원(Computational Integral Imaging, CII)에서는, EIA와 가상 핀홀(Virtual pinholes) 배열(40)을 바탕으로, 3차원 영상이 디지털 기술로 복원된다. 이러한 복원 기술을 CIIR(computational integral imaging reconstruction, 컴퓨터적 집적 영상 복원)이라고 한다. Conversely, in Computational Integral Imaging (CII), a 3D image is reconstructed by digital technology based on the EIA and the
CIIR기술은 OII와는 다르게 광학 장치의 물리적 한계에 구애 받지 않고 뷰 영상을 생성한다. 컴퓨터로 복원된 영상은 물체 인식 및 깊이 추정 등의 응용 분야에서 활용 가능하므로, CIIR기술은 매우 실용적이다.Unlike OII, CIIR technology creates a view image regardless of the physical limitations of optical devices. Since the computer-reconstructed image can be used in application fields such as object recognition and depth estimation, CIIR technology is very practical.
가장 일반적인 CIIR 기술은 역-투사 방법(back-projection)이다. 역-투사 방법은 요소 영상이 가상 핀홀 배열(40)을 지나면서 확대(magnify)되고, 이 요소 영상들이 도 1에 도시된 바와 같이, 복원 영상 평면(50)에서 서로 오버래핑 되는 방법이다. The most common CIIR technique is back-projection. The back-projection method is a method in which elemental images are magnified while passing through the
화질 개선을 위한 CIIR 연구들이 최근까지도 활발하게 논의되어 왔으며, 이들 중에서 픽셀 매핑 방식은 요소 영상의 각 픽셀들이 핀홀(40)을 거쳐서 도달하는 위치를 레이 추적하여 복원 영상 평면(50)에 매핑하는 방식이 픽셀 매핑 방식이다. 이 방법은 연산량을 줄이고 화질을 개선한다. CIIR studies for image quality improvement have been actively discussed until recently, and among them, the pixel mapping method is a method of ray-tracing the location where each pixel of the element image reaches through the
윈도우 방식은 역투사 방식의 신호 모델을 해석 및 정의하고 이를 바탕으로 렌즈 현상과 아티팩트(artifact)를 제거하여 복원 영상의 화질을 개선한다. The window method interprets and defines the signal model of the reverse projection method, and improves the image quality of the reconstructed image by removing the lens phenomenon and artifacts based on this.
마지막으로 주기적 함수와 요소 영상들의 관계를 기반으로 컨볼루션 특성을 요소 영상에 적용하는 방법이다. 이 방법은 깊이 해상도를 조절하고 복원 영상의 해상도를 향상시키는 방법이 있다. Finally, it is a method of applying the convolution characteristic to the component images based on the relationship between the periodic function and the component images. In this method, there is a method of adjusting the depth resolution and improving the resolution of the reconstructed image.
요소영상에서 디스패리티 추출 방법에 대한 기존 방법 분석Analysis of existing methods for disparity extraction from elemental images
렌즈 배열이나 카메라의 배열에서 얻어진 요소 영상 배열에서 3차원 정보를 추출하기 위해서는 일차적으로 요소 영상 상호간의 디스패리티를 추출하는 것이 가장 핵심적이고 기본이다. 특히 상하좌우의 요소 영상 간의 디스패리티를 추출하는 것은 요소 영상 배열에서의 핵심기술에 해당한다. In order to extract 3D information from the element image array obtained from the lens array or the camera array, it is the most essential and basic to first extract the disparity between the element images. In particular, extracting the disparity between the upper, lower, left, and right elemental images corresponds to a core technology in the elemental image arrangement.
집적 영상에서의 디스패리티를 추출하는 알려진 방법은 다음과 같다. A known method for extracting disparity in an integrated image is as follows.
먼저 스테레오 매칭(stereo matching)을 이용한 방법이 있다. 일반적으로 스테레오 매칭은 두 영상 상호간의 디스패리티를 추출하는 방식으로 스테레오 영상에 특화된 방식이다. 그러나 요소 영상 배열의 경우, First, there is a method using stereo matching. In general, stereo matching is a method specialized for stereo images by extracting disparity between two images. But for an elemental image array,
스테레오 방식을 적용하기 위해서는 중심 요소 영상에서 상하좌우에 있는 요소영상 간의 독립적인 스테레오 매칭 기술을 적용해야 하고, 다수의 디스패리티 정보들을 가공하여 이로부터 하나의 디스패리티 정보를 다시 추출해야 하는 후처리 작업이 필요하다. 또한 렌즈배열에서 얻어진 요소 영상일 경우, 요소 영상 개별 크기가 작기 때문에, 스테레오 영상 매칭 기술을 적용할 없는 경우가 자주 발생한다. In order to apply the stereo method, it is necessary to apply an independent stereo matching technology between the element images on the top, bottom, left, and right of the central component image, and a post-processing operation that requires processing a plurality of disparity information and extracting one disparity information from it again I need this. In addition, in the case of a component image obtained from a lens array, since the individual size of the component image is small, it is often not possible to apply a stereo image matching technique.
집적 영상에서의 디스패리티를 추출하는 알려진 다른 방식으로 CIIR(computational integral imaging reconstruction) 기술이 활용될 수 있다. 이 기술은 먼저 요소 영상 배열에서 3차원 볼륨 영상을 재구성하는 기술인 CIIR 기술을 통해서 3차원 볼륨 영상을 일차적으로 획득하고 3차원 볼륨 영상을 기준으로 찾고자 하는 물체 영상을 3차원 공간상에서 검색하여 위치를 추정하는 방식이다. 많은 수의 요소 영상을 갖는 요소 영상 배열에서 이 방법은 효과적일 수 있다. 특히 각 개별 요소 영상의 크기가 작은 경우 더더욱 효과적이다. As another known method of extracting disparity in an integrated image, a computational integral imaging reconstruction (CIIR) technique may be utilized. This technology first acquires a three-dimensional volume image through the CIIR technology, which is a technology for reconstructing a three-dimensional volume image from an element image array, and estimates the location by searching the object image to be found in the three-dimensional space based on the three-dimensional volume image. way to do it In an elemental image array with a large number of elemental images, this method can be effective. It is especially effective when the size of each individual element image is small.
그러나, 요소 영상의 개수가 적거나 CIIR 기술에서 얻어진 3차원 볼륨 영상에 잔존하는 잡음에 영향을 받을 수 있다. 또한 CIIR를 먼저 수행해야하기 때문에 연산량과 시스템의 메모리 사용량을 상당히 요구하는 단점이 있다.However, the number of component images may be small or may be affected by noise remaining in the 3D volume image obtained by the CIIR technique. In addition, since CIIR must be performed first, it has the disadvantage of requiring a considerable amount of computation and system memory usage.
또 다른 방식으로 EPI(epipolar image)를 활용하는 방법이 있다. EPI는 스테레오 영상 매칭에서 활용되는 등극선(epipolar line)을 모아서 재구성된 영상이다. Another method is to utilize an epipolar image (EPI). EPI is an image reconstructed by collecting epipolar lines used in stereo image matching.
두 장의 영상에서 한 지점에 대한 등극선은 하나만 존재하지만 요소 영상 배열처럼 다수의 영상에서 스테레오 영상을 매칭할 경우 다수의 등극선이 존재하고 이를 단순 취합하여 재구성하면 영상이 얻어진다. 이 영상을 EPI 등극영상이라고 한다. There is only one isopolar for a point in two images, but when stereo images are matched from multiple images like element image array, multiple isopolars exist, and an image is obtained by simply collecting and reconstructing them. This image is called EPI ascending image.
등극 영상에서의 관측되는 또 다른 형태의 직선 패턴의 각도는 디스패리티와 직접 연관성이 있다. 이를 이용해서 디스패리티를 추정할 수 있다. Another type of observed straight line pattern angle in the ascending image is directly related to disparity. Using this, disparity can be estimated.
등극 영상을 활용하는 분야는 라이트 필드 영상에서 주로 활용되는 최신 기술이다. 마이크로 렌즈 배열에서 얻어진 라이트 필드 영상은 요소 영상 배열 형태를 가지며 등극 영상에서 각도 추정을 통한 디스패리티는 다수의 요소 영상을 활용할 수 있어 추정 효율이 스테레오 영상 매칭보다 훨씬 우수하다. The field of using ascending images is the latest technology mainly used in light field images. The light field image obtained from the microlens array has an elemental image array form, and disparity through angle estimation in an isopolar image can utilize multiple elemental images, so the estimation efficiency is much superior to stereo image matching.
하지만 등극 영상에서의 라이 패턴 각도 추정은 다수의 요소 영상들이 동일한 물체를 관측할 때 효율적으로 적용이 가능하다. 즉 소수의 요소 영상을 사용할 경우 등극 영상 자체를 재구성하기 어려워진다. 또한 등극 영상을 재구성하기 위한 전처리 작업에서 메모리 사용량이 상당하다는 문제점이 있다. However, the lie pattern angle estimation in the isopolar image can be efficiently applied when multiple element images observe the same object. That is, when a small number of elemental images are used, it becomes difficult to reconstruct the polar image itself. In addition, there is a problem in that the memory usage is considerable in the preprocessing operation for reconstructing the ascending image.
상술한 바와 같은 문제점을 해결하기 위한 본 발명의 목적은, 연산량과 메모리 사용량을 줄일 수 있는 요소 영상 배열에서 디스패리티 추정 방법 및 그 장치를 제공하는데 있다. SUMMARY OF THE INVENTION It is an object of the present invention to solve the above problems, to provide a method and apparatus for estimating disparity in an element image array capable of reducing the amount of computation and memory usage.
본 발명의 전술한 목적 및 그 이외의 목적과 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부된 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다.The above and other objects, advantages and features of the present invention, and a method for achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings.
상술한 목적을 달성하기 위한 본 발명의 일면에 따른 디스패리티 추정 방법은, 입력된 요소 영상 배열로부터 기준 요소 영상과 디스패리티 추정 경로 상에 위치하는 주변 요소 영상들을 추출하는 단계; 상기 기준 요소 영상 내에서 상기 디스패리티 추정 경로의 기준 위치에 해당하는 화소 좌표(r0, c0)에 기초하여 제1 벡터(u)를 정의하는 단계; 각 주변 요소 영상 내에서 상기 디스패리티 추정 경로 상에 위치한 각 화소 좌표에 기초하여 제2 벡터(vn)를 정의하는 단계; 상기 제1 벡터와 상기 제2 벡터의 정합하는 과정에서 상기 디스패리티 추정 경로 상에서 최적의 정합 위치를 나타내는 위치 인덱스 값들(n 값들)을 계산하는 단계; 상기 계산된 위치 인덱스 값들(n 값들)을 디스패리티 후보 집합으로 구성하는 단계; 및 상기 디스패리티 후보 집합에 포함된 위치 인덱스 값들의 빈도수 및 분포도를 기반으로 상기 위치 인덱스 값들 중에서 최종 디스패리티 값을 추정하는 단계를 포함한다.A disparity estimation method according to an aspect of the present invention for achieving the above object includes extracting a reference element image and neighboring element images located on a disparity estimation path from an input element image array; defining a first vector (u) based on pixel coordinates (r 0 , c 0 ) corresponding to a reference position of the disparity estimation path in the reference element image; defining a second vector (v n ) based on the coordinates of each pixel located on the disparity estimation path in each neighboring element image; calculating position index values (n values) indicating an optimal matching position on the disparity estimation path in a process of matching the first vector and the second vector; composing the calculated position index values (n values) into a disparity candidate set; and estimating a final disparity value from among the location index values based on the frequency and distribution of location index values included in the disparity candidate set.
본 발명의 다른 일면에 따른 디스패리티 추정을 위한 컴퓨팅 장치는, 입력된 요소 영상 배열로부터 기준 요소 영상과 디스패리티 추정 경로 상에 위치하는 주변 요소 영상들을 추출하는 추출 모듈; 상기 기준 요소 영상 내에서 상기 디스패리티 추정 경로의 기준 위치에 해당하는 화소 좌표(r0, c0)에 기초하여 제1 벡터(u)를 생성하는 제1 벡터 생성 모듈; 각 주변 요소 영상 내에서 상기 디스패리티 추정 경로 상에 위치한 화소 좌표에 기초하여 제2 벡터(vn)를 생성하는 제2 벡터 생성 모듈; 상기 제1 벡터와 상기 제2 벡터의 정합하는 과정에서 상기 디스패리티 추정 경로 상에서 최적의 정합 위치를 나타내는 위치 인덱스 값들(n 값들)을 계산하는 벡터 정합 모듈; 상기 계산된 위치 인덱스 값들(n 값들)을 디스패리티 후보 집합으로 구성하는 후보 수집 모듈; 및 상기 위치 인덱스 값들의 빈도수 및 분포도를 기반으로 상기 디스패리티 후보 집합으로 구성된 상기 위치 인덱스 값들 중에서 최종 디스패리티 값을 추출하는 디스패리티 추출 모듈을 포함한다.A computing device for disparity estimation according to another aspect of the present invention includes: an extraction module for extracting a reference element image and peripheral element images located on a disparity estimation path from an input element image array; a first vector generating module that generates a first vector (u) based on pixel coordinates (r 0 , c 0 ) corresponding to a reference position of the disparity estimation path in the reference element image; a second vector generating module for generating a second vector (v n ) based on pixel coordinates located on the disparity estimation path in each neighboring element image; a vector matching module for calculating position index values (n values) indicating an optimal matching position on the disparity estimation path in a process of matching the first vector and the second vector; a candidate collection module that configures the calculated position index values (n values) into a disparity candidate set; and a disparity extraction module for extracting a final disparity value from among the location index values composed of the disparity candidate set based on the frequency and distribution of the location index values.
본 발명의 요소 영상 배열에서 디스패리티 추정 방법은 연산량과 메모리 사용량을 줄일 수 있다.The disparity estimation method in the element image arrangement of the present invention can reduce the amount of computation and memory usage.
도 1은 일반적인 집적 영상 시스템에서 수행되는 픽업 과정과 복원 과정을 설명하기 위한 도면이다.
도 2는 본 발명의 실시 예에 따른 요소 영상 배열에서 디스패리티를 추정하기 위한 장치의 내부 구성을 개략적으로 도시한 블록도이다.
도 3은 본 발명의 실시 예에 따라 요소 영상 배열(EIA)로부터 3x3 단위의 요소 영상 배열(EIA)을 추출하는 과정을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시 예에 따른 2×2 배열 패턴에서의 디스패리티 추정 경로 및 이 경우에서 선택되는 주변 요소 영상들을 설명하기 위한 도면이다.
도 5는 본 발명의 다른 실시 예에 따른 2×3 배열 패턴 또는 3×2 배열 패턴에서의 디스패리티 추정 경로 및 이 경우에서 선택되는 주변 요소 영상들을 설명하기 위한 도면이다.
도 6은 본 발명의 또 다른 실시 예에 따른 3×3 배열 패턴에서의 디스패리티 추정 경로 및 이 경우에서의 선택되는 주변 요소 영상들을 설명하기 위한 도면이다.1 is a view for explaining a pickup process and a restoration process performed in a general integrated imaging system.
2 is a block diagram schematically illustrating an internal configuration of an apparatus for estimating disparity in an element image arrangement according to an embodiment of the present invention.
3 is a view for explaining a process of extracting an element image array (EIA) of a 3x3 unit from the element image array (EIA) according to an embodiment of the present invention.
4 is a diagram for explaining a disparity estimation path in a 2×2 array pattern and neighboring element images selected in this case according to an embodiment of the present invention.
5 is a diagram for explaining a disparity estimation path in a 2×3 array pattern or a 3×2 array pattern and neighboring element images selected in this case, according to another embodiment of the present invention.
6 is a diagram for explaining a disparity estimation path in a 3×3 array pattern and neighboring element images selected in this case according to another embodiment of the present invention.
본 발명이 구현되는 양상을 이하의 바람직한 각 실시예를 들어 설명한다. 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 본 발명의 기술적 사상의 범주 내에서 그 외의 다른 다양한 형태로 구현될 수 있음은 자명하다. 본 명세서에서 사용된 용어 역시 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprise)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 요소가 하나 이상의 다른 구성요소, 단계, 동작 및/또는 요소의 존재 또는 추가됨을 배제하지 않는다.The aspect in which the present invention is implemented will be described with reference to each preferred embodiment below. It is apparent that the present invention is not limited to the embodiments disclosed below, but may be implemented in other various forms within the scope of the technical spirit of the present invention. The terminology used herein is also intended to describe the embodiments and is not intended to limit the present invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, “comprise” and/or “comprising” means that the stated component, step, action and/or element is the presence of one or more other components, steps, actions and/or elements. or added.
도 2는 본 발명의 실시 예에 따른 요소 영상 배열에서 디스패리티 추정 방법을 구현하기 위한 컴퓨팅 장치의 내부 구성을 개략적으로 도시한 블록도이다.2 is a block diagram schematically illustrating an internal configuration of a computing device for implementing a method for estimating disparity in an element image arrangement according to an embodiment of the present invention.
도 2를 참조하면, 컴퓨팅 장치는, 디스패리티 추정 모듈(100), 프로세서(200), 메모리(300) 및 이들을 연결하는 시스템 버스(500)를 포함할 수 있으며, 이에 한정하지 않고, 일반적으로 컴퓨팅 장치에 포함되는 일반적인 구성들, 예를 들면, 사용자 인터페이스, 디스플레이, 네트워크 인터페이스 등을 더 포함하도록 구성될 수 있다.Referring to FIG. 2 , the computing device may include a
디스패리티 추정 모듈(100)은 요소 영상 배열에서 디스패리티를 추정하기 위한 다수의 처리 과정을 수행한다. 디스패리티 추정 모듈(100)은 소프트웨어 모듈(예를 들면, 프로그램 코드로 프로그래밍된 알고리즘), 하드웨어 모듈 또는 이들의 조합으로 구현될 수 있다.The
프로세서(200)는 시스템 버스(500)를 통해 디스패리티 추정 모듈(100)의 동작을 제어하며, 메모리(300)에 저장된 명령어(디스패리티 추정을 위한 명령어)을 처리한다. 프로세서(200)는, 예를 들면, 적어도 하나의 CPU 및 적어도 하나의 GPU를 포함할 수 있다.The
도면에서는 디스패리티 추정 모듈(100)과 프로세서(200)가 분리된 형태로 도시되어 있으나, 하나의 모듈, 예를 들면, 하나의 IC칩으로 통합될 수 있다.Although the figure shows the
이하, 디스패리티 추정 모듈(100)에 대해 상세히 설명하기로 한다.Hereinafter, the
디스패리티 추정 모듈(100)은 요소 영상 배열에서 디스패리티 추정하기 위한 처리 과정에 따라 구분될 수 있는 다수의 모듈들을 포함하며, 예를 들면, 추출 모듈(110), 제1 백터 생성 모듈(120), 제2 백터 생성 모듈(130), 벡터 정합 모듈(140), 후보 수집 모듈(150) 및 디스패리티 추출 모듈(160)을 포함한다.The
추출 모듈(110)은 입력된 요소 영상 배열(Elemental Image Array; EIA)로부터 M×N(예, 3×3) 단위의 요소 영상 배열(EIA)를 추출하고, M×N 단위의 요소 영상 배열(EIA)로부터 기준 요소 영상(X: Reference EI)과 주변 요소 영상들(S: Neighbor EIs)을 추출하고, 상기 추출한 기준 요소 영상(X)을 제1 벡터 생성 모듈(120)로 입력하고, 상기 추출한 주변 요소 영상들(S)은 제2 벡터 생성 모듈(130)로 입력한다.The
주변 요소 영상들(S)의 추출을 위해, 추출 모듈(110)은 기준 요소 영상 (X)의 화소 좌표(r0, c0)를 설정(set)하고. 기준 요소 영상 (X)의 화소 좌표(r0, c0)를 설정(set)하면, 상기 설정한 기준 요소 영상 (X)의 화소 좌표(r0, c0)에 따라 주변 요소 영상들(S)을 선택 및 추출된다. 여기서, 주변 요소 영상들 (S)의 선택은 화소 좌표(r0, c0)로부터 출발하는 디스패리티 추정 경로에 따라 결정된다. 여기서, 디스패리티 추정 경로는 M×N 단위의 요소 영상 배열(EIA) 내에서 정의할 수 있는 3가지 배열 패턴들(예, 2×2 배열 패턴, 2×3(또는 3×2) 배열 패턴 및 3×3 배열 패턴) 별로 정의된다. 최소 3개에서 최대 8개의 주변 요소 영상들이 3가지 배열 패턴들 별로 선택 및 추출될 수 있다.For extraction of the peripheral element images (S), the
제1 벡터 생성 모듈(120)은 추출 모듈(110)로부터 입력된 기준 요소 영상 (X)에 포함된 화소들의 화소값들을 1차원 벡터 형태로 표현하여 제1 벡터(u)를 생성하고, 이를 벡터 정합 모듈(140)로 입력한다. 기준 요소 영상 (X)으로부터 생성된 제1 벡터(u)는 기준 벡터로 사용된다.The first
제2 벡터 생성 모듈(130)은 추출 모듈(110)로로부터 입력된 주변 요소 영상(S)들에 포함된 화소들의 화소값들을 1차원 벡터 형태로 표현하여 제2 벡터()로서 생성하고, 이를 벡터 정합 모듈(140)로 입력한다. 주변 요소 영상들(S)로부터 생성된 제2 벡터()는 n의 위치에 따라 다수의 벡터들을 포함하도록 구성된다.The second
벡터 정합 모듈(140)은 제1 벡터 생성 모듈(120)로부터 입력된 제1 벡터(u)와 제2 벡터 생성 모듈(130)로부터 입력된 제2 벡터() 간의 벡터 정합을 통해 최적의 정합 위치를 나타내는 n값(위치 인덱스 값)을 계산한다. n값은 주변 요소 영상들의 개수만큼 획득된다.The
후보 수집 모듈(150)은 벡터 정합 모듈(140)로부터 입력된 n값들을 수집하여, 수집된 n값들을 기준 요소 영상(X) 내의 화소들의 화소 좌표에 대한 디스패리티 후보 집합으로 구성한다.The
디스패리티 추출 모듈(160)은 후보 수집 모듈(150)로부터 입력된 디스패리티 후보 집합에 포함된 n값들(위치 인덱스 값들)의 빈도수 및/또는 분포도를 분석하여 가장 높은 빈도수 및/또는 가장 높은 분포도를 나타내는 최빈값(mode)에 해당하는 n값(위치 인덱스 값)을 최종 디스패리티로서 추출한다.The
이하, 디스패리티 추정 모듈(100)에 포함된 각 모듈의 처리 과정에 대해 더욱 상세히 설명하기로 한다.Hereinafter, a processing process of each module included in the
추출 모듈(110)Extraction module (110)
추출 모듈(110)은 입력된 요소 영상 배열(EIA)로부터 기준 요소 영상(X)과 주변 요소 영상들(S)을 추출한다.The
추출 모듈(110)로 입력되는 요소 영상 배열(EIA)은 2차원 렌즈 배열 또는 2차원 카메라 배열을 통해서 획득될 수 있다. 2차원 렌즈 배열은 광학적 구조 및 특성에 따라서 매우 다양한 패턴의 구조를 가질 수 있다. The element image array EIA input to the
2차원 렌즈 배열은, 예를 들면, 라이트 필드 카메라(Light field camera)에서 사용되는 매우 작은 마이크로 렌즈를 2차원으로 배열한 것일 수 있다. 또한, 2차원 렌즈 배열은 안경 렌즈와 같이 수 센티미터 크기의 범용적으로 활용되는 렌즈를 2차원으로 배열하는 것일 수 있다. 또한, 2차원 렌즈 배열은 미터급 대형 렌즈를 2차원으로 배열하는 것일 수 있다.The two-dimensional lens arrangement may be, for example, a two-dimensional arrangement of very small micro lenses used in a light field camera. In addition, the two-dimensional lens arrangement may be a two-dimensional arrangement of commonly used lenses having a size of several centimeters, such as spectacle lenses. In addition, the two-dimensional lens arrangement may be a two-dimensional arrangement of large-scale metric lenses.
본 실시 예에서는 2차원으로 배열된 요소 영상 배열(EIA)에서 가장 기본 구조로 볼 수 있는 렌즈 배열인 3x3 배열에 대한 요소 영상 배열에서 디스패리티를 추정하기 위한 방법을 제시한다. 따라서, 추출 모듈(110)은 입력된 요소 영상 배열(EIA)로부터 기준 요소 영상(X)과 주변 요소 영상들(S)을 추출하기에 앞서, 요소 영상 배열(EIA)로부터 3x3 배열(단위)의 요소 영상 배열(EIA)을 추출하는 과정을 선행한다.In this embodiment, a method for estimating disparity in an elemental image array with respect to a 3x3 array, which is a lens array that can be seen as the most basic structure in a two-dimensionally arranged elemental image array (EIA), is presented. Therefore, the
도 3은 본 발명의 실시 예에 따라 요소 영상 배열(EIA)로부터 3x3 배열(단위)의 요소 영상 배열(EIA)을 추출하는 과정을 설명하기 위한 도면이다.FIG. 3 is a diagram for explaining a process of extracting a 3x3 array (unit) of an elemental image array (EIA) from an elemental image array (EIA) according to an embodiment of the present invention.
도 3을 참조하면, 다양한 형태의 광학적 구조에서 얻어진 2차원 배열의 요소 영상들은 핵심 구조가 3×3 구조이다. 3×3 배열의 요소 영상 배열(EIA)은 상하좌우 대각 방향으로 디스패리티를 얻을 수 있는 구조이다. Referring to FIG. 3 , the core structure of the 2D array element images obtained from various types of optical structures is a 3×3 structure. The 3×3 element image array (EIA) has a structure in which disparity can be obtained in diagonal directions.
요소 영상 배열(EIA)에서 3×3배열의 요소 영상 배열(EIA)을 추출하는 것은 임의의 위치(ij)에 해당하는 요소 영상(Xij)을 기준으로 주변 요소 영상들(Snm: Si-1j-1, Si-1j, Si-1j+1, Sij-1, Sij+1, Si+1j-1, Si+1j, Si+1j+!)을 추출하는 것과 같다. 즉 본 발명은 기준 요소 영상(Xij)과 8개의 8개의 주변 요소 영상들로부터 디스패리티를 추정한다. 여기서 디스패리티 추정에 사용되는(또는 선택되는) 주변 요소 영상들(S)은 3×3배열의 요소 영상 배열(EIA)에서 구성할 수 있는 3가지 배열 패턴에 따라 결정될 수 있다. 여기서, 3가지 배열 패턴은, 예를 들면, 2×2 배열 패턴, 2×3배열 패턴(또는 3×2 배열 패턴) 및 3×3배열 패턴을 포함할 수 있다.Extracting an element image array (EIA) of a 3×3 array from an element image array (EIA) is based on the element image (X ij ) corresponding to an arbitrary position (ij) of the surrounding element images (Snm: S i- It is equivalent to extracting 1j-1 , S i-1j , S i-1j+1 , S ij-1 , S ij+1 , S i+1j-1 , S i+1j , S i+1j+! ). That is, the present invention estimates the disparity from the reference element image (X ij ) and eight 8 neighboring element images. Here, the peripheral element images S used (or selected) for disparity estimation may be determined according to three arrangement patterns that can be configured in the 3×3 element image array EIA. Here, the three arrangement patterns may include, for example, a 2x2 arrangement pattern, a 2x3 arrangement pattern (or a 3x2 arrangement pattern), and a 3x3 arrangement pattern.
도 4는 본 발명의 일 실시 예에 따른 2×2 배열 패턴에서의 디스패리티 추정 경로 및 이 경우에서 선택되는 주변 요소 영상들을 설명하기 위한 도면이고, 도 5는 본 발명의 다른 실시 예에 따른 2×3 배열 패턴 또는 3×2 배열 패턴에서의 디스패리티 추정 경로 및 이 경우에서 선택되는 주변 요소 영상들을 설명하기 위한 도면이고, 도 6은 본 발명의 또 다른 실시 예에 따른3×3 배열 패턴에서의 디스패리티 추정 경로 및 이 경우에서의 선택되는 주변 요소 영상들을 설명하기 위한 도면이다.4 is a diagram for explaining a disparity estimation path in a 2×2 array pattern and neighboring element images selected in this case according to an embodiment of the present invention, and FIG. 5 is a diagram for 2 according to another embodiment of the present invention. It is a diagram for explaining a disparity estimation path in a ×3 array pattern or a 3×2 array pattern and peripheral element images selected in this case, and FIG. 6 is a 3×3 array pattern according to another embodiment of the present invention. It is a diagram for explaining a disparity estimation path of , and neighboring element images selected in this case.
먼저, 도 4를 참조하면, 2×2 배열 패턴에서는 기준 요소 영상(X)이 4등분된 4개의 영역들(R1, R2, R3 및 R4)로 구획된다. 디스패리티를 추정하기 위한 위치 (r0, c0)가 4등분된 영역들(R1~R4) 중에서 어느 영역에 위치하는 지에 따라 디스패리티 추정 경로가 결정된다. 도 4에 도시된 바와 같이, 디스패리티를 추정하기 위한 화소 좌표(r0, c0)(또는 디스패리티 추정 위치)가 R1에 위치하는 경우에는, R1에 인접한 3개의 주변 요소 영상들(Si-1j-1, Si-1j, Sij-1)이 디스패리티 추정에 참여(사용)하도록 선택 및 추출된다. 만약, 디스패리티를 추정하기 위한 화소 위치(r0, c0)가 R2에 위치하는 경우, R2에 인접한 3개의 주변 요소 영상들(Si-1j+1, Si-1j, Sij+1)이 디스패리티 추정에 참여하도록 선택 및 추출된다. First, referring to FIG. 4 , in a 2×2 array pattern, the reference element image X is divided into four regions R1 , R2 , R3 and R4 divided into quarters. A disparity estimation path is determined according to which region among the regions R1 to R4 divided into quarters (r 0 , c 0 ) for estimating the disparity is located. As shown in FIG. 4 , when pixel coordinates (r 0 , c 0 ) (or disparity estimation position) for estimating disparity are located in R1, three neighboring element images S i adjacent to R1 -1j-1 , S i-1j , S ij-1 ) are selected and extracted to participate (use) in disparity estimation. If the pixel positions r 0 , c 0 for estimating the disparity are located in R2, three neighboring element images S i-1j+1 , S i-1j , S ij+1 adjacent to R2 ) is selected and extracted to participate in disparity estimation.
유사하게, 디스패리티를 추정하기 위한 화소 좌표(r0, c0)가 R3 또는 R4에 위치하는 경우, R3에 인접한 3개의 주변 요소 영상들(Si+1j-1, Sij-1, Si+1j) 또는 R4에 인접한 3개의 주변 요소 영상들(Si+1j+1, Si+1j, Sij+1)이 디스패리티 추정에 참여하도록 선택 및 추출된다.Similarly, when pixel coordinates (r 0 , c 0 ) for estimating disparity are located in R3 or R4, three neighboring element images (S i+1j-1 , S ij-1 , S adjacent to R3) i+1j ) or three neighboring element images (S i+1j+1 , S i+1j , S ij+1 ) adjacent to R4 are selected and extracted to participate in disparity estimation.
2x2 배열 패턴에서는 3개의 주변 요소 영상들로부터 최대 3개의 디스패리티들이 획득될 수 있다. 아래에서 설명하겠지만, 이렇게 얻어진 디스패리티는 아래에서 설명될 후보 수집 모듈(150)에 의해 화소 좌표(r0, c0)에 대한 디스패리티 후보군 집합으로 구성된다. 한편, 도 4에서 기준 요소 영상의 R1에 위치한 화소 좌표(r0, c0)로 향하는 3개의 단방향 화살표들(41, 42, 43)은 디스패리티 추정 경로를 나타낸다.In a 2x2 array pattern, a maximum of three disparities may be obtained from three neighboring element images. As will be described below, the disparity thus obtained is constituted by a set of disparity candidates for pixel coordinates (r 0 , c 0 ) by the
도 5를 참조하면, 2×3 배열 패턴 또는 3×2 배열 패턴에서는 기준 요소 영상(Xij)이 9등분된 9개의 영역들(R1~R9)로 구획되고, 화소 좌표(r0, c0)(또는 디스패리티 추정 위치)가 위치한 영역에 따라 5개의 주변 요소 영상들이 디스패리티 추정에 참여(사용)하도록 선택 및 추출된다. 예를 들면, 디스패리티 추정하기 위한 화소 위치(r0, c0)가 R2에 위치한 경우, 위쪽 3개의 주변 요소 영상들(Si-1j-1, Si-1j, Si-1j+1)과 좌우 2개의 주변 요소 영상들(Si+1j-1, Sij+1)이 디스패리티 추정에 참여(사용)하도록 선택 및 추출된다. 한편, 도 5에서 기준 요소 영상의 R2에 위치한 화소 위치(r0, c0)로 향하는 5개의 단방향 화살표들(51, 52, 53, 54, 55)은 디스패리티 추정 경로를 나타낸다.Referring to FIG. 5 , in a 2×3 array pattern or a 3×2 array pattern, the reference element image X ij is divided into nine regions R1 to R9 divided into nine parts, and pixel coordinates r 0 , c 0 ) (or disparity estimation position) is selected and extracted to participate in (use) the disparity estimation according to the region in which 5 neighboring element images are located. For example, when the pixel positions r 0 , c 0 for disparity estimation are located in R2, the upper three neighboring element images S i-1j-1 , S i-1j , and S i-1j+1 ) and the left and right two neighboring element images (S i+1j-1 , S ij+1 ) are selected and extracted to participate (use) in disparity estimation. Meanwhile, in FIG. 5 , five
도 6을 참조하면, 3×3 배열 패턴에서는 도 5에서 설명한 2×3 배열 패턴 또는 3×2 배열 패턴과 마찬가지로, 기준 요소 영상(Xij)이 9등분된 9개의 영역들(R1~R9)로 구획되고, 디스패리티 추정을 위한 화소 좌표(r0, c0)(또는 디스패리티 추정 위치)가 9개의 영역들(R1~R9) 중에서 중앙 영역(R5)에 위치한 경우, 8개의 모든 주변 요소 영상들(Si-1j-1, Si-1j, Si-1j+1, Sij-1, Sij+1, Si+1j-1, Si+1j-1 및 Si+1j+1)이 디스패리티 추정에 참여(사용)하도록 선택 및 추출된다. 한편, 도 6에서 기준 요소 영상의 R5에 위치한 화소 좌표(r0, c0)로 향하는 8개의 단방향 화살표들(61, 62, 63, 64, 65, 66, 67 및 68)은 디스패리티 추정 경로들을 나타낸다.Referring to FIG. 6 , in the 3×3 array pattern, like the 2×3 array pattern or the 3×2 array pattern described in FIG. 5 , the reference element image X ij is divided into nine regions R1 to R9 . , and when pixel coordinates (r 0 , c 0 ) for disparity estimation (or disparity estimation position) are located in the central region R5 among the 9 regions R1 to R9, all 8 peripheral elements Images (S i-1j-1 , S i-1j , S i-1j+1 , S ij-1 , S ij+1 , S i+1j-1 , S i+1j-1 and S i+1j+1 ) are selected and extracted to participate (use) in disparity estimation. Meanwhile, in FIG. 6 , eight
도 4 내지 6을 참조하여 설명한 3가지 배열 패턴을 기반으로 기준 요소 영상(X)의 모든 화소 좌표에서 각각 추정된 디스패리티(디스패리티 데이터 또는 디스패리티값)는 각 화소 좌표 별로 후보 집합으로 구성될 수 있다. 각 화소 좌표 별 디스패리티 후보 집합의 크기는 다양할 수 있다. Based on the three arrangement patterns described with reference to FIGS. 4 to 6 , each estimated disparity (disparity data or disparity value) in all pixel coordinates of the reference element image X is configured as a candidate set for each pixel coordinate. can The size of the disparity candidate set for each pixel coordinate may vary.
3가지 배열 패턴에 따른 디스패리티 추정 방법이 서로 다르고, 기준 요소 영상(X)의 중앙 십자 부분의 경우 중첩되어서 디스패리티를 추출하게 되기도 한다.Disparity estimation methods according to the three arrangement patterns are different from each other, and in the case of the central cross portion of the reference element image X, the disparity may be extracted by overlapping.
디스패리티의 추정 경로의 방향은 두 가지가 있을 수 있다. 도 6을 예로 들어 설명하면, 기준 요소 영상(Xij)의 중앙에 디스패리티를 추정하기 위한 화소 좌표(r0, c0)가 위치하는 경우, 주변 요소 영상 내에서 디스패리티 추정 경로의 시작 좌표는 기준 요소 영상(Xij) 내에서 설정한 화소 좌표(r0, c0)와 동일하게 설정된다. 이때 방향은 도 6에 도시된 바와 같이, 디스패리티의 추정 경로의 방향을 나타내는 화살표들(61, 62, 63, 64, 65, 66, 67 및 68)은 중앙의 기준 요소 영상 쪽으로 향한다. 이러한 화살표 방향은 렌즈 배열로부터 획득된 요소 영상의 위 아래가 뒤집힌 반전된 영상이 아님을 가정한다. 만약에 획득된 요소 영상이 직접 촬영 방법에 의해 렌즈 배열로부터 획득된 것인 경우, 그 획득된 요소 영상은 위아래가 뒤집힌 반전된 영상이다. 이처럼 획득된 요소 영상이 위아래가 뒤집힌 반전된 요소 영상인 경우, 디스패리티의 추정 경로의 방향(61~68의 화살표 방향)은 중심으로부터 바깥쪽으로 향하는 방향, 즉, 기준 요소 영상으로부터 주변 요소 영상들 쪽으로 향하는 방향이 된다. 만일 위아래가 뒤집힌 반전된 요소 영상에서 디스패리티 추정 경로의 방향을 도 6에 도시된 바와 같이 바깥쪽에서 중심쪽으로 향하는 방향으로 설정하고자는 경우에는 반전된 영상의 위아래를 다시 반전시키면, 도 6에 도시된 바와 같은 디스패리티 추정 경로의 방향 설정(바깥쪽에서 중심쪽으로 향하는 방향의 설정)이 가능하다.There may be two directions of the disparity estimation path. Referring to FIG. 6 as an example, when pixel coordinates (r 0 , c 0 ) for estimating disparity are located in the center of the reference element image (X ij ), the start coordinate of the disparity estimation path in the peripheral element image is set equal to the pixel coordinates (r 0 , c 0 ) set in the reference element image (X ij ). At this time, as shown in FIG. 6 , the
제1 백터 생성 모듈(120)first
제1 벡터 생성 모듈(120)은 디스패리티 추정 경로에 따라 기준 요소 영상(X)으로부터 주변 요소 영상(S)으로부터 추출된 벡터와 정합(matching)될 매칭 벡터를 추출하고, 그 추출된 매칭 벡터를 제1 벡터(u)로서 생성한다.The first
먼저, 기준 요소 영상(X) 내에서 기준 위치로 설정된 화소 좌표(r0, c0)에서 벡터를 추출한다. 화소 좌표(r0, c0)를 포함하는 적절한 크기의 블록을 정의하고, 그 정의된 블록에 포함된 화소 좌표들의 화소값들을 1차원 벡터로 재배열한다. 예를 들면 화소 좌표(r0, c0)를 포함하도록 정의된 블록 크기가 5x5 크기인 경우, 총 25개의 화소값들이 정의된다. 만일 기준 요소 영상이 컬러 영상인 경우, R값, G값, B값으로 이루어진3개의 컬러 성분을 고려하면, 75(=25×3)개의 화소값들이 정의된다. 제1 벡터(u)는 25개 또는 75개의 화소값들을 일차원 벡터로 재배열함으로써 생성될 수 있다. 여기서 25개 또는 75개의 화소값들의 재배열 순서는 크게 중요하지 않다. 다만 기준 요소 영상에서 정의된 25개 또는 75개의 화소값들의 재배열 순서는 주변 요소 영상에서 정의된 25개 또는 75개의 화소값들의 재배열 순서와 동일하게 결정된다. 한편, 화소 좌표(r0, c0)를 포함하도록 정의된 블록 크기는 시스템 파라미터로서 추정 성능 및 연산 속도에 영향을 줄 수 있다.First, a vector is extracted from the pixel coordinates (r 0 , c 0 ) set as the reference position in the reference element image (X). A block of an appropriate size including pixel coordinates (r 0 , c 0 ) is defined, and pixel values of pixel coordinates included in the defined block are rearranged into a one-dimensional vector. For example, when the block size defined to include the pixel coordinates (r 0 , c 0 ) is 5x5, a total of 25 pixel values are defined. If the reference element image is a color image, 75 (=25×3) pixel values are defined when three color components consisting of an R value, a G value, and a B value are considered. The first vector u may be generated by rearranging 25 or 75 pixel values into a one-dimensional vector. Here, the rearrangement order of the 25 or 75 pixel values is not very important. However, the rearrangement order of 25 or 75 pixel values defined in the reference element image is determined to be the same as the rearrangement order of 25 or 75 pixel values defined in the neighboring element image. Meanwhile, the block size defined to include the pixel coordinates (r 0 , c 0 ) is a system parameter and may affect estimation performance and operation speed.
제2 백터 생성 모듈(130)Second
제2 벡터 생성 모듈(130)은 디스패리티 추정 경로에 따라 선택된 주변 요소 영상으로부터 기준 요소 영상(X)으로부터 추출된 제1 벡터(u)와 정합(matching)될 매칭 벡터를 추출하고, 그 추출된 매칭 벡터를 제2 벡터()로서 생성한다.The second
제2 벡터()의 추출 및 생성 과정은 전술한 제1 벡터 생성 모듈(120)에 의해 수행되는 제1 벡터(u)의 추출 및 생성 과정과 유사하다. the second vector ( The extraction and generation process of ) is similar to the extraction and generation process of the first vector u performed by the above-described first
간략히 설명하면, 도 4 내지 도 6의 배열 패턴에 따라 선택된 주변 요소 영상 내에서 디스패리티 추정 경로 상의 각 화소 좌표를 포함하는 블록이 정의된다. 여기서, 디스패리티 추정 경로는 주변 요소 영상 내에서 디스패리티 추정 경로의 시작 위치로 설정된 화소 좌표와 기준 요소 영상(X) 내에서 기준 위치로 설정된 화소 좌표(r0, c0)를 연결하는 경로이고, 디스패리티 추정 경로의 시작 위치로 설정된 화소 좌표는 주변 요소 영상 내에서 기준 요소 영상(X) 내에서 기준 위치로 설정된 화소 좌표(r0, c0)에 대응하는 화소 좌표이다. 블록크기는 기준 요소 영상에서 정의된 블록 크기와 동일하다.Briefly, a block including coordinates of each pixel on the disparity estimation path is defined in the neighboring element image selected according to the arrangement pattern of FIGS. 4 to 6 . Here, the disparity estimation path is a path connecting the pixel coordinates set as the start position of the disparity estimation path in the peripheral element image and the pixel coordinates (r 0 , c 0 ) set as the reference position in the reference element image (X), and , the pixel coordinates set as the start position of the disparity estimation path are pixel coordinates corresponding to the pixel coordinates (r 0 , c 0 ) set as the reference position in the reference element image (X) in the peripheral element image. The block size is the same as the block size defined in the reference element image.
블록이 정의되면, 그 정의된 블록 내에 포함된 화소 좌표들의 화소값들이 1차원 벡터로 재배열함으로써, 1차원 벡터로 재배열된 화소값들을 제2 벡터()로서 생성한다.When a block is defined, pixel values of pixel coordinates included in the defined block are rearranged into a one-dimensional vector, so that the pixel values rearranged into a one-dimensional vector are converted into a second vector ( ) is created as
벡터 정합 모듈(140)Vector matching module (140)
벡터 정합 모듈(140)은, 디스패리티 후보 집합을 구성하기 위해, 상기 제2 벡터 생성 모듈(130)에 의해 디스패리티 추정 경로 상의 각 화소 좌표를 포함하는 블록으로부터 생성된(추출된 또는 정의된) 제2 벡터()와 상기 제1 벡터 생성 모듈(120)에 의해 기준 벡터로서 생성된(추출된 또는 정의된) 제1 벡터(u)를 정합한다. The
기준 요소 영상(X) 내에서 기준 위치에 해당하는 화소 좌표(r0, c0)에서 얻어진 제1 벡터를 'u'라고 하고, 주변 요소 영상의 동일 위치에서 얻어진 제2 벡터를 'vn'라고 가정한다. 여기서 vn의 아래 첨자 n은 디스패리티 추정 경로 상의 위치(또는 화소 좌표)를 의미하는 위치 인덱스 값이다. The first vector obtained from the pixel coordinates (r 0 , c 0 ) corresponding to the reference position in the reference element image (X) is 'u', and the second vector obtained from the same position of the peripheral element image is 'v n ' Assume that Here, the subscript n of v n is a position index value indicating a position (or pixel coordinate) on the disparity estimation path.
정합(matching)을 위해서 널리 알려진 적절한 가격 함수(비용함수, Cost Function) C(vn, u)가 이용될 수 있다. 가격 함수로, 예를 들면, MSE(mean square error), SAD(sum absolute difference), NCC(normalized correlation coefficient) 등과 같은 알고리즘이 이용될 수 있다.For matching, a well-known appropriate price function (Cost Function) C(v n , u) may be used. As the price function, for example, an algorithm such as mean square error (MSE), sum absolute difference (SAD), or normalized correlation coefficient (NCC) may be used.
적절한 가격 함수가 결정되면, 아래의 수학식 1을 이용하여 가격 함수가 최소가 되는 값을 상기 위치 인덱스 값 또는 유사도가 최대가 되는 값을 추정 경로 상의 위치 인덱스 값으로서 계산한다. When an appropriate price function is determined, a value at which the price function becomes the minimum value or a value at which the similarity becomes the maximum value is calculated as a location index value on the estimation
후보 수집 모듈(150)
후보 수집 모듈(150)은 벡터 정합 모듈(140)에 의해 수행되는 제1 벡터와 제2 벡터의 정합과정에서 계산된 위치 인덱스 값들(n 값들)을 기준 요소 영상(X) 내의 화소 좌표(r0, c0)에 대한 디스패리티 후보 집합으로 구성한다.The
디스패리티 추출 모듈(160)
디스패리티 추출 모듈(160)은 후보 수집 모듈(150)에 의해 구성된 디스패리티 후보 집합에 포함된 위치 인덱스 값들(n 값들) 중에서 최종 디스패리티 값(또는 디스패리티 데이터)을 추출(또는 추정)한다.The
디스패리티 후보 집합에서 디스패리티 값을 추출(추정)하기 위해, 통계적인 기법이 활용될 수 있다. 예를 들면, 위치 인덱스 값들(n 값들) 중에서 가장 높은 빈도수 및/또는 가장 높은 분포도를 나타내는 최빈값(mode)에 해당하는 n값(위치 인덱스 값)을 최종 디스패리티로서 추출한다.In order to extract (estimate) a disparity value from the disparity candidate set, a statistical technique may be utilized. For example, an n value (a location index value) corresponding to a mode indicating the highest frequency and/or the highest distribution among location index values (n values) is extracted as the final disparity.
최빈값을 선택할 때, 대략 ± 1의 차이를 갖는 n값들은 동일한 값으로 간주한다. 최빈값에 해당하는 n값(위치 인덱스 값)이 다수인 경우, 그 최빈값에 해당하는 다수의 n값들(위치 인덱스 값들)의 평균값을 최종 디스패리티 값(d)으로 추정 및 추출한다. n값들(위치 인덱스 값들)의 평균값에 기반한 최종 디스패리티 값(d)을 아래 수학식 2에 의해 계산될 수 있다.When choosing the mode, values of n with a difference of approximately ±1 are considered equal. When there are a plurality of n values (location index values) corresponding to the mode, the average value of the plurality of n values (location index values) corresponding to the mode is estimated and extracted as the final disparity value d. A final disparity value d based on an average of n values (position index values) may be calculated by
본 발명의 실시 예에 따른 요소 영상 배열에서 디스패리티 추정 방법에 대해 설명하기로 한다.A method for estimating disparity in an element image arrangement according to an embodiment of the present invention will be described.
먼저, 입력된 요소 영상 배열로부터 기준 요소 영상과 디스패리티 추정 경로 상에 위치하는 주변 요소 영상들을 추출하는 제1 단계가 수행된다.First, a first step of extracting the reference element image and the peripheral element images located on the disparity estimation path from the input element image array is performed.
이어, 상기 기준 요소 영상 내에서 상기 디스패리티 추정 경로의 기준 위치에 해당하는 화소 좌표(r0, c0)에 기초하여 제1 벡터(u)를 정의하는 제2 단계가 수행된다.Next, a second step of defining a first vector u based on pixel coordinates (r 0 , c 0 ) corresponding to a reference position of the disparity estimation path in the reference element image is performed.
이어, 각 주변 요소 영상 내에서 상기 디스패리티 추정 경로 상에 위치한 각 화소 좌표에 기초하여 제2 벡터(vn)를 정의하는 제3 단계가 수행된다.Next, a third step of defining the second vector v n is performed based on the coordinates of each pixel located on the disparity estimation path in each neighboring element image.
이어, 상기 제1 벡터와 상기 제2 벡터의 정합하는 과정에서 상기 디스패리티 추정 경로 상에서 최적의 정합 위치를 나타내는 위치 인덱스 값들(n 값들)을 계산하는 제4 단계가 수행된다.Next, in the process of matching the first vector and the second vector, a fourth step of calculating position index values (n values) indicating an optimal matching position on the disparity estimation path is performed.
이어, 상기 계산된 위치 인덱스 값들(n 값들)을 디스패리티 후보 집합으로 구성하는 제5 단계가 수행된다.Next, a fifth step of configuring the calculated position index values (n values) into a disparity candidate set is performed.
상기 디스패리티 후보 집합에 포함된 위치 인덱스 값들의 빈도수 및 분포도를 기반으로 상기 위치 인덱스 값들 중에서 최종 디스패리티 값을 추정하는 제6 단계가 수행된다.A sixth step of estimating a final disparity value among the location index values based on the frequency and distribution of location index values included in the disparity candidate set is performed.
상기 제1 단계는, 상기 입력된 요소 영상 배열로부터 상기 기준 요소 영상과 상기 기준 요소 영상을 둘러싸는 8개의 주변 요소 영상들로 이루어진 3×3 배열의 요소 영상 배열을 추출하는 단계 및 상기 3×3 배열의 요소 영상 배열로부터 상기 디스패리티 추정 경로 상에 위치하는 주변 요소 영상들을 추출하는 단계를 포함할 수 있다.The first step is to extract the element image array of a 3 × 3 array consisting of the reference element image and eight peripheral element images surrounding the reference element image from the input element image array and the 3 × 3 The method may include extracting neighboring element images located on the disparity estimation path from the element image arrangement of the array.
또한 상기 제1단계는, 상기 입력된 요소 영상 배열로부터 상기 기준 요소 영상과 상기 기준 요소 영상을 둘러싸는 8개의 주변 요소 영상들로 이루어진 3×3 배열의 요소 영상 배열을 추출하는 단계 및 상기 3×3 배열의 요소 영상 배열에서 구성할 수 있는 3가지 배열 패턴에 따라 결정되는 상기 디스패리티 추정 경로 상에 위치하는 상기 주변 요소 영상들을 추출하는 단계를 포함할 수 있다. 여기서, 상기 3가지 배열 패턴은, 2×2 배열 패턴(도 4), 2×3 또는 3×2 배열 패턴(도 5) 및 3×3 배열 패턴(도 6)을 포함할 수 있다.In addition, the first step is, extracting the element image array of a 3 × 3 array consisting of the reference element image and eight peripheral element images surrounding the reference element image from the input element image array and the 3 × The method may include extracting the neighboring element images located on the disparity estimation path determined according to three arrangement patterns that can be configured in a three-array element image arrangement. Here, the three arrangement patterns may include a 2×2 array pattern ( FIG. 4 ), a 2×3 or 3×2 array pattern ( FIG. 5 ), and a 3×3 array pattern ( FIG. 6 ).
상기 2×2 배열 패턴에 따라 결정되는 상기 디스패리티 추정 경로 상에 위치하는 상기 주변 요소 영상들을 추출하는 단계는, 상기 기준 요소 영상을 4등분한 4개의 영역들로 구획하는 단계, 상기 기준 위치에 해당하는 화소 좌표(r0, c0)를 상기 4개의 영역들 중에서 어느 하나의 영역에 위치하도록 설정하는 경우, 상기 화소 좌표(r0, c0)가 위치하도록 설정한 영역에 인접한 3개의 주변 요소 영상들을 상기 디스패리티 추정 경로 상에 위치하는 상기 주변 요소 영상들로서 추출하는 단계를 포함할 수 있다.The step of extracting the peripheral element images located on the disparity estimation path determined according to the 2×2 arrangement pattern includes dividing the reference element image into four regions divided into quarters; When the corresponding pixel coordinates (r 0 , c 0 ) are set to be located in any one of the four regions, three perimeters adjacent to the region where the pixel coordinates (r 0 , c 0 ) are set to be located It may include extracting the component images as the neighboring component images located on the disparity estimation path.
상기 2×3 또는 3×2 배열 패턴에 따라 결정되는 상기 디스패리티 추정 경로 상에 위치하는 상기 주변 요소 영상들을 추출하는 단계는, 상기 기준 요소 영상이 9등분한 9개의 영역들로 구획하는 단계 및 상기 기준 위치에 해당하는 화소 좌표(r0, c0)를 9개의 영역들 중에서 중심 영역(R5)의 상하좌우에 위치한 영역들(R2, R4, R6, R8) 중에서 어느 하나의 영역에 설정하는 경우, 상기 2×3 또는 3×2 배열 패턴에 포함되는 5개의 주변 요소 영상들을 상기 디스패리티 추정 경로 상에 위치하는 주변 요소 영상들로서 추출하는 단계를 포함할 수 있다.The extracting of the peripheral element images located on the disparity estimation path determined according to the 2×3 or 3×2 arrangement pattern may include partitioning the reference element image into nine regions divided into 9 equal parts; The pixel coordinates (r 0 , c 0 ) corresponding to the reference position are set in any one of the regions (R2, R4, R6, R8) located on the top, bottom, left and right of the central region (R5) among the nine regions. In this case, the method may include extracting five neighboring element images included in the 2×3 or 3×2 array pattern as neighboring element images positioned on the disparity estimation path.
상기 3×3 배열 패턴에 따라 결정되는 상기 디스패리티 추정 경로 상에 위치하는 상기 주변 요소 영상들을 추출하는 단계는, 상기 기준 요소 영상이 9등분한 9개의 영역들로 구획하는 단계 및 상기 기준 위치에 해당하는 화소 좌표(r0, c0)를 상기 9개의 영역들 중에서 중심 영역(R5)에 설정하는 경우, 상기 3×3 배열 패턴에 포함되는 8개의 주변 요소 영상들을 상기 디스패리티 추정 경로 상에 위치하는 주변 요소 영상들로서 추출하는 단계를 포함할 수 있다.The extracting of the peripheral element images located on the disparity estimation path determined according to the 3×3 arrangement pattern includes dividing the reference element image into nine regions divided into nine equal parts and at the reference position. When the corresponding pixel coordinates (r 0 , c 0 ) are set in the central region R5 among the 9 regions, 8 peripheral element images included in the 3×3 array pattern are displayed on the disparity estimation path. It may include the step of extracting the located surrounding element images.
상기 제2 단계에서, 상기 제1 벡터(u)를 정의하는 단계는, 상기 화소 좌표(r0, c0)를 포함하는 블록을 정의하는 단계, 상기 정의된 블록에 포함된 화소들의 화소값들을 1차원 벡터로 재배열하는 단계 및 상기 1차원 벡터로 재배열된 화소값들을 상기 제1 벡터(u)로 정의하는 단계를 포함할 수 있다.In the second step, the defining of the first vector u includes defining a block including the pixel coordinates r 0 , c 0 , and defining pixel values of pixels included in the defined block. It may include rearranging the one-dimensional vector and defining the pixel values rearranged with the one-dimensional vector as the first vector (u).
상기 제3 단계에서, 상기 제2 벡터(vn)를 정의하는 단계는, 각 주변 요소 영상 내에서 상기 화소 좌표(r0, c0)와 동일한 위치에 해당하는 화소 좌표를 포함하는 블록을 정의하는 단계, 상기 정의된 블록에 포함된 화소들의 화소값들을 1차원 벡터로 재배열하는 단계 및 상기 1차원 벡터로 재배열된 화소값들을 상기 제2 벡터(vn)로 정의하는 단계를 포함할 수 있다.In the third step, the step of defining the second vector (v n ) defines a block including pixel coordinates corresponding to the same position as the pixel coordinates (r 0 , c 0 ) within each peripheral element image. It may include the steps of rearranging pixel values of pixels included in the defined block into a one-dimensional vector, and defining the pixel values rearranged with the one-dimensional vector as the second vector (v n ). can
상기 제4 단계에서, 상기 위치 인덱스 값들(n 값들)을 계산하는 단계는 상기 제1 벡터와 상기 제2 벡터의 정합하는 과정에서 사용되는 가격 함수가 최소가 되는 값을 상기 위치 인덱스 값들(n 값들)로서 계산하는 단계일 수 있다.In the fourth step, the step of calculating the location index values (n values) is a value at which the price function used in the process of matching the first vector and the second vector is the minimum value of the location index values (n values) ) may be a step of calculating as
상기 제6 단계에서, 상기 최종 디스패리티 값을 추정하는 단계는, 상기 위치 인덱스 값들(n 값들) 중에서 가장 높은 빈도수 또는 가장 높은 분포도를 나타내는 최빈값(mode)에 해당하는 위치 인덱스 값을 상기 최종 디스패리티로서 추정하는 단계일 수 있다.In the sixth step, the step of estimating the final disparity value includes a position index value corresponding to a mode indicating the highest frequency or highest distribution among the position index values (n values) as the final disparity value. It may be a step of estimating as
이상 설명한 본 발명의 요소 영상 배열에서 디스패리티를 추정하는 방법은 컴퓨터 시스템에서 구현되거나, 또는 기록매체에 기록될 수 있다. 컴퓨터 시스템은 적어도 하나 이상의 프로세서와, 메모리와, 사용자 입력 장치와, 데이터 통신 버스와, 사용자 출력 장치와, 저장소를 포함할 수 있다. 전술한 각각의 구성 요소는 데이터 통신 버스를 통해 데이터 통신을 한다.The method for estimating disparity in the element image arrangement of the present invention described above may be implemented in a computer system or recorded in a recording medium. A computer system may include at least one processor, memory, a user input device, a data communication bus, a user output device, and storage. Each of the above-described components performs data communication through a data communication bus.
프로세서와 관련해, 도 3에 도시한 구성들(110, 120, 130, 140 및 150)은 기능 로직들로 각각 구현되어 하나의 프로세서 내에 탑재될 수 있으며, 각각이 별도의 프로세서로 구현될 수도 있다.With respect to the processor, the
컴퓨터 시스템은 네트워크에 커플링된 네트워크 인터페이스를 더 포함할 수 있다. 프로세서는 중앙처리 장치(central processing unit (CPU))이거나, 혹은 메모리 및/또는 저장소에 저장된 명령어를 처리하는 반도체 장치일 수 있다. The computer system may further include a network interface coupled to the network. The processor may be a central processing unit (CPU) or a semiconductor device that processes instructions stored in a memory and/or storage.
메모리 및 저장소는 다양한 형태의 휘발성 혹은 비휘발성 저장매체를 포함할 수 있다. 예컨대, 메모리는 ROM 및 RAM을 포함할 수 있다.The memory and storage may include various types of volatile or non-volatile storage media. For example, memory may include ROM and RAM.
또한, 본 발명에 따른 집적 영상 기반의 영상 복원 방법은 컴퓨터에서 실행 가능한 방법으로 구현될 수 있다. In addition, the image restoration method based on the integrated image according to the present invention may be implemented as a method executable in a computer.
상술한 본 발명에 따른 집적 영상 기반의 영상 복원 방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체로는 컴퓨터 시스템에 의하여 해독될 수 있는 데이터가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래시 메모리, 광 데이터 저장장치 등이 있을 수 있다. The image restoration method based on the integrated image according to the present invention described above may be implemented as computer-readable codes on a computer-readable recording medium. The computer-readable recording medium includes any type of recording medium in which data that can be read by a computer system is stored. For example, there may be a read only memory (ROM), a random access memory (RAM), a magnetic tape, a magnetic disk, a flash memory, an optical data storage device, and the like.
또한, 컴퓨터로 판독 가능한 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다.In addition, the computer-readable recording medium may be distributed in computer systems connected through a computer communication network, and stored and executed as readable codes in a distributed manner.
이제까지 본 발명을 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양하게 변경 또는 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명을 위한 예시적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been looked at focusing on examples. Those of ordinary skill in the art to which the present invention pertains will understand that the present invention may be implemented in variously changed or modified forms without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments are to be considered in terms of illustrative rather than restrictive views. The scope of the present invention is indicated in the claims rather than the foregoing description, and all differences within the scope equivalent thereto should be construed as being included in the present invention.
Claims (16)
상기 기준 요소 영상 내에서 상기 디스패리티 추정 경로의 기준 위치에 해당하는 화소 좌표(r0, c0)에 기초하여 제1 벡터(u)를 정의하는 단계;
각 주변 요소 영상 내에서 상기 디스패리티 추정 경로 상에 위치한 화소 좌표에 기초하여 제2 벡터(vn)를 정의하는 단계;
상기 제1 벡터와 상기 제2 벡터의 정합하는 과정에서 상기 디스패리티 추정 경로 상에서 최적의 정합 위치를 나타내는 위치 인덱스 값들(n 값들)을 계산하는 단계;
상기 계산된 위치 인덱스 값들(n 값들)을 디스패리티 후보 집합으로 구성하는 단계; 및
상기 디스패리티 후보 집합에 포함된 위치 인덱스 값들의 빈도수 및 분포도를 기반으로 상기 위치 인덱스 값들 중에서 최종 디스패리티 값을 추정하는 단계를 포함하고,
상기 추출하는 단계는,
상기 입력된 요소 영상 배열로부터 상기 기준 요소 영상과 상기 기준 요소 영상을 둘러싸는 8개의 주변 요소 영상들로 이루어진 3×3 배열의 요소 영상 배열을 추출하는 단계; 및
상기 3×3 배열의 요소 영상 배열로부터 상기 디스패리티 추정 경로 상에 위치하는 주변 요소 영상들을 추출하는 단계;
를 포함하는 요소 영상 배열에서 디스패리티 추정 방법.extracting a reference element image and neighboring element images located on a disparity estimation path from the input element image array;
defining a first vector (u) based on pixel coordinates (r 0 , c 0 ) corresponding to a reference position of the disparity estimation path in the reference element image;
defining a second vector (v n ) based on pixel coordinates located on the disparity estimation path in each neighboring element image;
calculating position index values (n values) indicating an optimal matching position on the disparity estimation path in a process of matching the first vector and the second vector;
composing the calculated position index values (n values) into a disparity candidate set; and
estimating a final disparity value from among the location index values based on the frequency and distribution of location index values included in the disparity candidate set,
The extracting step is
extracting an element image array of a 3×3 array consisting of the reference element image and eight peripheral element images surrounding the reference element image from the input element image array; and
extracting neighboring element images located on the disparity estimation path from the element image arrangement of the 3×3 array;
A method of estimating disparity in an elemental image array comprising
상기 추출하는 단계는,
상기 입력된 요소 영상 배열로부터 상기 기준 요소 영상과 상기 기준 요소 영상을 둘러싸는 8개의 주변 요소 영상들로 이루어진 3×3 배열의 요소 영상 배열을 추출하는 단계; 및
상기 3×3 배열의 요소 영상 배열에서 구성할 수 있는 3가지 배열 패턴에 따라 결정되는 상기 디스패리티 추정 경로 상에 위치하는 상기 주변 요소 영상들을 추출하는 단계를 포함하고,
상기 3가지 배열 패턴은,
2×2 배열 패턴, 2×3 또는 3×2 배열 패턴 및 3×3 배열 패턴을 포함하는 것인 요소 영상 배열에서 디스패리티 추정 방법.In claim 1,
The extracting step is
extracting an element image array of a 3×3 array consisting of the reference element image and eight peripheral element images surrounding the reference element image from the input element image array; and
and extracting the neighboring element images located on the disparity estimation path determined according to three arrangement patterns that can be configured in the 3×3 element image arrangement,
The three arrangement patterns are,
A method for estimating disparity in an elemental image array comprising a 2×2 array pattern, a 2×3 or 3×2 array pattern, and a 3×3 array pattern.
상기 2×2 배열 패턴에 따라 결정되는 상기 디스패리티 추정 경로 상에 위치하는 상기 주변 요소 영상들을 추출하는 단계는,
상기 기준 요소 영상을 4등분한 4개의 영역들로 구획하는 단계;
상기 기준 위치에 해당하는 화소 좌표(r0, c0)를 상기 4개의 영역들 중에서 어느 하나의 영역에 위치하도록 설정하는 경우, 상기 화소 좌표(r0, c0)가 위치하도록 설정한 영역에 인접한 3개의 주변 요소 영상들을 상기 디스패리티 추정 경로 상에 위치하는 상기 주변 요소 영상들로서 추출하는 단계;
를 포함하는 것인 요소 영상 배열에서 디스패리티 추정 방법.In claim 3,
The extracting of the neighboring element images located on the disparity estimation path determined according to the 2×2 arrangement pattern includes:
dividing the reference element image into four regions divided into quadrants;
When the pixel coordinates (r 0 , c 0 ) corresponding to the reference position are set to be located in any one of the four regions, the pixel coordinates (r 0 , c 0 ) are located in the region set to be located. extracting three adjacent component images as the neighboring component images located on the disparity estimation path;
A method for estimating disparity in an elemental image array, comprising:
상기 2×3 또는 3×2 배열 패턴에 따라 결정되는 상기 디스패리티 추정 경로 상에 위치하는 상기 주변 요소 영상들을 추출하는 단계는,
상기 기준 요소 영상이 9등분한 9개의 영역들로 구획하는 단계; 및
상기 기준 위치에 해당하는 화소 좌표(r0, c0)를 9개의 영역들 중에서 중심 영역(R5)의 상하좌우에 위치한 영역들(R2, R4, R6, R8) 중에서 어느 하나의 영역에 설정하는 경우, 상기 2×3 또는 3×2 배열 패턴에 포함되는 5개의 주변 요소 영상들을 상기 디스패리티 추정 경로 상에 위치하는 주변 요소 영상들로서 추출하는 단계
를 포함하는 것인 요소 영상 배열에서 디스패리티 추정 방법.In claim 3,
The step of extracting the neighboring element images located on the disparity estimation path determined according to the 2×3 or 3×2 arrangement pattern includes:
dividing the reference element image into nine regions divided into nine equal parts; and
The pixel coordinates (r 0 , c 0 ) corresponding to the reference position are set in any one of the regions (R2, R4, R6, R8) located on the top, bottom, left and right of the central region (R5) among the nine regions. case, extracting five neighboring element images included in the 2x3 or 3x2 array pattern as neighboring element images located on the disparity estimation path
A method for estimating disparity in an elemental image array, comprising:
상기 3×3 배열 패턴에 따라 결정되는 상기 디스패리티 추정 경로 상에 위치하는 상기 주변 요소 영상들을 추출하는 단계는,
상기 기준 요소 영상이 9등분한 9개의 영역들로 구획하는 단계; 및
상기 기준 위치에 해당하는 화소 좌표(r0, c0)를 상기 9개의 영역들 중에서 중심 영역(R5)에 설정하는 경우, 상기 3×3 배열 패턴에 포함되는 8개의 주변 요소 영상들을 상기 디스패리티 추정 경로 상에 위치하는 주변 요소 영상들로서 추출하는 단계
를 포함하는 것인 요소 영상 배열에서 디스패리티 추정 방법.In claim 3,
The extracting of the neighboring element images located on the disparity estimation path determined according to the 3×3 arrangement pattern comprises:
dividing the reference element image into nine regions divided into nine equal parts; and
When the pixel coordinates (r 0 , c 0 ) corresponding to the reference position are set in the central region R5 among the nine regions, eight peripheral element images included in the 3×3 array pattern are displayed in the disparity Extracting as peripheral element images located on the estimation path
A method for estimating disparity in an elemental image array, comprising:
상기 제1 벡터(u)를 정의하는 단계는,
상기 화소 좌표(r0, c0)를 포함하는 블록을 정의하는 단계;
상기 정의된 블록에 포함된 화소들의 화소값들을 1차원 벡터로 재배열하는 단계; 및
상기 1차원 벡터로 재배열된 화소값들을 상기 제1 벡터(u)로 정의하는 단계;
를 포함하는 것인 요소 영상 배열에서 디스패리티 추정 방법.In claim 1,
The step of defining the first vector (u) comprises:
defining a block including the pixel coordinates (r 0 , c 0 );
rearranging pixel values of pixels included in the defined block into a one-dimensional vector; and
defining the pixel values rearranged in the one-dimensional vector as the first vector (u);
A method for estimating disparity in an elemental image array, comprising:
상기 제2 벡터(vn)를 정의하는 단계는,
각 주변 요소 영상 내에서 상기 화소 좌표(r0, c0)와 동일한 위치에 해당하는 화소 좌표를 포함하는 블록을 정의하는 단계
상기 정의된 블록에 포함된 화소들의 화소값들을 1차원 벡터로 재배열하는 단계; 및
상기 1차원 벡터로 재배열된 화소값들을 상기 제2 벡터(vn)로 정의하는 단계;
를 포함하는 것인 요소 영상 배열에서 디스패리티 추정 방법.In claim 1,
The step of defining the second vector (v n ) is,
Defining a block including pixel coordinates corresponding to the same position as the pixel coordinates (r 0 , c 0 ) within each peripheral element image
rearranging pixel values of pixels included in the defined block into a one-dimensional vector; and
defining the pixel values rearranged in the one-dimensional vector as the second vector (v n );
A method for estimating disparity in an elemental image array, comprising:
상기 위치 인덱스 값들(n 값들)을 계산하는 단계는,
상기 제1 벡터와 상기 제2 벡터의 정합하는 과정에서 사용되는 가격 함수가 최소가 되는 값을 상기 위치 인덱스 값들(n 값들)로서 계산하는 단계인 것인 요소 영상 배열에서 디스패리티 추정 방법.In claim 1,
Calculating the position index values (n values) comprises:
The method of estimating disparity in an elemental image array, comprising calculating, as the position index values (n values), a value at which a price function used in the process of matching the first vector and the second vector becomes the minimum.
상기 최종 디스패리티 값을 추정하는 단계는,
상기 위치 인덱스 값들(n 값들) 중에서 가장 높은 빈도수 또는 가장 높은 분포도를 나타내는 최빈값(mode)에 해당하는 위치 인덱스 값을 상기 최종 디스패리티로서 추정하는 단계인 것인 요소 영상 배열에서 디스패리티 추정 방법.In claim 1,
The step of estimating the final disparity value comprises:
The method of estimating a position index value corresponding to a mode indicating the highest frequency or highest distribution among the position index values (n values) as the final disparity.
상기 디스패리티 추정 모듈은,
입력된 요소 영상 배열로부터 기준 요소 영상과 디스패리티 추정 경로 상에 위치하는 주변 요소 영상들을 추출하는 추출 모듈;
상기 기준 요소 영상 내에서 상기 디스패리티 추정 경로의 기준 위치에 해당하는 화소 좌표(r0, c0)에 기초하여 제1 벡터(u)를 생성하는 제1 벡터 생성 모듈;
각 주변 요소 영상 내에서 상기 디스패리티 추정 경로 상에 위치한 화소 좌표에 기초하여 제2 벡터(vn)를 생성하는 제2 벡터 생성 모듈;
상기 제1 벡터와 상기 제2 벡터의 정합하는 과정에서 상기 디스패리티 추정 경로 상에서 최적의 정합 위치를 나타내는 위치 인덱스 값들(n 값들)을 계산하는 벡터 정합 모듈;
상기 계산된 위치 인덱스 값들(n 값들)을 디스패리티 후보 집합으로 구성하는 후보 수집 모듈; 및
상기 위치 인덱스 값들의 빈도수 및 분포도를 기반으로 상기 디스패리티 후보 집합으로 구성된 상기 위치 인덱스 값들 중에서 최종 디스패리티 값을 추출하는 디스패리티 추출 모듈을 포함하고,
상기 추출 모듈은,
상기 입력된 요소 영상 배열로부터 상기 기준 요소 영상과 상기 기준 요소 영상을 둘러싸는 8개의 주변 요소 영상들로 이루어진 3×3 배열의 요소 영상 배열을 추출한 후, 상기 3×3 배열의 요소 영상 배열에서 구성할 수 있는 3가지 배열 패턴에 따라 결정되는 상기 디스패리티 추정 경로 상에 위치하는 상기 주변 요소 영상들을 추출하는 것인 컴퓨팅 장치.A computing device for estimating disparity in an element image array, the computing device comprising a disparity estimation module, a processor, a memory, and a system bus connecting them;
The disparity estimation module,
an extraction module for extracting a reference element image and neighboring element images located on a disparity estimation path from the input element image array;
a first vector generating module that generates a first vector (u) based on pixel coordinates (r 0 , c 0 ) corresponding to a reference position of the disparity estimation path in the reference element image;
a second vector generating module for generating a second vector (v n ) based on pixel coordinates located on the disparity estimation path in each neighboring element image;
a vector matching module for calculating position index values (n values) indicating an optimal matching position on the disparity estimation path in a process of matching the first vector and the second vector;
a candidate collection module that configures the calculated position index values (n values) into a disparity candidate set; and
a disparity extraction module for extracting a final disparity value from among the location index values composed of the disparity candidate set based on the frequency and distribution of the location index values;
The extraction module,
After extracting a 3×3 element image array consisting of the reference element image and eight peripheral element images surrounding the reference element image from the input element image array, it is constructed in the 3×3 array element image array A computing device that extracts the neighboring element images located on the disparity estimation path determined according to three possible arrangement patterns.
상기 3가지 배열 패턴은,
2×2 배열 패턴, 2×3 또는 3×2 배열 패턴 및 3×3 배열 패턴을 포함하는 것인 컴퓨팅 장치.In claim 11,
The three arrangement patterns are,
A computing device comprising a 2x2 arrangement pattern, a 2x3 or 3x2 arrangement pattern, and a 3x3 arrangement pattern.
상기 추출 모듈은,
상기 디스패리티 추정 경로가 2×2 배열 패턴에 따라 결정되는 경우, 상기 2×2 배열 패턴에 포함된 3개의 주변 요소 영상들을 추출하고, 상기 디스패리티 추정 경로가 2×3 또는 3×2배열 패턴에 따라 결정되는 경우, 상기 2×3 또는 3×2배열 패턴에 포함된 5개의 주변 요소 영상들을 추출하고, 상기 디스패리티 추정 경로가 3×3 배열 패턴에 따라 결정되는 경우, 3×3 배열 패턴에 포함된 8개의 주변 요소 영상들을 추출하는 것인 컴퓨팅 장치.In claim 13,
The extraction module,
When the disparity estimation path is determined according to a 2×2 array pattern, three neighboring element images included in the 2×2 array pattern are extracted, and the disparity estimation path is a 2×3 or 3×2 array pattern is determined according to, extracting five neighboring element images included in the 2×3 or 3×2 array pattern, and when the disparity estimation path is determined according to the 3×3 array pattern, a 3×3 array pattern A computing device that extracts eight peripheral element images included in the .
상기 벡터 정합 모듈은,
상기 제1 벡터와 상기 제2 벡터의 정합하는 과정에서 사용되는 가격 함수가 최소가 되는 값을 상기 위치 인덱스 값들(n 값들)로서 계산하는 것인 컴퓨팅 장치.In claim 11,
The vector matching module,
A computing device that calculates, as the location index values (n values), a value at which a price function used in a process of matching the first vector and the second vector becomes the minimum.
상기 디스패리티 추출 모듈은,
상기 위치 인덱스 값들(n 값들) 중에서 가장 높은 빈도수 또는 가장 높은 분포도를 나타내는 최빈값(mode)에 해당하는 위치 인덱스 값을 상기 최종 디스패리티로서 추출하는 것인 컴퓨팅 장치.In claim 11,
The disparity extraction module,
A computing device that extracts a location index value corresponding to a mode indicating the highest frequency or highest distribution among the location index values (n values) as the final disparity.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200157880A KR102386002B1 (en) | 2020-11-23 | 2020-11-23 | Method and apparatus for estimating disparity in element image array |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200157880A KR102386002B1 (en) | 2020-11-23 | 2020-11-23 | Method and apparatus for estimating disparity in element image array |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102386002B1 true KR102386002B1 (en) | 2022-04-13 |
Family
ID=81212994
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200157880A KR102386002B1 (en) | 2020-11-23 | 2020-11-23 | Method and apparatus for estimating disparity in element image array |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102386002B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100275542B1 (en) * | 1997-12-17 | 2000-12-15 | 이계철 | Stereo image compression method |
KR20140076085A (en) * | 2012-12-12 | 2014-06-20 | 엘지디스플레이 주식회사 | Disparity calculation method and stereoscopic image display device |
KR20140146605A (en) * | 2012-03-14 | 2014-12-26 | 퀄컴 인코포레이티드 | Disparity vector construction method for 3d-hevc |
-
2020
- 2020-11-23 KR KR1020200157880A patent/KR102386002B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100275542B1 (en) * | 1997-12-17 | 2000-12-15 | 이계철 | Stereo image compression method |
KR20140146605A (en) * | 2012-03-14 | 2014-12-26 | 퀄컴 인코포레이티드 | Disparity vector construction method for 3d-hevc |
KR20140076085A (en) * | 2012-12-12 | 2014-06-20 | 엘지디스플레이 주식회사 | Disparity calculation method and stereoscopic image display device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10944960B2 (en) | Free-viewpoint video generating method and free-viewpoint video generating system | |
US8433157B2 (en) | System and method for three-dimensional object reconstruction from two-dimensional images | |
US8452081B2 (en) | Forming 3D models using multiple images | |
CA2650557C (en) | System and method for three-dimensional object reconstruction from two-dimensional images | |
US8447099B2 (en) | Forming 3D models using two images | |
CN109564691B (en) | Apparatus and method for performing 3D estimation based on locally determined 3D information hypothesis | |
CN106447762B (en) | Three-dimensional rebuilding method and system based on field information | |
CN105721768B (en) | Method and apparatus for generating a suitable slice image from a focus stack | |
CN115035235A (en) | Three-dimensional reconstruction method and device | |
Wu et al. | Geometry based three-dimensional image processing method for electronic cluster eye | |
JP2016509805A (en) | High frame rate of image stream | |
CN117274514A (en) | Remote sensing image generation method and device based on ground-air visual angle geometric transformation | |
JP6285686B2 (en) | Parallax image generation device | |
CN113962864A (en) | Image splicing method and device, storage medium and electronic device | |
Li et al. | Self-supervised light field depth estimation using epipolar plane images | |
JP2019120590A (en) | Parallax value calculation device, parallax value calculation method and program | |
KR102386002B1 (en) | Method and apparatus for estimating disparity in element image array | |
JP2018081378A (en) | Image processing apparatus, imaging device, image processing method, and image processing program | |
Tran et al. | Variational disparity estimation framework for plenoptic images | |
KR20220013183A (en) | Image restoration method and device | |
Sawires et al. | Disparity map using suboptimal cost with dynamic programming | |
KR20090091901A (en) | Apparatus for three-dimensional object recognition using occlusion removal technique | |
Chuchvara | Methods for Fast and Accurate Depth Estimation from Sparse Light Fields | |
KR20220071935A (en) | Method and Apparatus for Deriving High-Resolution Depth Video Using Optical Flow | |
Guo | Combining learning and computational imaging for 3D inference |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |