KR101038402B1 - Real-time capturing and generating stereo images and videos with a monoscopic low power mobile device - Google Patents
Real-time capturing and generating stereo images and videos with a monoscopic low power mobile device Download PDFInfo
- Publication number
- KR101038402B1 KR101038402B1 KR1020097004126A KR20097004126A KR101038402B1 KR 101038402 B1 KR101038402 B1 KR 101038402B1 KR 1020097004126 A KR1020097004126 A KR 1020097004126A KR 20097004126 A KR20097004126 A KR 20097004126A KR 101038402 B1 KR101038402 B1 KR 101038402B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- depth
- depth map
- block
- video
- Prior art date
Links
- 238000000034 method Methods 0.000 claims abstract description 109
- 230000008569 process Effects 0.000 claims abstract description 75
- 230000033001 locomotion Effects 0.000 claims description 30
- 230000000694 effects Effects 0.000 claims description 19
- 238000001914 filtration Methods 0.000 claims description 9
- 230000000977 initiatory effect Effects 0.000 claims 2
- 238000001514 detection method Methods 0.000 description 20
- 238000013459 approach Methods 0.000 description 13
- 238000012545 processing Methods 0.000 description 12
- 238000010845 search algorithm Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000009194 climbing Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000009977 dual effect Effects 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000011946 reduction process Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 238000000429 assembly Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000012384 transportation and delivery Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/2224—Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
- H04N5/2226—Determination of depth image, e.g. for foreground/background separation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/571—Depth or shape recovery from multiple images from focus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/161—Encoding, multiplexing or demultiplexing different image signal components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/236—Image signal generators using stereoscopic image cameras using a single 2D image sensor using varifocal lenses or mirrors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/673—Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Focusing (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Automatic Focus Adjustment (AREA)
Abstract
모노스코픽 저-전력 이동 디바이스는 단일 포착된 뷰로부터 실-시간 스테레오 이미지 및 비디오를 생성할 수 있다. 그 디바이스는 오토포커싱 프로세스로부터의 통계를 사용하여, 단일 포착된 뷰의 블록 깊이 맵을 생성한다. 블록 깊이 맵에서의 아티팩트가 감소되고 이미지 깊이 맵이 생성된다. 쌍안 비전의 기하학적 구조의 함수인 디스패리티 맵 및 Z-버퍼 기반 3D 표면 복원 프로세스를 사용하여, 스테레오 3-차원 (3D) 좌측 및 우측 뷰가 이미지 깊이 맵으로부터 생성된다.
모노스코픽 저-전력 디바이스, 스틸 이미지, 비디오 이미지
Monoscopic low-power mobile devices can generate real-time stereo images and video from a single captured view. The device uses the statistics from the autofocusing process to generate a block depth map of a single captured view. Artifacts in the block depth map are reduced and an image depth map is generated. Using a disparity map and a Z-buffer based 3D surface reconstruction process that is a function of the geometry of the binocular vision, stereo three-dimensional (3D) left and right views are generated from the image depth map.
Monoscopic low-power devices, still images, video images
Description
발명의 배경Background of the Invention
기술분야Technical Field
일반적으로, 본 발명은, 핸드-헬드 카메라, 캠코더, 단일-센서 카메라 전화기, 또는 실-시간 이미지들 및 비디오들을 생성할 수 있는 다른 단일 카메라 센서 디바이스와 같은 모노스코픽 저-전력 이동 디바이스에 관한 것이다. 또한, 본 발명은, 실-시간 스테레오 이미지, 스틸 이미지 (still image) 포착 디바이스를 생성하는 방법 및 비디오 이미지 포착 디바이스에 관한 것이다.In general, the present invention relates to a monoscopic low-power mobile device, such as a hand-held camera, a camcorder, a single-sensor camera phone, or another single camera sensor device capable of generating real-time images and videos. . The invention also relates to a real-time stereo image, a method of generating a still image capture device, and a video image capture device.
배경기술Background
최근, 지각적인 리얼리즘은 다음 세대의 멀티미디어 개발의 변혁을 이끄는 주요한 힘들 중 하나가 되어 가고 있다. 고속으로 발전하는 멀티미디어 통신 및 엔터테이먼트 시장은, 스테레오 이미지 포착, 프로세싱, 압축, 전달, 및 디스플레이를 커버링하는 3D 스테레오스코픽 (stereoscopic) 이미지 및 비디오 기술들을 요청한다. 3DTV 및 MPEG 3 DAV와 같은 장래의 표준들에 관한 몇몇 시도가 그러한 요청들을 충족하도록 런칭 (launch) 되었다.In recent years, perceptual realism has become one of the major forces driving the transformation of the next generation of multimedia development. The rapidly evolving multimedia communications and entertainment market calls for 3D stereoscopic image and video technologies covering stereo image capture, processing, compression, delivery, and display. Several attempts at future standards such as 3DTV and MPEG 3 DAV have been launched to satisfy such requests.
스테레오 이미지와 모노 이미지 사이의 주요한 차이점은, 스테레오 이미지가 장면에서의 오브젝트에 3차원 및 거리의 느낌을 제공하는 것이다. 선천적으로 인간의 시각은, 상이한 원근 뷰포인트로 좌측 눈 및 우측 눈에 의해 관측되는 쌍안 (binocular) 뷰로 인해 스테레오스코픽이다. 인간의 뇌는 스테레오스코픽 깊이로 이미지를 합성할 수 있다. 일반적으로, 2개의 센서를 갖는 스테레오스코픽 카메라는 스테레오스코픽 이미지 또는 비디오를 생성하기 위해 요구된다. 그러나, 현재 이용되는 대부분의 멀티미디어 디바이스들은 모노스코픽 인프라구조내에서 구현된다.The main difference between a stereo image and a mono image is that the stereo image provides a feeling of three-dimensional and distance to objects in the scene. Innate human vision is stereoscopic due to the binocular view observed by the left and right eyes with different perspective viewpoints. The human brain can synthesize images at stereoscopic depths. In general, a stereoscopic camera with two sensors is required to generate a stereoscopic image or video. However, most multimedia devices currently in use are implemented within a monoscopic infrastructure.
과거 수년간, 스테레오스코픽 이미지 생성이 활발하게 연구되어 왔다. 일 연구에서, 비디오 시퀀스가 분석되고, 3D 장면 구조가 2D 기하학적 배열 및 모션 활성도 (또한, 모션으로부터의 구조 (SfM) 로 지칭됨) 로부터 추정된다. 이러한 접근법들의 클래스는 레코딩된 2D 비디오 칩들의 3D로의 변환을 가능하게 한다. 그러나, 계산 복잡도가 다소 높으므로, 실-시간 스테레오 이미지 생성에는 가능하지 않다. 한편, SfM이 수학적으로 풀리지 않은 문제 (ill-posed problem) 이므로, 그 결과는 아티팩트 (artifact) 를 포함할 수도 있고, 시각적인 불편함을 초래할 수도 있다. 먼저, 몇몇 다른 접근법들은 특정 애플리케이션에 따른 발견적 법칙 (heuristic rule) 에 기초하여 단일-뷰 스틸-이미지로부터 깊이 정보를 추정하고, 그 후, 그에 따라 스테레오스코픽 뷰를 생성한다.In the past years, stereoscopic image generation has been actively studied. In one study, a video sequence is analyzed and a 3D scene structure is estimated from 2D geometry and motion activity (also called structure from motion (SfM)). This class of approaches enables the conversion of recorded 2D video chips to 3D. However, since the computational complexity is rather high, it is not possible for real-time stereo image generation. On the other hand, since SfM is a mathematically ill-posed problem, the result may include artifacts and may cause visual inconvenience. First, some other approaches estimate depth information from a single-view still-image based on a heuristic rule according to a particular application, and then generate a stereoscopic view accordingly.
또 다른 연구에서, 모노스코픽 큐 (cue), 예를 들어, 오브젝트의 망막 사이즈로부터 상대적인 깊이 정보를 추출하는 방법이 제안되며, 그 방법은 보조 깊이 맵 생성에 유용하다. 또 다른 연구에서, 파라메트릭 깊이 맵 생성 방식에 기초 한 안면 피처 (facial feature) 가 2D 머리-및-어깨 이미지들을 3D로 변환시키기 위해 제안된다. 깊이-맵 생성을 위한 또 다른 제안된 방법에서, 이러한 접근법의 몇몇 단계들, 예를 들어, 사전프로세싱에서의 이미지 분류는 평범하지 않고, 구현이 매우 복잡할 수도 있으며, 그 제안된 알고리즘의 실용성을 약화시킨다. 또 다른 방법에서, 모션 검출 및 영역 세그먼트화를 사용하여, 3D로의 2D 이미지 실-시간 변환 알고리즘이 제안된다. 그러나, 오브젝트 세그먼트화 및 오브젝트 깊이 추정의 부정확도로 인해, 아티팩트를 회피할 수 없다. 명확하게, 상술된 모든 방법들은 단지 포착된 모노스코픽 이미지들만을 고려한다. 몇몇 다른 접근법들은 스테레오 뷰를 생성하는 것을 보조하기 위해 보조 소스를 이용한다. 예를 들어, 저비용 보조 모노크롬 또는 저-해상도 카메라가 부가적인 뷰를 포착하기 위해 사용되며, 그 후, 디스패리티 (disparity) 추정 모델을 이용하여 픽셀들의 깊이 맵을 생성한다.In another study, a method of extracting relative depth information from a monoscopic cue, eg, the retina size of an object, is proposed, which is useful for generating secondary depth maps. In another study, a facial feature based on a parametric depth map generation scheme is proposed for converting 2D head-and-shoulder images to 3D. In another proposed method for depth-map generation, some of the steps of this approach, for example image classification in preprocessing, are not trivial and the implementation may be very complex and the practicality of the proposed algorithm Weakens. In another method, a 2D image real-time conversion algorithm to 3D using motion detection and region segmentation is proposed. However, due to inaccuracies in object segmentation and object depth estimation, artifacts cannot be avoided. Clearly, all the above mentioned methods only consider captured monoscopic images. Some other approaches use ancillary sources to assist in generating stereo views. For example, a low cost secondary monochrome or low resolution camera is used to capture additional views, and then using a disparity estimation model to create a depth map of the pixels.
또 다른 예에서, 모노스코픽 고해상도 컬러 카메라는 장면의 명도 및 색도를 포착하기 위해 사용되고, 저해상도 모노크롬 "아웃트리거 (outrigger)" 카메라의 값싼 플랭킹 (flanking) 3-D 스테레오스코픽 쌍은 깊이를 갖는 명도 및 색도를 증대시키기 위해 사용된다. 획득된 3개의 뷰들로부터 생성된 디스패리티 맵은 스테레오스코픽 쌍들을 합성하기 위해 사용된다. 또 다른 예에서, 자동 및 수동 기술의 혼합된 세트는 깊이 맵을 추출하기 위해 사용되며 (종종, 자동 방법은 신뢰할 수 없다), 그 후, 간단한 평활화 필터가 사용되어 결과적인 이미지의 가시적인 아티팩트를 감소시킨다.In another example, a monoscopic high resolution color camera is used to capture the brightness and chromaticity of a scene, and the cheap flanking 3-D stereoscopic pair of low resolution monochrome “outrigger” cameras has a depth of brightness. And to increase chromaticity. The disparity map generated from the three views obtained is used to synthesize stereoscopic pairs. In another example, a mixed set of automatic and manual techniques are used to extract the depth map (often an automatic method is not reliable), and then a simple smoothing filter is used to visualize the artifacts of the resulting image. Decrease.
용이하게 알 수 있는 바와 같이, 모노스코픽 이동 카메라 전화기 또는 다른 저-전력 모노스코픽 디바이스를 사용함으로써 실-시간 스테레오 이미지들 및 비디오들을 획득하기 위한 저-복잡도 방법에 대한 필요성이 존재한다.As can be readily appreciated, there is a need for a low-complexity method for obtaining real-time stereo images and videos by using a monoscopic mobile camera phone or other low-power monoscopic device.
다른 접근법들에서 사용된 보조 장비들 또는 인간-상호작용뿐만 아니라 SfM 또는 깊이 분석을 사용함으로써 유도된 계산 복잡도를 회피하는 방식으로 깊이 맵 정보를 추정하는 모노스코픽 저-전력 이동 디바이스에 대한 필요성이 존재한다.There is a need for monoscopic low-power mobile devices that estimate depth map information in a manner that avoids computational complexity induced by using SfM or depth analysis as well as auxiliary equipment or human-interaction used in other approaches. do.
또한, 스테레오 비디오의 실-시간 포착 및 생성을 위해 깊이 정보를 검출 및 추정하도록 저-복잡도 접근법을 이용하는 모노스코픽 저-전력 이동 디바이스에 대한 필요성이 존재한다.There is also a need for a monoscopic low-power mobile device that uses a low-complexity approach to detect and estimate depth information for real-time capture and generation of stereo video.
발명의 요약Summary of the Invention
전술한 관점에서, 본 발명의 목적은, 스테레오 비디오의 실-시간 포착 및 생성을 위해 깊이 정보를 검출 및 추정하기 위한 저-복잡도 접근법을 이용하는 모노스코픽 저-전력 이동 디바이스를 제공하는 것이다.In view of the foregoing, it is an object of the present invention to provide a monoscopic low-power mobile device that utilizes a low-complexity approach for detecting and estimating depth information for real-time capture and generation of stereo video.
본 발명의 또 다른 목적은, 보조 장비들 또는 인간-상호작용뿐만 아니라 SfM 또는 깊이 분석을 사용함으로써 유도된 계산 복잡도를 회피하는 모노스코픽 저-전력 이동 디바이스를 제공하는 것이다.It is yet another object of the present invention to provide a monoscopic low-power mobile device that avoids computational complexity induced by using auxiliary equipment or human-interaction as well as SfM or depth analysis.
본 발명의 또 다른 목적은, 저-복잡도 스테레오 이미지 쌍 생성 프로세스를 이용하는 모노스코픽 저-전력 이동 디바이스를 제공하는 것이다.It is yet another object of the present invention to provide a monoscopic low-power mobile device that utilizes a low-complexity stereo image pair generation process.
본 발명의 또 다른 목적은, 우수한 3D 효과로 스테레오 이미지들을 포착 및 생성하는 모노스코픽 저-전력 이동 디바이스를 제공하는 것이다.It is another object of the present invention to provide a monoscopic low-power mobile device for capturing and generating stereo images with good 3D effects.
본 발명의 또 다른 목적은, 스테레오 이미지 및 비디오 포착 및 생성 양자를 위해 사용될 수 있는 모노스코픽 저-전력 이동 디바이스를 제공하는 것이다.It is another object of the present invention to provide a monoscopic low-power mobile device that can be used for both stereo image and video capture and generation.
상기 목적들은, 이미지를 포착하도록 동작가능하며, 포커싱 프로세스를 통해 전체 포커싱 범위에 걸쳐 렌즈를 이동함으로써 최상의 포커스 위치를 결정하고, 그 이미지를 포착할 때 최대 포커스 값을 갖는 포커스 위치를 선택하도록 동작가능한 오토포커싱 서브-모듈을 갖는 단일-센서 카메라 센서 모듈을 포함하는 모노스코픽 저-전력 이동 디바이스에 의해 수행된다. 그 디바이스는, 제 1 스테이지에서 오토포커싱 서브-모듈로부터의 통계를 사용하여 블록-레벨 깊이 맵을 자동적으로 전개하고, 제 2 스테이지에서 이미지 깊이 맵을 전개하도록 동작가능한 깊이 맵 생성기 어셈블리를 포함한다. 또한, 그 디바이스는, 포착된 이미지로부터 미싱 (missing) 제 2 뷰를 생성하여 3D 스테레오 좌측 및 우측 뷰를 생성하도록 동작가능한 이미지 쌍 생성기 모듈을 포함한다.The objects are operable to capture an image, and operable to determine the best focus position by moving the lens over the entire focusing range through the focusing process and to select the focus position with the maximum focus value when capturing the image. Performed by a monoscopic low-power mobile device comprising a single-sensor camera sensor module with an autofocusing sub-module. The device includes a depth map generator assembly operable to automatically deploy a block-level depth map using statistics from the autofocusing sub-module at a first stage and to deploy an image depth map at a second stage. The device also includes an image pair generator module operable to generate a missing second view from the captured image to produce 3D stereo left and right views.
모노스코픽 저-전력 이동 디바이스는 깊이 맵 정보를 추정하기 위해 모노스코픽 카메라 센서의 오토포커스 기능을 사용하며, 이는, 다른 접근법에서 사용된 보조 장비들 또는 인간-상호작용뿐만 아니라 다른 제안된 시스템의 SfM 또는 깊이 분석을 사용함으로써 유도된 계산 복잡도를 회피한다.The monoscopic low-power mobile device uses the autofocus function of the monoscopic camera sensor to estimate depth map information, which is the SfM of other proposed systems as well as auxiliary equipment or human-interaction used in other approaches. Or avoid computational complexity induced by using depth analysis.
스테레오 비디오 생성을 위해 깊이 맵 검출의 정확도를 개선시키는 부가적이지만 옵션적인 모션 추정 모듈을 갖는 모노스코픽 저-전력 이동 디바이스가, 스테레오 이미지 및 비디오 포착 및 생성 양자를 위해 사용될 수 있다.Monoscopic low-power mobile devices with additional but optional motion estimation modules that improve the accuracy of depth map detection for stereo video generation can be used for both stereo image and video capture and generation.
모노스코픽 저-전력 이동 디바이스는, 스테레오 이미지들을 생성하기 위해 깊이 정보를 검출 및 추정하도록 오토포커스 프로세스로부터의 통계를 사용한다. 오토포커스 프로세스의 사용은 2-스테이지 깊이 맵 추정 설계로 인해 저-전력 디바이스에 적합하다. 즉, 제 1 스테이지에서, 블록-레벨 깊이 맵이 오토포커스 프로세스를 사용하여 검출된다. 근사화된 이미지 깊이 맵은 제 2 스테이지에서 쌍선형 (bilinear) 필터링을 사용함으로써 생성된다.Monoscopic low-power mobile devices use statistics from the autofocus process to detect and estimate depth information to produce stereo images. The use of the autofocus process is suitable for low-power devices due to the two-stage depth map estimation design. That is, at the first stage, a block-level depth map is detected using the autofocus process. The approximated image depth map is generated by using bilinear filtering at the second stage.
또한, 모노스코픽 저-전력 이동 디바이스는, 스테레오 비디오의 실-시간 포착 및 생성을 위해 깊이 정보를 검출 및 추정하도록 저-복잡도 접근법을 이용한다. 그 접근법은, 모션 추정치로부터의 통계, 오토포커스 프로세싱, 및 히스토리 데이터 플러스 몇몇 발견적 법칙을 사용하여, 깊이 맵을 추정한다.In addition, monoscopic low-power mobile devices use a low-complexity approach to detect and estimate depth information for real-time capture and generation of stereo video. The approach uses statistics from the motion estimate, autofocus processing, and historical data plus some heuristics to estimate the depth map.
모노스코픽 저-전력 이동 디바이스는, Z-버퍼 기반 3D 표면 복원을 사용함으로써 저-복잡도 스테레오 이미지 쌍 생성 프로세스를 이용한다.Monoscopic low-power mobile devices use a low-complexity stereo image pair generation process by using Z-buffer based 3D surface reconstruction.
본 발명의 또 다른 양태로서, 모노스코픽 저-전력 이동 디바이스로 실-시간 스테레오 이미지를 생성하는 방법은, 이미지를 포착하는 단계, 렌즈를 오토포커싱하고, 전체 포커싱 범위에 걸쳐 렌즈를 이동함으로써 최상의 포커스 위치를 결정하며, 그 이미지를 포착할 때 최대 포커스 값을 갖는 그 포커스 위치를 선택하는 단계; 제 1 스테이지에서 그 오토포커싱 단계로부터의 통계를 사용하여 블록-레벨 깊이 맵을 자동적으로 생성하고, 제 2 스테이지에서 이미지 깊이 맵을 생성하는 단계; 및 3D 스테레오 좌측 및 우측 뷰를 생성하기 위해 그 포착된 이미지로부터 미싱 제 2 뷰를 생성하는 단계를 포함한다.As another aspect of the invention, a method for generating a real-time stereo image with a monoscopic low-power mobile device includes the steps of capturing an image, autofocusing the lens, and moving the lens over the entire focusing range to achieve the best focus. Determining a position and selecting the focus position having the maximum focus value when capturing the image; Automatically generating a block-level depth map using statistics from the autofocusing step in a first stage and generating an image depth map in a second stage; And generating a missing second view from the captured image to produce 3D stereo left and right views.
본 발명의 또 다른 양태로서, 스틸 이미지들을 프로세싱하는 방법은, 포착된 스틸 이미지를 오토포커싱 프로세싱하고, 블록-레벨 깊이 맵을 검출하기 위해 그 이미지에서 원격 오브젝트들의 깊이 정보를 추정하는 단계; 및 그 블록-레벨 깊이 맵으로부터 이미지 깊이 맵을 근사화하는 단계를 포함한다.As another aspect of the invention, a method of processing still images includes autofocusing a captured still image and estimating depth information of remote objects in the image to detect a block-level depth map; And approximating the image depth map from the block-level depth map.
오토포커싱 프로세싱은, 코오스-투-파인 (coarse-to-fine) 깊이 검출 프로세스를 사용하여 이미지를 프로세싱하는 단계를 포함한다. 또한, 근사화 단계는 근사화된 이미지 깊이 맵을 유도하기 위해 블록-레벨 깊이 맵을 쌍선형 필터링하는 단계를 포함한다.Autofocusing processing includes processing an image using a coarse-to-fine depth detection process. In addition, the approximation step includes bilinearly filtering the block-level depth map to derive the approximated image depth map.
또 다른 양태에서, 본 발명은, 프로세서에 의한 실행시에, 블록-레벨 깊이 맵의 코너 (corner) 포인트들 (A, B, C 및 D) 을 포함하는 각각의 포커스 블록의 깊이값을 결정하고, 다음의 수학식In another aspect, the present invention, when executed by a processor, determines a depth value of each focus block comprising corner points A, B, C, and D of the block-level depth map. , The following equation
에 따라 그 블록내에서 모든 픽셀들의 깊이값 (dp) 을 결정하기 위해 이미지를 쌍선형 필터링하도록 동작가능한 프로그램 명령어들을 갖는 프로그램 코드에 관한 것이 며, 여기서, 그 블록의 코너 포인트들 (A, B, C 및 D) 에 대한 위치값들 및 깊이값들은 (xA, yA, dA), (xB, yB, dB), (xC, yC, dC), (xD, yD, dD) 로서 나타내고, 각각의 픽셀은 포인트 P (xP, yP, dP) 로 나타낸다.And program code operable to bilinearly filter the image to determine the depth value (d p ) of all the pixels in the block, wherein the corner points (A, B) of the block are Position values and depth values for, C and D) are (x A , y A , d A ), (x B , y B , d B ), (x C , y C , d C ), (x D , y D , d D ), and each pixel is represented by a point P (x P , y P , d P ).
본 발명의 또 다른 양태에서, 스틸 이미지 포착 디바이스는, 포착된 스틸 이미지를 프로세싱하고 블록-레벨 깊이 맵을 검출하기 위해 그 이미지에서의 원격 오브젝트들의 깊이 정보를 추정하도록 동작가능한 오토포커싱 모듈; 쌍선형 필터링을 사용하여 블록-레벨 깊이 맵으로부터 이미지 깊이 맵을 근사화하도록 동작가능한 이미지 깊이 맵 모듈; 및 3-차원 (3-D) 스테레오 좌측 및 우측 뷰를 생성하기 위해 그 포착된 이미지로부터 미싱 제 2 뷰를 생성하도록 동작가능한 이미지 쌍 생성기 모듈을 포함한다.In another aspect of the invention, a still image capture device comprises: an autofocusing module operable to process captured still images and estimate depth information of remote objects in the image to detect a block-level depth map; An image depth map module operable to approximate an image depth map from a block-level depth map using bilinear filtering; And an image pair generator module operable to generate a missing second view from the captured image to produce a three-dimensional (3-D) stereo left and right view.
본 발명의 또 다른 양태에서, 비디오 이미지 포착 디바이스는, 포착된 비디오 클립을 프로세싱하고 장면에서의 원격 오브젝트들의 깊이 정보를 추정하도록 동작가능한 오토포커싱 모듈; 및 그 포착된 비디오 클립을 코딩하고, 통계 정보를 제공하며, 모션 추정을 결정하도록 동작가능한 비디오 코딩 모듈을 포함한다. 깊이 맵 생성기 어셈블리는, 모션 추정으로부터의 통계 정보, 오토포커싱 모듈의 프로세스, 및 히스토리 데이터 플러스 발견적 법칙들을 사용하여, 스테레오 비디오의 실-시간 포착 및 생성을 위한 깊이 정보를 검출 및 추정하여, 이미지 깊이 맵이 유도되는 최종 블록 깊이 맵을 획득하도록 동작가능하다.In another aspect of the invention, a video image capture device comprises: an autofocusing module operable to process a captured video clip and estimate depth information of remote objects in a scene; And a video coding module operable to code the captured video clip, provide statistical information, and determine motion estimation. The depth map generator assembly detects and estimates depth information for real-time capture and generation of stereo video using statistical information from motion estimation, the process of the autofocusing module, and historical data plus heuristics, to obtain an image. Is operable to obtain a final block depth map from which the depth map is derived.
도면의 간단한 설명Brief description of the drawings
전술한 요약뿐만 아니라 본 발명의 바람직한 실시형태의 다음의 상세한 설명은, 첨부한 도면과 함께 판독될 때 더 용이하게 이해될 것이다. 본 발명을 예시하기 위해, 현재 바람직한 실시형태가 도면에 도시되어 있다. 그러나, 본 발명이 도시된 프로세스들의 정확한 배열로 제한되지 않음을 이해해야 한다.In addition to the foregoing summary, the following detailed description of the preferred embodiments of the present invention will be more readily understood when read in conjunction with the accompanying drawings. To illustrate the invention, presently preferred embodiments are shown in the drawings. However, it should be understood that the invention is not limited to the exact arrangement of the processes depicted.
도 1은 모노스코픽 저-전력 이동 디바이스의 일반적인 블록도를 도시한다.1 shows a general block diagram of a monoscopic low-power mobile device.
도 2는 실-시간 스테레오 이미지 및 비디오 데이터 양자의 포착, 프로세싱, 및 디스플레이를 위한 동작의 일반적인 블록도를 도시한다.2 illustrates a general block diagram of operations for capturing, processing, and displaying both real-time stereo image and video data.
도 3은 3D 스틸 이미지를 실-시간 포착 및 생성하는 동작의 일반적인 블록도를 도시한다.3 shows a general block diagram of the operation of real-time capture and generation of a 3D still image.
도 4는 포커스 포인트로부터의 렌즈 위치와 오브젝트 거리 사이의 관계의 도면을 도시한다.4 shows a diagram of the relationship between lens position and object distance from a focus point.
도 5a는 글로벌 탐색 알고리즘을 사용하여 FV와 렌즈 위치 사이의 관계의 그래프를 도시한다.5A shows a graph of the relationship between FV and lens position using a global search algorithm.
도 5b는 코오스-투-파인 탐색 알고리즘에 대한 FV와 렌즈 위치 사이의 관계의 그래프를 도시한다.5B shows a graph of the relationship between FV and lens position for a coarse-to-fine search algorithm.
도 6a는 본래의 이미지를 도시한다.6A shows the original image.
도 6b는 도 6a의 이미지의 이미지 깊이 맵을 도시한다.6B shows an image depth map of the image of FIG. 6A.
도 6c는 도 6a의 이미지의 블록 깊이 맵을 도시한다.FIG. 6C shows a block depth map of the image of FIG. 6A.
도 6d는, 도 6c의 블록 깊이 맵을 사용하는 합성된 3D 애너그리프 (anaglyph) 뷰를 도시한다.FIG. 6D shows a synthesized 3D anaglyph view using the block depth map of FIG. 6C.
도 6e는 도 6b의 이미지의 필터링된 깊이 맵을 도시한다.6E shows a filtered depth map of the image of FIG. 6B.
도 7a는 이웃 블록을 갖는 중간 포인트의 다이어그램을 도시한다.7A shows a diagram of an intermediate point with neighboring blocks.
도 7b는 코너 포인트를 갖는 블록의 다이어그램을 도시한다.7B shows a diagram of a block with corner points.
도 8은 깊이 맵 생성 프로세스에 대한 흐름도를 도시한다.8 shows a flow chart for a depth map generation process.
도 9a 및 도 9b는 제 1 프레임의 이미지 및 대응하는 BDM을 도시한다.9A and 9B show the image of the first frame and the corresponding BDM.
도 9c 및 도 9d는 비디오의 30번째 프레임 및 그의 대응하는 BDM을 도시한다.9C and 9D show the thirtieth frame of the video and its corresponding BDM.
도 9e 및 도 9f는 비디오의 60번째 프레임 및 그의 대응하는 BDM을 도시한다.9E and 9F show the 60th frame of video and its corresponding BDM.
도 10a, 도 10b 및 도 10c는, 도 9b, 도 9d 및 도 9f에 도시된 BDM들로부터 생성된 이미지 깊이 맵 (IDM) 을 도시한다.10A, 10B and 10C show an image depth map (IDM) generated from the BDMs shown in FIGS. 9B, 9D and 9F.
도 11은 이미지 쌍 생성 프로세스를 도시한다.11 shows an image pair generation process.
도 12a는 쌍안 비전의 좌측 뷰 및 우측 뷰를 도시한다.12A shows a left view and a right view of binocular vision.
도 12b는 디스패리티 맵을 계산하기 위한 파라미터들에 대한 쌍안 비전의 기하학적 모델을 도시한다.12B shows a geometric model of binocular vision for parameters for calculating a disparity map.
도 13a는 도 6e에 도시되어 있는 근사화된 이미지 깊이 맵을 사용함으로써 생성된 애너그리프 이미지를 도시한다.FIG. 13A shows an anaglyph image generated by using the approximated image depth map shown in FIG. 6E.
도 13b는 도 6b에 도시된 정확한 이미지 깊이 맵을 사용함으로써 생성된 애너그리프 이미지를 도시한다.FIG. 13B shows an anamorphic image generated by using the exact image depth map shown in FIG. 6B.
도 14a는 도 9a의 결과적인 애너그리프 비디오 프레임의 일 예를 도시한다.FIG. 14A illustrates an example of the resulting anaglyph video frame of FIG. 9A.
도 14b는 도 9c의 결과적인 애너그리프 비디오 프레임의 일 예를 도시한다.FIG. 14B shows an example of the resulting anaglyph video frame of FIG. 9C.
도 14c는 도 9e의 결과적인 애너그리프 비디오 프레임의 일 예를 도시한다.FIG. 14C shows an example of the resulting anaglyph video frame of FIG. 9E.
도 15a 및 도 15b는 Z-버퍼 기반 3D 보간 프로세스의 흐름도를 도시한다.15A and 15B show a flow chart of a Z-buffer based 3D interpolation process.
바람직한 실시형태의 상세한 설명Detailed Description of the Preferred Embodiments
본 발명이 많은 상이한 형태로 실시형태들을 허용하지만, 이러한 설명 및 첨부한 도면은 본 발명의 실시의 예로서 몇몇 형태만을 개시한다. 본 발명은 설명된 실시형태들로 제한하려는 것이 아니며, 본 발명의 범위는 첨부된 청구항에서 나타낼 것이다.While the invention allows for embodiments in many different forms, these descriptions and the accompanying drawings disclose only a few forms as examples of embodiments of the invention. It is intended that the invention not be limited to the described embodiments, but the scope of the invention will be set forth in the appended claims.
본 발명에 따라 스테레오 이미지 및 비디오를 포착 및 생성하는 디바이스의 바람직한 실시형태가 핸드-헬드 카메라, 캠코더, 또는 단일-센서 카메라 전화기와 같은 모노스코픽 저-전력 이동 디바이스에 대한 특정 애플리케이션에 대해 후술된다. 그러나, 당업자는, 본 발명이 또한 단일-센서 카메라 모듈을 갖는 다른 타입의 디바이스에 매우 적합하다는 것을 인식할 것이다. 다음으로, 유사한 참조부호가 명세서 전반에 걸쳐 유사한 엘리먼트들을 나타내는데 사용되는 도면을 상세히 참조하면, 도면 부호 (10) 로 일반적으로 지정된 본 발명에 따른 모노스코픽 저-전력 이동 디바이스가 도 1에 도시되어 있다.Preferred embodiments of devices for capturing and generating stereo images and video in accordance with the present invention are described below for specific applications for monoscopic low-power mobile devices such as hand-held cameras, camcorders, or single-sensor camera phones. However, one skilled in the art will recognize that the present invention is also well suited for other types of devices with single-sensor camera modules. Next, referring to the drawings in which like reference numerals are used to denote like elements throughout the specification, a monoscopic low-power mobile device according to the present invention, generally designated 10, is shown in FIG. 1. .
일반적으로, 모노스코픽 저-전력 이동 디바이스 (10) 는, 여기에 설명된 디바이스 (10) 의 동작을 제어하기 위한 프로세서 (56), 렌즈 (12), 및 단일-센서 카메라 유닛, 핸드-헬드 디지털 카메라 또는 캠코더와 같은 카메라 센서 모듈 (14) 을 포함한다. 프로세서 (56) 는, 여기에 설명된 동작들을 수행하기 위해 메모 리 (60) 에 저장된 프로그램 명령어들 또는 프로그래밍 코드를 실행한다. 저장부 (62) 는, 카메라, 캠코더, 또는 단일-센서 유닛의 파일 시스템이며, 애플리케이션에 의존하여 플래시, 디스크, 또는 테이프를 포함할 수도 있다.In general, monoscopic low-
카메라 센서 모듈 (14) 은, 스틸 이미지 모드 (18) 로 스틸 이미지들을 포착할 수 있고, 비디오 클립을 생성하기 위해 비디오 모드 (20) 로 레코딩 주기에 걸쳐 비디오들을 포착할 수 있는 이미지 포착 서브-모듈 (16) 을 포함한다. 또한, 카메라 센서 모듈 (14) 은 동작의 듀얼 모드들, 즉, 스틸 이미지 모드 (24) 및 비디오 모드 (26) 를 갖는 오토포커싱 서브-모듈 (22) 을 포함한다.
또한, 모노스코픽 저-전력 이동 디바이스 (10) 는, 동작의 듀얼 모드, 즉, 스틸 이미지 모드 (30) 및 비디오 모드 (32) 를 또한 갖는 깊이 맵 검출기 모듈 (28) 을 포함한다. 예시적인 실시형태에서, 깊이 맵 생성기 어셈블리 (34) 는 동작의 듀얼 모드를 갖는 2-스테이지 깊이 맵 추정 프로세스를 이용한다. 도 2 및 도 3에서 매우 양호하게 관측되는 바와 같이, 2-스테이지 깊이 맵 추정 프로세스의 제 1 스테이지 (스테이지 1) 는, 오토포커싱 서브-모듈 (22) 에 의해 수행되는 스틸 모드 (24) 의 오토포커싱 프로세싱 (124) 또는 비디오 모드 (26) 의 오토포커싱 프로세싱 (126) 으로부터의 통계를 사용하여 블록-레벨 깊이 맵을 자동적으로 전개한다. 제 2 스테이지에서, 깊이 맵 검출기 모듈 (28) 에 의해 수행되는 스틸 모드 (30) 의 깊이 검출 프로세스 (130) 또는 비디오 모드 (32) 의 깊이 검출 프로세스 (132) 에 의해 이미지 깊이 맵이 생성된다. 도 2에서, fi는 i번째 프 레임을 나타내고, fi-1은 i-1번째 프레임을 나타내고, di는 i번째 프레임의 블록 깊이 맵 (BDM) 을 나타내며, di'는 i번째 프레임의 이미지 깊이 맵 (IDM) 을 나타낸다.In addition, the monoscopic low-
모노스코픽 저-전력 이동 디바이스 (10) 는 단일-센서 카메라 센서 모듈 (14) 을 갖는다. 따라서, 단지 하나의 이미지만이 포착되며, 그러한 이미지는 스테레오 이미징 및 디스플레이를 위한 좌측 (L) 뷰를 나타내는데 사용된다. 스테레오 뷰 생성기 서브-모듈 (48) 에서 좌측 뷰 (본래의 포착된 이미지) 및 이미지 깊이 맵으로부터 제 2 또는 미싱 우측 (R) 뷰를 생성하도록 이미지 쌍 생성기 모듈 (42) 이 디바이스 (10) 에 포함된다. 또한, 이미지 쌍 생성기 모듈 (42) 은, 디스패리티 맵 서브-모듈 (44) 및 Z-버퍼 3D 표면 복원 서브-모듈 (46) 을 포함한다.The monoscopic low-
예시적인 실시형태에서, 3D 효과 생성기 모듈 (52) 을 사용하여 디스플레이 (58) 상에서 3D 효과가 디스플레이된다. 예시적인 실시형태에서, 3D 효과 생성기 모듈 (52) 은 결과적인 3D 효과를 시연하기 위한 값싼 레드-블루 애너그리프이다. 생성된 스테레오 뷰들은, 홀로그래픽 및 스테레오스코픽 디바이스들과 같은 다른 메커니즘에 의해 용이하게 디스플레이된다.In an exemplary embodiment, 3D effects are displayed on display 58 using 3D effect generator module 52. In the exemplary embodiment, the 3D effect generator module 52 is an inexpensive red-blue anagrip to demonstrate the resulting 3D effect. The generated stereo views are easily displayed by other mechanisms such as holographic and stereoscopic devices.
옵션적으로, 모노스코픽 저-전력 이동 디바이스 (10) 는 비디오를 코딩할 시에 사용하기 위한 비디오 코딩 모듈 (54) 을 포함한다. 비디오 코딩 모듈 (54) 은, 깊이 맵 검출기 모듈 (28) 에 의한 비디오 모드 (32) 의 깊이 검출 프로세스 (132) 에서의 사용을 위한 모션 (추정) 정보 (36) 를 제공한다.Optionally, monoscopic low-
또한, 도 3을 참조하면, 동작에서, 카메라 센서 모듈 (14) 은 이미지 포착 서브-모듈 (16) 에서 하나 이상의 스틸 이미지들을 스틸 이미지 모드 (18) 로 포착한다. 스틸 이미지 모드 (18) 는 포착 프로세스 (118) 를 수행한다. 포착 프로세스 (118) 는 오토포커싱 프로세싱 (124) 에 선행한다. 일반적으로, 스틸 이미지 모드 (24) 의 오토포커싱 프로세싱 (124) 은, 장면에서 원격 오브젝트들의 깊이 정보를 추정하기 위해 이용된다. 계산 복잡도를 감소시키기 위해, 스테이지 1에서의 블록 깊이 검출은 스틸 이미지 모드 (24) 의 전역 (exhaustive) 포커싱 탐색 (125) 에서 코오스-투-파인 깊이 검출 알고리즘을 이용한다. 코오스-투-파인 깊이 검출 알고리즘은, 스틸 이미지 모드 (18) 로 포착 프로세스 (118) 에 의해 포착된 이미지를, 이전 스테이지 (스테이지 1) 에서 관련 깊이 맵을 검출하는 다수의 블록들로 분할한다. 스테이지 2에서, 스틸 이미지 모드 (30) 의 깊이 검출 프로세스 (130) 는 쌍선형 필터 (131B) 를 이용하여, 스테이지 1의 블록 깊이 맵으로부터 근사화된 이미지 깊이 맵을 유도한다.Referring also to FIG. 3, in operation,
스틸 이미지 모드 (24) 의 오토포커싱 서브-모듈 (22) 은 스틸-이미지 포착에 사용되는 전역 탐색 포커싱 (125) 을 이용한다. 비디오 이미지 모드 (26) 로의 비디오 클립들의 실-시간 포착을 달성하기 위해, 스틸-이미지 포착에 사용되는 전역 탐색 포커싱 (125) 은 클라임-힐 (climb-hill) 포커싱 (127) 으로 대체되며, 비디오 서브-모듈 (32) 의 깊이 검출 프로세스 (132) 는, 비디오 코딩 모듈 (54) 로부터의 모션 정보 (36), 오토포커싱 프로세스 (126) 으로부터의 포커스 값 (38B), 및 도 2에 도시된 프레임 히스토리 통계 (40) 에 기초하여, 블록 깊이 맵 (34) 을 검출한다.The autofocusing sub-module 22 of the
자동 깊이 맵 검출Auto Depth Map Detection
또한 도 3을 참조하면, 모노스코픽 저-전력 이동 디바이스 (10) 는, 자동 블록 깊이 맵 검출을 위해 오토포커싱 서브-모듈 (22) 의 오토포커싱 프로세스 (124) 를 이용한다. 동작의 스틸-이미지 모드 (18) 및 비디오 모드 (20) 에서의 이미지 포착에 있어서, 이러한 시나리오 (동작의 모드들) 에서 이용되는 상이한 포커스 길이 탐색 알고리즘들로 인해 상이한 접근법들이 필요하다.Referring also to FIG. 3, the monoscopic low-
디지털 카메라에서, 대부분의 포커싱 어셈블리는 이미저 (imager) 평면상에서 이미지 콘트라스트 (contrast) 를 평가함으로써 최상의 포커스 위치를 선택한다. 포커스 값 (FV; 38B) 은 특정한 관심 영역에 걸쳐 포커스 메트릭을 통해 측정된 스코어이며, 일반적으로, 오토포커싱 프로세스 (126) 는 렌즈 (12) 의 최상의 포커스 위치로서 최고의 포커스 값에 대응하는 위치를 선택한다. 몇몇 카메라에서, 이미지의 고주파수 콘텐츠는 포커스 값 (FV; 38B) 으로서 사용되며, 예를 들어, In digital cameras, most focusing assemblies select the best focus position by evaluating image contrast on the imager plane. The focus value (FV) 38B is a score measured via the focus metric over a particular region of interest, and in general, the
와 같은 고대역 통과 필터 (HPF) 는 포커스 값 (FV; 38B) 을 결정하기 위해 고주파수 컴포넌트들을 포착하는데 사용될 수 있다. 또한, 포커스 값 (FV) 은 비디오 모드에서 후술될 바와 같은 FV 맵이다.A high pass filter (HPF) such as can be used to capture high frequency components to determine the focus value (FV) 38B. Also, the focus value FV is an FV map as will be described later in the video mode.
(도 4에 도시된 바와 같이) 포커스 포인트 (FV; 38B) 로부터의 렌즈 (12) 의 렌즈 위치와 카메라 또는 카메라를 갖는 디바이스 (10) 로부터의 타겟 거리 사이의 관계가 존재하며, 그 관계는 특정 카메라 센서 모듈 (14) 에 대해 고정된다. 다양한 카메라 센서들이 그러한 관계의 상이한 통계를 가질 수도 있다. 따라서, 일단 오토포커싱 서브-모듈 (22) 의 오토포커싱 프로세스 (124) 가 카메라 센서 모듈의 특성의 정보에 기초하여 렌즈 (12) 의 최상의 포커스 위치를 위치결정하면, 타겟 오브젝트와 카메라 또는 디바이스 (10) 사이에 실제 거리가 추정되며, 이는 또한 장면에서의 오브젝트의 깊이이다. 따라서, 깊이 맵 검출 프로세스는 센서-의존 오토포커싱 프로세스 (124 또는 126) 에 의존한다.There is a relationship between the lens position of the
스틸-이미지 포착 모드 (18) 에서, 대부분의 디지털 카메라 센서 모듈 (14) 은 오토포커싱 프로세스 (124) 를 위해 전역 탐색 알고리즘 (125) 을 선택하며, 그 알고리즘은, 그 모듈의 렌즈 (12) 를 전체 포커싱 범위에 걸쳐 이동하고 최대 포커스 값을 갖는 포커스 위치를 선택함으로써, 최상의 포커스 위치를 결정한다.In still-
전역 탐색 알고리즘 (125) 의 통상적인 예는, 균등하게-이격된 화살표 머리의 행에 의해 표시된 최소의 모터 스텝으로 전체 포커스 범위를 스캐닝하는, 도 5a에 관해 설명된 글로벌 탐색이다. 한편, 도 5b는, 먼저 화살표 머리의 행에 의해 표시된 더 큰 스텝을 사용하여 전체 포커스 범위를 탐색하고, 그 후, 인접한 화살표 머리들 사이에 더 작은 거리를 갖는 화살표 머리들로 표시된 더 작은 스텝을 사용하여 피크 위치 주변을 탐색하는 코오스-투-파인 탐색을 도시한다.A typical example of
명확하게, 스틸-이미지에 대해 생성된 깊이 맵의 정확도는, 그 이미지에 대해 선택된 스폿 (spot) 포커스 윈도우들의 사이즈에 전적으로 의존한다. 일반적으로, 스틸-이미지 모드 (24) 에 대한 오토포커싱 프로세스 (124) 에서, 이미지는, 또한 스폿 포커스 윈도우로 지칭되는 N×N 서브 블록들로 스플릿트되며, 포커스 값 (38B) 은 오토포커싱 프로세스 (124) 동안 각각의 포커스 윈도우에 대해 계산된다.Clearly, the accuracy of the depth map generated for a still-image depends entirely on the size of the spot focus windows selected for that image. In general, in the
전역 탐색 (125) 이후, 렌즈 (12) 의 최상의 포커스 위치가 각각의 포커스 윈도우에 대해 획득되며, 따라서, 각각의 윈도우에 대응하는 오브젝트의 깊이가 추정될 수 있다. 명확하게, 최소의 포커스 윈도우 사이즈, 깊이 맵의 더 양호한 정확도, 및 더 높은 계산 복잡도가 달성된다.After the
모노스코픽 저-전력 이동 디바이스 (10) 에서, 깊이 맵의 2개의 타입, 즉, 이미지 깊이 맵 (IDM) 및 블록 깊이 맵 (BDM) 이 깊이 맵 생성기 어셈블리 (34) 에서 정의된다. 이미지 깊이 맵에 있어서 모든 픽셀의 픽셀 깊이 값은 깊이 검출 프로세스 (130) 에 의해 저장되며, 블록 깊이 맵에 있어서 각각의 포커스 윈도우의 깊이값이 저장된다. 도 6b에서, 도 6a에 도시된 스틸-이미지 (70) 에 대응하는 이미지 깊이 맵 (75) 은 포커스 윈도우 사이즈를 1×1 로서 설정함으로써 획득되며, 따라서, 이미지 깊이 맵 (75) 은 픽셀-레벨 정확도로 존재하고, 여기서, 더 높은 강도를 갖는 픽셀들은 뷰포인트에 더 근접한 오브젝트들에 대응한다. 그러나, 일반적으로 이러한 설정은, 오토 포커싱에 대한 과도한 계산 복잡도로 인해 대부분의 애플리케이션에 가능하지 않다. 블록 깊이 맵 (77) 의 일 예가 도 6c에 도시되어 있으며, 여기서, N은 11로 설정되고, 이는 일반적인 계산 능력을 갖는 카메라들에 대해 더 실용적인 설정이다.In monoscopic low-
일반적으로, 오토포커싱 프로세스 (124) 에 의해 스테이지 1에서 생성된 블록 깊이 맵 (77) 은 이미지 깊이 맵 (80) (도 6e) 을 획득하기 위해 추가적으로 프로세싱될 필요가 있으며, 그렇지 않으면, 몇몇 아티팩트가 나타날 수도 있다. 도 6c에 도시된 블록 깊이 맵 (77) 을 사용하는 합성된 3D 애너그리프 뷰 (79) 의 일 예가 도 6d에 도시되어 있으며, 여기서, 에지들에서의 이웃 포커스 윈도우들 사이의 샤프한 깊이 갭이 이미지에서 실제 오브젝트 형상 경계들에 대응하지 않는다는 사실로 인해 아티팩트들이 나타난다. 그 아티팩트들은, 쌍선형 필터 (131B) 에 의한 프로세싱에 선행하는 아티팩트 감소 프로세스 (131A) 에 의해 감소될 수 있다. 필터링된 이미지 깊이 맵 (80) 이 도 6e에 도시되어 있다.In general, the
도 7a 및 도 7b에 최상으로 도시된 바와 같이, 아티팩트 감소 프로세스 (131A) 는 2개의 단계들로 구성된다. 제 1 단계에서, 도 6c의 각각의 블록의 코너 포인트들 (A, B, C 및 D) 의 깊이값이 오토포커싱 프로세스 (124) 동안 발견되고, 그 깊이값은 도 7a에 도시된 바와 같은 그의 이웃한 블록들의 평균값일 것이며, 여기서, 중간 포인트의 깊이 d는,As best shown in FIGS. 7A and 7B, the artifact reduction process 131A consists of two steps. In a first step, the depth values of the corner points A, B, C and D of each block of FIG. 6C are found during the
와 같은 수학식 (1) 에 의해 정의되고, 여기서, d1, d2, d3 및 d4는 이웃한 블록들 의 깊이값이다.Is defined by Equation (1), where d1, d2, d3 and d4 are depth values of neighboring blocks.
오토포커싱 프로세스 (124) 에 의해 생성된 블록 깊이 맵은 저장된 각각의 포커스 윈도우/블록의 깊이값을 포함한다. 도 3에서, 하드웨어 블록인 메모리 (60) 및/또는 (도 2에 도시된) 저장부 (62) 는, 도시된 프로세스에서 도시되지 않는다.The block depth map generated by the
모든 코너 포인트들 (A, B, C 및 D) 의 깊이값이 획득된 이후, 도 7b에 최상으로 도시된 바와 같은 제 2 단계에서, 쌍선형 필터링은 블록들 내부의 픽셀들의 깊이값을 획득한다. 도 7b에 도시된 일 예로서, 블록의 코너 포인트들 (A, B, C 및 D) 에 대한 위치 및 깊이값들은 (xA, yA, dA), (xB, yB, dB), (xC, yC, dC), (xD, yD, dD) 로서 표시되며, 따라서, 블록내의 모든 픽셀들의 깊이값이 계산될 수 있다. 예를 들어, 포인트 P (xP, yP, dP) 에 의해 표시된 픽셀에 있어서, 픽셀 깊이값 dp는,After the depth values of all corner points A, B, C and D have been obtained, in the second step as best shown in FIG. 7B, the bilinear filtering obtains the depth values of the pixels inside the blocks. . As an example shown in FIG. 7B, the position and depth values for the corner points A, B, C and D of the block are (x A , y A , d A ), (x B , y B , d B ), (x C , y C , d C ), (x D , y D , d D ), so that the depth values of all the pixels in the block can be calculated. For example, for the pixel indicated by point P (x P , y P , d P ), the pixel depth value d p is
와 같은 수학식 (2) 에 의해 획득될 수 있다.It can be obtained by the following equation (2).
다음으로, 도 2를 참조하면, 비디오에 있어서, 최상의 포커스를 결정할 시에 야기되는 과도한 딜레이로 인해 전역 탐색 알고리즘 (125) 이 가능하지 않다. 힐 클라이밍 (hill climbing) 포커싱 (127) 은, 그의 더 신속한 탐색 스피드 때문에 더 일반적이다. 그것은, 힐을 클라이밍하는 것처럼 최상의 포커스 위치를 탐색한다. 카메라 센서 모듈 (14) 이 이미지 포착 서브-모듈 (16) 에서 비디오 모드 (20) 로 비디오를 레코딩하는 것을 시작할 경우, 전역 탐색 알고리즘 (125) 이 초기 위치로서 최상의 포커스 위치를 발견하기 위해 사용되며, 초기 렌즈 위치가 위치결정된 이후, 카메라 센서 모듈 (14) 은, 포커스 렌즈 (12) 가 이동해야 할 방향 및 힐의 상부에 도달하기 위해 얼마나 많이 이동해야 하는지를 실-시간으로 결정할 필요가 있다. 명확하게, 오토포커싱 프로세스 (126) 의 비디오 모드 (26) 동안, 비디오들에 대해 정확한 깊이 맵을 획득하는 것은, 스틸-이미지에 대한 것보다 훨씬 더 난해하다. 이론적으로 한정되는 것을 원하진 않지만, 그 이유 는 힐 클라이밍 포커싱만이, 다른 블록들에 대한 깊이 정확도를 보장하지는 않지만, 포커스에서 영역에 대한 정확한 깊이를 획득하기 때문이다. 또한, 모든 블록들에 대한 깊이의 정확도를 보장하는 전역 탐색 알고리즘 (125) 은 단지 레코딩의 시작점에서만 호출되므로, 이미지 포착 서브-모듈 (16) 에서 비디오 모드 (20) 의 레코딩 주기 동안 모든 블록들에 대한 깊이를 정정하는 것은 불가능하다.Next, referring to FIG. 2, for video,
다음으로, 도 8을 참조하면, 깊이 맵 검출기 모듈 (28) 에 의한 비디오 모드 (32) 에서의 사용에 대한 깊이 맵 검출 프로세스 (132) 의 흐름도가 도시된다. 현재의 프레임 인덱스는 n에 의해 표시되고, {Dn(i, j)} 및 {Fn(i, j)} (i=1,2,...N, j=1,2,...N) 은 그 현재 프레임의 최종 결정된 블록 깊이 맵 (BDM) 및 포커스 값 (FV) 맵 (38A) 이고, {Mn(i, j)} 및 {Vn(i, j)} 은 오토포커싱 프로세스 (126) 에 의해 획득된 내부 BDM 및 FV 맵이며, {Pn(i, j)} 및 {Tn(i, j)} 은 모션 예측에 의해 획득된 내부 BDM 및 FV 맵이다.Next, referring to FIG. 8, a flowchart of a depth
비디오 모드 (32) 의 깊이 검출 프로세스 (132) 동안, 먼저, 단계 S134에서 현재 프레임 n의 포커스 위치rk 힐 클라이밍 포커싱 (127) 에 의해 결정되며, 대응하는 블록 깊이 맵 {Mn(i, j)} 및 FV 맵 (38B) {Vn(i, j)} 가 획득된다. 단계 S134에는, 모션 정보 (MV; 36) 가 비디오 코딩 모듈 (54) 에 의해 수행된 비디오 코딩 프로세스 (154) 로부터 이용가능한지의 여부에 대한 판정이 행해지는 단계 S136가 후속한다. 그 판정이 "예" 라면, 단계 S138에서 모션 정보 (MV; 36) 가 분석되고 글로벌 모션 벡터 (GMV) 가 획득된다. 단계 S138에는, 글로벌 모션 (즉, GMV) 이 임계값보다 큰지의 여부에 대한 판정이 행해지는 단계 S139가 후속한다. 그 판정이 "예" 라면, 렌즈 (12) 는 다른 장면들로 이동하며, 그 후, 정확한 장면 깊이 히스토리를 보유하고 오브젝트 이동 방향을 추정하는 태스크들은 상이한 프로세스를 이용한다.During the
단계 S139에서의 판정이 "예" 라면, Dn(i, j)=Mn(i, j) 및 Fn(i, j)=Vn(i, j) 로 설정하며, 단계 S144에서, BDM 및 FV 맵의 업데이트 프로세스 동안 이전의 프레임들의 저장된 BDM 및 FV 맵 히스토리를 클린업 (clean up) 한다.If the determination in step S139 is YES, then D n (i, j) = M n (i, j) and F n (i, j) = V n (i, j), and in step S144, Clean up the stored BDM and FV map history of previous frames during the update process of the BDM and FV maps.
단계 S136으로 다시 복귀하여, 몇몇 시스템에서, 모션 정보 (36) 는 모든 종류의 원인들, 예를 들어, 비디오가 코딩되지 않거나 코딩 알고리즘의 모션 추정 모듈이 턴 오프 (turn off) 된다는 원인으로 인해 이용가능하지 않다. 따라서, 단계 S136에서의 판정은 "아니오" 이며, 단계 S136에는 후술될 단계 S144가 후속한다. 단계 S136에서의 판정이 "아니오" 일 경우, 프로세스는 모션 벡터들이 모든 블록들에 대해 0이라고 가정한다.Returning to step S136 again, in some systems, motion information 36 is used due to all kinds of causes, for example, the video is not coded or the motion estimation module of the coding algorithm is turned off. not possible. Therefore, the determination at step S136 is "no", and step S136 is followed by step S144 to be described later. If the determination in step S136 is no, the process assumes that the motion vectors are zero for all blocks.
모션 정보 (36) 가 이용가능하면, 단계 139에는,If motion information 36 is available, in step 139,
와 같은 수학식 (3) 및 수학식 (4) 에 의해, 프로세스 (132) 가 이전 프레임의 BDM 및 FV 맵으로부터 현재 프레임 Pn(i, j) 및 Tn(i, j) 의 BDM 및 FV 맵을 예측하는 단계 142가 후속하며, 여기서, (n-1) 번째 프레임의 블록 (a, b) 은 n번째 프레임의 블록 (i, j) 의 예측이고, FV_TH는 FV 차이에 대한 임계값이다.By equations (3) and (4), the
단계 S142에는, 양호한 포커스가 더 정확한 깊이 추정치를 전달한다고 디바이스 (10) 가 가정하는 단계 S144가 후속한다. 따라서, 포커스 렌즈 위치는 최대 FV에 대응하며, 최상의 선택으로서 처리된다. 그러한 논리에 기초하여, 최종 BDM 및 FV 맵은,Step S142 is followed by step S144 where the
와 같은 수학식 (5) 및 수학식 (6) 에 의해 결정되며, 여기서, {Dn(i, j)} 및 {Fn(i, j)} (i=1,2,...N, j=1,2,...,N) 은 현재 프레임의 최종 결정된 블록 깊이 맵 (BDM) 및 포커스 값 (FV) 맵 (38A) 이고; {Mn(i, j)} 및 {Vn(i, j)} 는 오토포커싱 프로세스 (126) 에 의해 획득된 내부 BDM 및 FV 맵이며; {Pn(i, j)} 및 {Tn(i, j)} 은 모션 예측에 의해 획득된 내부 BDM 및 FV 맵이다.Is determined by equations (5) and (6), where {D n (i, j)} and {F n (i, j)} (i = 1,2, ... N , j = 1,2, ..., N are the final determined block depth map (BDM) and focus value (FV)
예상된 바와 같이, 수학식 (5) 및 수학식 (6) 은 모든 경우들에 대해 정확하지는 않다. 수학식 (5) 및 수학식 (6) 은, 폐색 (occlusion)/노출이 발생하는 경우와 같이 몇몇 난해한 시나리오들에 대해 실패할 것이다. 일반적으로, 비디오 프레임들이 초당 15 내지 30 프레임의 스피드로 포착된다고 가정하는 것이 합당하며, 그 프레임들에서의 오브젝트는 합당한 스피드로 이동하고 있으므로, 오브젝트는 이웃 프레임에서 너무 많이 이격하여 이동하진 않을 것이다.As expected, equations (5) and (6) are not accurate for all cases. Equations (5) and (6) will fail for some difficult scenarios, such as when occlusion / exposure occurs. In general, it is reasonable to assume that video frames are captured at a speed of 15 to 30 frames per second, and since the objects in those frames are moving at reasonable speeds, the objects will not move too far away from neighboring frames.
발견적 법칙들은, 상술된 수학식 (3) 내지 수학식 (6) 에 대한 가정 및 논리, 및 도 8에 도시된 흐름도에서의 가정 및 논리를 참조한다. 이들 법칙들은 프로그램에서 실제로 코딩되며, 히스토리 데이터는 깊이 맵을 추정하기 위해 메모리 (60) 에 저장된다.Heuristic laws refer to the assumptions and logic for the above equations (3) to (6), and the assumptions and logic in the flowchart shown in FIG. These laws are actually coded in the program, and historical data is stored in
BDM이 획득된 이후, 스틸 이미지 모드에 대한 깊이 검출 프로세스 (130) 에 관해 설명된 동일한 접근법에 기초하여, 단계 S144의 BDM 결과들로부터 이미지 깊이 맵 (IDM) 이 단계 S146에서 계산된다. 따라서, 단계 S144의 BDM은 아티팩트 감소 (131A) 및 쌍선형 필터 (131B) 에 의한 쌍선형 필터링 (도 3) 에 영향을 받는다.After the BDM is obtained, based on the same approach described with respect to the
단계 S139로 복귀하여, 판정이 "아니오" 라면, 단계 S139에는, 히스토리가 롤오버 (roll over) 되는 단계 S140가 후속한다. 단계 S140에서, 롤오버 히스토리는 다음의 액션들을 참조하고, 즉, 카메라 렌즈가 다른 장면들로 이동하고 있다는 것을 의미하는, 글로벌 모션 (즉, GMV가 임계값보다 큼) 이 검출되면, 정확한 장면 히스토리를 보유하고 오브젝트 이동 방향을 추정하는 태스크가 난해하게 된다. 이러한 경우에 있어서, Dn(i, j)=Mn(i, j) 및 Fn(i, j)=Vn(i, j) 로 설정하고, 이전 프레임들의 저장된 BDM 및 FV 맵 히스토리를 클린업한다. 그 후, 단계 S140에는 단계 S146가 후속한다.Returning to step S139, if the determination is no, step S139 is followed by step S140 in which the history rolls over. In step S140, the rollover history refers to the following actions, i.e., if a global motion (i.e. GMV is greater than the threshold) is detected, which means that the camera lens is moving to other scenes, then the correct scene history is obtained. The task of holding and estimating the direction of object movement becomes difficult. In this case, set D n (i, j) = M n (i, j) and F n (i, j) = V n (i, j), and store the stored BDM and FV map history of the previous frames. Clean up. Thereafter, step S146 is followed by step S146.
도 8의 프로세스를 시연하기 위한 일 예가 도 9a 내지 도 9f에 도시되어 있다. 도 9a 및 도 9b는 제 1 프레임 (82) 의 이미지 및 대응하는 BDM (84) 을 도시한다. 한편, 도 9c 및 도 9d는 비디오의 30번째 프레임 (86) 및 그의 대응하는 BDM (88) 을 도시한다. 도 9e 및 도 9f는 비디오의 60번째 프레임 (90) 및 그의 대응하는 BDM (92) 을 도시한다. 비디오에서, 플라스틱 병은 원거리로부터 카메라까지 롤링한다. 프로세스 (132) 가 장면에서의 오브젝트들의 이동을 캐치 (catch) 할 수 있고, 획득된 깊이 맵에서 이들 활성도를 반영한다는 것이 이들 도면들로부터 용이하게 관측될 수 있다.An example for demonstrating the process of FIG. 8 is shown in FIGS. 9A-9F. 9A and 9B show an image of the
도 10a, 도 10b 및 도 10c에서, 이미지 깊이 맵들 (IDM; 94, 96 및 98) 은, 프로세스 (132) 를 사용하는 도 9b, 도 9d 및 도 9f에 각각 도시된 BDM들 (84, 88 및 92) 로부터 생성된다. IDM들 (94, 96 및 98) 은 깊이 검출 프로세스 (130) (도 3) 를 사용함으로써 획득된다.10A, 10B, and 10C, image depth maps
스테레오 이미지 쌍 생성Create stereo image pair
다음으로, 도 1 및 도 11을 참조하면, 지금까지, 디바이스 (10) 가 이미지 또는 좌측 뷰를 포착하였고, 대응하는 이미지 깊이 맵을 획득하였다. 이미지 쌍 생성 모듈 (42) 은, 다음으로 설명될 이미지 쌍 생성 프로세스 (142) 를 사용한다. 단계 S144에서 좌측 뷰가 획득되며, 단계 S146에서 깊이 검출 프로세스 (130 또는 132) 로부터 그의 대응하는 이미지 깊이 맵이 획득된다.1 and 11, so far,
먼저, 단계 S144에서 그 획득된 이미지가 스테레오스코픽 시스템의 좌측 뷰이라고 이미지 쌍 생성 프로세스 (142) 가 가정하지만, 대안적으로, 그 이미지는 우측 뷰로 고려될 수 있다. 그 후, 단계 S146에서 획득된 이미지 깊이 맵에 기초하여, 단계 S148에서, 그 이미지에 대한 디스패리티 맵 (양 뷰에서의 이미지 포인트들 사이의 픽셀 거리) 이 디스패리티 맵 서브-모듈 (44) 에서 계산된다. 디스패리티 맵 서브-모듈 (44) 에 의한 디스패리티 맵 계산들은 도 12a 및 도 12b를 참조하여 후술될 것이다. 그러나, 좌측 뷰 및 깊이 맵 양자는 또한 3D 뷰 생성을 위하여 디스패리티 맵을 계산하기 위한 입력이며, 좌측 뷰 및 깊이 맵은 Z-버퍼 기반 표면 복원에 직접 기여한다. 단계 S148에는, Z-버퍼 3D 표면 복원 서브-모듈 (46) 에 의한 Z-버퍼 기반 3D 보간 프로세스 (146) 가 우측 눈으로부터 장면에 대한 3D 가시적인 표면을 구성하도록 호출되는 단계 S150가 후속한다. 단계 S150에는, 도 12b에 최상으로 도시된 바와 같이, 투영 평면에 3D 표면을 투영함으로써 우측 뷰가 획득되는 단계 S152가 후속한다. 단계 S152는 스테레오 뷰 생성기 서브-모듈 (48) 에 의해 수행된다.First, although the image
도 12a에서, 원거리 오브젝트에 대한 투영 평면상에서 좌측 (L) 뷰 및 우측 (R) 뷰를 사용하여, 쌍안 비전의 기하학적 모델이 도시된다. 도 12b에서, F는 포커스 길이이고, L(xL, yL, 0) 은 좌측 눈이고, R(xR, yR, 0) 은 우측 눈이고, T(xT, yT, z) 는 장면에서의 3D 포인트이며, P(xP, yP, F) 및 Q(xQ, yQ, F) 는 좌측 및 우측 투영 평면상으로의 T의 투영 포인트이다. 명확하게, 투영 평면들상의 P 및 Q의 수평 위치는 (xP-xL) 및 (xQ-xR) 이며, 따라서, 디스패리티는 d=[(xQ-xR)-(xP-xL)] 이다.In FIG. 12A, using the left (L) view and the right (R) view on the projection plane for the far object, a geometric model of binocular vision is shown. In FIG. 12B, F is the focal length, L (x L , y L , 0) is the left eye, R (x R , y R , 0) is the right eye, and T (x T , y T , z) Are the 3D points in the scene, and P (x P , y P , F) and Q (x Q , y Q , F) are projection points of T on the left and right projection planes. Clearly, the horizontal positions of P and Q on the projection planes are (x P -x L ) and (x Q -x R ), so the disparity is d = [(x Q -x R )-(x P -x L )].
도 12b에 도시된 바와 같이, F 및 z의 비율은,As shown in Figure 12b, the ratio of F and z,
와 같은 수학식 (7) 에서 정의되며, 여기서, z는 깊이이다. 그러므로, 수학식 (8) 및 수학식 (9) 는,Is defined in equation (7), where z is depth. Therefore, equations (8) and (9) are
와 같으며, 따라서, 디스패리티 d는,And thus the disparity d is
와 같은 수학식 (10) 에 의해 획득될 수 있다.It can be obtained by the following equation (10).
따라서, 좌측 뷰에서의 모든 픽셀들에 있어서, 우측 뷰에서의 그 대응부는, 수학식 (10) 에서 획득된 디스패리티 값의 거리만큼 좌측 측면 또는 우측 측면으로 시프트된다. 그러나, 좌측-뷰로부터 우측-뷰로의 매핑은 가능한 폐색으로 인해 1-대-1 매핑이 아니며, 따라서, 우측-뷰 이미지를 획득하기 위해 추가적인 프로세싱이 필요하다.Thus, for all the pixels in the left view, its counterpart in the right view is shifted to the left side or right side by the distance of the disparity value obtained in equation (10). However, the mapping from the left-view to the right-view is not a 1-to-1 mapping due to possible occlusions and therefore requires additional processing to obtain the right-view image.
따라서, Z-버퍼 기반 3D 보간 프로세스 (146) 가 우측-뷰 생성을 위하여 Z-버퍼 3D 표면 복원 서브-모듈 (46) 에 의해 수행된다. (도 12a에 도시된 바와 같이) 눈으로부터 오브젝트까지의 거리와 비교하여 2개의 눈들 사이의 거리가 매우 작으므로, 대략적으로, 오브젝트로부터 좌측 눈까지의 거리가 오브젝트로부터 우측 눈까지의 거리와 동일하다고 고려하며, 이는 계산을 매우 간략하게 할 것이다. 따라서, 깊이 맵 Z(x, y) (여기서, Z(x, y) 는 실제 이미지 깊이 맵이지만, 검출될 미지의 맵이다) 이 우측 (R) 뷰에 대해 보유되며, 여기서, x, y는 뷰에서의 픽셀 위치이다.Thus, Z-buffer based
다음으로, 도 15a 및 도 15b를 참조하면, 우측-뷰에 대해 3D 가시적인 표면을 재구성하기 위한 프로세스 (146) 가 다음으로 설명될 것이다. 시작부 (단계 S166) 에서, 깊이 맵이 무한대로서 초기화된다. 단계 S166에는, 좌측 뷰의 픽셀 (x0, y0) 이 획득되는 단계 168에 후속한다. 그 후, 단계 S170에서, 깊이 z0 및 디스패리티 값 d0를 갖는 좌측 뷰의 모든 픽셀 (x0, y0) 에 대하여,Next, referring to FIGS. 15A and 15B, a
와 같이 정의된 수학식 (11) 에 의해 깊이 맵이 우측 뷰에서 그의 대응하는 픽셀에 대해 업데이트된다.The depth map is updated for its corresponding pixel in the right view by equation (11) defined as
단계 S170에는, 임의의 더 많은 픽셀들이 존재하는지의 여부를 판정하는 판정 단계인 단계 S172가 후속한다. 그 판정이 "예" 라면, 단계 S172는 단계 S168로 복귀하여, 다음 픽셀을 획득한다. 한편, 좌측-뷰의 모든 픽셀들이 프로세싱되고, 그에 따라 단계 S172에서의 판정이 "아니오" 인 이후, 단계 S172에는, 재구성된 깊이 맵이 체크되며 무한대인 값들을 갖는 픽셀들 (좌측-뷰상에서 유효한 맵이 없는 픽셀들) 에 대해 탐색되는 단계 S174가 후속한다. 단계 S174에는, 픽셀값 (PV) 이 무한대인지의 여부에 대한 판정을 행하는 단계 S176에 후속한다. 단계 S176에서의 판정이 "아니오" 라면, 픽셀값 (PV) 은 유효하고, 도 15b의 단계 S188에서의 강도값으로서 직접 사용될 수 있다.Step S170 is followed by step S172, which is a determination step of determining whether any more pixels are present. If the determination is YES, step S172 returns to step S168 to obtain the next pixel. On the other hand, after all the pixels of the left-view have been processed and accordingly the determination in step S172 is "no", in step S172, the reconstructed depth map is checked and pixels having values that are infinite (valid on the left-view). Step S174, which is searched for pixels without a map, is followed. Step S174 is followed by step S176 in which a determination is made as to whether the pixel value PV is infinity. If the determination in step S176 is "no", the pixel value PV is valid and can be used directly as the intensity value in step S188 of Fig. 15B.
단계 S176에서의 판정이 "예" 라면, 단계 S180에서, 그러한 픽셀들에 대해, 이용가능한 깊이 값들을 갖는 그의 이웃 픽셀들에 기초하여 2D 보간에 의해 대응하는 픽셀에 대한 깊이를 먼저 계산한다. 그 이후, 단계 S182에서 상기 수학식 (10) 을 사용하여 디스패리티 값이 계산되고, 그 후, 단계 S184에서 그 픽셀의 대응하는 픽셀을 좌측 뷰에서 역으로 찾는다. 단계 S184에는, 픽셀이 찾아졌는지의 여부를 판정하는 단계 S186가 후속한다. 대응하는 픽셀이 이용가능하면, 단계 S186에는, 대응하는 강도값이 우측-뷰 픽셀에 대해 사용될 수 있는 단계 S188가 후속한다. 그렇지 않고, 단계 S186에서의 판정이 "아니오" 라면, 단계 S186에는, 이용가능한 강도값들을 갖는 우측-뷰에서의 이웃 픽셀들에 기초하여 강도값을 계산하기 위해 보간을 사용하는 단계 S190가 후속한다.If the determination in step S176 is YES, then in step S180, for such pixels, the depth for the corresponding pixel is first calculated by 2D interpolation based on its neighboring pixels with available depth values. Thereafter, the disparity value is calculated using the above equation (10) in step S182, and then, in step S184, the corresponding pixel of the pixel is searched backward in the left view. Step S184 is followed by step S186 of determining whether or not a pixel has been found. If the corresponding pixel is available, step S186 is followed by step S188, where a corresponding intensity value can be used for the right-view pixel. Otherwise, if the determination in step S186 is no, then step S186 is followed by step S190 of using interpolation to calculate the intensity value based on neighboring pixels in the right-view with the available intensity values. .
직접 강도 보간 방법보다 제안된 알고리즘을 사용하는 이점이, 스테레오 효과에 대해 더 양호한 리얼리즘을 초래하는 오브젝트 형상의 3D 연속성을 고려한다는 점임을 나타내는 것이 중요하다. 명확하게, 좌측 뷰의 비가시적 영역을 복원하는 문제는 풀리지 않은 문제이다. 일 공지된 솔루션에서, 미싱 픽셀의 깊이는, 장면에서 이면에 다른 가시적인 표면들이 존재하지 않는다는 가정으로 추가적인 표면에 대응하는 수평 방향에서 그의 이웃 픽셀을 사용함으로써 복원된다. 몇몇 경우에 있어서, 그 가정은 유효하지 않을 수도 있다. 더 많은 가능한 경우들을 고려하기 위해, 제안된 솔루션에서, 표면 복원은 모든 방향에서 모든 이웃 픽셀들의 깊이를 고려하며, 이는, 유효하지 않은 가정의 기회를 감소시킬 것이고 복원된 표면의 더 양호한 3D 연속성을 초래할 것이다.It is important to indicate that the advantage of using the proposed algorithm over the direct intensity interpolation method is that it takes into account the 3D continuity of the object shape resulting in better realism for stereo effects. Clearly, the problem of restoring the invisible area of the left view is an unsolved problem. In one known solution, the depth of a missing pixel is reconstructed by using its neighboring pixels in the horizontal direction corresponding to the additional surface, assuming that there are no other visible surfaces behind the scene. In some cases, the assumption may not be valid. In order to consider more possible cases, in the proposed solution, surface reconstruction takes into account the depth of all neighboring pixels in all directions, which will reduce the chance of invalid assumptions and better 3D continuity of the reconstructed surface. Will effect.
실험 결과Experiment result
디바이스 (10) 는 MSM8K VFE C-SIM 시스템에서 구현될 수 있다. 실험 결과들은, 포착된 및 생성된 스테레오 이미지들 및 비디오들이 우수한 3D 효과를 갖 는다는 것을 나타낸다.
실험에서, 값싼 레드-블루 애너그리프 생성 프로세스 (152) 가 결과적인 3D 효과를 시연하기 위해 사용되었지만, 생성된 스테레오 뷰들이 홀로그래픽 및 스테레오스코픽 디바이스와 같은 다른 메커니즘에 의해 디스플레이되는 것이 가능하다. 제 1 실험에서, 도 13a 및 도 13b에 도시된 바와 같이, 스테레오 이미지 쌍들은 상이한 종류의 이미지 깊이 맵을 사용하여 계산되었고, 대응하는 애너그리프 이미지들을 생성하였다. 도 13a는 도 6e에 도시되어 있는 근사화된 이미지 깊이 맵을 사용함으로써 생성되고, 도 13b는 도 6b에 도시되어 있는 정확한 이미지 깊이 맵을 사용함으로써 생성된다. 명확하게, 그 결과들은, 근사화된 이미지 깊이 맵이 정확한 깊이 맵을 사용하는 것과 유사한 이미지 품질을 초래한다는 것을 나타내며, 이는 양호한 성능을 증명한다.In the experiments, cheap red-blue
요약으로, 모노스코픽 저-전력 이동 디바이스 (10) 는 스테레오 이미지 및 비디오의 실-시간 포착 및 생성을 제공한다. 그 디바이스 (10) 는, 스테레오 이미지 및 비디오를 포착 및 생성하기 위해 모노스코픽 카메라 센서 모듈 (14) 의 오토포커싱 프로세스를 이용한다. 카메라 센서의 오토포커싱 프로세스는, 장면에서 원격 오브젝트들의 깊이 정보를 추정하기 위해 이용된다. 비디오 포착에 있어서, 모션 정보, 포커스 값, 및 프레임 히스토리 통계에 기초하여 블록 깊이 맵을 검출하기 위해 저-복잡도 알고리즘이 제공된다.In summary, monoscopic low-
디바이스 (10) 는, 계산 복잡도가 주요 관심사이도록 실-시간 애플리케이션에 대해 구성된다. 그러나, 디바이스 (10) 는 코오스-투-파인 방식으로 오브젝 트 깊이를 추정하며, 즉, 관련 블록 깊이 맵이 신속하게 검출될 수 있도록 이미지는 다수의 블록들로 분할된다. 그 후, 근사화된 이미지 깊이 맵으로 블록 깊이 맵을 변환하기 위해 쌍선형 필터가 이용된다. 스테레오 이미지 생성에 있어서, 미싱 뷰들을 추정하기 위해 저-복잡도 Z-버퍼 기반 3D 표면 복원 접근법이 이용된다.
실험 결과들은, 포착 및 생성된 스테레오 이미지 및 비디오가 충분한 3D 효과를 갖는다는 것을 나타낸다. 센서 모듈 (14) 의 포커스 기능이 더 양호해질수록, 추정된 깊이 맵이 더 정확해지며, 따라서, 생성된 이미지 및 비디오가 갖는 스테레오 효과가 더 양호해진다.Experimental results indicate that the captured and generated stereo images and video have sufficient 3D effects. The better the focus function of the
본 발명의 실시형태에 대한 전술한 설명은 예시 및 설명의 목적을 위해 제공되었다. 포괄적인 것으로 의도되거나, 개시된 정확한 형태로 본 발명을 제한하려고 의도되지는 않으며, 상기 교시의 관점에서 변형 및 변경이 가능하거나 본 발명의 실행으로부터 획득될 수도 있다. 고려된 특정한 사용에 적합한 다양한 실시형태에서 및 다양한 변형으로 본 발명을 당업자가 이용할 수 있도록 본 발명의 원리 및 그의 실용적인 애플리케이션을 설명하기 위해 실시형태들이 선택되고 설명되었다. 본 발명의 범위가 여기에 첨부된 청구항 및 그의 등가물에 의해 정의되는 것이 의도된다.The foregoing description of the embodiments of the invention has been presented for the purposes of illustration and description. It is not intended to be exhaustive or to limit the invention to the precise form disclosed, and modifications and variations are possible in light of the above teachings or may be acquired from practice of the invention. Embodiments have been selected and described in order to explain the principles of the invention and its practical applications in order that the present invention may be utilized by those skilled in the art in various embodiments and in various variations suitable for the particular use contemplated. It is intended that the scope of the invention be defined by the claims appended hereto and their equivalents.
Claims (44)
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US11/497,906 US8970680B2 (en) | 2006-08-01 | 2006-08-01 | Real-time capturing and generating stereo images and videos with a monoscopic low power mobile device |
US11/497,906 | 2006-08-01 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20090035024A KR20090035024A (en) | 2009-04-08 |
KR101038402B1 true KR101038402B1 (en) | 2011-06-01 |
Family
ID=38925520
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020097004126A KR101038402B1 (en) | 2006-08-01 | 2007-07-30 | Real-time capturing and generating stereo images and videos with a monoscopic low power mobile device |
Country Status (9)
Country | Link |
---|---|
US (2) | US8970680B2 (en) |
EP (4) | EP2498504B1 (en) |
JP (2) | JP5350241B2 (en) |
KR (1) | KR101038402B1 (en) |
CN (1) | CN101496413B (en) |
BR (1) | BRPI0715065B1 (en) |
CA (2) | CA2657401C (en) |
RU (1) | RU2417548C2 (en) |
WO (1) | WO2008016882A2 (en) |
Families Citing this family (117)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160065943A1 (en) * | 2014-09-03 | 2016-03-03 | Samsung Electronics Co., Ltd. | Method for displaying images and electronic device thereof |
US8970680B2 (en) | 2006-08-01 | 2015-03-03 | Qualcomm Incorporated | Real-time capturing and generating stereo images and videos with a monoscopic low power mobile device |
KR100866491B1 (en) * | 2007-01-30 | 2008-11-03 | 삼성전자주식회사 | Image processing method and apparatus |
US8125510B2 (en) * | 2007-01-30 | 2012-02-28 | Ankur Agarwal | Remote workspace sharing |
DE102007021518B4 (en) * | 2007-05-04 | 2009-01-29 | Technische Universität Berlin | Method of processing a video data set |
US8351685B2 (en) * | 2007-11-16 | 2013-01-08 | Gwangju Institute Of Science And Technology | Device and method for estimating depth map, and method for generating intermediate image and method for encoding multi-view video using the same |
DE102008001451A1 (en) * | 2008-04-29 | 2009-11-05 | Robert Bosch Gmbh | Camera and method for controlling a camera |
WO2010018880A1 (en) * | 2008-08-11 | 2010-02-18 | Postech Academy-Industry Foundation | Apparatus and method for depth estimation from single image in real time |
US8427424B2 (en) | 2008-09-30 | 2013-04-23 | Microsoft Corporation | Using physical objects in conjunction with an interactive surface |
US20100079582A1 (en) * | 2008-10-01 | 2010-04-01 | Dunsmore Clay A | Method and System for Capturing and Using Automatic Focus Information |
US8334893B2 (en) * | 2008-11-07 | 2012-12-18 | Honeywell International Inc. | Method and apparatus for combining range information with an optical image |
CN102224737B (en) * | 2008-11-24 | 2014-12-03 | 皇家飞利浦电子股份有限公司 | Combining 3D video and auxiliary data |
US8238681B2 (en) * | 2008-11-25 | 2012-08-07 | Nokia Corporation | Adaptive configuration of windows-of-interest for accurate and robust focusing in multispot autofocus cameras |
JP5792632B2 (en) * | 2009-01-30 | 2015-10-14 | トムソン ライセンシングThomson Licensing | Depth map encoding |
US9313376B1 (en) | 2009-04-01 | 2016-04-12 | Microsoft Technology Licensing, Llc | Dynamic depth power equalization |
EP2417559A4 (en) * | 2009-04-08 | 2015-06-24 | Stergen Hi Tech Ltd | Method and system for creating three-dimensional viewable video from a single video stream |
US8504640B2 (en) * | 2009-06-02 | 2013-08-06 | Motorola Solutions, Inc. | Device recruitment for stereoscopic imaging applications |
WO2011014419A1 (en) * | 2009-07-31 | 2011-02-03 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for creating three-dimensional (3d) images of a scene |
US20110025830A1 (en) | 2009-07-31 | 2011-02-03 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation |
WO2011014421A2 (en) * | 2009-07-31 | 2011-02-03 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation |
US9380292B2 (en) | 2009-07-31 | 2016-06-28 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene |
CN102549475A (en) * | 2009-08-07 | 2012-07-04 | 光处方革新有限公司 | 3D autostereoscopic display with true depth perception |
JP5909187B2 (en) * | 2009-10-14 | 2016-04-26 | トムソン ライセンシングThomson Licensing | Filtering and edge coding |
US9030469B2 (en) * | 2009-11-18 | 2015-05-12 | Industrial Technology Research Institute | Method for generating depth maps from monocular images and systems using the same |
EP2354893B1 (en) * | 2009-12-31 | 2018-10-24 | Sony Interactive Entertainment Europe Limited | Reducing inertial-based motion estimation drift of a game input controller with an image-based motion estimation |
KR20110090511A (en) * | 2010-02-04 | 2011-08-10 | 삼성전자주식회사 | Apparatus and method for image processing for three dimensinal in communication device |
US8730309B2 (en) | 2010-02-23 | 2014-05-20 | Microsoft Corporation | Projectors and depth cameras for deviceless augmented reality and interaction |
KR101628383B1 (en) * | 2010-02-26 | 2016-06-21 | 연세대학교 산학협력단 | Image processing apparatus and method |
KR101121264B1 (en) * | 2010-03-30 | 2012-03-22 | 김길겸 | Stereoscopic image camera apparatus and driving method the same |
US8970672B2 (en) | 2010-05-28 | 2015-03-03 | Qualcomm Incorporated | Three-dimensional image processing |
JP5540942B2 (en) * | 2010-06-29 | 2014-07-02 | 富士通セミコンダクター株式会社 | Processing equipment |
KR101669820B1 (en) | 2010-07-02 | 2016-10-27 | 삼성전자주식회사 | Apparatus and method for bidirectional inpainting in occlusion based on volume prediction |
JP2012023258A (en) * | 2010-07-16 | 2012-02-02 | Matsumoto Kenzai:Kk | Temperature difference power generator and temperature difference power generation method |
KR101688153B1 (en) * | 2010-08-11 | 2016-12-20 | 엘지전자 주식회사 | Method for editing three dimensional image and mobile terminal using this method |
US8947506B2 (en) * | 2010-08-27 | 2015-02-03 | Broadcom Corporation | Method and system for utilizing depth information for generating 3D maps |
US9013552B2 (en) * | 2010-08-27 | 2015-04-21 | Broadcom Corporation | Method and system for utilizing image sensor pipeline (ISP) for scaling 3D images based on Z-depth information |
US8531542B2 (en) | 2010-09-01 | 2013-09-10 | Apple Inc. | Techniques for acquiring and processing statistics data in an image signal processor |
US8922704B2 (en) | 2010-09-01 | 2014-12-30 | Apple Inc. | Techniques for collection of auto-focus statistics |
US9398205B2 (en) | 2010-09-01 | 2016-07-19 | Apple Inc. | Auto-focus control using image statistics data with coarse and fine auto-focus scores |
US8605167B2 (en) | 2010-09-01 | 2013-12-10 | Apple Inc. | Flexible color space selection for auto-white balance processing |
US8681255B2 (en) | 2010-09-28 | 2014-03-25 | Microsoft Corporation | Integrated low power depth camera and projection device |
US8629913B2 (en) | 2010-09-30 | 2014-01-14 | Apple Inc. | Overflow control techniques for image signal processing |
US8786625B2 (en) | 2010-09-30 | 2014-07-22 | Apple Inc. | System and method for processing image data using an image signal processor having back-end processing logic |
US8488055B2 (en) | 2010-09-30 | 2013-07-16 | Apple Inc. | Flash synchronization using image sensor interface timing signal |
US8508612B2 (en) | 2010-09-30 | 2013-08-13 | Apple Inc. | Image signal processor line buffer configuration for processing ram image data |
WO2012061549A2 (en) | 2010-11-03 | 2012-05-10 | 3Dmedia Corporation | Methods, systems, and computer program products for creating three-dimensional video sequences |
US8670630B1 (en) | 2010-12-09 | 2014-03-11 | Google Inc. | Fast randomized multi-scale energy minimization for image processing |
KR101777854B1 (en) | 2010-12-21 | 2017-09-13 | 한국전자통신연구원 | Method and Device for Scaling Depth Perception, Terminal Including the Same and Method for Operating the Terminal |
WO2012092246A2 (en) | 2010-12-27 | 2012-07-05 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3d) content creation |
JP2012138787A (en) * | 2010-12-27 | 2012-07-19 | Sony Corp | Image processor, image processing method, and program |
US10200671B2 (en) | 2010-12-27 | 2019-02-05 | 3Dmedia Corporation | Primary and auxiliary image capture devices for image processing and related methods |
US8274552B2 (en) | 2010-12-27 | 2012-09-25 | 3Dmedia Corporation | Primary and auxiliary image capture devices for image processing and related methods |
US9329469B2 (en) | 2011-02-17 | 2016-05-03 | Microsoft Technology Licensing, Llc | Providing an interactive experience using a 3D depth camera and a 3D projector |
US9480907B2 (en) | 2011-03-02 | 2016-11-01 | Microsoft Technology Licensing, Llc | Immersive display with peripheral illusions |
US8890995B2 (en) | 2011-04-15 | 2014-11-18 | Panasonic Corporation | Image pickup apparatus, semiconductor integrated circuit and image pickup method |
US20120268562A1 (en) * | 2011-04-20 | 2012-10-25 | Himax Technologies Limited | Image processing module and image processing method thereof for 2d/3d images conversion and frame rate conversion |
US9597587B2 (en) | 2011-06-08 | 2017-03-21 | Microsoft Technology Licensing, Llc | Locational node device |
JP5824896B2 (en) * | 2011-06-17 | 2015-12-02 | ソニー株式会社 | Image processing apparatus and method, and program |
US20130002811A1 (en) * | 2011-06-28 | 2013-01-03 | Bu Lin-Kai | Three-dimensional imaging method using single-lens image-capture apparatus and three-dimensional image enhancement method based on two-dimensional images |
US8743180B2 (en) | 2011-06-28 | 2014-06-03 | Cyberlink Corp. | Systems and methods for generating a depth map and converting two-dimensional data to stereoscopic data |
US9270875B2 (en) * | 2011-07-20 | 2016-02-23 | Broadcom Corporation | Dual image capture processing |
US8928737B2 (en) * | 2011-07-26 | 2015-01-06 | Indiana University Research And Technology Corp. | System and method for three dimensional imaging |
KR101888672B1 (en) * | 2011-07-27 | 2018-08-16 | 엘지디스플레이 주식회사 | Streoscopic image display device and method for driving thereof |
EP2748797B1 (en) * | 2011-09-28 | 2015-03-04 | Koninklijke Philips N.V. | Object distance determination from image |
KR101918057B1 (en) * | 2011-11-30 | 2019-01-30 | 삼성전자주식회사 | Method and apparatus for recovering depth information of image |
US9161010B2 (en) | 2011-12-01 | 2015-10-13 | Sony Corporation | System and method for generating robust depth maps utilizing a multi-resolution procedure |
US9414048B2 (en) * | 2011-12-09 | 2016-08-09 | Microsoft Technology Licensing, Llc | Automatic 2D-to-stereoscopic video conversion |
JP2013172190A (en) * | 2012-02-17 | 2013-09-02 | Sony Corp | Image processing device and image processing method and program |
US9210405B2 (en) | 2012-03-22 | 2015-12-08 | Qualcomm Technologies, Inc. | System and method for real time 2D to 3D conversion of video in a digital camera |
US9584793B2 (en) * | 2012-04-09 | 2017-02-28 | Intel Corporation | Signaling three-dimensional video information in communication networks |
US8917336B2 (en) | 2012-05-31 | 2014-12-23 | Apple Inc. | Image signal processing involving geometric distortion correction |
US9031319B2 (en) | 2012-05-31 | 2015-05-12 | Apple Inc. | Systems and methods for luma sharpening |
US11089247B2 (en) | 2012-05-31 | 2021-08-10 | Apple Inc. | Systems and method for reducing fixed pattern noise in image data |
US8872946B2 (en) | 2012-05-31 | 2014-10-28 | Apple Inc. | Systems and methods for raw image processing |
US9077943B2 (en) | 2012-05-31 | 2015-07-07 | Apple Inc. | Local image statistics collection |
US9014504B2 (en) | 2012-05-31 | 2015-04-21 | Apple Inc. | Systems and methods for highlight recovery in an image signal processor |
US9105078B2 (en) | 2012-05-31 | 2015-08-11 | Apple Inc. | Systems and methods for local tone mapping |
US8817120B2 (en) | 2012-05-31 | 2014-08-26 | Apple Inc. | Systems and methods for collecting fixed pattern noise statistics of image data |
US9743057B2 (en) | 2012-05-31 | 2017-08-22 | Apple Inc. | Systems and methods for lens shading correction |
US9025867B2 (en) | 2012-05-31 | 2015-05-05 | Apple Inc. | Systems and methods for YCC image processing |
US8953882B2 (en) | 2012-05-31 | 2015-02-10 | Apple Inc. | Systems and methods for determining noise statistics of image data |
US9332239B2 (en) | 2012-05-31 | 2016-05-03 | Apple Inc. | Systems and methods for RGB image processing |
US9142012B2 (en) | 2012-05-31 | 2015-09-22 | Apple Inc. | Systems and methods for chroma noise reduction |
CN102761768A (en) * | 2012-06-28 | 2012-10-31 | 中兴通讯股份有限公司 | Method and device for realizing three-dimensional imaging |
US20140043447A1 (en) * | 2012-08-09 | 2014-02-13 | Sony Corporation | Calibration in the loop |
KR101890133B1 (en) | 2012-09-05 | 2018-09-28 | 삼성전자주식회사 | Photographing apparatus and Method for photographing image thereof |
US9264691B2 (en) * | 2012-09-28 | 2016-02-16 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for backward 3D-view synthesis prediction using neighboring blocks |
TWI508524B (en) * | 2012-10-26 | 2015-11-11 | Quanta Comp Inc | Method and system for automatic adjusting auto-stereoscopic 3d display device |
CN103905806B (en) * | 2012-12-26 | 2018-05-01 | 三星电子(中国)研发中心 | The system and method that 3D shootings are realized using single camera |
US8983176B2 (en) | 2013-01-02 | 2015-03-17 | International Business Machines Corporation | Image selection and masking using imported depth information |
KR20140088465A (en) * | 2013-01-02 | 2014-07-10 | 삼성전자주식회사 | Display method and display apparatus |
WO2014147542A1 (en) * | 2013-03-21 | 2014-09-25 | Koninklijke Philips N.V. | View classification-based model initialization |
US9544613B2 (en) * | 2013-04-24 | 2017-01-10 | Sony Corporation | Local detection model (LDM) for recursive motion estimation |
US20150049821A1 (en) * | 2013-08-16 | 2015-02-19 | Qualcomm Incorporated | In-loop depth map filtering for 3d video coding |
WO2015137635A1 (en) * | 2014-03-13 | 2015-09-17 | Samsung Electronics Co., Ltd. | Image pickup apparatus and method for generating image having depth information |
US20150271467A1 (en) * | 2014-03-20 | 2015-09-24 | Neal Weinstock | Capture of three-dimensional images using a single-view camera |
US9449234B2 (en) | 2014-03-31 | 2016-09-20 | International Business Machines Corporation | Displaying relative motion of objects in an image |
US9196027B2 (en) | 2014-03-31 | 2015-11-24 | International Business Machines Corporation | Automatic focus stacking of captured images |
US9300857B2 (en) | 2014-04-09 | 2016-03-29 | International Business Machines Corporation | Real-time sharpening of raw digital images |
US9378554B2 (en) * | 2014-10-09 | 2016-06-28 | Caterpillar Inc. | Real-time range map generation |
CN104794713B (en) * | 2015-04-15 | 2017-07-11 | 同济大学 | Chamber crop digitalized image method based on ARM and binocular vision |
US9875443B2 (en) * | 2015-06-18 | 2018-01-23 | TCL Research America Inc. | Unified attractiveness prediction framework based on content impact factor |
US11463676B2 (en) | 2015-08-07 | 2022-10-04 | Medicaltek Co. Ltd. | Stereoscopic visualization system and method for endoscope using shape-from-shading algorithm |
US9715721B2 (en) | 2015-12-18 | 2017-07-25 | Sony Corporation | Focus detection |
EP3185208A1 (en) * | 2015-12-22 | 2017-06-28 | Thomson Licensing | Method for determining missing values in a depth map, corresponding device, computer program product and non-transitory computer-readable carrier medium |
CN105611162A (en) * | 2015-12-29 | 2016-05-25 | 太仓美宅姬娱乐传媒有限公司 | Photographing method of photographic equipment |
US10341634B2 (en) | 2016-01-29 | 2019-07-02 | Samsung Electronics Co., Ltd. | Method and apparatus for acquiring image disparity |
WO2018053846A1 (en) | 2016-09-26 | 2018-03-29 | 深圳市大疆创新科技有限公司 | Focusing method, camera device, and unmanned aerial vehicle |
US10552981B2 (en) | 2017-01-16 | 2020-02-04 | Shapetrace Inc. | Depth camera 3D pose estimation using 3D CAD models |
GB201702386D0 (en) | 2017-02-14 | 2017-03-29 | Bluejay Tech Ltd | System for streaming |
US20200045094A1 (en) * | 2017-02-14 | 2020-02-06 | Bluejay Technologies Ltd. | System for Streaming |
JP7204326B2 (en) * | 2018-01-15 | 2023-01-16 | キヤノン株式会社 | Information processing device, its control method and program, and vehicle driving support system |
US10536622B2 (en) * | 2018-05-15 | 2020-01-14 | Sony Corporation | Camera depth prediction using generative adversarial network |
CN111539906B (en) * | 2019-01-22 | 2024-04-12 | 顺丰科技有限公司 | Loading rate measuring method and device |
US11330246B2 (en) | 2019-11-21 | 2022-05-10 | Microsoft Technology Licensing, Llc | Imaging system configured to use time-of-flight imaging and stereo imaging |
US11321926B2 (en) * | 2019-12-18 | 2022-05-03 | Apple Inc. | Method and device for content placement |
WO2023184527A1 (en) * | 2022-04-02 | 2023-10-05 | Covidien Lp | System and method for unsupervised stereoscopic reconstruction with disparity consistency |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5151609A (en) * | 1989-08-02 | 1992-09-29 | Hitachi, Ltd. | Method of detecting solid shape of object with autofocusing and image detection at each focus level |
US5305092A (en) * | 1991-09-03 | 1994-04-19 | Hitachi, Ltd. | Apparatus for obtaining three-dimensional volume data of an object |
US20040100464A1 (en) | 2002-11-25 | 2004-05-27 | Dynamic Digital Depth Research Pty Ltd | 3D image synthesis from depth encoded source view |
Family Cites Families (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0396178A (en) | 1989-09-08 | 1991-04-22 | Sanyo Electric Co Ltd | Automatic focus device |
JP3112485B2 (en) | 1991-01-22 | 2000-11-27 | オリンパス光学工業株式会社 | 3D electronic still camera |
JP3096178B2 (en) | 1992-11-11 | 2000-10-10 | 株式会社エヌ・ティ・ティ・ドコモ | Transmitter / receiver for TDMA-TDD wireless communication device |
AUPN732395A0 (en) * | 1995-12-22 | 1996-01-25 | Xenotech Research Pty Ltd | Image conversion and encoding techniques |
EP0918439B1 (en) | 1996-07-18 | 2008-12-24 | SANYO ELECTRIC Co., Ltd. | Device for converting two-dimensional video into three-dimensional video |
JP3957343B2 (en) | 1996-07-18 | 2007-08-15 | 三洋電機株式会社 | Apparatus and method for converting 2D video to 3D video |
JPH10108152A (en) | 1996-09-27 | 1998-04-24 | Sanyo Electric Co Ltd | Portable information terminal |
US6055330A (en) * | 1996-10-09 | 2000-04-25 | The Trustees Of Columbia University In The City Of New York | Methods and apparatus for performing digital image and video segmentation and compression using 3-D depth information |
CN1173296C (en) | 1997-12-05 | 2004-10-27 | 动力数字深度研究有限公司 | Improved image conversion and encoding techniques |
US6128071A (en) | 1998-06-04 | 2000-10-03 | Canon Kabushiki Kaisha | Range data recordation |
US6347344B1 (en) * | 1998-10-14 | 2002-02-12 | Hitachi, Ltd. | Integrated multimedia system with local processor, data transfer switch, processing modules, fixed functional unit, data streamer, interface unit and multiplexer, all integrated on multimedia processor |
US6816158B1 (en) | 1998-10-30 | 2004-11-09 | Lemelson Jerome H | Three-dimensional display system |
JP2000251090A (en) | 1999-03-01 | 2000-09-14 | Sony Computer Entertainment Inc | Drawing device, and method for representing depth of field by the drawing device |
JP2001042200A (en) | 1999-07-30 | 2001-02-16 | Casio Comput Co Ltd | Camera apparatus and zoom operation control method |
JP4126816B2 (en) | 1999-08-18 | 2008-07-30 | ソニー株式会社 | Image recording apparatus and image recording method |
JP2001061164A (en) | 1999-08-19 | 2001-03-06 | Toshiba Corp | Transmission method of stereoscopic video signal |
US6512838B1 (en) | 1999-09-22 | 2003-01-28 | Canesta, Inc. | Methods for enhancing performance and data acquired from three-dimensional image systems |
JP4550211B2 (en) | 2000-03-21 | 2010-09-22 | オリンパス株式会社 | camera |
JP2001346226A (en) * | 2000-06-02 | 2001-12-14 | Canon Inc | Image processor, stereoscopic photograph print system, image processing method, stereoscopic photograph print method, and medium recorded with processing program |
FI109633B (en) * | 2001-01-24 | 2002-09-13 | Gamecluster Ltd Oy | A method for speeding up and / or improving the quality of video compression |
JP2003085578A (en) | 2001-09-14 | 2003-03-20 | Namco Ltd | Game information, information storage medium and game device |
JP2003109032A (en) * | 2001-09-26 | 2003-04-11 | Pioneer Electronic Corp | Image producing device and computer program |
JP2003209858A (en) | 2002-01-17 | 2003-07-25 | Canon Inc | Stereoscopic image generating method and recording medium |
JP2003304562A (en) | 2002-04-10 | 2003-10-24 | Victor Co Of Japan Ltd | Object encoding method, object encoder, and program for object encoding |
US7324116B2 (en) | 2002-06-20 | 2008-01-29 | Microsoft Corporation | Systems and methods for providing controllable texture sampling |
JP2004040445A (en) | 2002-07-03 | 2004-02-05 | Sharp Corp | Portable equipment having 3d display function and 3d transformation program |
US7321682B2 (en) | 2002-11-12 | 2008-01-22 | Namco Bandai Games, Inc. | Image generation system, image generation method, program, and information storage medium |
JP4397217B2 (en) | 2002-11-12 | 2010-01-13 | 株式会社バンダイナムコゲームス | Image generation system, image generation method, program, and information storage medium |
US7224830B2 (en) * | 2003-02-04 | 2007-05-29 | Intel Corporation | Gesture detection from digital video images |
CN1204757C (en) * | 2003-04-22 | 2005-06-01 | 上海大学 | Stereo video stream coder/decoder and stereo video coding/decoding system |
US7171054B2 (en) | 2003-05-01 | 2007-01-30 | Eastman Kodak Company | Scene-based method for determining focus |
JP2004347871A (en) | 2003-05-22 | 2004-12-09 | Fuji Photo Film Co Ltd | Projector and digital camera |
JP4525089B2 (en) * | 2004-01-27 | 2010-08-18 | フジノン株式会社 | Auto focus system |
US7262767B2 (en) * | 2004-09-21 | 2007-08-28 | Victor Company Of Japan, Limited | Pseudo 3D image creation device, pseudo 3D image creation method, and pseudo 3D image display system |
JP4214529B2 (en) | 2004-12-28 | 2009-01-28 | 日本ビクター株式会社 | Depth signal generation device, depth signal generation program, pseudo stereoscopic image generation device, and pseudo stereoscopic image generation program |
US7821570B2 (en) | 2005-11-30 | 2010-10-26 | Eastman Kodak Company | Adjusting digital image exposure and tone scale |
US8970680B2 (en) | 2006-08-01 | 2015-03-03 | Qualcomm Incorporated | Real-time capturing and generating stereo images and videos with a monoscopic low power mobile device |
JP5007373B1 (en) | 2012-03-14 | 2012-08-22 | アルプス電気株式会社 | Lens drive device |
-
2006
- 2006-08-01 US US11/497,906 patent/US8970680B2/en active Active
-
2007
- 2007-07-30 WO PCT/US2007/074748 patent/WO2008016882A2/en active Application Filing
- 2007-07-30 CN CN2007800278157A patent/CN101496413B/en active Active
- 2007-07-30 EP EP12171176.6A patent/EP2498504B1/en active Active
- 2007-07-30 EP EP12171172.5A patent/EP2498503B1/en active Active
- 2007-07-30 EP EP11184425.4A patent/EP2448279B1/en active Active
- 2007-07-30 CA CA2657401A patent/CA2657401C/en active Active
- 2007-07-30 JP JP2009522993A patent/JP5350241B2/en active Active
- 2007-07-30 RU RU2009107082/09A patent/RU2417548C2/en active
- 2007-07-30 CA CA2748558A patent/CA2748558C/en active Active
- 2007-07-30 KR KR1020097004126A patent/KR101038402B1/en active IP Right Grant
- 2007-07-30 BR BRPI0715065-2A patent/BRPI0715065B1/en active IP Right Grant
- 2007-07-30 EP EP07813546A patent/EP2047689A2/en not_active Withdrawn
-
2012
- 2012-06-21 JP JP2012140053A patent/JP5536146B2/en active Active
-
2014
- 2014-09-19 US US14/491,187 patent/US9509980B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5151609A (en) * | 1989-08-02 | 1992-09-29 | Hitachi, Ltd. | Method of detecting solid shape of object with autofocusing and image detection at each focus level |
US5305092A (en) * | 1991-09-03 | 1994-04-19 | Hitachi, Ltd. | Apparatus for obtaining three-dimensional volume data of an object |
US20040100464A1 (en) | 2002-11-25 | 2004-05-27 | Dynamic Digital Depth Research Pty Ltd | 3D image synthesis from depth encoded source view |
Also Published As
Publication number | Publication date |
---|---|
EP2498503A1 (en) | 2012-09-12 |
EP2448279A2 (en) | 2012-05-02 |
EP2448279B1 (en) | 2013-12-11 |
EP2498504A1 (en) | 2012-09-12 |
CN101496413B (en) | 2011-09-07 |
US9509980B2 (en) | 2016-11-29 |
US20080031327A1 (en) | 2008-02-07 |
US20150002627A1 (en) | 2015-01-01 |
JP2009545929A (en) | 2009-12-24 |
EP2448279A3 (en) | 2012-05-09 |
CA2657401A1 (en) | 2008-02-07 |
KR20090035024A (en) | 2009-04-08 |
RU2009107082A (en) | 2010-09-27 |
CA2748558C (en) | 2014-06-03 |
BRPI0715065A2 (en) | 2013-05-28 |
JP5350241B2 (en) | 2013-11-27 |
CA2657401C (en) | 2015-06-02 |
EP2498504B1 (en) | 2013-07-24 |
JP2012231508A (en) | 2012-11-22 |
US8970680B2 (en) | 2015-03-03 |
RU2417548C2 (en) | 2011-04-27 |
BRPI0715065B1 (en) | 2020-09-15 |
WO2008016882A2 (en) | 2008-02-07 |
JP5536146B2 (en) | 2014-07-02 |
EP2047689A2 (en) | 2009-04-15 |
CA2748558A1 (en) | 2008-02-07 |
WO2008016882A3 (en) | 2008-07-03 |
EP2498503B1 (en) | 2015-06-24 |
CN101496413A (en) | 2009-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101038402B1 (en) | Real-time capturing and generating stereo images and videos with a monoscopic low power mobile device | |
KR101096468B1 (en) | Complexity-adaptive 2d-to-3d video sequence conversion | |
JP5156837B2 (en) | System and method for depth map extraction using region-based filtering | |
JP2011166264A (en) | Image processing apparatus, imaging device and image processing method, and program | |
JPH08331607A (en) | Three-dimensional display image generating method | |
JP2009047497A (en) | Stereoscopic imaging device, control method of stereoscopic imaging device, and program | |
JP3197801B2 (en) | 2D display image generation method | |
US20210133475A1 (en) | Slow or fast motion video using depth information | |
KR101926498B1 (en) | Stereo image matching apparatus and its method | |
CN113409331A (en) | Image processing method, image processing apparatus, terminal, and readable storage medium | |
KR101626679B1 (en) | Method for generating stereoscopic image from 2D image and for medium recording the same | |
Galabov | 3D Capturing with monoscopic camera | |
Dane et al. | Multiview synthesis for autostereoscopic displays |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
J201 | Request for trial against refusal decision | ||
E902 | Notification of reason for refusal | ||
B701 | Decision to grant | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20140430 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20160330 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20170330 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20180329 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20190327 Year of fee payment: 9 |