KR100496513B1 - Image conversion method and image conversion system, encoding method and encoding system - Google Patents
Image conversion method and image conversion system, encoding method and encoding system Download PDFInfo
- Publication number
- KR100496513B1 KR100496513B1 KR10-1998-0704832A KR19980704832A KR100496513B1 KR 100496513 B1 KR100496513 B1 KR 100496513B1 KR 19980704832 A KR19980704832 A KR 19980704832A KR 100496513 B1 KR100496513 B1 KR 100496513B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- video
- video signal
- data
- converted data
- Prior art date
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/08—Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
- H04N7/087—Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
- G06T17/205—Re-meshing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
- H04N19/423—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/003—Aspects relating to the "2D+depth" image format
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
본 발명은 원 2D영상을 입체표시용 좌우 눈을 통해 영상을 생성하는 방법으로서,The present invention is a method for generating an image through the left and right eyes for stereoscopic display of the original 2D image,
a) 원 영상내에 최소한 한 개 이상의 오브젝트를 식별하는 단계와,a) identifying at least one object in the original image,
b) 상기 또는 각 오브젝트를 아웃라이닝(outlining)하는 단계와,b) outlining the or each object;
c) 상기 또는 각 오브젝트에 대한 깊이 특성(depth characteristic)을 정의하는 단계와,c) defining a depth characteristic for the or each object;
d) 시청자의 좌우 눈으로 시청하기 위한 2개의 신장된 영상을 형성하고, 상기 또는 각 오브젝트의 깊이 특성의 함수로서 측면 방향에서 결정된 양만큼 상기 영상 혹은 그 각각의 선택된 영역을 각각 변위시키는 단계를 포함하는 방법을 제공한다.d) forming two elongated images for viewing with the viewer's left and right eyes, and displacing the images or their respective selected regions by an amount determined in the lateral direction as a function of the depth characteristic of the or each object, respectively. Provide a way to.
Description
본 발명은 일반적으로 입체 영상합성법(stereoscopic image synthesis), 구체적으로 말하면, 2D 또는 3D 입체표시 시스템상에 입체 영상을 표시할 목적으로 인코딩(encoding), 전송(transmission), 및 디코딩(decoding)하는 2D 영상의 변환방법에 관한 것이다.The present invention generally relates to stereoscopic image synthesis, specifically 2D encoding, transmission and decoding for the purpose of displaying stereoscopic images on a 2D or 3D stereoscopic display system. The present invention relates to a video conversion method.
최근까지 소형, 고성능 비디오 프로젝션시스템, 영상 처리(image processing), 디지털비디오 및 액정패널(liquid crystal panels)의 분야에서의 기술 진보로 인해 능동 및 수동(active and passive) 편광유리 모두와 단수 혹은 복수의 자동입체표시(auto stereoscopic display)등을 이용하는 많은 실용적 3D 표시시스템의 출현이 가능하게 되었다.Until recently, advances in the fields of small, high-performance video projection systems, image processing, digital video and liquid crystal panels have led to both single and multiple active and passive polarizing glasses. The emergence of many practical 3D display systems using auto stereoscopic displays and the like has been made possible.
3D 표시시스템은 이제 그 기술적 호기심(technical curiosities)의 단계에서 벗어나 오락, 상용, 과학분야에서 실질적인 표시시스템으로 사용되기에 이르렀고, 3D 매체(media)가 이들 디바이스상에 표시되는 요구가 출현하게 되었다. 전통적으로 3D 매체(즉, 다른 시각으로부터 동일 장면(scene)의 적어도 두개의 분리된 시청(view)에 대한 영상 정보를 포함하는 매체)를 생성하는 데에는 단지 2개의 방법이 있다. 여기에는:3D display systems have now moved away from their technical curiosities and have been used as practical display systems in entertainment, commercial and scientific fields, and the demand for 3D media to be displayed on these devices has emerged. Traditionally, there are only two methods for creating 3D media (ie, media containing image information for at least two separate views of the same scene from different views). This includes:
1) 컴퓨터를 이용하여 두개의 다른 시청의 생성(대개는 실시간으로).1) Create two different city halls (usually in real time) using a computer.
2) 양측에 배치된 카메라로 비디오화 혹은 필름화.2) Video or film with both cameras.
CAD(Computer Aided Design), 모의장비(simulator), 비디오 게임기에서 사용되는 컴퓨터 생성 영상의 경우에, 다른 시각에서 두개의 분리된 영상을 얻는 것은 복잡한 프로세스가 아니다.In the case of computer-generated images used in computer aided design (CAD), simulators, and video game machines, obtaining two separate images from different perspectives is not a complicated process.
3D를 생성하기 위하여 양측에 배치된 카메라를 이용한 영화의 필름화는 오랜 세월동안 잘 이해되어 왔다. 그러나 이 방법에는 많은 문제점들이 도출된다. 예컨대 2D에 비해 3D에서는 필름화 또는 비디오화가 매우 어렵게 되는데, 그 이유는 장면에서 가장 가까운 오브젝트(object)와 가장 먼 오브젝트간의 허용가능한 거리에 대한 제한과, 프레이밍(framing) 문제(예컨대, 한 카메라에서만 보인다는 문제)와, 3D영상 생성의 부정확성이 강조되기 때문이다. 또 다른 문제는 두개의 카메라로부터의 영상들 간의 대기시간(latency)에 기인한 오류 3D 가공물을 야기함이 없이 평활한 팬(smooth pan)을 유지하는데 있다.Filmmaking of movies using cameras placed on both sides to generate 3D has been well understood for many years. However, there are many problems with this method. For example, filming or video becomes very difficult in 3D compared to 2D because of the limitations on the allowable distance between the closest object and the farthest object in the scene, and the framing problem (e.g. only on one camera). Visible problems) and inaccuracies in 3D image generation. Another problem is to maintain a smooth pan without causing error 3D artifacts due to latency between images from two cameras.
이러한 복잡성과 높은 생산 및 구현 비용, 및 현실적으로 아직은 극소수의 3D 표시 시스템만이 국내시장과 상업적 목적 하에 만들어진다는 사실 때문에, 주요 대형 필름, 비디오 제작업체에서 3D 매체를 제작하는 데는 별로 큰 매력이 없다. 그러나 만약 지금까지의 2D 필름을 3D로 재처리할 수 있는 기술이 개발된다면 앞으로 새로 만들어지는 필름을 처음부터 3D로 제작하기 위한 작업에 드는 비용에 비해 매우 저림한 비용으로 3D화 할 수 있을 뿐만 아니라 현재 보관중인 방대한 양의 2D 필름을 재편집하여 영화나 비디오 시장에 내 놓을 수 있게 된다.Due to this complexity and the high production and implementation costs, and the fact that very few 3D display systems are created for the domestic market and for commercial purposes yet, the production of 3D media in major large film and video producers is not very attractive. However, if the technology for reprocessing 2D films up to now in 3D is developed, not only will it be possible to make 3D at a very low cost compared to the cost of producing a new film in 3D from scratch? The vast amount of 2D film currently in storage can be re-edited for the film or video market.
그러나 기존의 2D 영상을 3D 영상으로 볼 수 있도록 변환하는 것은 이점이 된다. 이렇게 할 수 있는 한 가지 방법으로는 하나의 2D 영상을 "절단 및 첨부(Cut and Paste)기법" 을 이용하여 두 개의 좌우 영상으로 변환시키는 것이다. 이 기술은 하나의 오브젝트를 영상으로부터 잘라내서 각도가 다른 좌우 측면에 배치시킨 후 원(original) 영상에 다시 붙임으로써 요구되는 분리된 영상을 만들어 낸다. 그러나 이것은 결과적으로 영상내의 오브젝트가 이전에 점유하고 있는 영역에서 블랭크(blank) 영역을 초래하게 된다.However, it is advantageous to convert existing 2D images to be viewed as 3D images. One way to do this is to convert a 2D image into two left and right images using the "Cut and Paste" technique. This technique cuts out an object from the image, places it on the left and right sides at different angles, and then re-attaches it to the original image, creating the required separate image. However, this results in a blank area in the area previously occupied by the object in the image.
발명에 대한 설명을 실시 예를 들면서 도면과 함께 참고하면 보다 용이하게 이해될 것이다.Reference to the drawings with reference to the description of the invention will be more readily understood.
발명에 대한 다른 구현에도 첨부한 도면을 참고로 보다 잘 이해될 것이다.Other implementations of the invention will be better understood with reference to the accompanying drawings.
도 1은 3D 또는 입체 영상을 제공하기 위한 원 영상(original image)과 종래의 좌우 영상을 도시한다.1 illustrates an original image and a conventional left and right image for providing a 3D or stereoscopic image.
도 2는 "절단 및 첨부(cut & passt)" 기법을 이용하여 생성된 3D 영상을 제공하기 위한 원 영상과 좌우 영상을 도시한다.2 illustrates original and left and right images for providing a 3D image generated using a "cut & passt" technique.
도 3은 본 발명에 따르는 DDC(dynamic depth cueing)에 의해 생성된 영상과 원 영상을 도시한다.3 illustrates an image and an original image generated by DDC (dynamic depth cueing) according to the present invention.
도 4는 본 발명에 따르는 좌우 영상과 결과의 3D 영상을 도시한다.4 shows a left and right image and a resultant 3D image according to the present invention.
도 5는 왜곡 메쉬에 의한 불연속적으로 왜곡된 영상을 나타낸다.5 shows an image discontinuously distorted by a distortion mesh.
도 6은 왜곡 메쉬에 의한 연속적으로 왜곡된 영상을 나타낸다.6 shows an image continuously distorted by the distortion mesh.
도 7은 좌우 메쉬에 대한 메쉬공간변위(MSD;mesh spatial displacement)데이터의 예를 나타낸다.7 shows an example of mesh spatial displacement (MSD) data for left and right meshes.
도 8은 본 발명에 따라 MSD 데이터가 비디오 영상에 부가되는 방법을 예시하는 플로우챠트를 도시한다.8 shows a flowchart illustrating how MSD data is added to a video image in accordance with the present invention.
도 9는 본 발명에 따라 DDC 디코더가 비디오 체인(chain)에 일체화되는 방법을 도시한 블럭도이다.9 is a block diagram illustrating a method for integrating a DDC decoder into a video chain according to the present invention.
도 10은 필드 순차 복합 비디오 출력을 제공하는 본 발명에 따르는 DDC 디코더 유닛의 가능한 구현예를 도시한 블럭도이다.10 is a block diagram illustrating a possible implementation of a DDC decoder unit in accordance with the present invention for providing field sequential composite video output.
도 11은 필드 병렬 복합 비디오 출력을 제공하는 본 발명에 따른 DDC 디코더 유니트의 또 다른 가능한 실시예의 블록도이다.11 is a block diagram of another possible embodiment of a DDC decoder unit according to the present invention for providing field parallel composite video output.
도 12는 본 발명에 따른 MSD디코더의 한 형태의 블록도이다.12 is a block diagram of one type of MSD decoder according to the present invention.
도 13은 MSD데이터가 복합 비디오 신호로 인코딩되는 방법을 나타낸다.13 shows how MSD data is encoded into a composite video signal.
도 14는 실시간 발생 DDC 인코딩된 비디오 영상을 제공하기 위한 배열의 블록도를 나타낸다.14 shows a block diagram of an arrangement for providing a real-time generated DDC encoded video image.
도 15는 실시간 발생 DDC 인코딩된 비디오 영상을 제공하기 위한 대안 배열의 블록도를 나타낸다.15 shows a block diagram of an alternative arrangement for providing a real-time generated DDC encoded video image.
도 16은 다중시청자 3D 시스템의 작동 원리를 나타낸다.16 illustrates the principle of operation of a multiviewer 3D system.
도 17은 양볼록렌즈(lenticular lens) 기초 3D시스템의 작동원리를 표시하는 블록도를 나타낸다.FIG. 17 shows a block diagram showing the operating principle of a lenticular lens based 3D system.
도 18 및 19는 각각 양볼록렌즈 어셈블리를 사용하는 다중 프로젝터 시스템을 각각 나타낸다.18 and 19 respectively show multiple projector systems using biconvex lens assemblies.
도 20은 본 발명에 따른 DDC 디코더에 합체된 다중 프로젝터 시스템을 나타낸다.20 illustrates a multiple projector system incorporated into a DDC decoder in accordance with the present invention.
그러므로 본 발명의 목적은 이런 문제를 어떻게 든 극복하거나 또는 최소화하는 것이다.It is therefore an object of the present invention to somehow overcome or minimize this problem.
이것을 염두에 두고 볼 때, 본 발명은 일 양상으로서, 원 2D 영상으로부터 입체표시용 좌우 눈의 영상을 생성하는 방법으로서, 원 영상 중 선택된 영역이 미리 결정된 양만큼 변위되어 좌우 눈 영상을 형성하는 신장된(streched) 영상을 생성하게 되는 방법을 제공한다.With this in mind, the present invention is a method for generating an image of left and right eyes for stereoscopic display from an original 2D image, wherein the selected region of the original image is displaced by a predetermined amount to form a left and right eye image. A method of generating a stretched image is provided.
두 개의 변환된 영상이 시청자의 좌우 눈에 의해 각각 보일 때, 이들 영상은 "절단 및 첨부" 기법에 의해 생성되는 경우와 같이 어떠한 빈 영역도 없이 3D 영상을 제공할 수 있다.When two transformed images are respectively seen by the viewer's left and right eyes, these images can provide a 3D image without any blank area, such as would be produced by a "cut and attach" technique.
본 명세서는 2D 매체를 3D 포맷(format), 즉 새로운 3D 매체의 통신과 저장에 적합한 새로운 합성 데이터 포맷으로의 변환과 관련된 주요 알고리즘 프로세스의 일부를 커버하고 있으며, 이 새로운 3D 포맷을 실시간으로 인코딩, 전송, 및 디코딩하기 위한 몇 가지 하드웨어의 구현예가 또한 설명된다.This document covers some of the key algorithmic processes involved in the conversion of 2D media into 3D format, a new synthetic data format suitable for communication and storage of new 3D media, and encodes this new 3D format in real time, Some hardware implementations for transmitting and decoding are also described.
이 기술의 가장 큰 이점은 막대한 비용 절감과 매체 제공에 있다. 예를 들면 필름화에 한 대의 카메라만이 사용된다. 2D에서 3D로의 변환 프로세스는 어떤 식으로도 최종 2D 표시 프로세스를 방해하지 않는 작은 패킷의 3D 데이터의 부가를 제외하고는 영상 매체를 가상적으로 변화시키지 않은 채 패키징 및 전달하는 것이 가능하게 된다. 즉 표준 2D TV에서 화질의 저하됨이 없이 2D 또는 3D로 영상을 볼 수 있게 하며(셔터(shutter) 안경이나 유사한 것의 사용을 통해), 3D TV상에서 또는 다른 디스플레이상에서 3D로 표시될 수 있다.The biggest advantage of this technology is the huge cost savings and media delivery. For example, only one camera is used for filming. The 2D to 3D conversion process makes it possible to package and deliver the virtually unchanged image medium except for the addition of small packets of 3D data that do not in any way interfere with the final 2D presentation process. That is, it allows viewing of images in 2D or 3D (with the use of shutter glasses or the like) without degrading the quality of a standard 2D TV, and can be displayed in 3D on 3D TV or on another display.
2D에서 3D로의 변환 프로세스의 최종 단계는 실시간으로 수신기에서 완료되며, 3D 영상을 표시하기 위한 증가된 증폭 요건은 TV 디코더에 국한되며 TV 캐리어의 채널 조작 용량에 역효과를 내지 않는다.The final stage of the 2D to 3D conversion process is completed at the receiver in real time, and the increased amplification requirements for displaying 3D images are limited to TV decoders and do not adversely affect the channel handling capacity of the TV carrier.
본 발명의 다른 특성에 따르면, 입체표시를 위해 2D 영상을 신장된 영상으로 변환시키기 위한, 원 2D 영상에 행해지는 변화를 설명하는 방법이 제공된다.According to another aspect of the present invention, there is provided a method for explaining a change made to an original 2D image for converting a 2D image into an extended image for stereoscopic display.
본 발명의 또 다른 특성에 따르면, 입체표시를 위해 2D비디오영상을 신장된 영상으로의 변환을 가능케 하기 위한, 2D 영상의 비디오신호를 인코딩하는 방법이 제공된다.According to still another aspect of the present invention, there is provided a method for encoding a video signal of a 2D video to enable conversion of a 2D video video to an extended video for stereoscopic display.
본 발명의 또 다른 특성에 따르면, 입체표시를 위해 2D영상을 신장된 영상으로의 변환을 가능케 하기 위해, 데이터를 인코딩하고, 비디오신호로부터 인코딩된 데이터를 추출하는 단계를 포함하는 2D 영상의 비디오 신호를 수신하는 방법이 제공된다.According to still another aspect of the present invention, a video signal of a 2D video includes encoding data and extracting encoded data from the video signal to enable conversion of the 2D video to an extended video for stereoscopic display. A method of receiving is provided.
본 발명의 또 다른 특성에 따르면, 인코딩된 데이터로 2D 비디오영상을 조작하여 입체표시에 신장된 영상을 제공하는 방법이 제공된다.According to still another aspect of the present invention, there is provided a method of providing a stretched image in stereoscopic display by manipulating a 2D video image with encoded data.
본 발명의 다른 특성에 따르면, 원 2D영상을 입체표시용 좌우 눈을 통해 영상을 생성하는 방법으로서,According to another aspect of the invention, as a method for generating an image through the left and right eyes for stereoscopic display of the original 2D image,
a) 원 영상내에 최소한 한 개 이상의 오브젝트를 식별하는 단계와,a) identifying at least one object in the original image,
b) 상기 또는 각 오브젝트를 아웃라이닝(outlining)하는 단계와,b) outlining the or each object;
c) 상기 또는 각 오브젝트에 대한 깊이 특성(depth characteristic)을 정의하는 단계와,c) defining a depth characteristic for the or each object;
d) 시청자의 좌우 눈으로 시청하기 위한 2개의 신장된 영상을 형성하고, 상기 또는 각 오브젝트의 깊이 특성의 함수로서 측면 방향에서 결정된 양만큼 상기 영상 혹은 그 각각의 선택된 영역을 각각 변위시키는 단계를 포함한다.d) forming two elongated images for viewing with the viewer's left and right eyes, and displacing the images or their respective selected regions by an amount determined in the lateral direction as a function of the depth characteristic of the or each object, respectively. do.
이 한 쌍의 영상은 입체 3D효과가 최적이 되도록 서로 미러링(mirroring)되거나 혹은 유사할 수 있다.The pair of images may be mirrored or similar to each other so that stereoscopic 3D effects are optimal.
영상은 각각이 상기 각각의 깊이 특성을 구비한 복수의 오브젝트를 포함한다. 영상은 개별 기준으로 변환될 수 있다. 대안적으로, 비디오나 필름 속의 일련의 연관된 영상들은 변환될 수 있다.The image includes a plurality of objects each having the respective depth characteristics. The image can be converted to individual criteria. Alternatively, the series of related images in the video or film can be converted.
영상은 디지털화되고, 영상에 임시로 메쉬(mesh)를 배치함에 의해 전자적으로 신장 또는 변환되며, 이 메쉬들은 초기에 복수의 평행한 횡방향 메쉬선과, 횡방향 메쉬선에 직각인 평행한 종방향 메쉬선들을 구비한다. 메쉬상에서 메쉬선들의 교차는 메쉬 서브포인트(subpoint)를 제공한다. 영상은 이 메쉬와 함께 이동할 수 있어 메쉬에 의한 왜곡으로 인해 기초(underlying) 영상의 신장을 초래한다. 이 메쉬선들은 계속 남아서 영상의 평활한 신장을 제공한다. 초기 위치로부터 각 메쉬서브포인트의 변위량은 최초 영상의 변환 데이터를 제공한다. 서브 메쉬포인트들은 횡방향으로 변위되기도 한다.The image is digitized and stretched or transformed electronically by temporarily placing a mesh in the image, which initially includes a plurality of parallel transverse mesh lines and a parallel longitudinal mesh perpendicular to the transverse mesh line. With lines. The intersection of the mesh lines on the mesh provides a mesh subpoint. The image can move with this mesh, resulting in stretching of the underlying image due to distortion by the mesh. These mesh lines remain to provide a smooth stretch of the image. The displacement amount of each mesh subpoint from the initial position provides the transformed data of the original image. Submesh points may be laterally displaced.
메쉬 서브포인트의 변위는 수학적인 알고리즘에 의하여 또한 결정될 수 있어 영상의 자동 변환을 제공하게 된다. 쉐도우(shadow), 블러링(blurring) 및 움직임 보간 데이터를 강제 변위 정보, 필드 지연 및 움직임 변위 지연에 대한 방향을 포함하는 변환 데이터에 부가할 수 있는 것이 상기 방법에 비해 보다 향상된 것이다.The displacement of the mesh subpoint can also be determined by a mathematical algorithm to provide automatic conversion of the image. It is a further improvement over the method that the shadow, blurring and motion interpolation data can be added to the transform data including the direction for forced displacement information, field delay and motion displacement delay.
3D 영상으로서 시청될 수 있는 영상을 전송하기 위하여, 기존의 영상 전송 시스템을 사용할 수 있는 것이 이점이다. 본 발명은 2D 영상을 제공하는 비디오 신호를 전송하는 영상 전송에 사용되는데 적용될 수 있다.It is an advantage to be able to use existing video transmission systems in order to transmit video that can be viewed as 3D video. The present invention can be applied to the use in the image transmission for transmitting a video signal for providing a 2D image.
본 발명의 다른 특성에 따르면, 처리를 위해 영상내의 어느 오브젝트가 선택되는지, 이 오브젝트가 처리되는 방법과, 이들의 우선순위 또는 그렇지 않으면 다른 오브젝트와 이들의 깊이 특성을 기술하는 변환/신장 프로세스로부터 '오브젝트 스크립팅(object scripting)' 데이터의 세트를 생성하는 방법이 제공된다. 이런 스트립팅 데이터는 차후 사용을 위해 컴퓨터의 메모리에 저장되어 원 2D 영상을 재처리하거나 3D 영상의 재생을 위한 다른 사이트(다른 사이트는 동일한 2D 영상을 갖는다고 가정하자)에 송신된다.According to another aspect of the invention, from the transformation / extension process describing which objects in the image are selected for processing, how these objects are processed and their priorities or other objects and their depth characteristics, A method of generating a set of 'object scripting' data is provided. This scripting data is stored in the computer's memory for later use and sent to another site (assuming the other site has the same 2D image) for reprocessing the original 2D image or for playing back the 3D image.
그러므로 본 발명의 또 다른 특성에 따르면, 2D 비디오 영상을 제공하는 비디오 신호를 인코딩하는 인코더로서,Therefore, according to another aspect of the invention, an encoder for encoding a video signal for providing a 2D video image,
비디오 영상을 입체표시용 신장된 영상으로 변환하기 위한 비디오 영상의 각 선택된 포인트의 변위를 정의하는 데이터인 변환 데이터를 비디오 신호에 부가하여 인코딩된 신호를 제공하는 인코더가 제공된다.An encoder is provided that provides an encoded signal by adding transform data, which is data defining a displacement of each selected point of the video image, for converting the video image into a stretched image for stereoscopic display.
이러한 변환 데이터를 비디오 신호에 부가함에 의해, 기존의 전송시스템은 인코딩된 신호를 송신하는데 사용될 수 있다. 변환 데이터를 비디오 신호에 부가하는 여러 구조들이 제공될 수 있다. 예를 들면, 이런 데이터는 영상의 상하, 수평 동기 주기(horizontal sync period) 또는 각 라인의 수평 오버스캔(horizontal overscan) 영역에서 송신된 비디오 영상의 블랭크 라인에 포함된다.By adding this transformed data to the video signal, existing transmission systems can be used to transmit the encoded signal. Various structures may be provided for adding the transform data to the video signal. For example, such data is included in a blank line of a video image transmitted in the up and down, horizontal sync period or horizontal overscan region of each line of the image.
본 발명은 기존의 2D 비디오 영상의 변환에 제한되지 않는다. 오히려 프로세스는 2D 비디오 영상을 생성함과 동시에 변환 데이터를 생성하는데 용이하게 사용될 수 있다.The present invention is not limited to the conversion of existing 2D video images. Rather, the process can be easily used to generate transformed data while simultaneously generating a 2D video image.
그러므로 본 발명의 또 다른 특성에 따르면, 3D 변환 데이터로 인코딩된 2D 비디오 영상을 생성하는 방법으로서,Therefore, according to another aspect of the present invention, as a method for generating a 2D video image encoded with 3D converted data,
복수의 비디오 카메라로부터 비디오 영상을 캡쳐(capture)하는 단계와,Capturing video images from a plurality of video cameras,
변환 데이터를 생성하기 위하여 각각의 비디오 카메라로부터 비디오 영상을 비교하는 단계로서, 상기 변환 데이터가 비디오 영상을 입체표시용 신장된 영상으로 변환하기 위한 비디오 영상의 각각의 포인트들의 변위를 정의하는 단계와,Comparing the video images from each video camera to produce transform data, the transform data defining displacements of respective points of the video image for converting the video image into a stretched image for stereoscopic display;
상기 비디오 카메라들중 하나로부터의 비디오신호를 변환 데이터와 조합하여 인코딩된 비디오신호를 생성하는 단계를 포함하는 방법이 제공된다.And combining the video signal from one of the video cameras with the transformed data to produce an encoded video signal.
본 발명의 또 다른 특성에서는 3D 변환 데이터로 인코딩된 2D 비디오영상을 생성하는 방법으로서,In still another aspect of the present invention, there is provided a method of generating a 2D video image encoded with 3D converted data.
입체비디오카메라로부터 좌우 눈의 비디오 영상을 캡쳐하는 단계와,Capturing video images of left and right eyes from a stereoscopic video camera,
변환 데이터를 생성하기 위하여 입체비디오카메라로부터 좌우 눈 비디오영상들을 비교하는 단계로서, 상기 변환 데이터가 비디오 영상을 입체표시용 신장된 영상으로 변환하기 위한 비디오 영상의 각 포인트들의 변위를 정의하는 단계와,Comparing left and right eye video images from a stereoscopic video camera to generate converted data, wherein the converted data define displacements of respective points of the video image for converting the video image into an extended image for stereoscopic display;
상기 비디오 카메라로부터의 비디오 신호를 변환 데이터와 조합하여 인코딩된 비디오신호를 생성하는 단계를 포함하는 방법이 제공된다.And combining the video signal from the video camera with the transformed data to produce an encoded video signal.
본 발명의 또 다른 특성에서는 3D 변환 데이터로 인코딩된 2D 비디오신호를 생성하는 시스템으로서,In still another aspect of the present invention, there is provided a system for generating a 2D video signal encoded with 3D converted data.
서로 측면에 배치된 적어도 제1 및 제2 비디오 카메라와,At least first and second video cameras disposed laterally from each other,
변환 데이터를 생성하며, 상기 비디오 카메라로부터 데이터를 수신하고 이 데이터를 비교하여, 변환 데이터를 생성하고, 비디오 영상을 입체표시용 신장된 영상으로 변환하기 위한 상기 비디오 카메라들중 하나로부터의 비디오 영상의 각 포인트들의 변위를 정의하는 변환 수단과,To generate converted data, to receive data from the video camera and to compare the data, to generate converted data, and to convert the video image into an extended image for stereoscopic display. Conversion means for defining the displacement of each point,
상기 하나의 비디오 카메라로부터의 비디오 신호를 상기 변환 수단으로부터의 변환 데이터와 조합하여 인코딩된 비디오 신호를 생성하는 인코더를 포함하는 시스템이 제공된다.A system is provided comprising an encoder for combining an video signal from said one video camera with transform data from said conversion means to produce an encoded video signal.
3D 변환 데이터로 인코딩된 2D 비디오영상이 단일 시청자에서만 요구되는 경우, 단지 2개의 카메라만이 요구되며, 각 카메라는 시청자의 좌우 눈에 의해 보이는 시청을 나타낸다.If a 2D video image encoded with 3D converted data is required for only a single viewer, only two cameras are required, and each camera represents the viewing seen by the viewer's left and right eyes.
본 발명의 또 다른 특성에서는 3D 변환 데이터로 인코딩된 2D 비디오 신호를 생성하는 시스템으로서,In still another aspect of the present invention, there is provided a system for generating a 2D video signal encoded with 3D transform data.
입체 비디오 카메라와,Stereoscopic video camera,
변환 데이터를 생성하며, 상기 비디오 카메라로부터 데이터를 수신하고 이 데이터를 비교하여, 변환 데이터를 생성하고, 비디오 영상을 입체표시용 신장된 영상으로 변환하기 위한 상기 비디오 영상의 각 포인트들의 변위를 정의하는 변환 수단과,Generating transform data, receiving data from the video camera and comparing the data, generating transform data, and defining displacements of each point of the video image for converting the video image to an extended image for stereoscopic display. Conversion means,
상기 비디오 신호를 상기 변환 수단으로부터의 변환 데이터와 조합하여 인코딩된 비디오 신호를 생성하는 인코더를 포함하는 시스템이 제공된다.A system is provided comprising an encoder for combining the video signal with transform data from the conversion means to produce an encoded video signal.
본 발명의 또 다른 특성에 따르면, 입체 표시를 제공하기 위해 비디오 신호를 디코딩하는 디코더로서, 상기 신호는 2D 비디오 영상을 제공하며 비디오 영상을 변환하기 위한 변환 데이터를 더 포함하고, 상기 변환 데이터는 비디오 영상을 입체표시용 신장된 영상으로 변환하기 위한 상기 비디오 영상의 각 포인트들의 변위를 정의하며,According to another aspect of the invention, a decoder for decoding a video signal to provide stereoscopic display, the signal further comprising transformed data for providing a 2D video image and for converting the video image, wherein the converted data is video Define a displacement of each point of the video image for converting the image into an extended image for stereoscopic display,
a) 비디오 신호를 수신하는 수단과,a) means for receiving a video signal,
b) 변환 데이터를 판독하며 비디오 신호를 제어하여 변환된 비디오 신호를 제공하는 디코딩 수단을 포함하는 디코더가 제공된다.b) A decoder is provided that includes decoding means for reading the converted data and controlling the video signal to provide the converted video signal.
디코더는Decoder is
a) 비디오 신호를 분리된 비디오 컴포넌트로 변환하기 위한 RGB 또는 컴포넌트(component) 비디오 변환기와,a) an RGB or component video converter for converting the video signal into a separate video component,
b) 각 비디오 컴포넌트를 각 디지털 신호를 변환하기 위한 아날로그-대-디지털 변환기와,b) an analog-to-digital converter for converting each video component to each digital signal;
c) 상기 디지털 신호를 저장하는 디지털 저장 수단을 포함한다.c) digital storage means for storing said digital signal.
디코딩 수단은 디지털 저장 수단의 판독율(read out rate)을 제어하는 가변 주파수 클럭 수단을 제어하여, 저장 수단이 가변 레이트에서 판독되게 한다. 이는 변환 데이터에 따라서 신장 또는 압축되는 비디오 영상을 가져온다.The decoding means controls the variable frequency clock means, which controls the read out rate of the digital storage means, causing the storage means to be read at a variable rate. This results in a video image that is stretched or compressed according to the transform data.
대안적으로, RGB나 비디오 컴포넌트(video components)들은 가변 레이트에서 저장 수단으로 판독되며, 고정 레이트에서 저장 수단으로부터 판독된다.Alternatively, RGB or video components are read into the storage means at a variable rate and from the storage means at a fixed rate.
디코더는 단독 비디오 라인을 처리하던지 복잡한 필드나 프레임과 같은 복수 라인을 처리한다. 이 경우 변환 데이터로부터의 전체 메쉬(full mesh)는 완전한 필드나 프레임을 통해 계산되는 픽셀왜곡(pixel distortion)(측방향 시프트)(lateral shifts))으로 복원된다.Decoder processes single video lines or multiple lines such as complex fields or frames. In this case, the full mesh from the transform data is restored to pixel distortion (lateral shifts) calculated over the complete field or frame.
저장 수단은 이중 포트 RAM 스토어(store)의 형태일 수 도 있다.The storage means may be in the form of a dual port RAM store.
디지털 대 아날로그 변환 수단은 판독된 디지털 신호를 변환된 비디오 신호로 변환하여 시청 수단상에서 시청될 수 있게 한다. 시청 수단은 텔레비전 또는 변환된 비디오 영상을 시청하기 위한 다른 스크린을 포함한다. 시청 수단은 디코더에 의해 제어되는 셔터 안경을 더 포함하여 변환된 비디오 영상이 입체 영상으로서 시청되게 할 수 있다.The digital-to-analog converting means converts the read digital signal into a converted video signal for viewing on the viewing means. The viewing means comprises a television or other screen for watching the converted video image. The viewing means may further include shutter glasses controlled by the decoder to allow the converted video image to be viewed as a stereoscopic image.
대안적으로, 디코더는 변환된 좌우 비디오 영상 각각에 대한 디지털 신호를 저장하는 병렬 저장(parallel storage) 수단을 포함할 수 있다. 시청 수단은 좌우 비디오 영상을 동시에 투사하는 디스플레이 유닛을 포함한다.Alternatively, the decoder may comprise parallel storage means for storing a digital signal for each of the converted left and right video images. The viewing means comprises a display unit for simultaneously projecting left and right video images.
디코더 수단은 비디오 신호로부터 변환 데이터를 분리하는 분리 수단을 포함한다.The decoder means comprises separating means for separating the transformed data from the video signal.
본 발명의 다른 특성에 따르면, 입체영상 표시 시스템으로서,According to another feature of the present invention, a three-dimensional image display system,
a) 비디오 신호에 변환 데이터를 제공하여 비디오 신호를 인코딩하는 인코더로서, 변환 데이터가 비디오 영상을 입체 표시용 신장된 영상으로 변환하기 위한 비디오 영상의 각 포인트의 변위를 정의하는 인코더와,a) an encoder for providing a conversion signal to a video signal to encode the video signal, the conversion data defining a displacement of each point of the video image for converting the video image into an extended image for stereoscopic display;
b) 비디오 신호로부터 변환 데이터를 분리하며 비디오 신호를 변환 데이터의 함수로서 변환하는 디코더를 포함하는 시스템이 제공된다.b) A system is provided that includes a decoder that separates transform data from a video signal and converts the video signal as a function of the transform data.
본 발명의 또 다른 특성에 따르면, 다중시청자(multiviewer) 입체 표시 시스템으로서,According to still another aspect of the present invention, there is provided a multiviewer stereoscopic display system.
a) 입체 표시를 제공하기 위해 비디오 신호를 디코딩하는 디코더로서, 상기 신호가 2D 비디오 영상을 제공하며 비디오 영상을 변환하기 위한 변환 데이터를 더 포함하고, 상기 변환 데이터가 비디오 영상을 입체 표시용 신장된 영상으로 변환하기 위한 비디오 영상의 각 포인트의 변위를 정의하며, 비디오 신호를 수신하는 수단과, 변환 데이터를 판독하고 비디오 신호를 제어하여 변환된 비디오 신호를 제공하는 디코딩 수단을 포함하는 디코더를 포함하는 시스템이 제공된다.a) a decoder for decoding a video signal to provide a stereoscopic display, the signal further comprising transform data for providing a 2D video image and transforming the video image, wherein the converted data is extended for stereoscopic display of the video image; A decoder defining a displacement of each point of a video image for conversion to an image, the decoder comprising means for receiving a video signal and decoding means for reading the converted data and controlling the video signal to provide a converted video signal A system is provided.
2D 또는 "평면(monoscopic)" 비디오 신호를 3D 또는 "입체" 비디오 신호로 변환시킬 수 있는 본 발명에 따르는 방법이 하기의 DDC로서 언급되어지나 이로써 본 기술이 제한되는 것은 아니다.The method according to the invention which can convert a 2D or "monoscopic" video signal into a 3D or "stereo" video signal is referred to as the following DDC but this technique is not limited thereto.
a) 3D 발생 - 2D 영상을 3D 입체 영상 쌍(Pair)으로 변환시키며 3D 변환 데이터를 생성하는 기술 및 절차.a) 3D generation-techniques and procedures for converting 2D images into 3D stereoscopic pairs and generating 3D transformed data.
b) 3D 스크립팅 (Scripting) - 2D 영상을 3D 입체 영상 쌍으로 변환하는 위하여 2D 영상에서 요구되는 변화를 서술하는 기술. 어떤 오브젝트가 선택됐는지 또 어떻게 처리되는지를 기술하며 3D 데이터의 저장 수단을 제공한다.b) 3D Scripting-A technique that describes the changes required in a 2D image to convert a 2D image into a 3D stereoscopic image pair. It describes which objects are selected and how they are processed and provides a means of storing 3D data.
c) 3D 데이터 인코딩 - 정의된 포맷의 2D 비디오 영상에 정보를 부가하는 기술. 결과적인 수정 비디오는 기존의 비디오 기록, 편집, 전송 및 수신시스템과 호환가능하다.c) 3D data encoding-a technique for adding information to a 2D video image in a defined format. The resulting modified video is compatible with existing video recording, editing, transmitting and receiving systems.
d) 3D 표준화된 프로토콜 - 3D 변환 데이터는 정의된 데이터 포맷이나 표준화된 프로토콜을 사용하는 2D 비디오에 부가된다. 이 프로토콜은 3D 변환 데이터를 2D 전송에 부가하는 세계 표준이 될 만하다.d) 3D standardized protocol-3D converted data is added to 2D video using a defined data format or standardized protocol. This protocol is a world standard for adding 3D transformed data to 2D transmission.
e) 3D 데이터 인코딩 - 2D 비디오 영상 및 변환 데이터를 수신하며 2D 비디오 영상에 부가된 정보를 추출하여 3D 입체 영상이 합성될 수 있는 기술.e) 3D data encoding-A technology that can receive 3D video images and transformed data, and extract 3D stereoscopic images by extracting information added to 2D video images.
f) 3D 합성- 3D 입체 영상 쌍을 합성하기 위해서는 변환 데이터를 사용하여 2D 비디오영상을 조정하는 기술.f) 3D synthesis-A technique for adjusting 2D video images using transformed data to synthesize 3D stereoscopic image pairs.
2D 영상을 모의 3D 영상으로 변환하기 위해서는, 원 영상을 수정하여 두 개의 약간 다른 영상들을 생성하고 이들 분리된 영상들을 각각의 좌우 눈에 독립적으로 제시할 필요가 있다.In order to convert a 2D image into a simulated 3D image, it is necessary to modify the original image to generate two slightly different images and to present these separated images independently to each of the left and right eyes.
원 영상의 수정은 깊이의 효과를 주기위하여 영상면(투사 또는 시청 스크린에 위치한)내의 오브젝트들의 측면 시프트로 이루어진다.The correction of the original image consists of a lateral shift of the objects in the image plane (located on the projection or viewing screen) to effect the depth.
영상에 있는 한 오브젝트를 시청자로부터 영상면에 대해서 더 멀리 나타나도록 하기 위하여, 영상내의 오브젝트를 약간 좌측으로 시프트하여 왼쪽 눈에 보이도록 또 약간 우측으로 시프트하여 오른쪽 눈에 보이도록 하는 것이 필요하다. 이것은 도 1에 도시되어있다. 오브젝트를 시청자에 더 근접하여 나타나도록 하기 위하여 좌측 눈의 영상내의 객체를 오른쪽으로 또 우측 눈의 영상내의 객체를 왼쪽으로 시프트시킬 필요가 있다. 한 오브젝트를 영상면에 위치시키기 위해서는, 오브젝트는 양쪽 눈의 동일 위치에서 영상에 놓여지게 된다.In order for an object in the image to appear farther from the viewer with respect to the image plane, it is necessary to shift the object in the image slightly to the left to the left eye and slightly to the right to the right eye. This is shown in FIG. In order for the object to appear closer to the viewer, it is necessary to shift the object in the image of the left eye to the right and the object in the image of the right eye to the left. In order to place an object on the image plane, the object is placed on the image at the same position of both eyes.
실 세계에서, 오브젝트를 시청할 때, 시청자는 초점 정보를 사용한다. 그러나 모의 3D에서 이 정보는 제시되지 않으며, 또 만약 측면 시프트가 너무 많다면, 특히 오브젝트를 시청자에 더욱 가깝게하기 위해서는, 오브젝트가 두 개의 분리된 영상으로 쪼개져서 나타나게 되어 3D 효과는 상실된다.In the real world, when viewing an object, the viewer uses focus information. However, in the simulated 3D, this information is not presented, and if there are too many lateral shifts, especially in order to bring the object closer to the viewer, the object appears broken into two separate images and the 3D effect is lost.
좌우 영상은 컴퓨터를 이용하여 생성될 수 있다. 영상은 우선 비디오 디지타이져로 디지털화 되고 최종 데이터가 메모리에 저장된다. 두개의 새로운 영상들이 그 후 발생 될 수 있다.The left and right images may be generated using a computer. The image is first digitized with a video digitizer and the final data is stored in memory. Two new images can then be generated.
요망되는 측면 시프트로 새로운 좌우 영상을 생성하는 가장 쉬운 방법은 영상으로부터 오브젝트를 "절단하고" 필요한 측면 변위에 다시 "첨부" 하는 것이며, 이것은 "절단 및 첨부" 기술로 알려져 있다. 이것은 먼저 오브젝트의 위치가 식별에 의해 이동된 것으로 정의된 후 영상으로부터 오브젝트를 "절단" 하고 이를 측면으로 이동시켜 이루어 질 수 있다.The easiest way to create a new left and right image with the desired side shift is to "cut" the object from the image and "attach" back to the required lateral displacement, which is known as a "cut and attach" technique. This can be done by first defining the position of the object as moved by identification, then "cutting" the object from the image and moving it to the side.
도 2에 도시된 바와 같이, 이러한 간단한 기술의 문제점은 일단 선택된 오브젝트가 이동되면 배경이 제거되고, 또한 배경에 블랭크 영역이 생기게 되는데 있다.As shown in Fig. 2, the problem with this simple technique is that once the selected object is moved, the background is removed and there is also a blank area in the background.
본 발명에 따르면, 영상내의 오브젝트가 필요한 측면 시프트를 제공하며 원 배경 상세를 유지하도록 "신장" 된다. 영상의 최종 측면 왜곡은 수학적으로 평활화되어 결과적으로 가시적인 가공물이 없는 "실제의" 3D로 인식되다.According to the invention, the objects in the image are " extended " to provide the necessary side shifts and to maintain the original background details. The final side distortions of the image are mathematically smoothed and consequently perceived as "real" 3D with no visible artifacts.
영상에서의 이러한 신장의 효과를 보다 잘 가시화하기 위하여, 변환될 영상이 얇은 고무 쉬트상에 인쇄된다고 상상해보자. 한 오브젝트 부근에 있는 영상 표면에 있는 한 포인트를 집어서 새로운 위치로 예를 들어 본래 위치의 오른쪽으로 신장하는 것이 가능하다. 그러므로 도 3에 도시된 바와 같이, 오브젝트의 오른쪽에 있는 영상부분은 압축되며 왼쪽으로 신장된다. 시청자에게는 만약 두 눈으로 본다면 오브젝트는 이제 왜곡된 것으로 나타난다.To better visualize the effect of this stretching on the image, imagine that the image to be converted is printed on a thin rubber sheet. It is possible to pick up a point on the image surface in the vicinity of an object and stretch it to a new position, for example to the right of the original position. Therefore, as shown in FIG. 3, the image portion on the right side of the object is compressed and stretched to the left side. For the viewer, the object now appears distorted if seen with both eyes.
도 4에 도시된 바와 같이, 그러나, 만일 유사하지만 대항하는 영상이 다른쪽 눈에 제시된다면, 시청자는 왜곡된 영상을 보지 못하며, 오히려 3D 특성을 갖는 오브젝트를 보게 된다.As shown in FIG. 4, however, if a similar but opposing image is presented to the other eye, the viewer does not see the distorted image, but rather sees an object with 3D characteristics.
영상내의 오브젝트의 "신장"은 전자적으로도 이루어질 수 있다. 각 비디오 프레임에 있는 당해 오브젝트는 먼저 이들을 아웃라이닝함에 의해 식별된다. 각 오브젝트에서는, 깊이 또는 메쉬 왜곡 특성이 또한 정의된다. 신장은 작업자가 영상을 신장하고 최종 3D 영상 효과를 실시간으로 볼 수 있도록 하여 이루어 질수 있다. 작업자의 기술과 예술적 조정이 최종 영상의 3D 영향력(impact)과 그에 따른 비디오 시퀀스를 결정하도록 사용될 수 있다. 개별 비디오 프레임이 수동으로(즉, 실시간이 아닌) 변환 될 수 있는 반면에 비디오 "클립(clip)"을 형성하는 일련의 연관된 프레임이 자동으로(즉, 실시간으로) 변환 될 수 있음을 예상 할 수 있다.The "extension" of the object in the image can also be done electronically. The objects in each video frame are identified by first outlining them. In each object, the depth or mesh distortion characteristic is also defined. Stretching can be done by allowing the operator to stretch the image and see the final 3D image effect in real time. Operator skill and artistic adjustments can be used to determine the 3D impact of the final image and the resulting video sequence. While individual video frames can be converted manually (i.e. not in real time), one can expect that a series of associated frames that form a video "clip" can be converted automatically (i.e. in real time). have.
작업자는 변환될 비디오 클립의 시작 및 끝 프레임을 정의한다. 그것들은 시작 및 끝 프레임에서 영상면에 대해 각 오브젝트의 상대적인 깊이가 또한 결정한다. 비디오클립은 중간 프레임의 요망 신장 또는 조작을 보간하기 위하여 클립에 있는 각 오브젝트의 시작 및 끝 위치와 깊이를 이용하여 처리 될 수 있다.The operator defines the start and end frames of the video clip to be converted. They are also determined by the relative depth of each object with respect to the image plane in the start and end frames. Video clips can be processed using the start and end positions and depths of each object in the clip to interpolate the desired stretch or manipulation of the intermediate frame.
다른 깊이를 갖는 다중 오버래핑 오브젝트의 경우에는 전경(foreground) 오브젝트들에 우선순위가 주어진다. 원 2D 영상이 단일 카메라로 캡쳐되기 때문에 픽셀 정보가 자동으로 전경에 우선순위화된다.In the case of multiple overlapping objects with different depths, the foreground objects are given priority. Because raw 2D images are captured by a single camera, pixel information is automatically prioritized in the foreground.
이러한 영상의 "신장" 은 디지털화된 영상을 조작하여 전자적으로 수행 될 수 있다. 메쉬(그리드)는 예를 들어 메쉬의 각 로우 및 칼럼의 공통 좌표가 왜곡 전에 0,0으로 되는 것처럼 왜곡될 영상위에 일시적으로 놓여진다. 메쉬의 X 측 좌표가 변화되어 메쉬 기초 영상의 왜곡을 가져온다. 라인 바로 밑의 영상 영역만 이동되어 불연속의 결과(도 5)를 가져오기 보다는 인접 메쉬 라인들 또한 이동되어 평활한 왜곡를 일으킬 수 있다(도 6).The "height" of such an image can be performed electronically by manipulating the digitized image. The mesh (grid) is temporarily placed on the image to be distorted, for example, as the common coordinates of each row and column of the mesh become zero before distortion. The X-coordinate of the mesh is changed, resulting in distortion of the mesh base image. Rather than moving only the image area directly below the line, resulting in discontinuities (FIG. 5), adjacent mesh lines may also be moved to cause smooth distortion (FIG. 6).
왜곡 메쉬의 거칠기는 3D 효과의 정도를 결정한다. 메쉬가 거칠어질수록 오브젝트에 인접한 다른 오브젝트들이 더 많이 스핀(spin)되게 된다. 이것이 최종 영상에 좋지 않은 3D 영향을 초래한다. 보다 조밀한 메쉬는 오브젝트의 뚜렷한 에지, 보다 좋은 3D 영상 효과를 가져오나 에지 불연속성이 커지게 된다. 설명을 목적으로 왜곡 메쉬의 크기는 16×16으로 가정할 수 있다. 메쉬상의 각각 서브포인트에 대한 정보(즉 왜곡 후 좌표위치)는 배경 및 전경 서브포인트를 만들도록 인코딩된다. 예를 들면 4비트가 16개의 다른 레벨, 4개의 배경 및 12개의 전경을 초래하는 서브포인트 인코딩에 사용될 수 있다. 서브포인트 인코딩의 포맷은 실험에 의해 결정되며 적용예에 적합하게 조절될 수 있다.Roughness of the distortion mesh determines the degree of 3D effect. The coarser the mesh, the more other objects that are adjacent to the object spin. This results in a bad 3D effect on the final image. A denser mesh will result in sharper edges of the object, better 3D image effects, but greater edge discontinuities. For the purpose of explanation, the size of the distortion mesh may be assumed to be 16 × 16. Information about each subpoint on the mesh (ie post-distorted coordinate position) is encoded to create background and foreground subpoints. For example, 4 bits can be used for subpoint encoding resulting in 16 different levels, 4 backgrounds and 12 foregrounds. The format of the subpoint encoding is determined by experiment and can be adjusted to suit the application.
대안적으로, 이러한 메쉬 왜곡 프로세스는 영상의 자동처리가 가능하게 하는 수학적 알고리즘에 의해 정의될 수도 있다.Alternatively, this mesh distortion process may be defined by a mathematical algorithm that enables automatic processing of the image.
왼쪽 눈의 메쉬 왜곡이 일단 결정되면, 오른쪽 눈의 왜곡의 좌표는 그 매트릭TM(matrix)에 -1 (즉, 같은 양으로 반대쪽 측면 방향으로 시프트되는)을 스칼라적(scalar multiplication)하여 쉽게 얻어지며 자동으로 계산된다. 이것은 도 7에 도시되어 있다.Once the mesh distortion of the left eye is determined, the coordinates of the right eye's distortion are easily obtained by scalar multiplication of -1 (i.e. shifted in opposite lateral directions by the same amount) to the matrixTM. It is calculated automatically. This is shown in FIG.
왜곡된 메쉬의 각 교차점의 상대적인 수평 편차로부터 형성되는 매트릭스는 메쉬공간 변위 (MSD) 데이터를 정의한다.A matrix formed from the relative horizontal deviation of each intersection of the distorted meshes defines mesh space displacement (MSD) data.
최종의 3D 영상을 완전히 정의하고 재생하기 위하여 필요한 것은 본래의 변화되지 않은 2D 영상과 MSD 데이터를 제공하는 것이다. 그래서 3D 영상들이 2D 영상과 관련된 MSD 데이터 파일들을 고려하여 저장, 전송, 발생, 편집 및 계산된다.What is needed to fully define and reproduce the final 3D image is to provide the original unchanged 2D image and MSD data. Thus, 3D images are stored, transmitted, generated, edited and calculated in consideration of MSD data files related to 2D images.
그러므로 MSD 데이터를 각각의 비디오 프레임으로 인코딩하여 종래의 2D 비디오 시스템을 통해 3D 영상을 저장하고 전송하는 것이 가능하게 된다. 원 2D 비디오 영상이 변화 없이 저장되고 전송될 수 있기 때문에 최종 비디오가 현존하는 비디오 및 텔레비젼 시스템에 완전히 사용될 수 있다. 기존하는 2D TV 수신기도 정상의 그림을 표시할 수 있다.Therefore, it is possible to encode MSD data into each video frame to store and transmit 3D video through a conventional 2D video system. Since the original 2D video image can be stored and transmitted unchanged, the final video can be fully used in existing video and television systems. Existing 2D TV receivers can also display a normal picture.
다수의 현존 기술이 시청자에 의해 감지되지 않고 기존의 비디오 표준들과 호환가능하도록 MSD 데이터를 2D 영상에 부가하는데 사용될 수 있다. 이들 기술들은 제한적이지 않게,Many existing technologies can be used to add MSD data to 2D images so that they are not detected by the viewer and are compatible with existing video standards. These techniques are not limiting,
a) "텔리텍스트 (teletext) 데이터의 부가와 유사한 방법으로 블랙 레벨로 설정되는 그림의 상하에 있는 여분의 선에,a) on the extra lines above and below the picture set to black level in a manner similar to the addition of "teletext data,"
b) 각 영상의 좌우에 있는 보이지 않는 오버스캔(overscan) 영역에, 그리고b) invisible overscan areas to the left and right of each image, and
c) 영국 방송 연합 "사운드 인 싱크 (sound in sync)" 시스템에 따라 수평 싱크 주기에c) in a horizontal sync cycle in accordance with the British Broadcasting Union "sound in sync" system.
MSD 정보를 삽입시키는 것을 포함한다.Inserting MSD information.
미래에는, 디지털 HDTV의 도입과 함께, 여분의 디지털 데이터 프레임은 MSD 데이터를 삽입하는데 이용가능해질 것이다.In the future, with the introduction of digital HDTV, extra digital data frames will be available for inserting MSD data.
DDC 인코딩된 비디오 프레임을 형성하기 위해 MSD 데이터를 2D 비디오 영상에 부가하는 프로세스는 도 8에 도시되고 있다.The process of adding MSD data to a 2D video image to form a DDC encoded video frame is shown in FIG. 8.
MSD 데이터의 양은 프레임 당 약 100바이트로 추정될 만큼 작다. 이것은 필요에 따라 실행 길이 또는 차동 인코딩 같은 표준 데이터 압축 기술을 사용하여 저장 및 전송을 위해 더 압축될 수 있다.The amount of MSD data is small enough to be estimated at about 100 bytes per frame. It can be further compressed for storage and transmission using standard data compression techniques such as run length or differential encoding as needed.
데이터의 양이 작아서, 요망하는 데이터율도 낮아진다. 또한 MSD 데이터가 다수의 프레임에 걸쳐 쉽게 변화하지 않기 때문에 공간 및 시간적 압축을 써서 요구되는 데이터를 더욱 감소시키는 것이 가능하게 된다. MSD 데이터와 그 연관된 프레임 사이의 정확한 시간 관계는 중요하지 않으며, 한 프레임의 변위 에러는 아마도 받아들어질 것이다.Since the amount of data is small, the desired data rate is also lowered. In addition, since MSD data does not easily change over multiple frames, it is possible to further reduce the required data using spatial and temporal compression. The exact time relationship between the MSD data and its associated frame is not important and the displacement error of one frame is probably acceptable.
작은 데이터양, 낮은 데이터율 및 비결정적인 정렬에 기인하여, MSD 데이터는 다수의 프레임 즉, 각 프레임에서 정보의 사분의 일을 갖는 4개의 프레임에 걸쳐 보내진다.Due to the small amount of data, low data rate, and non-deterministic alignment, MSD data is sent over multiple frames, that is, four frames with one quarter of the information in each frame.
DDC 디코더가 어떻게 비디오 체인에 합체되는지를 나타내는 블록도가 도 9에 도시된다. 임의의 기존 비디오원 즉, 지구, 위성 등을 통해 얻어지는 DDC 인코딩된 비디오는 DDC 디코더의 입력에 인가된다. 디코더의 한 출력은 표준 TV 디스플레이를 구동하며 DDC 디코더에 의해 동기화된 셔터 안경을 쓰고 있는 시청자에게 3D 영상을 보여줄 수 있는 표준 비디오 파형 (또는 비디오 변조된 무선 신호)이다.A block diagram illustrating how the DDC decoder is incorporated into the video chain is shown in FIG. 9. Any existing video source, i.e., DDC encoded video obtained via the earth, satellite, etc., is applied to the input of the DDC decoder. One output of the decoder is a standard video waveform (or video modulated wireless signal) that can drive a standard TV display and show 3D video to a viewer wearing shutter glasses synchronized by a DDC decoder.
부가적으로 출력은 다른 3D 표시장치, 예를 들면 가상현실 헤드세트 또는 호주 출원 제66718/94호에 기술된 자동 입체 디스플레이 등을 구동하기 위한 DDC 디코더로부터 이용가능하다.Additionally outputs are available from DDC decoders for driving other 3D displays, such as virtual reality headsets or autostereoscopic displays as described in Australian application 6667/94.
DDC 디코더의 하나의 가능한 실시 예가 도 10에 도시된다. S-비디오 포맷에서 PAL 또는 NTSC중 하나일 수 있는 인입(incoming) 비디오는 복합 RGB 또는 컴포넌트 비디오 변환기에 인가될 수 있다. RGB 또는 컴포넌트 비디오 출력 각각은 아날로그/디지털 변환기에 인가되고 디지털 출력은 이중포트 RAM 라인 저장 장치의 입력포트로 이송된다. 디지털 비디오 데이터의 각 선은 일정한 속도로 RAM으로 들어간다. 데이터는 MSD 디코더의 출력에 의해 제어되는 가변 주파수 클럭에 의해 결정된 레이트로 라인 저장장치로부터 판독된다.One possible embodiment of a DDC decoder is shown in FIG. 10. Incoming video, which can be either PAL or NTSC in the S-Video format, can be applied to a composite RGB or component video converter. Each of the RGB or component video outputs is fed to an analog-to-digital converter and the digital outputs are sent to the input port of a dual-port RAM line storage. Each line of digital video data enters RAM at a constant rate. Data is read from line storage at a rate determined by a variable frequency clock controlled by the output of the MSD decoder.
RAM으로부터 가변 레이트로 라인 데이터를 판독하는 효과는 MSD 데이터에 따라서 최종 비디오가 신장되거나 압축되게 한다.The effect of reading line data from RAM at variable rates causes the final video to be stretched or compressed depending on the MSD data.
변환된 데이터는 그후 디지털/아날로그 변환기와 PAL/NTSC 인코더로 인가된다. 최종 3D 필드 순차적인 합성 비디오 신호는 디스플레이에 인가된다(주: 이 프로세스는 가변 레이트로 라인 저장 장치로 판독되고 고정 레이트로 판독되는 비디오 신호로 동작할 수 있다. 라인 저장 장치로부터의 출력이 가변 레이트로 판독될 때 크로미넌스(chrominance) 주파수가 변화하여 표시 에러를 야기하기 때문에 입입 합성 비디오 신호를 RGB 또는 합성 비디오로 변환시킬 필요가 있다.)The converted data is then applied to a digital / analog converter and a PAL / NTSC encoder. The final 3D field sequential composite video signal is applied to the display. (Note: this process can be operated with a video signal that is read at a variable rate and read at a fixed rate. The output from the line storage is variable rate. It is necessary to convert the incoming composite video signal to RGB or composite video because the chrominance frequency changes when read as, causing display error.)
특히, 변환데이터는 텔레비전 신호의 수직블랭킹(vertical blanking) 간격으로 전송될 수 있다.In particular, the converted data can be transmitted at the vertical blanking interval of the television signal.
DDC 디코딩은 필드 또는 프레임 저장 장치를 이용하여 실현되어 질수 있다. 이 경우 MSD데이터로부터의 전체 메쉬는 전체 필드 또는 프레임에 걸쳐 계산되는 픽셀 왜곡(측면이동)으로 복원된다.DDC decoding can be realized using field or frame storage. In this case, the entire mesh from the MSD data is reconstructed with pixel distortion (lateral shift) calculated over the entire field or frame.
3D 입체 영상 쌍은 이후 최종 RGB 또는 컴포넌트 비디오 출력으로부터 표시된다.The 3D stereoscopic image pair is then displayed from the final RGB or component video output.
셔터 안경 제어기는 셔터 안경에 타이밍 펄스를 제공하는 자외선 광원을 제공한다. 제어기는 PAL/NTSC 인코더에 의해 동기화된다. 부가적으로, 제어기는 3D 인코딩되지 않고 3D 인코딩에 적합하지 않은 장면동안 셔터 안경이 열려 있도록 명령하여, 비디오 시퀀스의 이들 부분 동안 개선된 영상품질을 제공한다.The shutter eyeglasses controller provides an ultraviolet light source that provides timing pulses to the shutter eyeglasses. The controller is synchronized by the PAL / NTSC encoder. Additionally, the controller instructs the shutter glasses to open during scenes that are not 3D encoded and not suitable for 3D encoding, providing improved image quality during these portions of the video sequence.
도 11은 3D 필드 병렬 합성 비디오 출력을 생성하는 DDC 디코더의 블록도를 도시한다. MSD 디코더는 두 개의 가변 속도 클럭(하나는 좌측 다른 하나는 우측 RAM 라인 저장 장치용이다)을 생성한다. 이러한 형태의 디코더는 본 출원인의 기존 입체영상 3D 디스플레이에 있는 필드 저장장치를 대체하는데 적합하다. 이러한 기술은 원 2D 비디오원과 동일한 필드 레이트에 있는 즉, 필드 순차적인 비디오 출력이 생성되는 좌우 비디오원을 제공한다.11 shows a block diagram of a DDC decoder that produces a 3D field parallel composite video output. The MSD decoder generates two variable rate clocks, one for the left and one for the right RAM line storage. This type of decoder is suitable for replacing field storage in our existing stereoscopic 3D displays. This technique provides left and right video sources that are at the same field rate as the original 2D video source, ie field sequential video output is generated.
대안적으로, 논-필드 (non-field) 비디오 출력은 2D영상보다 높은 해상도의 스캐닝 레이트의 출력에서 생성된다.Alternatively, non-field video output is produced at an output of a scanning rate of higher resolution than 2D video.
도 12는 MSD 디코더의 한 형태의 블록도를 도시한다. 이 경우 MSD 데이터가 도 13의 비디오 신호의 제1의 16 라인에서 합성 비디오 신호로 인코딩된다고 가정하자. 인입 합성 비디오가 마이크로프로세서용 수직 및 수평 타이밍 신호를 제공하는 싱크 분리기로 이송된다. 게다가 비디오는 블랙 레벨 클램프 회로, 비교기 및 레벨 시프터로 이송된다. 레벨 시프터로부터의 출력은 비디오 신호의 라인 1에서 16에 있는 직렬 인코딩된 MSD 데이터를 갖는 TTL 레벨 신호이다. 마이크로프로세서가 다음 16바이트를 판독하는 라인 1의 수평 싱크 펄스를 결정 한 후 마이크로프로세서 루프는 수평 싱크 펄스를 대기한다. MSD데이터가 판독될 때까지 유사한 프로세서가 다음 15라인상에서 반복된다. 수신된 MSD 데이터에 기초하여 마이크로프로세서는 가변 속도 클럭을 각 순차 비디오 라인상의 디지털 비디오 라인 저장장치에 제공한다. 마이크로프로세서는 비디오 라인 싱크 펄스를 카운트함에 의해 비디오 라인이 처리되고 있는 인덱스를 유지한다.12 shows a block diagram of one type of MSD decoder. In this case, assume that the MSD data is encoded into the composite video signal on the first 16 lines of the video signal of FIG. Incoming composite video is sent to a sink separator that provides vertical and horizontal timing signals for the microprocessor. In addition, video is fed to black level clamp circuits, comparators and level shifters. The output from the level shifter is a TTL level signal with serially encoded MSD data in lines 1 to 16 of the video signal. After the microprocessor determines the horizontal sync pulse on line 1 that reads the next 16 bytes, the microprocessor loop waits for the horizontal sync pulse. A similar processor is repeated on the next 15 lines until the MSD data is read. Based on the received MSD data, the microprocessor provides a variable speed clock to digital video line storage on each sequential video line. The microprocessor maintains the index at which the video line is being processed by counting video line sync pulses.
3D 영상의 깊이 인식은 시청자에 따라 다르다. 또한 3D 영상을 셔터 안경으로 볼 때, 3D 영상의 "강도"는 시청거리의 조절을 요한다. 3D 영상의 강도는 마이크로프로세서에 의해 적용되는 알고리즘에 의해 3D 영상의 강도가 시청자에 의해 변화되게 하는 원격 제어 장치에 의해 변화될 수 있다. 그 알고리즘은 MSD 매트릭스에 있는 각 요소의 크기를 변화시켜 3D 효과의 강도를 변화시킨다. 특정 시청자의 선호도가 기입되면 이러한 설정은 디코더 유닛에 의해 유지되는 것으로 기대된다.Depth perception of 3D images depends on the viewer. Also, when viewing 3D images with shutter glasses, the "strength" of the 3D images requires adjustment of the viewing distance. The intensity of the 3D image may be changed by a remote control device that causes the intensity of the 3D image to be changed by the viewer by an algorithm applied by the microprocessor. The algorithm changes the magnitude of each element in the MSD matrix to change the intensity of the 3D effect. This preference is expected to be maintained by the decoder unit once the preferences of a particular viewer are entered.
DDC 인코딩된 비디오 영상의 실시간 발생을 위한 많은 기술들이 있다. 한 기술에서 카메라 렌즈와 부가적인 범위찾기의 CCD(Charge Coupled Device) 어레이간의 거리는 변화된다(도 14). 이것은 가변 초점 스테이지에서 영상내의 각 오브젝트로 된 일련의 프레임들을 생성한다. 선명도(sharpness) 검출 알고리즘은 이후 일련의 프레임을 통해 실행되고, 영상에 있는 각 오브젝트의 선명도 인덱스가 결정된다. 각 오브젝트가 어느 프레임에서 가장 선명한지를 결정하며, 이는 오브젝트가 어느 초점면에서 온이 되는지를 나타낸다. 이러한 정보는 MSD 데이터를 형성하는데 사용된다.There are many techniques for real-time generation of DDC encoded video images. In one technique the distance between the camera lens and the array of additional Charge Coupled Devices (CCD) is varied (FIG. 14). This produces a series of frames of each object in the image at the variable focus stage. A sharpness detection algorithm is then run through a series of frames, and the sharpness index of each object in the image is determined. Determines in which frame each object is the sharpest, which indicates which focal plane the object is on. This information is used to form the MSD data.
도 15는 두 개의 비디오 카메라가 사용되어 별개의 좌우 눈 영상을 만드는 다른 기술을 도시한다. 각 카메라로부터의 발광정보는 디지털화되어 라인 저장장치로 이송된다. 자동상관기(auto correlator) 또는 유사 동작은 두 개의 라인 저장장치(좌우 16개 요소)내의 비트 패턴을 비교하여 정합을 찾는다. 영상내의 오브젝트를 표시하는 비디오 패턴간의 차이(거리)는 MSD 데이터를 생성하는데 사용된다. 카메라출력중 하나는 실시간으로 MSD 데이터와 결합하여 DDC 인코딩된 비디오를 생성한다.15 illustrates another technique where two video cameras are used to create separate left and right eye images. The light emission information from each camera is digitized and transferred to the line storage device. An auto correlator or similar operation finds a match by comparing the bit patterns in two line storages (16 elements left and right). The difference (distance) between video patterns representing objects in an image is used to generate MSD data. One of the camera outputs combines MSD data in real time to produce DDC encoded video.
대안적으로, 입체 영상 비디오 카메라가 두 개의 비디오 카메라 대신에 사용될 수도 있다.Alternatively, a stereoscopic video camera may be used instead of two video cameras.
DDC는 기존의 논아이 트래킹(non eye-tracking) 자동입체 영상 3D 다중 시청자 시스템의 심각한 문제점을 극복하는데 사용된다. 이러한 시스템은 도 16에 도시된 좌우 영상의 반복되는 시퀀스를 만들어 3D영상을 제공한다. 각각의 연속 영상간의 거리는 시청자 눈 사이의 거리와 동일한 65mm 이다. 그러므로 위치 A에 있는 시청자는 정확하게 처리된 3D 영상을 볼 수 있다.DDC is used to overcome the serious problems of the existing non eye-tracking autostereoscopic 3D multi-viewer system. Such a system creates a repeated sequence of left and right images shown in FIG. 16 and provides 3D images. The distance between each successive image is 65 mm equal to the distance between viewer eyes. Therefore, the viewer at position A can see the correctly processed 3D image.
그러나 시청자가 측면으로 32mm 움직이거나 또는 B 위치에 있게 되면 왼쪽 영상이 오른쪽 눈에 보이고 오른쪽 영상이 왼쪽 눈에 보인다. 즉, 시청자는 역 3D 영상을 보게 된다. 역 3D 영상은 보기에 매우 불편하며 짧은 시간 후에 시청자의 두통을 유발한다.However, when the viewer moves 32mm to the side or is in the B position, the left image is visible on the right and the right image is visible on the left. In other words, the viewer sees an inverse 3D image. Inverse 3D images are very inconvenient to see and cause viewer headaches after a short time.
대분분의 다중 시청자 자동입체영상 시스템은 이러한 단점이 있다. 특히, 이들은 양볼록렌즈와 그리드 타입 영상 분리기를 기초로 한다. 도 17은 다중 시청자, 양볼록렌즈 기초의 자동 입체 영상 시스템을 도시한다. 좌측 프로젝터로부터의 영상은 제1 양볼록렌즈를 통과해서 매트(matt) 스크린의 표면상에 포커싱된다. 제2 양볼록렌즈는 이 영상을 다시 포커싱하여 시청거리에서 광의 수직 스트립을 형성한다. 우측 영상을 가지는 제2 프로젝터는 제1 양볼록렌즈를 조명하나 두 프로젝터들사이의 측면 변위에 의해 시청자면에 있는 최종 우측 눈 영상은 좌측 영상으로부터 65mm 변위된다. 이러한 교번적인 좌우 영상의 시퀀스는 65mm 떨어져서 반복된다.Most multi-viewer autostereoscopic systems have this drawback. In particular, they are based on biconvex lenses and grid type image separators. Figure 17 illustrates a multi-viewer, biconvex lens based automated stereoscopic imaging system. The image from the left projector passes through the first biconvex lens and is focused on the surface of the matt screen. The second biconvex lens focuses the image again to form a vertical strip of light at the viewing distance. The second projector with the right image illuminates the first biconvex lens but the final right eye image on the viewer's surface is shifted 65 mm from the left image by lateral displacement between the two projectors. This sequence of alternating left and right images is repeated 65 mm apart.
정확한 위치에 있는 시청자는 3D 영상을 볼 수 있으나 시청자가 움직이거나 또는 상술한 위치에 부정확하게 있게 되면 역 3D 영상이 나타난다.The viewer in the correct position can see the 3D image, but the reverse 3D image appears when the viewer moves or becomes incorrect at the position described above.
실제로, 양볼록렌즈 기초 3D 시스템을 보기 위하여 처음 앉을때, 시청자는 정확한 또는 역 3D 영상이 보이는가를 판정하기가 어렵다. 시청자가 불편함을 느끼고 나서야 부정확하게 위치하고 있다는 것을 알게 된다.Indeed, the first time a user sits to view a biconvex lens based 3D system, it is difficult for the viewer to determine whether an accurate or inverted 3D image is seen. Only after the viewer feels uncomfortable does he know that he is inaccurate.
또한, 시청자가 장시간 정확한 시청 위치를 유지하기가 어렵다. 또 시청자가 제2 양볼록렌즈로부터 정확한 거리에 위치할 것이 필요한데 그 이유는 만약 부정확한 거리에서 시청한다면 모레이(Morae)효과나 크로스 토크 현상이 일어나기 때문이다.In addition, it is difficult for a viewer to maintain an accurate viewing position for a long time. In addition, it is necessary for the viewer to be positioned at the correct distance from the second biconvex lens, because if it is viewed at an incorrect distance, a Morae effect or a crosstalk phenomenon occurs.
양볼록렌즈 기초 시스템의 다른 문제점은 해상도이다. 해상도는 1mm 단위의 전체 양볼록렌즈에 있는 각각의 "렌즈-레트 (lens-let)의 피치에 의해 제한된다.Another problem with biconvex lens based systems is the resolution. The resolution is limited by the pitch of each "lens-let" in the total biconvex lens in 1 mm increments.
단지 좌우 영상을 투사하는 대신, 다수의 (예로서 4) 프로젝터를 사용하여 일련의 영상, 각각 65mm 떨어진 1,2,3,4 영상을 생성하기 위한 양볼록렌즈 기초 시스템을 생각해보자(도 18). 원 장면은 동일 시퀀스 및 간격으로 배치된 4개의 카메라를 사용하여 기록된다. A. B, 또는 D 위치에 있는 시청자는 정확한 3D 영상을 보나 C 위치의 시청자는 역 3D 영상을 본다.Instead of just projecting the left and right images, consider a biconvex lens based system for generating a series of images, 1, 2, 3 and 4 images, each 65 mm apart, using multiple (4 as an example) projectors (FIG. 18). . The original scene is recorded using four cameras arranged in the same sequence and interval. A. The viewer at position B, or D sees the correct 3D image, while the viewer at position C sees the reverse 3D image.
이는 종래의 좌우 시스템에 비해 실질적인 개선으로서, 수용할만한 3D 영상을 이제 3배나 되는 측면 거리에서 볼 수 있게 되었다. 종래의 좌우 시스템에서와 같이 시청자는 불편함을 느끼기 전에는 D 위치가 역 3D 영상을 제공한다는 것을 알지 못함에 유의해야 한다.This is a substantial improvement over conventional left and right systems, where an acceptable 3D image can now be viewed at three times the lateral distance. It should be noted that, as in conventional left and right systems, the viewer does not know that the D position provides an inverted 3D image until it feels uncomfortable.
도 19에서처럼 4개의 프로젝터가 "널(null)" 영상(흑색)으로 대체된다면, 위치 A 및 B는 예전과 같을 것이다. 위치 C는 우측 눈에는 평면 영상을 좌측 눈에는 흑색 영상이 보여 시청자가 불편없이 볼 수 있게 된다. 유사하게, 위치 D는 평면 영상을 생성하나 역 3D 영상 효과는 없다. 그래서 시청자 위치의 50%는 정확한 3D 영상을 만들며 다른 50%는 약간 못한 영상을 만드는 시스템을 가지게 되나, 이의가 없는 한, 영상 및 역 3D 효과는 제거된다.If four projectors were replaced with a "null" image (black) as in Figure 19, then positions A and B would be the same as before. The position C shows a flat image in the right eye and a black image in the left eye so that the viewer can see it without inconvenience. Similarly, location D produces a planar image but no inverse 3D imaging effect. Thus, 50% of the viewer's position produces an accurate 3D image, while the other 50% has a system that produces slightly less image, but unless objectioned, the image and inverse 3D effects are eliminated.
프로젝터의 수를 늘리고 널 영상을 포함시키므로, 정확한 3D 영상을 볼 수 있는 측면 거리가 연장되고 역 3D 효과가 배제된다.By increasing the number of projectors and including null images, the lateral distance for viewing accurate 3D images is extended and the inverse 3D effect is excluded.
그러나 각 프로젝터에 비디오 영상을 제공하는데 필요한 전송/기록 대역폭이 프로젝터의 수가 증가함에 따라 비현실적이 되기 때문에, 그러한 다중 프로젝터 시스템의 실시 예는 실용적이지 않다고 생각된다.However, since the transmission / recording bandwidth required to provide a video image to each projector becomes impractical as the number of projectors increases, it is considered that an embodiment of such a multiple projector system is not practical.
이러한 접근의 한계는 DDC 인코딩된 2D 영상을 전송하며 DDC를 이용하여 요망수의 투사 영상을 합성하게 함으로써 극복될 수 있다. 넓은 대역폭이 DDC 디코더에 요구되는 반면, 원 2D 대역폭은 전송기 및/또는 기록장비에서 유지된다.The limitation of this approach can be overcome by transmitting DDC encoded 2D images and synthesizing the desired number of projection images using DDC. While wide bandwidth is required for the DDC decoder, the original 2D bandwidth is maintained at the transmitter and / or recorder.
DDC 디코더를 사용하는 다중시청자 3D 양볼록렌즈 기초 시스템은 도 20에 도시된다.A multiviewer 3D biconvex lens based system using a DDC decoder is shown in FIG. 20.
DDC 인코딩/디코딩은 다음과 같이 원 영상의 가장 좌측에서 가장 우측까지의 가능한 영상의 범위를 나타내는 비디오 영상의 시퀀스의 생성을 가능하게 한다.DDC encoding / decoding enables the generation of a sequence of video images representing the range of possible images from the leftmost to the rightmost of the original image as follows.
(L, L1, L2………R2, R1, R)(L, L1, L2 ……… R2, R1, R)
요약하면 어플리케이션의 일부는 다음과 같이 기술된다:In summary, some of the applications are described as follows:
DDC는 변환의 중간단계에 있는 2D로부터 3D로의 변환 프로세스로부터 유도되는 데이터의 형태에 대한 용어이다. 이 단계에서 데이터는 원 비디오 신호와 데이터 패킷(디지털 또는 아날로그 형태로 인코딩된)으로 구성되어, 이러한 부가 데이터가 변환 목적을 완수하도록 특정 전자 하드웨어 및/또는 소프트웨어를 지시하는데 필요한 모든 것이 되게 한다. 결과 3D 정보는 필드순차(즉 좌우) 형태의 비디오 포맷, 두 개의 개별 비디오 스트림, 라인 대 라인 시스템(즉, 한 라인은 좌측 필드로부터, 한 라인은 우측 필드로부터) 또는 다른 이로운 포맷중 하나의 형태를 취한다.DDC is a term for the type of data derived from the 2D to 3D transformation process that is in the middle of the transformation. At this stage, the data consists of the original video signal and the data packet (encoded in digital or analog form) so that this additional data is all that is needed to direct the particular electronic hardware and / or software to fulfill the conversion purpose. The resulting 3D information can be in the form of a field sequential (ie left or right) video format, two separate video streams, a line-to-line system (ie one line from the left field, one line from the right field) or one of the other advantageous formats. Take
변환데이터 패킷의 포맷의 주의 깊은 설계를 통해, 표준 TV에 표시될 때 알려지지 않도록 이러한 부가의 데이터를 갖는 것이 가능하게 된다. 그래서 기존 텔레비젼의 하부구조를 뒤집지 않고도 3D 텔레비전 전송이 가능해 진다. 디코더는 시청장치(예: TV)근처에 위치 할 수 있으며 근본적으로 시청을 위해 TV로 인코딩되고 출력되는 전송신호를 가로채는 "블랙박스"가 될 수 있다. 그러므로 기존의 2D TV나 텔레비전 네트워크 구조를 업그레이드하는 것은 각 TV에 "블랙박스" 를 부가하여 간단하게 이루어진다.With careful design of the format of the transform data packet, it is possible to have this additional data so that it is unknown when displayed on a standard TV. This enables 3D television transmission without overturning the infrastructure of existing televisions. The decoder can be located near the viewing device (eg TV) and essentially be a "black box" that intercepts the transmitted signal that is encoded and output to the TV for viewing. Therefore, upgrading an existing 2D TV or television network structure is simply accomplished by adding a "black box" to each TV.
다중영상타입 자동입체 3D 표시 시스템의 매체 제공 시, 이들 시스템은 다소 다른 사시도를 다중영상에 제공에 의존한다. 다수의 다른 영상이 많다면(예, 8-16) 진정한 다중시청자 능력을 허용한다는 점에서 매우 효율적일 수 있다. 큰 단점은 동시에 이용가능한 모든 것에 대한 많은 다른 시청들을 요구하기 때문에 매체의 제공이 비록 복잡한 비디오 압축기술을 사용한다 해도 매우 어렵다는 것이다. 그러나 DDC 디코더가 3D 매체를 생성하는데 사용된다면, 요구되는 만큼 많은 개별 사시도와, 이러한 영상장비 즉, TV 및 비디오 레코더를 통상의 2D 영상으로서 발생하는 것이 가능해 진다. 시청자는 전송된 영상의 어떠한 변형도 알 수 없게 된다.When providing a medium of a multi-image type autostereoscopic 3D display system, these systems rely on providing a somewhat different perspective to the multi-image. If there are many different images (eg 8-16) it can be very efficient in terms of allowing true multi-viewer capability. The big disadvantage is that the provision of the medium is very difficult even with complex video compression techniques because it requires many different views of everything available at the same time. However, if a DDC decoder is used to create a 3D medium, it becomes possible to generate as many discrete perspective views as required and such imaging equipment, namely a TV and a video recorder, as normal 2D images. The viewer will not be aware of any deformation of the transmitted image.
DDC 인코딩된 표준 2D 비디오 영상은 다음의 특징을 갖는다:DDC encoded standard 2D video images have the following characteristics:
- DDC 인코딩된 2D 영상은 표준 비디오 장비 즉, TV 및 비디오 레코더에 통상의 영상으로서 수신될 수 있다. 시청자는 송신된 영상에 대한 어떠한 변형도 알지 못한다.DDC-encoded 2D video can be received as normal video on standard video equipment, ie TVs and video recorders. The viewer does not know any modifications to the transmitted image.
- DDC 인코딩된 영상은 기존의 비디오, 편집, 기록, 수신 및 전술 시스템 및 기술과 완전히 호환가능하다. 그래서 DDC 인코딩된 2D 비디오 영상은 모든 기존의 아날로그 비디오 및 텔레비전 기술에 부합된다.DDC encoded video is fully compatible with existing video, editing, recording, receiving and tactical systems and technologies. So DDC-encoded 2D video images fit all existing analog video and television technologies.
- DDC 인코딩된 2D 비디오는 칼라TV 및 스테레오 음향의 도입과 유사한 방법으로 시장에 소개 될 수 있다. 단 DDC 디코더에 적합한 TV 세트(시청자가 적당한 시청 안경을 쓰고), 또는 3D TV는 3D 영상을 표시한다.DDC encoded 2D video can be introduced to the market in a similar way to the introduction of color TV and stereo sound. However, a TV set suitable for a DDC decoder (the viewer wears appropriate viewing glasses), or a 3D TV displays a 3D image.
- DDC 인코딩는 장면들 사이의 끊임없는 전송을 가능케하여 3D 인코딩에 이롭고 2D로도 더욱 이롭게 표시될 수 있다. 이러한 전이는 시청자는 알지 못한다.DDC encoding allows for continuous transmission between scenes, which is beneficial for 3D encoding and can be displayed even more advantageously in 2D. This transition is not known to the viewer.
- DDC 인코딩된 비디오는 모든 기존의 3D 표시 장치에 표시 될 수 있고 다중 시청자 시스템에 적합하다.-DDC encoded video can be displayed on all existing 3D displays and is suitable for multi-viewer systems.
- DDC 인코딩는 원래의 비디오원의 라인과 필드표준을 유지한다.DDC encoding maintains the line and field standards of the original video source.
- DDC 인코딩는 3D 비디오 영상을 좌우 필드 연속 포맷으로 인코딩할 때의 경우와 같이 영상 업데이트 주파수를 감소시키지 않는다.DDC encoding does not reduce the image update frequency as in the case of encoding a 3D video image in left and right field continuous format.
Claims (59)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-1998-0704832A KR100496513B1 (en) | 1995-12-22 | 1996-12-20 | Image conversion method and image conversion system, encoding method and encoding system |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
AUPN7323 | 1995-12-22 | ||
KR10-1998-0704832A KR100496513B1 (en) | 1995-12-22 | 1996-12-20 | Image conversion method and image conversion system, encoding method and encoding system |
Publications (1)
Publication Number | Publication Date |
---|---|
KR100496513B1 true KR100496513B1 (en) | 2005-10-14 |
Family
ID=43670657
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR10-1998-0704832A KR100496513B1 (en) | 1995-12-22 | 1996-12-20 | Image conversion method and image conversion system, encoding method and encoding system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100496513B1 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011087279A2 (en) * | 2010-01-12 | 2011-07-21 | (주)인디에스피 | Stereoscopic image conversion method and stereoscopic image conversion device |
KR101055411B1 (en) | 2010-03-12 | 2011-08-09 | 이상원 | Method and apparatus of generating stereoscopic image |
KR101163536B1 (en) | 2010-06-23 | 2012-07-06 | 쓰리디원 주식회사 | Method For Converting Image In Real Time |
KR101231160B1 (en) | 2009-09-11 | 2013-02-07 | 디즈니엔터프라이지즈,인크. | System And Method For Three-Dimensional Video Capture Workflow For Dynamic Rendering |
KR101281961B1 (en) * | 2009-12-21 | 2013-07-03 | 한국전자통신연구원 | Method and apparatus for editing depth video |
KR20130091541A (en) * | 2012-02-08 | 2013-08-19 | 삼성전자주식회사 | The method and apparatus for creating 3d image based on user interaction |
KR101878808B1 (en) * | 2012-01-20 | 2018-07-19 | 엘지전자 주식회사 | Image display apparatus and method for operating the same |
-
1996
- 1996-12-20 KR KR10-1998-0704832A patent/KR100496513B1/en not_active IP Right Cessation
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101231160B1 (en) | 2009-09-11 | 2013-02-07 | 디즈니엔터프라이지즈,인크. | System And Method For Three-Dimensional Video Capture Workflow For Dynamic Rendering |
US8614737B2 (en) | 2009-09-11 | 2013-12-24 | Disney Enterprises, Inc. | System and method for three-dimensional video capture workflow for dynamic rendering |
KR101281961B1 (en) * | 2009-12-21 | 2013-07-03 | 한국전자통신연구원 | Method and apparatus for editing depth video |
WO2011087279A2 (en) * | 2010-01-12 | 2011-07-21 | (주)인디에스피 | Stereoscopic image conversion method and stereoscopic image conversion device |
WO2011087279A3 (en) * | 2010-01-12 | 2011-12-08 | (주)인디에스피 | Stereoscopic image conversion method and stereoscopic image conversion device |
KR101121979B1 (en) * | 2010-01-12 | 2012-03-09 | (주) 인디에스피 | Method and device for stereoscopic image conversion |
KR101055411B1 (en) | 2010-03-12 | 2011-08-09 | 이상원 | Method and apparatus of generating stereoscopic image |
KR101163536B1 (en) | 2010-06-23 | 2012-07-06 | 쓰리디원 주식회사 | Method For Converting Image In Real Time |
KR101878808B1 (en) * | 2012-01-20 | 2018-07-19 | 엘지전자 주식회사 | Image display apparatus and method for operating the same |
KR20130091541A (en) * | 2012-02-08 | 2013-08-19 | 삼성전자주식회사 | The method and apparatus for creating 3d image based on user interaction |
KR101953306B1 (en) * | 2012-02-08 | 2019-03-04 | 삼성전자주식회사 | The method and apparatus for creating 3d image based on user interaction |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU714759B2 (en) | Image conversion and encoding techniques | |
US5835133A (en) | Optical system for single camera stereo video | |
US6108005A (en) | Method for producing a synthesized stereoscopic image | |
JP3978392B2 (en) | 3D image signal generation circuit and 3D image display device | |
US8384766B2 (en) | Apparatus for processing a stereoscopic image stream | |
KR101185870B1 (en) | Apparatus and method for processing 3 dimensional picture | |
WO2004049734A1 (en) | Three-dimensional image signal producing circuit and three-dimensional image display apparatus | |
AU5720698A (en) | System and method for synthesizing three-dimensional video from a two-dimensio nal video source | |
KR20110134327A (en) | Method for processing image and image display device thereof | |
KR100496513B1 (en) | Image conversion method and image conversion system, encoding method and encoding system | |
CN102340678A (en) | Stereoscopic display device with adjustable field depth and field depth adjusting method | |
JP6502701B2 (en) | Element image group generating device, program therefor, and digital broadcast receiving device | |
US8693767B2 (en) | Method and device for generating partial views and/or a stereoscopic image master from a 2D-view for stereoscopic playback | |
JP2012138655A (en) | Image processing device and image processing method | |
WO1995013564A1 (en) | Method and apparatus for visualizing two-dimensional motion picture images in three dimensions | |
KR20010036217A (en) | Method of displaying three-dimensional image and apparatus thereof | |
KR101433082B1 (en) | Video conversing and reproducing method to provide medium feeling of two-dimensional video and three-dimensional video | |
JPH0522753A (en) | Stereoscopic picture display unit | |
JPH07298311A (en) | Stereoscopic video display device | |
MXPA99006050A (en) | System and method for synthesizing three-dimensional video from a two-dimensional video source | |
JPH0211093A (en) | Stereoscopic video display method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
AMND | Amendment | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
J201 | Request for trial against refusal decision | ||
AMND | Amendment | ||
E902 | Notification of reason for refusal | ||
B701 | Decision to grant | ||
B701 | Decision to grant | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130515 Year of fee payment: 9 |
|
FPAY | Annual fee payment |
Payment date: 20140521 Year of fee payment: 10 |
|
FPAY | Annual fee payment |
Payment date: 20150519 Year of fee payment: 11 |
|
FPAY | Annual fee payment |
Payment date: 20160518 Year of fee payment: 12 |
|
EXPY | Expiration of term |