KR100496513B1 - Image conversion method and image conversion system, encoding method and encoding system - Google Patents

Image conversion method and image conversion system, encoding method and encoding system Download PDF

Info

Publication number
KR100496513B1
KR100496513B1 KR10-1998-0704832A KR19980704832A KR100496513B1 KR 100496513 B1 KR100496513 B1 KR 100496513B1 KR 19980704832 A KR19980704832 A KR 19980704832A KR 100496513 B1 KR100496513 B1 KR 100496513B1
Authority
KR
South Korea
Prior art keywords
image
video
video signal
data
converted data
Prior art date
Application number
KR10-1998-0704832A
Other languages
Korean (ko)
Inventor
던켄 리차드 앵거스
Original Assignee
다이나믹 디지탈 텝스 리서치 피티와이 엘티디
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 다이나믹 디지탈 텝스 리서치 피티와이 엘티디 filed Critical 다이나믹 디지탈 텝스 리서치 피티와이 엘티디
Priority to KR10-1998-0704832A priority Critical patent/KR100496513B1/en
Application granted granted Critical
Publication of KR100496513B1 publication Critical patent/KR100496513B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • H04N7/087Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • G06T17/205Re-meshing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

본 발명은 원 2D영상을 입체표시용 좌우 눈을 통해 영상을 생성하는 방법으로서,The present invention is a method for generating an image through the left and right eyes for stereoscopic display of the original 2D image,

a) 원 영상내에 최소한 한 개 이상의 오브젝트를 식별하는 단계와,a) identifying at least one object in the original image,

b) 상기 또는 각 오브젝트를 아웃라이닝(outlining)하는 단계와,b) outlining the or each object;

c) 상기 또는 각 오브젝트에 대한 깊이 특성(depth characteristic)을 정의하는 단계와,c) defining a depth characteristic for the or each object;

d) 시청자의 좌우 눈으로 시청하기 위한 2개의 신장된 영상을 형성하고, 상기 또는 각 오브젝트의 깊이 특성의 함수로서 측면 방향에서 결정된 양만큼 상기 영상 혹은 그 각각의 선택된 영역을 각각 변위시키는 단계를 포함하는 방법을 제공한다.d) forming two elongated images for viewing with the viewer's left and right eyes, and displacing the images or their respective selected regions by an amount determined in the lateral direction as a function of the depth characteristic of the or each object, respectively. Provide a way to.

Description

입체 표시 영상의 생성 방법 및 시스템과, 비디오 신호 인코딩 방법 및 시스템, 및 디코더Method and system for generating stereoscopic display image, method and system for encoding video signal, and decoder

본 발명은 일반적으로 입체 영상합성법(stereoscopic image synthesis), 구체적으로 말하면, 2D 또는 3D 입체표시 시스템상에 입체 영상을 표시할 목적으로 인코딩(encoding), 전송(transmission), 및 디코딩(decoding)하는 2D 영상의 변환방법에 관한 것이다.The present invention generally relates to stereoscopic image synthesis, specifically 2D encoding, transmission and decoding for the purpose of displaying stereoscopic images on a 2D or 3D stereoscopic display system. The present invention relates to a video conversion method.

최근까지 소형, 고성능 비디오 프로젝션시스템, 영상 처리(image processing), 디지털비디오 및 액정패널(liquid crystal panels)의 분야에서의 기술 진보로 인해 능동 및 수동(active and passive) 편광유리 모두와 단수 혹은 복수의 자동입체표시(auto stereoscopic display)등을 이용하는 많은 실용적 3D 표시시스템의 출현이 가능하게 되었다.Until recently, advances in the fields of small, high-performance video projection systems, image processing, digital video and liquid crystal panels have led to both single and multiple active and passive polarizing glasses. The emergence of many practical 3D display systems using auto stereoscopic displays and the like has been made possible.

3D 표시시스템은 이제 그 기술적 호기심(technical curiosities)의 단계에서 벗어나 오락, 상용, 과학분야에서 실질적인 표시시스템으로 사용되기에 이르렀고, 3D 매체(media)가 이들 디바이스상에 표시되는 요구가 출현하게 되었다. 전통적으로 3D 매체(즉, 다른 시각으로부터 동일 장면(scene)의 적어도 두개의 분리된 시청(view)에 대한 영상 정보를 포함하는 매체)를 생성하는 데에는 단지 2개의 방법이 있다. 여기에는:3D display systems have now moved away from their technical curiosities and have been used as practical display systems in entertainment, commercial and scientific fields, and the demand for 3D media to be displayed on these devices has emerged. Traditionally, there are only two methods for creating 3D media (ie, media containing image information for at least two separate views of the same scene from different views). This includes:

1) 컴퓨터를 이용하여 두개의 다른 시청의 생성(대개는 실시간으로).1) Create two different city halls (usually in real time) using a computer.

2) 양측에 배치된 카메라로 비디오화 혹은 필름화.2) Video or film with both cameras.

CAD(Computer Aided Design), 모의장비(simulator), 비디오 게임기에서 사용되는 컴퓨터 생성 영상의 경우에, 다른 시각에서 두개의 분리된 영상을 얻는 것은 복잡한 프로세스가 아니다.In the case of computer-generated images used in computer aided design (CAD), simulators, and video game machines, obtaining two separate images from different perspectives is not a complicated process.

3D를 생성하기 위하여 양측에 배치된 카메라를 이용한 영화의 필름화는 오랜 세월동안 잘 이해되어 왔다. 그러나 이 방법에는 많은 문제점들이 도출된다. 예컨대 2D에 비해 3D에서는 필름화 또는 비디오화가 매우 어렵게 되는데, 그 이유는 장면에서 가장 가까운 오브젝트(object)와 가장 먼 오브젝트간의 허용가능한 거리에 대한 제한과, 프레이밍(framing) 문제(예컨대, 한 카메라에서만 보인다는 문제)와, 3D영상 생성의 부정확성이 강조되기 때문이다. 또 다른 문제는 두개의 카메라로부터의 영상들 간의 대기시간(latency)에 기인한 오류 3D 가공물을 야기함이 없이 평활한 팬(smooth pan)을 유지하는데 있다.Filmmaking of movies using cameras placed on both sides to generate 3D has been well understood for many years. However, there are many problems with this method. For example, filming or video becomes very difficult in 3D compared to 2D because of the limitations on the allowable distance between the closest object and the farthest object in the scene, and the framing problem (e.g. only on one camera). Visible problems) and inaccuracies in 3D image generation. Another problem is to maintain a smooth pan without causing error 3D artifacts due to latency between images from two cameras.

이러한 복잡성과 높은 생산 및 구현 비용, 및 현실적으로 아직은 극소수의 3D 표시 시스템만이 국내시장과 상업적 목적 하에 만들어진다는 사실 때문에, 주요 대형 필름, 비디오 제작업체에서 3D 매체를 제작하는 데는 별로 큰 매력이 없다. 그러나 만약 지금까지의 2D 필름을 3D로 재처리할 수 있는 기술이 개발된다면 앞으로 새로 만들어지는 필름을 처음부터 3D로 제작하기 위한 작업에 드는 비용에 비해 매우 저림한 비용으로 3D화 할 수 있을 뿐만 아니라 현재 보관중인 방대한 양의 2D 필름을 재편집하여 영화나 비디오 시장에 내 놓을 수 있게 된다.Due to this complexity and the high production and implementation costs, and the fact that very few 3D display systems are created for the domestic market and for commercial purposes yet, the production of 3D media in major large film and video producers is not very attractive. However, if the technology for reprocessing 2D films up to now in 3D is developed, not only will it be possible to make 3D at a very low cost compared to the cost of producing a new film in 3D from scratch? The vast amount of 2D film currently in storage can be re-edited for the film or video market.

그러나 기존의 2D 영상을 3D 영상으로 볼 수 있도록 변환하는 것은 이점이 된다. 이렇게 할 수 있는 한 가지 방법으로는 하나의 2D 영상을 "절단 및 첨부(Cut and Paste)기법" 을 이용하여 두 개의 좌우 영상으로 변환시키는 것이다. 이 기술은 하나의 오브젝트를 영상으로부터 잘라내서 각도가 다른 좌우 측면에 배치시킨 후 원(original) 영상에 다시 붙임으로써 요구되는 분리된 영상을 만들어 낸다. 그러나 이것은 결과적으로 영상내의 오브젝트가 이전에 점유하고 있는 영역에서 블랭크(blank) 영역을 초래하게 된다.However, it is advantageous to convert existing 2D images to be viewed as 3D images. One way to do this is to convert a 2D image into two left and right images using the "Cut and Paste" technique. This technique cuts out an object from the image, places it on the left and right sides at different angles, and then re-attaches it to the original image, creating the required separate image. However, this results in a blank area in the area previously occupied by the object in the image.

발명에 대한 설명을 실시 예를 들면서 도면과 함께 참고하면 보다 용이하게 이해될 것이다.Reference to the drawings with reference to the description of the invention will be more readily understood.

발명에 대한 다른 구현에도 첨부한 도면을 참고로 보다 잘 이해될 것이다.Other implementations of the invention will be better understood with reference to the accompanying drawings.

도 1은 3D 또는 입체 영상을 제공하기 위한 원 영상(original image)과 종래의 좌우 영상을 도시한다.1 illustrates an original image and a conventional left and right image for providing a 3D or stereoscopic image.

도 2는 "절단 및 첨부(cut & passt)" 기법을 이용하여 생성된 3D 영상을 제공하기 위한 원 영상과 좌우 영상을 도시한다.2 illustrates original and left and right images for providing a 3D image generated using a "cut & passt" technique.

도 3은 본 발명에 따르는 DDC(dynamic depth cueing)에 의해 생성된 영상과 원 영상을 도시한다.3 illustrates an image and an original image generated by DDC (dynamic depth cueing) according to the present invention.

도 4는 본 발명에 따르는 좌우 영상과 결과의 3D 영상을 도시한다.4 shows a left and right image and a resultant 3D image according to the present invention.

도 5는 왜곡 메쉬에 의한 불연속적으로 왜곡된 영상을 나타낸다.5 shows an image discontinuously distorted by a distortion mesh.

도 6은 왜곡 메쉬에 의한 연속적으로 왜곡된 영상을 나타낸다.6 shows an image continuously distorted by the distortion mesh.

도 7은 좌우 메쉬에 대한 메쉬공간변위(MSD;mesh spatial displacement)데이터의 예를 나타낸다.7 shows an example of mesh spatial displacement (MSD) data for left and right meshes.

도 8은 본 발명에 따라 MSD 데이터가 비디오 영상에 부가되는 방법을 예시하는 플로우챠트를 도시한다.8 shows a flowchart illustrating how MSD data is added to a video image in accordance with the present invention.

도 9는 본 발명에 따라 DDC 디코더가 비디오 체인(chain)에 일체화되는 방법을 도시한 블럭도이다.9 is a block diagram illustrating a method for integrating a DDC decoder into a video chain according to the present invention.

도 10은 필드 순차 복합 비디오 출력을 제공하는 본 발명에 따르는 DDC 디코더 유닛의 가능한 구현예를 도시한 블럭도이다.10 is a block diagram illustrating a possible implementation of a DDC decoder unit in accordance with the present invention for providing field sequential composite video output.

도 11은 필드 병렬 복합 비디오 출력을 제공하는 본 발명에 따른 DDC 디코더 유니트의 또 다른 가능한 실시예의 블록도이다.11 is a block diagram of another possible embodiment of a DDC decoder unit according to the present invention for providing field parallel composite video output.

도 12는 본 발명에 따른 MSD디코더의 한 형태의 블록도이다.12 is a block diagram of one type of MSD decoder according to the present invention.

도 13은 MSD데이터가 복합 비디오 신호로 인코딩되는 방법을 나타낸다.13 shows how MSD data is encoded into a composite video signal.

도 14는 실시간 발생 DDC 인코딩된 비디오 영상을 제공하기 위한 배열의 블록도를 나타낸다.14 shows a block diagram of an arrangement for providing a real-time generated DDC encoded video image.

도 15는 실시간 발생 DDC 인코딩된 비디오 영상을 제공하기 위한 대안 배열의 블록도를 나타낸다.15 shows a block diagram of an alternative arrangement for providing a real-time generated DDC encoded video image.

도 16은 다중시청자 3D 시스템의 작동 원리를 나타낸다.16 illustrates the principle of operation of a multiviewer 3D system.

도 17은 양볼록렌즈(lenticular lens) 기초 3D시스템의 작동원리를 표시하는 블록도를 나타낸다.FIG. 17 shows a block diagram showing the operating principle of a lenticular lens based 3D system.

도 18 및 19는 각각 양볼록렌즈 어셈블리를 사용하는 다중 프로젝터 시스템을 각각 나타낸다.18 and 19 respectively show multiple projector systems using biconvex lens assemblies.

도 20은 본 발명에 따른 DDC 디코더에 합체된 다중 프로젝터 시스템을 나타낸다.20 illustrates a multiple projector system incorporated into a DDC decoder in accordance with the present invention.

그러므로 본 발명의 목적은 이런 문제를 어떻게 든 극복하거나 또는 최소화하는 것이다.It is therefore an object of the present invention to somehow overcome or minimize this problem.

이것을 염두에 두고 볼 때, 본 발명은 일 양상으로서, 원 2D 영상으로부터 입체표시용 좌우 눈의 영상을 생성하는 방법으로서, 원 영상 중 선택된 영역이 미리 결정된 양만큼 변위되어 좌우 눈 영상을 형성하는 신장된(streched) 영상을 생성하게 되는 방법을 제공한다.With this in mind, the present invention is a method for generating an image of left and right eyes for stereoscopic display from an original 2D image, wherein the selected region of the original image is displaced by a predetermined amount to form a left and right eye image. A method of generating a stretched image is provided.

두 개의 변환된 영상이 시청자의 좌우 눈에 의해 각각 보일 때, 이들 영상은 "절단 및 첨부" 기법에 의해 생성되는 경우와 같이 어떠한 빈 영역도 없이 3D 영상을 제공할 수 있다.When two transformed images are respectively seen by the viewer's left and right eyes, these images can provide a 3D image without any blank area, such as would be produced by a "cut and attach" technique.

본 명세서는 2D 매체를 3D 포맷(format), 즉 새로운 3D 매체의 통신과 저장에 적합한 새로운 합성 데이터 포맷으로의 변환과 관련된 주요 알고리즘 프로세스의 일부를 커버하고 있으며, 이 새로운 3D 포맷을 실시간으로 인코딩, 전송, 및 디코딩하기 위한 몇 가지 하드웨어의 구현예가 또한 설명된다.This document covers some of the key algorithmic processes involved in the conversion of 2D media into 3D format, a new synthetic data format suitable for communication and storage of new 3D media, and encodes this new 3D format in real time, Some hardware implementations for transmitting and decoding are also described.

이 기술의 가장 큰 이점은 막대한 비용 절감과 매체 제공에 있다. 예를 들면 필름화에 한 대의 카메라만이 사용된다. 2D에서 3D로의 변환 프로세스는 어떤 식으로도 최종 2D 표시 프로세스를 방해하지 않는 작은 패킷의 3D 데이터의 부가를 제외하고는 영상 매체를 가상적으로 변화시키지 않은 채 패키징 및 전달하는 것이 가능하게 된다. 즉 표준 2D TV에서 화질의 저하됨이 없이 2D 또는 3D로 영상을 볼 수 있게 하며(셔터(shutter) 안경이나 유사한 것의 사용을 통해), 3D TV상에서 또는 다른 디스플레이상에서 3D로 표시될 수 있다.The biggest advantage of this technology is the huge cost savings and media delivery. For example, only one camera is used for filming. The 2D to 3D conversion process makes it possible to package and deliver the virtually unchanged image medium except for the addition of small packets of 3D data that do not in any way interfere with the final 2D presentation process. That is, it allows viewing of images in 2D or 3D (with the use of shutter glasses or the like) without degrading the quality of a standard 2D TV, and can be displayed in 3D on 3D TV or on another display.

2D에서 3D로의 변환 프로세스의 최종 단계는 실시간으로 수신기에서 완료되며, 3D 영상을 표시하기 위한 증가된 증폭 요건은 TV 디코더에 국한되며 TV 캐리어의 채널 조작 용량에 역효과를 내지 않는다.The final stage of the 2D to 3D conversion process is completed at the receiver in real time, and the increased amplification requirements for displaying 3D images are limited to TV decoders and do not adversely affect the channel handling capacity of the TV carrier.

본 발명의 다른 특성에 따르면, 입체표시를 위해 2D 영상을 신장된 영상으로 변환시키기 위한, 원 2D 영상에 행해지는 변화를 설명하는 방법이 제공된다.According to another aspect of the present invention, there is provided a method for explaining a change made to an original 2D image for converting a 2D image into an extended image for stereoscopic display.

본 발명의 또 다른 특성에 따르면, 입체표시를 위해 2D비디오영상을 신장된 영상으로의 변환을 가능케 하기 위한, 2D 영상의 비디오신호를 인코딩하는 방법이 제공된다.According to still another aspect of the present invention, there is provided a method for encoding a video signal of a 2D video to enable conversion of a 2D video video to an extended video for stereoscopic display.

본 발명의 또 다른 특성에 따르면, 입체표시를 위해 2D영상을 신장된 영상으로의 변환을 가능케 하기 위해, 데이터를 인코딩하고, 비디오신호로부터 인코딩된 데이터를 추출하는 단계를 포함하는 2D 영상의 비디오 신호를 수신하는 방법이 제공된다.According to still another aspect of the present invention, a video signal of a 2D video includes encoding data and extracting encoded data from the video signal to enable conversion of the 2D video to an extended video for stereoscopic display. A method of receiving is provided.

본 발명의 또 다른 특성에 따르면, 인코딩된 데이터로 2D 비디오영상을 조작하여 입체표시에 신장된 영상을 제공하는 방법이 제공된다.According to still another aspect of the present invention, there is provided a method of providing a stretched image in stereoscopic display by manipulating a 2D video image with encoded data.

본 발명의 다른 특성에 따르면, 원 2D영상을 입체표시용 좌우 눈을 통해 영상을 생성하는 방법으로서,According to another aspect of the invention, as a method for generating an image through the left and right eyes for stereoscopic display of the original 2D image,

a) 원 영상내에 최소한 한 개 이상의 오브젝트를 식별하는 단계와,a) identifying at least one object in the original image,

b) 상기 또는 각 오브젝트를 아웃라이닝(outlining)하는 단계와,b) outlining the or each object;

c) 상기 또는 각 오브젝트에 대한 깊이 특성(depth characteristic)을 정의하는 단계와,c) defining a depth characteristic for the or each object;

d) 시청자의 좌우 눈으로 시청하기 위한 2개의 신장된 영상을 형성하고, 상기 또는 각 오브젝트의 깊이 특성의 함수로서 측면 방향에서 결정된 양만큼 상기 영상 혹은 그 각각의 선택된 영역을 각각 변위시키는 단계를 포함한다.d) forming two elongated images for viewing with the viewer's left and right eyes, and displacing the images or their respective selected regions by an amount determined in the lateral direction as a function of the depth characteristic of the or each object, respectively. do.

이 한 쌍의 영상은 입체 3D효과가 최적이 되도록 서로 미러링(mirroring)되거나 혹은 유사할 수 있다.The pair of images may be mirrored or similar to each other so that stereoscopic 3D effects are optimal.

영상은 각각이 상기 각각의 깊이 특성을 구비한 복수의 오브젝트를 포함한다. 영상은 개별 기준으로 변환될 수 있다. 대안적으로, 비디오나 필름 속의 일련의 연관된 영상들은 변환될 수 있다.The image includes a plurality of objects each having the respective depth characteristics. The image can be converted to individual criteria. Alternatively, the series of related images in the video or film can be converted.

영상은 디지털화되고, 영상에 임시로 메쉬(mesh)를 배치함에 의해 전자적으로 신장 또는 변환되며, 이 메쉬들은 초기에 복수의 평행한 횡방향 메쉬선과, 횡방향 메쉬선에 직각인 평행한 종방향 메쉬선들을 구비한다. 메쉬상에서 메쉬선들의 교차는 메쉬 서브포인트(subpoint)를 제공한다. 영상은 이 메쉬와 함께 이동할 수 있어 메쉬에 의한 왜곡으로 인해 기초(underlying) 영상의 신장을 초래한다. 이 메쉬선들은 계속 남아서 영상의 평활한 신장을 제공한다. 초기 위치로부터 각 메쉬서브포인트의 변위량은 최초 영상의 변환 데이터를 제공한다. 서브 메쉬포인트들은 횡방향으로 변위되기도 한다.The image is digitized and stretched or transformed electronically by temporarily placing a mesh in the image, which initially includes a plurality of parallel transverse mesh lines and a parallel longitudinal mesh perpendicular to the transverse mesh line. With lines. The intersection of the mesh lines on the mesh provides a mesh subpoint. The image can move with this mesh, resulting in stretching of the underlying image due to distortion by the mesh. These mesh lines remain to provide a smooth stretch of the image. The displacement amount of each mesh subpoint from the initial position provides the transformed data of the original image. Submesh points may be laterally displaced.

메쉬 서브포인트의 변위는 수학적인 알고리즘에 의하여 또한 결정될 수 있어 영상의 자동 변환을 제공하게 된다. 쉐도우(shadow), 블러링(blurring) 및 움직임 보간 데이터를 강제 변위 정보, 필드 지연 및 움직임 변위 지연에 대한 방향을 포함하는 변환 데이터에 부가할 수 있는 것이 상기 방법에 비해 보다 향상된 것이다.The displacement of the mesh subpoint can also be determined by a mathematical algorithm to provide automatic conversion of the image. It is a further improvement over the method that the shadow, blurring and motion interpolation data can be added to the transform data including the direction for forced displacement information, field delay and motion displacement delay.

3D 영상으로서 시청될 수 있는 영상을 전송하기 위하여, 기존의 영상 전송 시스템을 사용할 수 있는 것이 이점이다. 본 발명은 2D 영상을 제공하는 비디오 신호를 전송하는 영상 전송에 사용되는데 적용될 수 있다.It is an advantage to be able to use existing video transmission systems in order to transmit video that can be viewed as 3D video. The present invention can be applied to the use in the image transmission for transmitting a video signal for providing a 2D image.

본 발명의 다른 특성에 따르면, 처리를 위해 영상내의 어느 오브젝트가 선택되는지, 이 오브젝트가 처리되는 방법과, 이들의 우선순위 또는 그렇지 않으면 다른 오브젝트와 이들의 깊이 특성을 기술하는 변환/신장 프로세스로부터 '오브젝트 스크립팅(object scripting)' 데이터의 세트를 생성하는 방법이 제공된다. 이런 스트립팅 데이터는 차후 사용을 위해 컴퓨터의 메모리에 저장되어 원 2D 영상을 재처리하거나 3D 영상의 재생을 위한 다른 사이트(다른 사이트는 동일한 2D 영상을 갖는다고 가정하자)에 송신된다.According to another aspect of the invention, from the transformation / extension process describing which objects in the image are selected for processing, how these objects are processed and their priorities or other objects and their depth characteristics, A method of generating a set of 'object scripting' data is provided. This scripting data is stored in the computer's memory for later use and sent to another site (assuming the other site has the same 2D image) for reprocessing the original 2D image or for playing back the 3D image.

그러므로 본 발명의 또 다른 특성에 따르면, 2D 비디오 영상을 제공하는 비디오 신호를 인코딩하는 인코더로서,Therefore, according to another aspect of the invention, an encoder for encoding a video signal for providing a 2D video image,

비디오 영상을 입체표시용 신장된 영상으로 변환하기 위한 비디오 영상의 각 선택된 포인트의 변위를 정의하는 데이터인 변환 데이터를 비디오 신호에 부가하여 인코딩된 신호를 제공하는 인코더가 제공된다.An encoder is provided that provides an encoded signal by adding transform data, which is data defining a displacement of each selected point of the video image, for converting the video image into a stretched image for stereoscopic display.

이러한 변환 데이터를 비디오 신호에 부가함에 의해, 기존의 전송시스템은 인코딩된 신호를 송신하는데 사용될 수 있다. 변환 데이터를 비디오 신호에 부가하는 여러 구조들이 제공될 수 있다. 예를 들면, 이런 데이터는 영상의 상하, 수평 동기 주기(horizontal sync period) 또는 각 라인의 수평 오버스캔(horizontal overscan) 영역에서 송신된 비디오 영상의 블랭크 라인에 포함된다.By adding this transformed data to the video signal, existing transmission systems can be used to transmit the encoded signal. Various structures may be provided for adding the transform data to the video signal. For example, such data is included in a blank line of a video image transmitted in the up and down, horizontal sync period or horizontal overscan region of each line of the image.

본 발명은 기존의 2D 비디오 영상의 변환에 제한되지 않는다. 오히려 프로세스는 2D 비디오 영상을 생성함과 동시에 변환 데이터를 생성하는데 용이하게 사용될 수 있다.The present invention is not limited to the conversion of existing 2D video images. Rather, the process can be easily used to generate transformed data while simultaneously generating a 2D video image.

그러므로 본 발명의 또 다른 특성에 따르면, 3D 변환 데이터로 인코딩된 2D 비디오 영상을 생성하는 방법으로서,Therefore, according to another aspect of the present invention, as a method for generating a 2D video image encoded with 3D converted data,

복수의 비디오 카메라로부터 비디오 영상을 캡쳐(capture)하는 단계와,Capturing video images from a plurality of video cameras,

변환 데이터를 생성하기 위하여 각각의 비디오 카메라로부터 비디오 영상을 비교하는 단계로서, 상기 변환 데이터가 비디오 영상을 입체표시용 신장된 영상으로 변환하기 위한 비디오 영상의 각각의 포인트들의 변위를 정의하는 단계와,Comparing the video images from each video camera to produce transform data, the transform data defining displacements of respective points of the video image for converting the video image into a stretched image for stereoscopic display;

상기 비디오 카메라들중 하나로부터의 비디오신호를 변환 데이터와 조합하여 인코딩된 비디오신호를 생성하는 단계를 포함하는 방법이 제공된다.And combining the video signal from one of the video cameras with the transformed data to produce an encoded video signal.

본 발명의 또 다른 특성에서는 3D 변환 데이터로 인코딩된 2D 비디오영상을 생성하는 방법으로서,In still another aspect of the present invention, there is provided a method of generating a 2D video image encoded with 3D converted data.

입체비디오카메라로부터 좌우 눈의 비디오 영상을 캡쳐하는 단계와,Capturing video images of left and right eyes from a stereoscopic video camera,

변환 데이터를 생성하기 위하여 입체비디오카메라로부터 좌우 눈 비디오영상들을 비교하는 단계로서, 상기 변환 데이터가 비디오 영상을 입체표시용 신장된 영상으로 변환하기 위한 비디오 영상의 각 포인트들의 변위를 정의하는 단계와,Comparing left and right eye video images from a stereoscopic video camera to generate converted data, wherein the converted data define displacements of respective points of the video image for converting the video image into an extended image for stereoscopic display;

상기 비디오 카메라로부터의 비디오 신호를 변환 데이터와 조합하여 인코딩된 비디오신호를 생성하는 단계를 포함하는 방법이 제공된다.And combining the video signal from the video camera with the transformed data to produce an encoded video signal.

본 발명의 또 다른 특성에서는 3D 변환 데이터로 인코딩된 2D 비디오신호를 생성하는 시스템으로서,In still another aspect of the present invention, there is provided a system for generating a 2D video signal encoded with 3D converted data.

서로 측면에 배치된 적어도 제1 및 제2 비디오 카메라와,At least first and second video cameras disposed laterally from each other,

변환 데이터를 생성하며, 상기 비디오 카메라로부터 데이터를 수신하고 이 데이터를 비교하여, 변환 데이터를 생성하고, 비디오 영상을 입체표시용 신장된 영상으로 변환하기 위한 상기 비디오 카메라들중 하나로부터의 비디오 영상의 각 포인트들의 변위를 정의하는 변환 수단과,To generate converted data, to receive data from the video camera and to compare the data, to generate converted data, and to convert the video image into an extended image for stereoscopic display. Conversion means for defining the displacement of each point,

상기 하나의 비디오 카메라로부터의 비디오 신호를 상기 변환 수단으로부터의 변환 데이터와 조합하여 인코딩된 비디오 신호를 생성하는 인코더를 포함하는 시스템이 제공된다.A system is provided comprising an encoder for combining an video signal from said one video camera with transform data from said conversion means to produce an encoded video signal.

3D 변환 데이터로 인코딩된 2D 비디오영상이 단일 시청자에서만 요구되는 경우, 단지 2개의 카메라만이 요구되며, 각 카메라는 시청자의 좌우 눈에 의해 보이는 시청을 나타낸다.If a 2D video image encoded with 3D converted data is required for only a single viewer, only two cameras are required, and each camera represents the viewing seen by the viewer's left and right eyes.

본 발명의 또 다른 특성에서는 3D 변환 데이터로 인코딩된 2D 비디오 신호를 생성하는 시스템으로서,In still another aspect of the present invention, there is provided a system for generating a 2D video signal encoded with 3D transform data.

입체 비디오 카메라와,Stereoscopic video camera,

변환 데이터를 생성하며, 상기 비디오 카메라로부터 데이터를 수신하고 이 데이터를 비교하여, 변환 데이터를 생성하고, 비디오 영상을 입체표시용 신장된 영상으로 변환하기 위한 상기 비디오 영상의 각 포인트들의 변위를 정의하는 변환 수단과,Generating transform data, receiving data from the video camera and comparing the data, generating transform data, and defining displacements of each point of the video image for converting the video image to an extended image for stereoscopic display. Conversion means,

상기 비디오 신호를 상기 변환 수단으로부터의 변환 데이터와 조합하여 인코딩된 비디오 신호를 생성하는 인코더를 포함하는 시스템이 제공된다.A system is provided comprising an encoder for combining the video signal with transform data from the conversion means to produce an encoded video signal.

본 발명의 또 다른 특성에 따르면, 입체 표시를 제공하기 위해 비디오 신호를 디코딩하는 디코더로서, 상기 신호는 2D 비디오 영상을 제공하며 비디오 영상을 변환하기 위한 변환 데이터를 더 포함하고, 상기 변환 데이터는 비디오 영상을 입체표시용 신장된 영상으로 변환하기 위한 상기 비디오 영상의 각 포인트들의 변위를 정의하며,According to another aspect of the invention, a decoder for decoding a video signal to provide stereoscopic display, the signal further comprising transformed data for providing a 2D video image and for converting the video image, wherein the converted data is video Define a displacement of each point of the video image for converting the image into an extended image for stereoscopic display,

a) 비디오 신호를 수신하는 수단과,a) means for receiving a video signal,

b) 변환 데이터를 판독하며 비디오 신호를 제어하여 변환된 비디오 신호를 제공하는 디코딩 수단을 포함하는 디코더가 제공된다.b) A decoder is provided that includes decoding means for reading the converted data and controlling the video signal to provide the converted video signal.

디코더는Decoder is

a) 비디오 신호를 분리된 비디오 컴포넌트로 변환하기 위한 RGB 또는 컴포넌트(component) 비디오 변환기와,a) an RGB or component video converter for converting the video signal into a separate video component,

b) 각 비디오 컴포넌트를 각 디지털 신호를 변환하기 위한 아날로그-대-디지털 변환기와,b) an analog-to-digital converter for converting each video component to each digital signal;

c) 상기 디지털 신호를 저장하는 디지털 저장 수단을 포함한다.c) digital storage means for storing said digital signal.

디코딩 수단은 디지털 저장 수단의 판독율(read out rate)을 제어하는 가변 주파수 클럭 수단을 제어하여, 저장 수단이 가변 레이트에서 판독되게 한다. 이는 변환 데이터에 따라서 신장 또는 압축되는 비디오 영상을 가져온다.The decoding means controls the variable frequency clock means, which controls the read out rate of the digital storage means, causing the storage means to be read at a variable rate. This results in a video image that is stretched or compressed according to the transform data.

대안적으로, RGB나 비디오 컴포넌트(video components)들은 가변 레이트에서 저장 수단으로 판독되며, 고정 레이트에서 저장 수단으로부터 판독된다.Alternatively, RGB or video components are read into the storage means at a variable rate and from the storage means at a fixed rate.

디코더는 단독 비디오 라인을 처리하던지 복잡한 필드나 프레임과 같은 복수 라인을 처리한다. 이 경우 변환 데이터로부터의 전체 메쉬(full mesh)는 완전한 필드나 프레임을 통해 계산되는 픽셀왜곡(pixel distortion)(측방향 시프트)(lateral shifts))으로 복원된다.Decoder processes single video lines or multiple lines such as complex fields or frames. In this case, the full mesh from the transform data is restored to pixel distortion (lateral shifts) calculated over the complete field or frame.

저장 수단은 이중 포트 RAM 스토어(store)의 형태일 수 도 있다.The storage means may be in the form of a dual port RAM store.

디지털 대 아날로그 변환 수단은 판독된 디지털 신호를 변환된 비디오 신호로 변환하여 시청 수단상에서 시청될 수 있게 한다. 시청 수단은 텔레비전 또는 변환된 비디오 영상을 시청하기 위한 다른 스크린을 포함한다. 시청 수단은 디코더에 의해 제어되는 셔터 안경을 더 포함하여 변환된 비디오 영상이 입체 영상으로서 시청되게 할 수 있다.The digital-to-analog converting means converts the read digital signal into a converted video signal for viewing on the viewing means. The viewing means comprises a television or other screen for watching the converted video image. The viewing means may further include shutter glasses controlled by the decoder to allow the converted video image to be viewed as a stereoscopic image.

대안적으로, 디코더는 변환된 좌우 비디오 영상 각각에 대한 디지털 신호를 저장하는 병렬 저장(parallel storage) 수단을 포함할 수 있다. 시청 수단은 좌우 비디오 영상을 동시에 투사하는 디스플레이 유닛을 포함한다.Alternatively, the decoder may comprise parallel storage means for storing a digital signal for each of the converted left and right video images. The viewing means comprises a display unit for simultaneously projecting left and right video images.

디코더 수단은 비디오 신호로부터 변환 데이터를 분리하는 분리 수단을 포함한다.The decoder means comprises separating means for separating the transformed data from the video signal.

본 발명의 다른 특성에 따르면, 입체영상 표시 시스템으로서,According to another feature of the present invention, a three-dimensional image display system,

a) 비디오 신호에 변환 데이터를 제공하여 비디오 신호를 인코딩하는 인코더로서, 변환 데이터가 비디오 영상을 입체 표시용 신장된 영상으로 변환하기 위한 비디오 영상의 각 포인트의 변위를 정의하는 인코더와,a) an encoder for providing a conversion signal to a video signal to encode the video signal, the conversion data defining a displacement of each point of the video image for converting the video image into an extended image for stereoscopic display;

b) 비디오 신호로부터 변환 데이터를 분리하며 비디오 신호를 변환 데이터의 함수로서 변환하는 디코더를 포함하는 시스템이 제공된다.b) A system is provided that includes a decoder that separates transform data from a video signal and converts the video signal as a function of the transform data.

본 발명의 또 다른 특성에 따르면, 다중시청자(multiviewer) 입체 표시 시스템으로서,According to still another aspect of the present invention, there is provided a multiviewer stereoscopic display system.

a) 입체 표시를 제공하기 위해 비디오 신호를 디코딩하는 디코더로서, 상기 신호가 2D 비디오 영상을 제공하며 비디오 영상을 변환하기 위한 변환 데이터를 더 포함하고, 상기 변환 데이터가 비디오 영상을 입체 표시용 신장된 영상으로 변환하기 위한 비디오 영상의 각 포인트의 변위를 정의하며, 비디오 신호를 수신하는 수단과, 변환 데이터를 판독하고 비디오 신호를 제어하여 변환된 비디오 신호를 제공하는 디코딩 수단을 포함하는 디코더를 포함하는 시스템이 제공된다.a) a decoder for decoding a video signal to provide a stereoscopic display, the signal further comprising transform data for providing a 2D video image and transforming the video image, wherein the converted data is extended for stereoscopic display of the video image; A decoder defining a displacement of each point of a video image for conversion to an image, the decoder comprising means for receiving a video signal and decoding means for reading the converted data and controlling the video signal to provide a converted video signal A system is provided.

2D 또는 "평면(monoscopic)" 비디오 신호를 3D 또는 "입체" 비디오 신호로 변환시킬 수 있는 본 발명에 따르는 방법이 하기의 DDC로서 언급되어지나 이로써 본 기술이 제한되는 것은 아니다.The method according to the invention which can convert a 2D or "monoscopic" video signal into a 3D or "stereo" video signal is referred to as the following DDC but this technique is not limited thereto.

a) 3D 발생 - 2D 영상을 3D 입체 영상 쌍(Pair)으로 변환시키며 3D 변환 데이터를 생성하는 기술 및 절차.a) 3D generation-techniques and procedures for converting 2D images into 3D stereoscopic pairs and generating 3D transformed data.

b) 3D 스크립팅 (Scripting) - 2D 영상을 3D 입체 영상 쌍으로 변환하는 위하여 2D 영상에서 요구되는 변화를 서술하는 기술. 어떤 오브젝트가 선택됐는지 또 어떻게 처리되는지를 기술하며 3D 데이터의 저장 수단을 제공한다.b) 3D Scripting-A technique that describes the changes required in a 2D image to convert a 2D image into a 3D stereoscopic image pair. It describes which objects are selected and how they are processed and provides a means of storing 3D data.

c) 3D 데이터 인코딩 - 정의된 포맷의 2D 비디오 영상에 정보를 부가하는 기술. 결과적인 수정 비디오는 기존의 비디오 기록, 편집, 전송 및 수신시스템과 호환가능하다.c) 3D data encoding-a technique for adding information to a 2D video image in a defined format. The resulting modified video is compatible with existing video recording, editing, transmitting and receiving systems.

d) 3D 표준화된 프로토콜 - 3D 변환 데이터는 정의된 데이터 포맷이나 표준화된 프로토콜을 사용하는 2D 비디오에 부가된다. 이 프로토콜은 3D 변환 데이터를 2D 전송에 부가하는 세계 표준이 될 만하다.d) 3D standardized protocol-3D converted data is added to 2D video using a defined data format or standardized protocol. This protocol is a world standard for adding 3D transformed data to 2D transmission.

e) 3D 데이터 인코딩 - 2D 비디오 영상 및 변환 데이터를 수신하며 2D 비디오 영상에 부가된 정보를 추출하여 3D 입체 영상이 합성될 수 있는 기술.e) 3D data encoding-A technology that can receive 3D video images and transformed data, and extract 3D stereoscopic images by extracting information added to 2D video images.

f) 3D 합성- 3D 입체 영상 쌍을 합성하기 위해서는 변환 데이터를 사용하여 2D 비디오영상을 조정하는 기술.f) 3D synthesis-A technique for adjusting 2D video images using transformed data to synthesize 3D stereoscopic image pairs.

2D 영상을 모의 3D 영상으로 변환하기 위해서는, 원 영상을 수정하여 두 개의 약간 다른 영상들을 생성하고 이들 분리된 영상들을 각각의 좌우 눈에 독립적으로 제시할 필요가 있다.In order to convert a 2D image into a simulated 3D image, it is necessary to modify the original image to generate two slightly different images and to present these separated images independently to each of the left and right eyes.

원 영상의 수정은 깊이의 효과를 주기위하여 영상면(투사 또는 시청 스크린에 위치한)내의 오브젝트들의 측면 시프트로 이루어진다.The correction of the original image consists of a lateral shift of the objects in the image plane (located on the projection or viewing screen) to effect the depth.

영상에 있는 한 오브젝트를 시청자로부터 영상면에 대해서 더 멀리 나타나도록 하기 위하여, 영상내의 오브젝트를 약간 좌측으로 시프트하여 왼쪽 눈에 보이도록 또 약간 우측으로 시프트하여 오른쪽 눈에 보이도록 하는 것이 필요하다. 이것은 도 1에 도시되어있다. 오브젝트를 시청자에 더 근접하여 나타나도록 하기 위하여 좌측 눈의 영상내의 객체를 오른쪽으로 또 우측 눈의 영상내의 객체를 왼쪽으로 시프트시킬 필요가 있다. 한 오브젝트를 영상면에 위치시키기 위해서는, 오브젝트는 양쪽 눈의 동일 위치에서 영상에 놓여지게 된다.In order for an object in the image to appear farther from the viewer with respect to the image plane, it is necessary to shift the object in the image slightly to the left to the left eye and slightly to the right to the right eye. This is shown in FIG. In order for the object to appear closer to the viewer, it is necessary to shift the object in the image of the left eye to the right and the object in the image of the right eye to the left. In order to place an object on the image plane, the object is placed on the image at the same position of both eyes.

실 세계에서, 오브젝트를 시청할 때, 시청자는 초점 정보를 사용한다. 그러나 모의 3D에서 이 정보는 제시되지 않으며, 또 만약 측면 시프트가 너무 많다면, 특히 오브젝트를 시청자에 더욱 가깝게하기 위해서는, 오브젝트가 두 개의 분리된 영상으로 쪼개져서 나타나게 되어 3D 효과는 상실된다.In the real world, when viewing an object, the viewer uses focus information. However, in the simulated 3D, this information is not presented, and if there are too many lateral shifts, especially in order to bring the object closer to the viewer, the object appears broken into two separate images and the 3D effect is lost.

좌우 영상은 컴퓨터를 이용하여 생성될 수 있다. 영상은 우선 비디오 디지타이져로 디지털화 되고 최종 데이터가 메모리에 저장된다. 두개의 새로운 영상들이 그 후 발생 될 수 있다.The left and right images may be generated using a computer. The image is first digitized with a video digitizer and the final data is stored in memory. Two new images can then be generated.

요망되는 측면 시프트로 새로운 좌우 영상을 생성하는 가장 쉬운 방법은 영상으로부터 오브젝트를 "절단하고" 필요한 측면 변위에 다시 "첨부" 하는 것이며, 이것은 "절단 및 첨부" 기술로 알려져 있다. 이것은 먼저 오브젝트의 위치가 식별에 의해 이동된 것으로 정의된 후 영상으로부터 오브젝트를 "절단" 하고 이를 측면으로 이동시켜 이루어 질 수 있다.The easiest way to create a new left and right image with the desired side shift is to "cut" the object from the image and "attach" back to the required lateral displacement, which is known as a "cut and attach" technique. This can be done by first defining the position of the object as moved by identification, then "cutting" the object from the image and moving it to the side.

도 2에 도시된 바와 같이, 이러한 간단한 기술의 문제점은 일단 선택된 오브젝트가 이동되면 배경이 제거되고, 또한 배경에 블랭크 영역이 생기게 되는데 있다.As shown in Fig. 2, the problem with this simple technique is that once the selected object is moved, the background is removed and there is also a blank area in the background.

본 발명에 따르면, 영상내의 오브젝트가 필요한 측면 시프트를 제공하며 원 배경 상세를 유지하도록 "신장" 된다. 영상의 최종 측면 왜곡은 수학적으로 평활화되어 결과적으로 가시적인 가공물이 없는 "실제의" 3D로 인식되다.According to the invention, the objects in the image are " extended " to provide the necessary side shifts and to maintain the original background details. The final side distortions of the image are mathematically smoothed and consequently perceived as "real" 3D with no visible artifacts.

영상에서의 이러한 신장의 효과를 보다 잘 가시화하기 위하여, 변환될 영상이 얇은 고무 쉬트상에 인쇄된다고 상상해보자. 한 오브젝트 부근에 있는 영상 표면에 있는 한 포인트를 집어서 새로운 위치로 예를 들어 본래 위치의 오른쪽으로 신장하는 것이 가능하다. 그러므로 도 3에 도시된 바와 같이, 오브젝트의 오른쪽에 있는 영상부분은 압축되며 왼쪽으로 신장된다. 시청자에게는 만약 두 눈으로 본다면 오브젝트는 이제 왜곡된 것으로 나타난다.To better visualize the effect of this stretching on the image, imagine that the image to be converted is printed on a thin rubber sheet. It is possible to pick up a point on the image surface in the vicinity of an object and stretch it to a new position, for example to the right of the original position. Therefore, as shown in FIG. 3, the image portion on the right side of the object is compressed and stretched to the left side. For the viewer, the object now appears distorted if seen with both eyes.

도 4에 도시된 바와 같이, 그러나, 만일 유사하지만 대항하는 영상이 다른쪽 눈에 제시된다면, 시청자는 왜곡된 영상을 보지 못하며, 오히려 3D 특성을 갖는 오브젝트를 보게 된다.As shown in FIG. 4, however, if a similar but opposing image is presented to the other eye, the viewer does not see the distorted image, but rather sees an object with 3D characteristics.

영상내의 오브젝트의 "신장"은 전자적으로도 이루어질 수 있다. 각 비디오 프레임에 있는 당해 오브젝트는 먼저 이들을 아웃라이닝함에 의해 식별된다. 각 오브젝트에서는, 깊이 또는 메쉬 왜곡 특성이 또한 정의된다. 신장은 작업자가 영상을 신장하고 최종 3D 영상 효과를 실시간으로 볼 수 있도록 하여 이루어 질수 있다. 작업자의 기술과 예술적 조정이 최종 영상의 3D 영향력(impact)과 그에 따른 비디오 시퀀스를 결정하도록 사용될 수 있다. 개별 비디오 프레임이 수동으로(즉, 실시간이 아닌) 변환 될 수 있는 반면에 비디오 "클립(clip)"을 형성하는 일련의 연관된 프레임이 자동으로(즉, 실시간으로) 변환 될 수 있음을 예상 할 수 있다.The "extension" of the object in the image can also be done electronically. The objects in each video frame are identified by first outlining them. In each object, the depth or mesh distortion characteristic is also defined. Stretching can be done by allowing the operator to stretch the image and see the final 3D image effect in real time. Operator skill and artistic adjustments can be used to determine the 3D impact of the final image and the resulting video sequence. While individual video frames can be converted manually (i.e. not in real time), one can expect that a series of associated frames that form a video "clip" can be converted automatically (i.e. in real time). have.

작업자는 변환될 비디오 클립의 시작 및 끝 프레임을 정의한다. 그것들은 시작 및 끝 프레임에서 영상면에 대해 각 오브젝트의 상대적인 깊이가 또한 결정한다. 비디오클립은 중간 프레임의 요망 신장 또는 조작을 보간하기 위하여 클립에 있는 각 오브젝트의 시작 및 끝 위치와 깊이를 이용하여 처리 될 수 있다.The operator defines the start and end frames of the video clip to be converted. They are also determined by the relative depth of each object with respect to the image plane in the start and end frames. Video clips can be processed using the start and end positions and depths of each object in the clip to interpolate the desired stretch or manipulation of the intermediate frame.

다른 깊이를 갖는 다중 오버래핑 오브젝트의 경우에는 전경(foreground) 오브젝트들에 우선순위가 주어진다. 원 2D 영상이 단일 카메라로 캡쳐되기 때문에 픽셀 정보가 자동으로 전경에 우선순위화된다.In the case of multiple overlapping objects with different depths, the foreground objects are given priority. Because raw 2D images are captured by a single camera, pixel information is automatically prioritized in the foreground.

이러한 영상의 "신장" 은 디지털화된 영상을 조작하여 전자적으로 수행 될 수 있다. 메쉬(그리드)는 예를 들어 메쉬의 각 로우 및 칼럼의 공통 좌표가 왜곡 전에 0,0으로 되는 것처럼 왜곡될 영상위에 일시적으로 놓여진다. 메쉬의 X 측 좌표가 변화되어 메쉬 기초 영상의 왜곡을 가져온다. 라인 바로 밑의 영상 영역만 이동되어 불연속의 결과(도 5)를 가져오기 보다는 인접 메쉬 라인들 또한 이동되어 평활한 왜곡를 일으킬 수 있다(도 6).The "height" of such an image can be performed electronically by manipulating the digitized image. The mesh (grid) is temporarily placed on the image to be distorted, for example, as the common coordinates of each row and column of the mesh become zero before distortion. The X-coordinate of the mesh is changed, resulting in distortion of the mesh base image. Rather than moving only the image area directly below the line, resulting in discontinuities (FIG. 5), adjacent mesh lines may also be moved to cause smooth distortion (FIG. 6).

왜곡 메쉬의 거칠기는 3D 효과의 정도를 결정한다. 메쉬가 거칠어질수록 오브젝트에 인접한 다른 오브젝트들이 더 많이 스핀(spin)되게 된다. 이것이 최종 영상에 좋지 않은 3D 영향을 초래한다. 보다 조밀한 메쉬는 오브젝트의 뚜렷한 에지, 보다 좋은 3D 영상 효과를 가져오나 에지 불연속성이 커지게 된다. 설명을 목적으로 왜곡 메쉬의 크기는 16×16으로 가정할 수 있다. 메쉬상의 각각 서브포인트에 대한 정보(즉 왜곡 후 좌표위치)는 배경 및 전경 서브포인트를 만들도록 인코딩된다. 예를 들면 4비트가 16개의 다른 레벨, 4개의 배경 및 12개의 전경을 초래하는 서브포인트 인코딩에 사용될 수 있다. 서브포인트 인코딩의 포맷은 실험에 의해 결정되며 적용예에 적합하게 조절될 수 있다.Roughness of the distortion mesh determines the degree of 3D effect. The coarser the mesh, the more other objects that are adjacent to the object spin. This results in a bad 3D effect on the final image. A denser mesh will result in sharper edges of the object, better 3D image effects, but greater edge discontinuities. For the purpose of explanation, the size of the distortion mesh may be assumed to be 16 × 16. Information about each subpoint on the mesh (ie post-distorted coordinate position) is encoded to create background and foreground subpoints. For example, 4 bits can be used for subpoint encoding resulting in 16 different levels, 4 backgrounds and 12 foregrounds. The format of the subpoint encoding is determined by experiment and can be adjusted to suit the application.

대안적으로, 이러한 메쉬 왜곡 프로세스는 영상의 자동처리가 가능하게 하는 수학적 알고리즘에 의해 정의될 수도 있다.Alternatively, this mesh distortion process may be defined by a mathematical algorithm that enables automatic processing of the image.

왼쪽 눈의 메쉬 왜곡이 일단 결정되면, 오른쪽 눈의 왜곡의 좌표는 그 매트릭TM(matrix)에 -1 (즉, 같은 양으로 반대쪽 측면 방향으로 시프트되는)을 스칼라적(scalar multiplication)하여 쉽게 얻어지며 자동으로 계산된다. 이것은 도 7에 도시되어 있다.Once the mesh distortion of the left eye is determined, the coordinates of the right eye's distortion are easily obtained by scalar multiplication of -1 (i.e. shifted in opposite lateral directions by the same amount) to the matrixTM. It is calculated automatically. This is shown in FIG.

왜곡된 메쉬의 각 교차점의 상대적인 수평 편차로부터 형성되는 매트릭스는 메쉬공간 변위 (MSD) 데이터를 정의한다.A matrix formed from the relative horizontal deviation of each intersection of the distorted meshes defines mesh space displacement (MSD) data.

최종의 3D 영상을 완전히 정의하고 재생하기 위하여 필요한 것은 본래의 변화되지 않은 2D 영상과 MSD 데이터를 제공하는 것이다. 그래서 3D 영상들이 2D 영상과 관련된 MSD 데이터 파일들을 고려하여 저장, 전송, 발생, 편집 및 계산된다.What is needed to fully define and reproduce the final 3D image is to provide the original unchanged 2D image and MSD data. Thus, 3D images are stored, transmitted, generated, edited and calculated in consideration of MSD data files related to 2D images.

그러므로 MSD 데이터를 각각의 비디오 프레임으로 인코딩하여 종래의 2D 비디오 시스템을 통해 3D 영상을 저장하고 전송하는 것이 가능하게 된다. 원 2D 비디오 영상이 변화 없이 저장되고 전송될 수 있기 때문에 최종 비디오가 현존하는 비디오 및 텔레비젼 시스템에 완전히 사용될 수 있다. 기존하는 2D TV 수신기도 정상의 그림을 표시할 수 있다.Therefore, it is possible to encode MSD data into each video frame to store and transmit 3D video through a conventional 2D video system. Since the original 2D video image can be stored and transmitted unchanged, the final video can be fully used in existing video and television systems. Existing 2D TV receivers can also display a normal picture.

다수의 현존 기술이 시청자에 의해 감지되지 않고 기존의 비디오 표준들과 호환가능하도록 MSD 데이터를 2D 영상에 부가하는데 사용될 수 있다. 이들 기술들은 제한적이지 않게,Many existing technologies can be used to add MSD data to 2D images so that they are not detected by the viewer and are compatible with existing video standards. These techniques are not limiting,

a) "텔리텍스트 (teletext) 데이터의 부가와 유사한 방법으로 블랙 레벨로 설정되는 그림의 상하에 있는 여분의 선에,a) on the extra lines above and below the picture set to black level in a manner similar to the addition of "teletext data,"

b) 각 영상의 좌우에 있는 보이지 않는 오버스캔(overscan) 영역에, 그리고b) invisible overscan areas to the left and right of each image, and

c) 영국 방송 연합 "사운드 인 싱크 (sound in sync)" 시스템에 따라 수평 싱크 주기에c) in a horizontal sync cycle in accordance with the British Broadcasting Union "sound in sync" system.

MSD 정보를 삽입시키는 것을 포함한다.Inserting MSD information.

미래에는, 디지털 HDTV의 도입과 함께, 여분의 디지털 데이터 프레임은 MSD 데이터를 삽입하는데 이용가능해질 것이다.In the future, with the introduction of digital HDTV, extra digital data frames will be available for inserting MSD data.

DDC 인코딩된 비디오 프레임을 형성하기 위해 MSD 데이터를 2D 비디오 영상에 부가하는 프로세스는 도 8에 도시되고 있다.The process of adding MSD data to a 2D video image to form a DDC encoded video frame is shown in FIG. 8.

MSD 데이터의 양은 프레임 당 약 100바이트로 추정될 만큼 작다. 이것은 필요에 따라 실행 길이 또는 차동 인코딩 같은 표준 데이터 압축 기술을 사용하여 저장 및 전송을 위해 더 압축될 수 있다.The amount of MSD data is small enough to be estimated at about 100 bytes per frame. It can be further compressed for storage and transmission using standard data compression techniques such as run length or differential encoding as needed.

데이터의 양이 작아서, 요망하는 데이터율도 낮아진다. 또한 MSD 데이터가 다수의 프레임에 걸쳐 쉽게 변화하지 않기 때문에 공간 및 시간적 압축을 써서 요구되는 데이터를 더욱 감소시키는 것이 가능하게 된다. MSD 데이터와 그 연관된 프레임 사이의 정확한 시간 관계는 중요하지 않으며, 한 프레임의 변위 에러는 아마도 받아들어질 것이다.Since the amount of data is small, the desired data rate is also lowered. In addition, since MSD data does not easily change over multiple frames, it is possible to further reduce the required data using spatial and temporal compression. The exact time relationship between the MSD data and its associated frame is not important and the displacement error of one frame is probably acceptable.

작은 데이터양, 낮은 데이터율 및 비결정적인 정렬에 기인하여, MSD 데이터는 다수의 프레임 즉, 각 프레임에서 정보의 사분의 일을 갖는 4개의 프레임에 걸쳐 보내진다.Due to the small amount of data, low data rate, and non-deterministic alignment, MSD data is sent over multiple frames, that is, four frames with one quarter of the information in each frame.

DDC 디코더가 어떻게 비디오 체인에 합체되는지를 나타내는 블록도가 도 9에 도시된다. 임의의 기존 비디오원 즉, 지구, 위성 등을 통해 얻어지는 DDC 인코딩된 비디오는 DDC 디코더의 입력에 인가된다. 디코더의 한 출력은 표준 TV 디스플레이를 구동하며 DDC 디코더에 의해 동기화된 셔터 안경을 쓰고 있는 시청자에게 3D 영상을 보여줄 수 있는 표준 비디오 파형 (또는 비디오 변조된 무선 신호)이다.A block diagram illustrating how the DDC decoder is incorporated into the video chain is shown in FIG. 9. Any existing video source, i.e., DDC encoded video obtained via the earth, satellite, etc., is applied to the input of the DDC decoder. One output of the decoder is a standard video waveform (or video modulated wireless signal) that can drive a standard TV display and show 3D video to a viewer wearing shutter glasses synchronized by a DDC decoder.

부가적으로 출력은 다른 3D 표시장치, 예를 들면 가상현실 헤드세트 또는 호주 출원 제66718/94호에 기술된 자동 입체 디스플레이 등을 구동하기 위한 DDC 디코더로부터 이용가능하다.Additionally outputs are available from DDC decoders for driving other 3D displays, such as virtual reality headsets or autostereoscopic displays as described in Australian application 6667/94.

DDC 디코더의 하나의 가능한 실시 예가 도 10에 도시된다. S-비디오 포맷에서 PAL 또는 NTSC중 하나일 수 있는 인입(incoming) 비디오는 복합 RGB 또는 컴포넌트 비디오 변환기에 인가될 수 있다. RGB 또는 컴포넌트 비디오 출력 각각은 아날로그/디지털 변환기에 인가되고 디지털 출력은 이중포트 RAM 라인 저장 장치의 입력포트로 이송된다. 디지털 비디오 데이터의 각 선은 일정한 속도로 RAM으로 들어간다. 데이터는 MSD 디코더의 출력에 의해 제어되는 가변 주파수 클럭에 의해 결정된 레이트로 라인 저장장치로부터 판독된다.One possible embodiment of a DDC decoder is shown in FIG. 10. Incoming video, which can be either PAL or NTSC in the S-Video format, can be applied to a composite RGB or component video converter. Each of the RGB or component video outputs is fed to an analog-to-digital converter and the digital outputs are sent to the input port of a dual-port RAM line storage. Each line of digital video data enters RAM at a constant rate. Data is read from line storage at a rate determined by a variable frequency clock controlled by the output of the MSD decoder.

RAM으로부터 가변 레이트로 라인 데이터를 판독하는 효과는 MSD 데이터에 따라서 최종 비디오가 신장되거나 압축되게 한다.The effect of reading line data from RAM at variable rates causes the final video to be stretched or compressed depending on the MSD data.

변환된 데이터는 그후 디지털/아날로그 변환기와 PAL/NTSC 인코더로 인가된다. 최종 3D 필드 순차적인 합성 비디오 신호는 디스플레이에 인가된다(주: 이 프로세스는 가변 레이트로 라인 저장 장치로 판독되고 고정 레이트로 판독되는 비디오 신호로 동작할 수 있다. 라인 저장 장치로부터의 출력이 가변 레이트로 판독될 때 크로미넌스(chrominance) 주파수가 변화하여 표시 에러를 야기하기 때문에 입입 합성 비디오 신호를 RGB 또는 합성 비디오로 변환시킬 필요가 있다.)The converted data is then applied to a digital / analog converter and a PAL / NTSC encoder. The final 3D field sequential composite video signal is applied to the display. (Note: this process can be operated with a video signal that is read at a variable rate and read at a fixed rate. The output from the line storage is variable rate. It is necessary to convert the incoming composite video signal to RGB or composite video because the chrominance frequency changes when read as, causing display error.)

특히, 변환데이터는 텔레비전 신호의 수직블랭킹(vertical blanking) 간격으로 전송될 수 있다.In particular, the converted data can be transmitted at the vertical blanking interval of the television signal.

DDC 디코딩은 필드 또는 프레임 저장 장치를 이용하여 실현되어 질수 있다. 이 경우 MSD데이터로부터의 전체 메쉬는 전체 필드 또는 프레임에 걸쳐 계산되는 픽셀 왜곡(측면이동)으로 복원된다.DDC decoding can be realized using field or frame storage. In this case, the entire mesh from the MSD data is reconstructed with pixel distortion (lateral shift) calculated over the entire field or frame.

3D 입체 영상 쌍은 이후 최종 RGB 또는 컴포넌트 비디오 출력으로부터 표시된다.The 3D stereoscopic image pair is then displayed from the final RGB or component video output.

셔터 안경 제어기는 셔터 안경에 타이밍 펄스를 제공하는 자외선 광원을 제공한다. 제어기는 PAL/NTSC 인코더에 의해 동기화된다. 부가적으로, 제어기는 3D 인코딩되지 않고 3D 인코딩에 적합하지 않은 장면동안 셔터 안경이 열려 있도록 명령하여, 비디오 시퀀스의 이들 부분 동안 개선된 영상품질을 제공한다.The shutter eyeglasses controller provides an ultraviolet light source that provides timing pulses to the shutter eyeglasses. The controller is synchronized by the PAL / NTSC encoder. Additionally, the controller instructs the shutter glasses to open during scenes that are not 3D encoded and not suitable for 3D encoding, providing improved image quality during these portions of the video sequence.

도 11은 3D 필드 병렬 합성 비디오 출력을 생성하는 DDC 디코더의 블록도를 도시한다. MSD 디코더는 두 개의 가변 속도 클럭(하나는 좌측 다른 하나는 우측 RAM 라인 저장 장치용이다)을 생성한다. 이러한 형태의 디코더는 본 출원인의 기존 입체영상 3D 디스플레이에 있는 필드 저장장치를 대체하는데 적합하다. 이러한 기술은 원 2D 비디오원과 동일한 필드 레이트에 있는 즉, 필드 순차적인 비디오 출력이 생성되는 좌우 비디오원을 제공한다.11 shows a block diagram of a DDC decoder that produces a 3D field parallel composite video output. The MSD decoder generates two variable rate clocks, one for the left and one for the right RAM line storage. This type of decoder is suitable for replacing field storage in our existing stereoscopic 3D displays. This technique provides left and right video sources that are at the same field rate as the original 2D video source, ie field sequential video output is generated.

대안적으로, 논-필드 (non-field) 비디오 출력은 2D영상보다 높은 해상도의 스캐닝 레이트의 출력에서 생성된다.Alternatively, non-field video output is produced at an output of a scanning rate of higher resolution than 2D video.

도 12는 MSD 디코더의 한 형태의 블록도를 도시한다. 이 경우 MSD 데이터가 도 13의 비디오 신호의 제1의 16 라인에서 합성 비디오 신호로 인코딩된다고 가정하자. 인입 합성 비디오가 마이크로프로세서용 수직 및 수평 타이밍 신호를 제공하는 싱크 분리기로 이송된다. 게다가 비디오는 블랙 레벨 클램프 회로, 비교기 및 레벨 시프터로 이송된다. 레벨 시프터로부터의 출력은 비디오 신호의 라인 1에서 16에 있는 직렬 인코딩된 MSD 데이터를 갖는 TTL 레벨 신호이다. 마이크로프로세서가 다음 16바이트를 판독하는 라인 1의 수평 싱크 펄스를 결정 한 후 마이크로프로세서 루프는 수평 싱크 펄스를 대기한다. MSD데이터가 판독될 때까지 유사한 프로세서가 다음 15라인상에서 반복된다. 수신된 MSD 데이터에 기초하여 마이크로프로세서는 가변 속도 클럭을 각 순차 비디오 라인상의 디지털 비디오 라인 저장장치에 제공한다. 마이크로프로세서는 비디오 라인 싱크 펄스를 카운트함에 의해 비디오 라인이 처리되고 있는 인덱스를 유지한다.12 shows a block diagram of one type of MSD decoder. In this case, assume that the MSD data is encoded into the composite video signal on the first 16 lines of the video signal of FIG. Incoming composite video is sent to a sink separator that provides vertical and horizontal timing signals for the microprocessor. In addition, video is fed to black level clamp circuits, comparators and level shifters. The output from the level shifter is a TTL level signal with serially encoded MSD data in lines 1 to 16 of the video signal. After the microprocessor determines the horizontal sync pulse on line 1 that reads the next 16 bytes, the microprocessor loop waits for the horizontal sync pulse. A similar processor is repeated on the next 15 lines until the MSD data is read. Based on the received MSD data, the microprocessor provides a variable speed clock to digital video line storage on each sequential video line. The microprocessor maintains the index at which the video line is being processed by counting video line sync pulses.

3D 영상의 깊이 인식은 시청자에 따라 다르다. 또한 3D 영상을 셔터 안경으로 볼 때, 3D 영상의 "강도"는 시청거리의 조절을 요한다. 3D 영상의 강도는 마이크로프로세서에 의해 적용되는 알고리즘에 의해 3D 영상의 강도가 시청자에 의해 변화되게 하는 원격 제어 장치에 의해 변화될 수 있다. 그 알고리즘은 MSD 매트릭스에 있는 각 요소의 크기를 변화시켜 3D 효과의 강도를 변화시킨다. 특정 시청자의 선호도가 기입되면 이러한 설정은 디코더 유닛에 의해 유지되는 것으로 기대된다.Depth perception of 3D images depends on the viewer. Also, when viewing 3D images with shutter glasses, the "strength" of the 3D images requires adjustment of the viewing distance. The intensity of the 3D image may be changed by a remote control device that causes the intensity of the 3D image to be changed by the viewer by an algorithm applied by the microprocessor. The algorithm changes the magnitude of each element in the MSD matrix to change the intensity of the 3D effect. This preference is expected to be maintained by the decoder unit once the preferences of a particular viewer are entered.

DDC 인코딩된 비디오 영상의 실시간 발생을 위한 많은 기술들이 있다. 한 기술에서 카메라 렌즈와 부가적인 범위찾기의 CCD(Charge Coupled Device) 어레이간의 거리는 변화된다(도 14). 이것은 가변 초점 스테이지에서 영상내의 각 오브젝트로 된 일련의 프레임들을 생성한다. 선명도(sharpness) 검출 알고리즘은 이후 일련의 프레임을 통해 실행되고, 영상에 있는 각 오브젝트의 선명도 인덱스가 결정된다. 각 오브젝트가 어느 프레임에서 가장 선명한지를 결정하며, 이는 오브젝트가 어느 초점면에서 온이 되는지를 나타낸다. 이러한 정보는 MSD 데이터를 형성하는데 사용된다.There are many techniques for real-time generation of DDC encoded video images. In one technique the distance between the camera lens and the array of additional Charge Coupled Devices (CCD) is varied (FIG. 14). This produces a series of frames of each object in the image at the variable focus stage. A sharpness detection algorithm is then run through a series of frames, and the sharpness index of each object in the image is determined. Determines in which frame each object is the sharpest, which indicates which focal plane the object is on. This information is used to form the MSD data.

도 15는 두 개의 비디오 카메라가 사용되어 별개의 좌우 눈 영상을 만드는 다른 기술을 도시한다. 각 카메라로부터의 발광정보는 디지털화되어 라인 저장장치로 이송된다. 자동상관기(auto correlator) 또는 유사 동작은 두 개의 라인 저장장치(좌우 16개 요소)내의 비트 패턴을 비교하여 정합을 찾는다. 영상내의 오브젝트를 표시하는 비디오 패턴간의 차이(거리)는 MSD 데이터를 생성하는데 사용된다. 카메라출력중 하나는 실시간으로 MSD 데이터와 결합하여 DDC 인코딩된 비디오를 생성한다.15 illustrates another technique where two video cameras are used to create separate left and right eye images. The light emission information from each camera is digitized and transferred to the line storage device. An auto correlator or similar operation finds a match by comparing the bit patterns in two line storages (16 elements left and right). The difference (distance) between video patterns representing objects in an image is used to generate MSD data. One of the camera outputs combines MSD data in real time to produce DDC encoded video.

대안적으로, 입체 영상 비디오 카메라가 두 개의 비디오 카메라 대신에 사용될 수도 있다.Alternatively, a stereoscopic video camera may be used instead of two video cameras.

DDC는 기존의 논아이 트래킹(non eye-tracking) 자동입체 영상 3D 다중 시청자 시스템의 심각한 문제점을 극복하는데 사용된다. 이러한 시스템은 도 16에 도시된 좌우 영상의 반복되는 시퀀스를 만들어 3D영상을 제공한다. 각각의 연속 영상간의 거리는 시청자 눈 사이의 거리와 동일한 65mm 이다. 그러므로 위치 A에 있는 시청자는 정확하게 처리된 3D 영상을 볼 수 있다.DDC is used to overcome the serious problems of the existing non eye-tracking autostereoscopic 3D multi-viewer system. Such a system creates a repeated sequence of left and right images shown in FIG. 16 and provides 3D images. The distance between each successive image is 65 mm equal to the distance between viewer eyes. Therefore, the viewer at position A can see the correctly processed 3D image.

그러나 시청자가 측면으로 32mm 움직이거나 또는 B 위치에 있게 되면 왼쪽 영상이 오른쪽 눈에 보이고 오른쪽 영상이 왼쪽 눈에 보인다. 즉, 시청자는 역 3D 영상을 보게 된다. 역 3D 영상은 보기에 매우 불편하며 짧은 시간 후에 시청자의 두통을 유발한다.However, when the viewer moves 32mm to the side or is in the B position, the left image is visible on the right and the right image is visible on the left. In other words, the viewer sees an inverse 3D image. Inverse 3D images are very inconvenient to see and cause viewer headaches after a short time.

대분분의 다중 시청자 자동입체영상 시스템은 이러한 단점이 있다. 특히, 이들은 양볼록렌즈와 그리드 타입 영상 분리기를 기초로 한다. 도 17은 다중 시청자, 양볼록렌즈 기초의 자동 입체 영상 시스템을 도시한다. 좌측 프로젝터로부터의 영상은 제1 양볼록렌즈를 통과해서 매트(matt) 스크린의 표면상에 포커싱된다. 제2 양볼록렌즈는 이 영상을 다시 포커싱하여 시청거리에서 광의 수직 스트립을 형성한다. 우측 영상을 가지는 제2 프로젝터는 제1 양볼록렌즈를 조명하나 두 프로젝터들사이의 측면 변위에 의해 시청자면에 있는 최종 우측 눈 영상은 좌측 영상으로부터 65mm 변위된다. 이러한 교번적인 좌우 영상의 시퀀스는 65mm 떨어져서 반복된다.Most multi-viewer autostereoscopic systems have this drawback. In particular, they are based on biconvex lenses and grid type image separators. Figure 17 illustrates a multi-viewer, biconvex lens based automated stereoscopic imaging system. The image from the left projector passes through the first biconvex lens and is focused on the surface of the matt screen. The second biconvex lens focuses the image again to form a vertical strip of light at the viewing distance. The second projector with the right image illuminates the first biconvex lens but the final right eye image on the viewer's surface is shifted 65 mm from the left image by lateral displacement between the two projectors. This sequence of alternating left and right images is repeated 65 mm apart.

정확한 위치에 있는 시청자는 3D 영상을 볼 수 있으나 시청자가 움직이거나 또는 상술한 위치에 부정확하게 있게 되면 역 3D 영상이 나타난다.The viewer in the correct position can see the 3D image, but the reverse 3D image appears when the viewer moves or becomes incorrect at the position described above.

실제로, 양볼록렌즈 기초 3D 시스템을 보기 위하여 처음 앉을때, 시청자는 정확한 또는 역 3D 영상이 보이는가를 판정하기가 어렵다. 시청자가 불편함을 느끼고 나서야 부정확하게 위치하고 있다는 것을 알게 된다.Indeed, the first time a user sits to view a biconvex lens based 3D system, it is difficult for the viewer to determine whether an accurate or inverted 3D image is seen. Only after the viewer feels uncomfortable does he know that he is inaccurate.

또한, 시청자가 장시간 정확한 시청 위치를 유지하기가 어렵다. 또 시청자가 제2 양볼록렌즈로부터 정확한 거리에 위치할 것이 필요한데 그 이유는 만약 부정확한 거리에서 시청한다면 모레이(Morae)효과나 크로스 토크 현상이 일어나기 때문이다.In addition, it is difficult for a viewer to maintain an accurate viewing position for a long time. In addition, it is necessary for the viewer to be positioned at the correct distance from the second biconvex lens, because if it is viewed at an incorrect distance, a Morae effect or a crosstalk phenomenon occurs.

양볼록렌즈 기초 시스템의 다른 문제점은 해상도이다. 해상도는 1mm 단위의 전체 양볼록렌즈에 있는 각각의 "렌즈-레트 (lens-let)의 피치에 의해 제한된다.Another problem with biconvex lens based systems is the resolution. The resolution is limited by the pitch of each "lens-let" in the total biconvex lens in 1 mm increments.

단지 좌우 영상을 투사하는 대신, 다수의 (예로서 4) 프로젝터를 사용하여 일련의 영상, 각각 65mm 떨어진 1,2,3,4 영상을 생성하기 위한 양볼록렌즈 기초 시스템을 생각해보자(도 18). 원 장면은 동일 시퀀스 및 간격으로 배치된 4개의 카메라를 사용하여 기록된다. A. B, 또는 D 위치에 있는 시청자는 정확한 3D 영상을 보나 C 위치의 시청자는 역 3D 영상을 본다.Instead of just projecting the left and right images, consider a biconvex lens based system for generating a series of images, 1, 2, 3 and 4 images, each 65 mm apart, using multiple (4 as an example) projectors (FIG. 18). . The original scene is recorded using four cameras arranged in the same sequence and interval. A. The viewer at position B, or D sees the correct 3D image, while the viewer at position C sees the reverse 3D image.

이는 종래의 좌우 시스템에 비해 실질적인 개선으로서, 수용할만한 3D 영상을 이제 3배나 되는 측면 거리에서 볼 수 있게 되었다. 종래의 좌우 시스템에서와 같이 시청자는 불편함을 느끼기 전에는 D 위치가 역 3D 영상을 제공한다는 것을 알지 못함에 유의해야 한다.This is a substantial improvement over conventional left and right systems, where an acceptable 3D image can now be viewed at three times the lateral distance. It should be noted that, as in conventional left and right systems, the viewer does not know that the D position provides an inverted 3D image until it feels uncomfortable.

도 19에서처럼 4개의 프로젝터가 "널(null)" 영상(흑색)으로 대체된다면, 위치 A 및 B는 예전과 같을 것이다. 위치 C는 우측 눈에는 평면 영상을 좌측 눈에는 흑색 영상이 보여 시청자가 불편없이 볼 수 있게 된다. 유사하게, 위치 D는 평면 영상을 생성하나 역 3D 영상 효과는 없다. 그래서 시청자 위치의 50%는 정확한 3D 영상을 만들며 다른 50%는 약간 못한 영상을 만드는 시스템을 가지게 되나, 이의가 없는 한, 영상 및 역 3D 효과는 제거된다.If four projectors were replaced with a "null" image (black) as in Figure 19, then positions A and B would be the same as before. The position C shows a flat image in the right eye and a black image in the left eye so that the viewer can see it without inconvenience. Similarly, location D produces a planar image but no inverse 3D imaging effect. Thus, 50% of the viewer's position produces an accurate 3D image, while the other 50% has a system that produces slightly less image, but unless objectioned, the image and inverse 3D effects are eliminated.

프로젝터의 수를 늘리고 널 영상을 포함시키므로, 정확한 3D 영상을 볼 수 있는 측면 거리가 연장되고 역 3D 효과가 배제된다.By increasing the number of projectors and including null images, the lateral distance for viewing accurate 3D images is extended and the inverse 3D effect is excluded.

그러나 각 프로젝터에 비디오 영상을 제공하는데 필요한 전송/기록 대역폭이 프로젝터의 수가 증가함에 따라 비현실적이 되기 때문에, 그러한 다중 프로젝터 시스템의 실시 예는 실용적이지 않다고 생각된다.However, since the transmission / recording bandwidth required to provide a video image to each projector becomes impractical as the number of projectors increases, it is considered that an embodiment of such a multiple projector system is not practical.

이러한 접근의 한계는 DDC 인코딩된 2D 영상을 전송하며 DDC를 이용하여 요망수의 투사 영상을 합성하게 함으로써 극복될 수 있다. 넓은 대역폭이 DDC 디코더에 요구되는 반면, 원 2D 대역폭은 전송기 및/또는 기록장비에서 유지된다.The limitation of this approach can be overcome by transmitting DDC encoded 2D images and synthesizing the desired number of projection images using DDC. While wide bandwidth is required for the DDC decoder, the original 2D bandwidth is maintained at the transmitter and / or recorder.

DDC 디코더를 사용하는 다중시청자 3D 양볼록렌즈 기초 시스템은 도 20에 도시된다.A multiviewer 3D biconvex lens based system using a DDC decoder is shown in FIG. 20.

DDC 인코딩/디코딩은 다음과 같이 원 영상의 가장 좌측에서 가장 우측까지의 가능한 영상의 범위를 나타내는 비디오 영상의 시퀀스의 생성을 가능하게 한다.DDC encoding / decoding enables the generation of a sequence of video images representing the range of possible images from the leftmost to the rightmost of the original image as follows.

(L, L1, L2………R2, R1, R)(L, L1, L2 ……… R2, R1, R)

요약하면 어플리케이션의 일부는 다음과 같이 기술된다:In summary, some of the applications are described as follows:

DDC는 변환의 중간단계에 있는 2D로부터 3D로의 변환 프로세스로부터 유도되는 데이터의 형태에 대한 용어이다. 이 단계에서 데이터는 원 비디오 신호와 데이터 패킷(디지털 또는 아날로그 형태로 인코딩된)으로 구성되어, 이러한 부가 데이터가 변환 목적을 완수하도록 특정 전자 하드웨어 및/또는 소프트웨어를 지시하는데 필요한 모든 것이 되게 한다. 결과 3D 정보는 필드순차(즉 좌우) 형태의 비디오 포맷, 두 개의 개별 비디오 스트림, 라인 대 라인 시스템(즉, 한 라인은 좌측 필드로부터, 한 라인은 우측 필드로부터) 또는 다른 이로운 포맷중 하나의 형태를 취한다.DDC is a term for the type of data derived from the 2D to 3D transformation process that is in the middle of the transformation. At this stage, the data consists of the original video signal and the data packet (encoded in digital or analog form) so that this additional data is all that is needed to direct the particular electronic hardware and / or software to fulfill the conversion purpose. The resulting 3D information can be in the form of a field sequential (ie left or right) video format, two separate video streams, a line-to-line system (ie one line from the left field, one line from the right field) or one of the other advantageous formats. Take

변환데이터 패킷의 포맷의 주의 깊은 설계를 통해, 표준 TV에 표시될 때 알려지지 않도록 이러한 부가의 데이터를 갖는 것이 가능하게 된다. 그래서 기존 텔레비젼의 하부구조를 뒤집지 않고도 3D 텔레비전 전송이 가능해 진다. 디코더는 시청장치(예: TV)근처에 위치 할 수 있으며 근본적으로 시청을 위해 TV로 인코딩되고 출력되는 전송신호를 가로채는 "블랙박스"가 될 수 있다. 그러므로 기존의 2D TV나 텔레비전 네트워크 구조를 업그레이드하는 것은 각 TV에 "블랙박스" 를 부가하여 간단하게 이루어진다.With careful design of the format of the transform data packet, it is possible to have this additional data so that it is unknown when displayed on a standard TV. This enables 3D television transmission without overturning the infrastructure of existing televisions. The decoder can be located near the viewing device (eg TV) and essentially be a "black box" that intercepts the transmitted signal that is encoded and output to the TV for viewing. Therefore, upgrading an existing 2D TV or television network structure is simply accomplished by adding a "black box" to each TV.

다중영상타입 자동입체 3D 표시 시스템의 매체 제공 시, 이들 시스템은 다소 다른 사시도를 다중영상에 제공에 의존한다. 다수의 다른 영상이 많다면(예, 8-16) 진정한 다중시청자 능력을 허용한다는 점에서 매우 효율적일 수 있다. 큰 단점은 동시에 이용가능한 모든 것에 대한 많은 다른 시청들을 요구하기 때문에 매체의 제공이 비록 복잡한 비디오 압축기술을 사용한다 해도 매우 어렵다는 것이다. 그러나 DDC 디코더가 3D 매체를 생성하는데 사용된다면, 요구되는 만큼 많은 개별 사시도와, 이러한 영상장비 즉, TV 및 비디오 레코더를 통상의 2D 영상으로서 발생하는 것이 가능해 진다. 시청자는 전송된 영상의 어떠한 변형도 알 수 없게 된다.When providing a medium of a multi-image type autostereoscopic 3D display system, these systems rely on providing a somewhat different perspective to the multi-image. If there are many different images (eg 8-16) it can be very efficient in terms of allowing true multi-viewer capability. The big disadvantage is that the provision of the medium is very difficult even with complex video compression techniques because it requires many different views of everything available at the same time. However, if a DDC decoder is used to create a 3D medium, it becomes possible to generate as many discrete perspective views as required and such imaging equipment, namely a TV and a video recorder, as normal 2D images. The viewer will not be aware of any deformation of the transmitted image.

DDC 인코딩된 표준 2D 비디오 영상은 다음의 특징을 갖는다:DDC encoded standard 2D video images have the following characteristics:

- DDC 인코딩된 2D 영상은 표준 비디오 장비 즉, TV 및 비디오 레코더에 통상의 영상으로서 수신될 수 있다. 시청자는 송신된 영상에 대한 어떠한 변형도 알지 못한다.DDC-encoded 2D video can be received as normal video on standard video equipment, ie TVs and video recorders. The viewer does not know any modifications to the transmitted image.

- DDC 인코딩된 영상은 기존의 비디오, 편집, 기록, 수신 및 전술 시스템 및 기술과 완전히 호환가능하다. 그래서 DDC 인코딩된 2D 비디오 영상은 모든 기존의 아날로그 비디오 및 텔레비전 기술에 부합된다.DDC encoded video is fully compatible with existing video, editing, recording, receiving and tactical systems and technologies. So DDC-encoded 2D video images fit all existing analog video and television technologies.

- DDC 인코딩된 2D 비디오는 칼라TV 및 스테레오 음향의 도입과 유사한 방법으로 시장에 소개 될 수 있다. 단 DDC 디코더에 적합한 TV 세트(시청자가 적당한 시청 안경을 쓰고), 또는 3D TV는 3D 영상을 표시한다.DDC encoded 2D video can be introduced to the market in a similar way to the introduction of color TV and stereo sound. However, a TV set suitable for a DDC decoder (the viewer wears appropriate viewing glasses), or a 3D TV displays a 3D image.

- DDC 인코딩는 장면들 사이의 끊임없는 전송을 가능케하여 3D 인코딩에 이롭고 2D로도 더욱 이롭게 표시될 수 있다. 이러한 전이는 시청자는 알지 못한다.DDC encoding allows for continuous transmission between scenes, which is beneficial for 3D encoding and can be displayed even more advantageously in 2D. This transition is not known to the viewer.

- DDC 인코딩된 비디오는 모든 기존의 3D 표시 장치에 표시 될 수 있고 다중 시청자 시스템에 적합하다.-DDC encoded video can be displayed on all existing 3D displays and is suitable for multi-viewer systems.

- DDC 인코딩는 원래의 비디오원의 라인과 필드표준을 유지한다.DDC encoding maintains the line and field standards of the original video source.

- DDC 인코딩는 3D 비디오 영상을 좌우 필드 연속 포맷으로 인코딩할 때의 경우와 같이 영상 업데이트 주파수를 감소시키지 않는다.DDC encoding does not reduce the image update frequency as in the case of encoding a 3D video image in left and right field continuous format.

Claims (59)

원 2D 영상으로부터 입체표시용 좌우 눈 영상을 생성하는 방법에 있어서,A method of generating a left and right eye image for stereoscopic display from an original 2D image, 상기 원 영상의 선택된 영역을 결정된 양 및 방향만큼 변위하여, 신장된 영상을 생성하는 단계를 포함하고,Generating a stretched image by displacing the selected region of the original image by a determined amount and direction, 상기 신장된 영상은 상기 좌우 눈 영상을 형성하며,The stretched image forms the left and right eye images, 상기 좌우 눈 영상 각각은 압축되는 상기 원 2D 영상의 일부와 신장되는 상기 원 2D 영상의 일부를 포함하는 것을 특징으로 하는 방법.And each of the left and right eye images includes a portion of the original 2D image to be compressed and a portion of the original 2D image to be stretched. 원 2D 영상으로부터 입체표시용 좌우 눈 영상을 생성하는 방법에 있어서,A method of generating a left and right eye image for stereoscopic display from an original 2D image, a) 상기 원 영상내의 적어도 하나의 오브젝트를 식별하는 단계와,a) identifying at least one object in the original image; b) 상기 또는 각 오브젝트를 아웃라이닝(outlining)하는 단계와,b) outlining the or each object; c) 상기 또는 각 오브젝트의 깊이 특성을 정의하는 단계와,c) defining depth characteristics of the or each object; d) 측면 방향에서 결정된 양만큼 상기 또는 각 오브젝트의 선택된 영역을 상기 각각의 오브젝트의 깊이 특성의 함수로서 각각 변위하여 시청자의 좌우 눈에 의해 시청하기 위한 2개의 신장된 영상을 형성하는 단계를 포함하고,d) displacing the selected area of each or each object as a function of the depth characteristic of each object by an amount determined in the lateral direction to form two extended images for viewing by the viewer's left and right eyes; , 상기 시청자의 좌측 눈으로 시청하기 위한 상기 신장된 영상내의 상기 또는 각 오브젝트는 압축된 부분과 신장되는 부분을 포함하고, 상기 시청자의 우측 눈으로 시청하기 위한 신장된 영상내의 상기 또는 각 오브젝트는 압축된 부분과 신장된 부분을 포함하는 것을 특징으로 하는 방법.The or each object in the stretched image for viewing with the viewer's left eye includes a compressed portion and a stretched portion, and the or each object in the stretched image for viewing with the viewer's right eye is compressed And a portion and an elongated portion. 청구항 2에 있어서,The method according to claim 2, 상기 원 2D 영상을 변위시키면서 상기 영상내에 임의의 블랭크 영역을 회피하게 하는 단계를 포함하는 것을 특징으로 하는 방법.Displacing the original 2D image while avoiding any blank areas in the image. 청구항 2에 있어서,The method according to claim 2, 상기 신장된 영상중 하나는 다른 상기 신장된 영상의 미러 영상인 것을 특징으로 하는 방법.One of the stretched images is a mirror image of the other stretched image. 청구항 2에 있어서,The method according to claim 2, 상기 각 오브젝트에 개별적 깊이 특성이 제공되는 것을 특징으로 하는 방법.And each depth object is provided with an individual depth characteristic. 청구항 2에 있어서,The method according to claim 2, 상기 단계들은 복수개의 2D 영상상에서 실행되는 것을 특징으로 하는 방법.Wherein said steps are performed on a plurality of 2D images. 디지털화된 2D 영상으로부터 입체표시용 좌우 눈 영상을 생성하는 방법에 있어서,A method of generating a stereoscopic left and right eye image from a digitized 2D image, 상기 디지털화된 영상을 통해 메쉬를 형성하는 단계로서, 상기 메쉬는 처음부터 다수의 병렬 가로방향 메쉬 라인과 다수의 병렬 세로방향 메쉬를 가지며, 상기 가로방향 라인들은 상기 세로 방향라인들과 직각으로 위치되어 다수의 서브포인트(Sub-point)를 이루도록 교차되는 단계와,Forming a mesh through the digitized image, wherein the mesh has a plurality of parallel transverse mesh lines and a plurality of parallel longitudinal meshes from the beginning, the transverse lines being positioned perpendicular to the longitudinal lines Intersecting to form a plurality of sub-points, 상기 서브포인트들을 이동시킴에 의해 상기 메쉬를 왜곡시켜 기초(underlying) 영상을 신장하는 단계Extending the underlying image by distorting the mesh by moving the subpoints 를 포함하는 것을 특징으로 하는 방법.Method comprising a. 청구항 7에 있어서,The method according to claim 7, 인접하는 서브포인트들 사이의 상기 메쉬 라인들이 임의의 왜곡의 결과에서 연속적으로 유지되는 것을 특징으로 하는 방법.And wherein said mesh lines between adjacent subpoints remain continuously in the result of any distortion. 청구항 7에 있어서,The method according to claim 7, 상기 왜곡은 상기 서브포인트를 가로방향으로 변위시켜 상기 메쉬를 왜곡시키는 것을 특징으로 하는 방법.The distortion distorting the subpoint transversely to distort the mesh. 청구항 7에 있어서,The method according to claim 7, 각 서브포인트의 왜곡양은 원 2D영상을 입체표시용 좌우 눈 영상으로 변환시킬 수 있는 데이터를 생성하는데 사용되며,The amount of distortion of each subpoint is used to generate data that can convert the original 2D image into a left and right eye image for stereoscopic display. 상기 데이터는 상기 영상 내에서 어느 오브젝트가 처리되는지, 상기 오브젝트가 어떻게 처리되는지, 상기 오브젝트의 다른 오브젝트에 대한 우선 순위, 및 이들의 깊이 특성을 기술하고 있는 것을 특징으로 하는 방법.And the data describes which objects are processed in the image, how the objects are processed, priorities for other objects of the object, and their depth characteristics. 청구항 10에 있어서,The method according to claim 10, 상기 각 서브포인트가 요구하는 왜곡이 수학적 알고리즘으로 정의되는 것을 특징으로 하는 방법.Wherein the distortion required by each subpoint is defined by a mathematical algorithm. 청구항 10에 있어서,The method according to claim 10, 상기 원 2D 영상 및 변환 데이터는 표준 2D 기술에 따라 전송이 가능한 것을 특징으로 하는 방법.The raw 2D image and the transformed data can be transmitted according to the standard 2D technology. 원 2D 영상으로부터 입체표시용 좌우 눈 영상을 생성하기 위한 시스템에 있어서,A system for generating a left and right eye image for stereoscopic display from an original 2D image, 상기 원 영상의 영역을 선택하는 수단과,Means for selecting an area of the original image; 결정된 양 및 방향만큼 상기 선택된 영역을 변위하여 신장된 영상을 발생시키는 수단을 포함하고,Means for displacing the selected area by a determined amount and direction to produce an extended image, 상기 신장된 영상은 상기 좌우 눈 영상을 형성하며,The stretched image forms the left and right eye images, 상기 좌우 눈 영상 각각은 압축된 상기 원 2D 영상의 일부와 신장된 상기 원 2D 영상의 일부를 포함하는 것을 특징으로 하는 시스템.Each of the left and right eye images includes a portion of the compressed original 2D image and a portion of the expanded original 2D image. 원 2D 영상으로부터 입체표시용 좌우 눈 영상을 생성하기 위한 시스템에 있어서,A system for generating a left and right eye image for stereoscopic display from an original 2D image, 상기 원 영상내의 오브젝트를 식별하는 수단과,Means for identifying an object in the original image; 각 오브젝트에 대한 깊이특성을 정의하는 수단과,Means for defining depth characteristics for each object, 가로방향에서 결정된 양만을 각 오브젝트의 선택된 영역을 각 오브젝트의 깊이 특성의 함수로서 변위시켜, 시청자의 좌우측 눈으로 시청하기 위한 2개의 신장된 영상을 형성하는 수단을 포함하고,Means for displacing the selected area of each object only as a function of the depth characteristic of each object to form two elongated images for viewing with the viewer's left and right eyes, in the transverse direction only; 상기 2개의 신장된 영상 각각내의 각 오브젝트는 압축되는 부분과 신장되는 부분을 포함하는 것을 특징으로 하는 시스템.Wherein each object in each of the two stretched images includes a portion to be compressed and a portion to be stretched. 청구항 14에 있어서,The method according to claim 14, 하나의 신장된 영상의 미러 영상을 생성하는 수단을 포함하는 것을 특징으로 하는 시스템.Means for generating a mirror image of one stretched image. 청구항 14에 있어서,The method according to claim 14, 깊이 특성을 정의하는 상기 수단은 상기 영상에서의 각 오브젝트에 대한 개별적 깊이 특성을 정의할 수 있는 것을 특징으로 하는 시스템.Said means for defining depth characteristics may define individual depth characteristics for each object in said image. 청구항 14에 있어서,The method according to claim 14, 상기 시스템은 다수의 2D 영상을 변환시킬 수 있는 것을 특징으로 하는 시스템.The system is capable of converting a plurality of 2D images. 원 2D 영상으로부터 입체표시용 좌우 눈 영상을 생성하는 방법에 있어서,A method of generating a left and right eye image for stereoscopic display from an original 2D image, 결정된 양만큼 상기 2D 영상의 제1선택영역을 압축하고 상기 결정된 양만큼 상기 2D 영상의 제2선택 영역을 신장하여 신장된 좌측 눈 영상을 형성하는 단계와; 결정된 양만큼 상기 2D 영상의 제3선택영역을 압축하고 상기 결정된 양만큼 상기 2D 영상의 제4선택 영역을 압축하여 신장된 우측 눈 영상을 형성하는 단계를 포함하는 것을 특징으로 하는 방법.Compressing the first selection region of the 2D image by the determined amount and extending the second selection region of the 2D image by the determined amount to form an extended left eye image; Compressing the third selection region of the 2D image by the determined amount and compressing the fourth selection region of the 2D image by the determined amount to form an extended right eye image. 원 2D 영상으로부터 입체표시용 좌우 눈 영상을 생성하는 방법에 있어서,A method of generating a left and right eye image for stereoscopic display from an original 2D image, a) 상기 원 영상내의 오브젝트를 식별하는 단계와,a) identifying an object in the original image; b) 상기 오브젝트를 아웃라이닝하는 단계와,b) outlining the object; c) 상기 오브젝트에 대한 깊이 특성을 정의하는 단계와,c) defining a depth characteristic for the object; d) 가로방향으로 결정된 양만큼 상기 오브젝트의 제1 및 제2 선택 영역을 상기 오브젝트의 깊이 특성의 함수로서 각각 압축하고 신장하여, 시청자의 좌측 눈에 의한 시청을 위한 신장된 영상을 형성하는 단계와,d) compressing and stretching each of the first and second selection regions of the object as a function of the depth characteristic of the object by an amount determined in a transverse direction to form an extended image for viewing by the viewer's left eye; , e) 상기 가로방향으로 상기 결정된 양만큼 상기 오브젝트의 제3 및 제4 선택된 영역을 상기 오브젝트의 깊이 특성의 함수로서 각각 압축 및 신장하여 상기 시청자의 우측 눈에 의한 시청을 위한 신장된 영상을 형성하는 단계를 포함하는 것을 특징으로 하는 방법.e) compressing and stretching the third and fourth selected regions of the object by the determined amount in the lateral direction as a function of the depth characteristic of the object, respectively, to form an extended image for viewing by the viewer's right eye And comprising a step. 2D 영상의 비디오 신호를 입체표시용 좌우 눈 영상으로 변환하는데 도움이 되는 변환 데이터로 상기 비디오 신호를 인코딩하는 방법에 있어서,In the method of encoding the video signal with the conversion data to help convert the video signal of the 2D image to the left and right eye image for stereoscopic display, 영상의 비디오 신호에 변환 데이터를 부가하여 인코딩된 신호를 제공하는 단계를 포함하며,Adding converted data to a video signal of an image to provide an encoded signal, 상기 변환 데이터는 입체영상 표시에 적합한 포맷으로 상기 영상을 변환하기 위한 상기 영상의 각 선택된 포인트의 변위를 정의하는 것을 특징으로 하는 인코딩방법.And the converted data defines a displacement of each selected point of the image for converting the image into a format suitable for displaying a stereoscopic image. 청구항 20에 있어서,The method of claim 20, 상기 변환 데이터는 전송될 표준 2D 영상의 상부 및/또는 하부에서 블랭크 라인에 전송되는 것을 특징으로 하는 인코딩방법.And said transform data is transmitted on a blank line at the top and / or bottom of a standard 2D image to be transmitted. 청구항 20에 있어서,The method of claim 20, 상기 변환 데이터는 전송될 표준 2D 영상의 수평 동기주기로 전송되는 것을 특징으로 하는 인코딩방법.And the converted data is transmitted in a horizontal synchronization period of a standard 2D image to be transmitted. 청구항 20에 있어서,The method of claim 20, 상기 변환 데이터는 전송될 표준 2D 영상의 각 라인의 수평 오버스캔(overscan) 영역된 전송되는 것을 특징으로 하는 인코딩방법.And the converted data is transmitted over a horizontal overscan area of each line of a standard 2D image to be transmitted. 청구항 20에 있어서,The method of claim 20, 상기 변환 데이터는 텔레비전 신호의 수직 블랭킹 간격으로 전송되는 것을 특징으로 하는 인코딩방법.And said transform data is transmitted at a vertical blanking interval of a television signal. 3D 변환 데이터로 인코딩된 2D 비디오 영상을 생성하는 방법에 있어서,A method for generating a 2D video image encoded with 3D converted data, 다수의 비디오카메라로부터 비디오 영상을 캡쳐하는 단계와,Capturing video images from a plurality of video cameras, 비디오 영상을 입체표시용 좌우 눈 영상으로 변환시키는 위한 비디오 영상의 개별 포인트의 변위를 정의하는 변환 데이터를 생성하기 위하여 개별 비디오카메라로부터 상기 비디오영상들을 비교하는 단계와,Comparing the video images from individual video cameras to generate conversion data defining displacements of individual points of the video image for converting the video image into a stereoscopic left and right eye image; 상기 비디오카메라들 중 하나로부터의 비디오 영상을 상기 변환 데이터와 조합하여 인코딩된 비디오 신호를 생성하는 단계Combining the video image from one of the video cameras with the converted data to generate an encoded video signal 를 포함하는 것을 특징으로 하는 비디오 영상 생성방법.Video image generation method comprising a. 입체 표시를 제공하기 위한 비디오 신호를 디코딩하는 방법에 있어서,A method of decoding a video signal for providing stereoscopic display, 2D 영상 및 2D 영상의 변환을 위한 변환 데이터를 포함하는 비디오 신호를 수신하는 단계로서, 상기 변환데이터가 상기 2D 영상을 입체표시에 적합한 포맷으로 변환하기 위한 상기 2D 영상의 각 포인트의 변위를 정의하는 단계와,Receiving a video signal comprising a 2D image and the conversion data for the conversion of the 2D image, the conversion data defining the displacement of each point of the 2D image for converting the 2D image into a format suitable for stereoscopic display Steps, 상기 비디오 신호로부터 상기 변환데이터를 판독하는 단계와,Reading the converted data from the video signal; 상기 변환 데이터에 따라 상기 2D 영상 내 오브젝트를 변위시킴에 의해 표시용 상기 2D 영상으로부터 좌우 눈 영상을 생성하는 단계Generating left and right eye images from the 2D image for display by displacing an object in the 2D image according to the converted data. 포함하는 것을 특징으로 하는 비디오 신호의 다코딩방법.And a video signal encoding method. 청구항 26에 있어서,The method of claim 26, 상기 2D 비디오 영상을 RGB 컴포넌트로 변환시키는 단계와,Converting the 2D video image into an RGB component, 각 컴포넌트를 각각의 디지털 신호로 변환시키는 단계와,Converting each component into a respective digital signal, 상기 디지털 신호들을 상기 좌우 눈 영상의 생성 전에 저장하는 단계를 포함하는 것을 특징으로 하는 비디오 신호의 디코딩방법.And storing the digital signals before generating the left and right eye images. 청구항 27에 있어서,The method of claim 27, 상기 디지털 신호는 상기 변환데이터의 함수로서의 저장 장치(storage)로부터 가변비율(속도)로 판독되어 출력되는 것을 특징으로 하는 비디오 신호의 디코딩 방법.And said digital signal is read out at a variable rate (speed) from a storage as a function of said converted data and outputted. 청구항 27에 있어서,The method of claim 27, 상기 디지털 신호는 상기 변환 데이터의 함수로서 저장장치로 가변비율(속도)이 판독되어 입력되는 것을 특징하는 비디오 신호의 디코딩 방법.And said digital signal is input with a variable rate (speed) read out to a storage device as a function of said converted data. 청구항 27에 있어서,The method of claim 27, 상기 디지털 신호는 아날로그 시스템상에서 시청하기 위한 아날로그로 변환되는 것을 특징으로 하는 비디오 신호의 디코딩 방법.And said digital signal is converted to analog for viewing on an analog system. 청구항 26에 있어서,The method of claim 26, 상기 변환 데이터를 상기 비디오 신호로부터 분리하는 단계를 더 포함하는 것을 특징으로 하는 비디오 신호의 디코딩방법.Separating the converted data from the video signal. 3D 변환 데이터로 인코딩된 2D 비디오 신호를 생성하기 위한 시스템에 있어서,A system for generating a 2D video signal encoded with 3D converted data, 서로에 대해 측면 방향으로 변위되는 최소한의 제1 및 제2 비디오 카메라와,At least first and second video cameras which are laterally displaced relative to one another, 변환 데이터를 생성하고, 상기 비디오 카메라로부터 데이터를 수신하며, 이 데이터를 비교하여 상기 변환 데이터를 생성하는 변환 회로로서, 상기 변환 데이터는 비디오 영상을 입체영상표시용 신장된 영상으로 변환시키기 위한 상기 비디오 카메라들 중 하나로부터 비디오 영상의 개별 포인트의 변위를 정의하는 변환 회로와,A conversion circuit for generating converted data, receiving data from the video camera, and comparing the data to generate the converted data, wherein the converted data converts the video image into an extended image for stereoscopic image display. A conversion circuit defining a displacement of an individual point of the video image from one of the cameras, 상기 하나의 비디오 카메라로부터의 비디오 신호와 상기 변환 회로로부터의 변환 데이터를 조합하여 인코딩된 비디오 신호를 생성하는 인코더An encoder that combines the video signal from the one video camera with the transform data from the conversion circuit to produce an encoded video signal 를 포함하는 것을 특징으로 하는 비디오 신호 생성 시스템.Video signal generation system comprising a. 입체표시를 제공하며 2D 비디오 영상을 제공하고 상기 2D 비디오 영상을 변환하기 위한 변환 데이터를 더 포함하는 비디오 신호를 디코딩하는 디코더로서, 상기 변환 데이터가 상기 2D 비디오 영상을 입체표시에 적합한 포맷으로 변환하기 위한 상기 2D 비디오 영상의 개별 포인트의 변위를 정의하는 디코더에 있어서,A decoder for decoding a video signal that provides stereoscopic display and further includes converted data for providing a 2D video image and converting the 2D video image, wherein the converted data converts the 2D video image into a format suitable for stereoscopic display. A decoder for defining a displacement of an individual point of the 2D video image for 상기 비디오 신호를 수신하기 위한 수신기와,A receiver for receiving the video signal; 상기 변환 데이터를 판독하며 상기 비디오 신호를 제어하여 변환된 비디오 신호를 생성하는 디코더 회로를 포함하는 것을 특징으로 하는 디코더.And a decoder circuit for reading the converted data and controlling the video signal to produce a converted video signal. 청구항 33에 있어서, 상기 디코더 회로는,The method of claim 33, wherein the decoder circuit, 상기 비디오 신호를 개별 비디오 컴포넌트로 변환하기 위한 RGB 또는 컴포넌트 비디오 변환기와,An RGB or component video converter for converting the video signal into individual video components; 각각의 비디오 컴포넌트를 각각의 디지털 신호로 변환하기 위한 아날로그 대 디지털 변환기와,An analog-to-digital converter for converting each video component into a respective digital signal, 각각의 디지털 신호를 저장하기 위한 디지털 저장 장치를 포함하는 것을 특징으로 하는 디코더.And a digital storage device for storing each digital signal. 청구항 34에 있어서,The method of claim 34, wherein 가변 주파수 클럭을 제어하는데 적합한 회로를 더 포함하며,Further comprising circuitry suitable for controlling a variable frequency clock, 상기 가변 주파수 클럭은 상기 디지털 저장장치의 판독 레이트를 제어하고,The variable frequency clock controls the read rate of the digital storage device, 상기 디지털 신호는 가변 레이트에서 상기 디지털 저장장치를 판독하는 것을 특징으로 하는 디코더.The digital signal reads the digital storage device at a variable rate. 청구항 34에 있어서,The method of claim 34, wherein 가변 주파수 클럭을 제어하는데 적합한 회로를 더 포함하며,Further comprising circuitry suitable for controlling a variable frequency clock, 상기 가변 주파수 클럭은 상기 디지털 저장장치의 레이트에서 상기 판독을 제어하고,The variable frequency clock controls the read at the rate of the digital storage device, 상기 분리된 비디오 컴포넌트는 가변 레이트에서 상기 디지털 저장 장치로 판독되는 것을 특징으로 하는 디코더The separated video component is read into the digital storage device at a variable rate 청구항 34에 있어서,The method of claim 34, wherein 상기 디지털 저장장치는 2중 포트 RAM 라인 저장기(store)인 것을 특징으로 하는 디코더.And the digital storage device is a dual port RAM line store. 청구항 33에 있어서,The method according to claim 33, 상기 디코더는 단일 비디오 라인을 처리하는 것을 특징으로 하는 디코더.Wherein said decoder processes a single video line. 청구항 33에 있어서,The method according to claim 33, 상기 디코더는 다수의 비디오 라인을 처리하는 것을 특징으로 하는 디코더.Wherein said decoder processes a plurality of video lines. 청구항 33에 있어서,The method according to claim 33, 상기 디코더 회로는 상기 비디오 신호를 디스플레이상에서 시청을 가능하게 하는 변환된 비디오신호로 변환하기 위한 아날로그 대 디지털 변환기를 포함하는 것을 특징으로 하는 디코더.And the decoder circuitry comprises an analog to digital converter for converting the video signal into a converted video signal for viewing on a display. 청구항 33에 있어서,The method according to claim 33, 상기 디코더 회로는 변환된 비디오신호의 좌우측 영상용 디지털신호를 각각 저장하기 위한 병렬저장장치를 포함하는 것을 특징으로 하는 디코더.The decoder circuit comprises a parallel storage device for storing the digital signals for the left and right images of the converted video signal, respectively. 청구항 33에 있어서,The method according to claim 33, 상기 비디오신호로부터 상기 변환 데이터를 분리하기 위한 분리회로를 포함하는 것을 특징으로 하는 디코더.And a separating circuit for separating the converted data from the video signal. 입체영상 표시 시스템에 있어서,In the stereoscopic image display system, 비디오 영상을 입체표시에 적합한 신장된 영상으로 변환시키기 위한 상기 비디오영상의 개별 포인트의 변위를 정의하는 변환데이터를 상기 비디오 영상을 제공하는 비디오 신호를 인코딩하는 인코더와,An encoder for encoding a video signal for providing the video image with converted data defining a displacement of individual points of the video image for converting the video image into an extended image suitable for stereoscopic display; 상기 비디오 신호로부터 상기 변환 데이터를 분리하며, 상기 비디오 신호를 상기 변환 데이터의 함수로서 변환하는 디코더A decoder that separates the transform data from the video signal and converts the video signal as a function of the transform data 를 포함하는 것을 특징으로 하는 입체영상 표시 시스템.Stereoscopic image display system comprising a. 다중 시청자 입체 표시 시스템에 있어서,In a multi-viewer stereoscopic display system, 입체표시를 제공하기 위한 비디오 신호를 디코딩하는 디코더를 포함하며,A decoder for decoding the video signal for providing stereoscopic display, 상기 비디오 신호는 2D 비디오 영상을 제공하며 이를 변환하기 위한 변환 데이터를 더 포함하고, 상기 변환 데이터는 상기 비디오 신호를 입체표시용 신장된 영상으로 변환하기 위한 상기 비디오영상의 개별 포인트의 변위를 정의하고,The video signal further comprises conversion data for providing and converting a 2D video image, wherein the conversion data defines a displacement of individual points of the video image for converting the video signal into an extended image for stereoscopic display. , 상기 디코더는 상기 비디오 신호를 수신하는 수신기와 상기 변환 데이터를 판독하고 상기 비디오 신호를 제어하여 변환된 비디오 신호를 제공하는 디코딩 회로를 포함하는 것을 특징으로 하는 다중 시청자 입체 표시 시스템.And the decoder comprises a receiver for receiving the video signal and a decoding circuit for reading the converted data and controlling the video signal to provide a converted video signal. 3D 변환 데이터로 인코딩된 2D 비디오 영상을 생성하는 방법에 있어서,A method for generating a 2D video image encoded with 3D converted data, 입체영상 비디오 카메라로부터 좌우 눈 비디오 영상을 캡쳐하는 단계와,Capturing left and right eye video images from a stereoscopic video camera; 상기 입체영상 비디오 카메라로부터의 상기 좌우 눈 비디오 영상을 비교하여, 상기 비디오영상을 입체영상표시용 좌우 눈 영상으로 변환시키기 위한 상기 비디오 영상의 개별 포인트들의 변위를 정의하는 변환 데이터를 생성하는 단계와,Comparing the left and right eye video images from the stereoscopic video camera to generate transformed data defining displacements of individual points of the video image for converting the video image into a left and right eye image for stereoscopic image display; 상기 비디오 카메라로부터의 상기 비디오 신호를 상기 변환 데이터와 조합하여 인코딩된 비디오 신호를 생성하는 단계를 포함하는 것을 특징으로 하는 비디오 영상 생성방법.And combining the video signal from the video camera with the converted data to produce an encoded video signal. 3D 변환데이터로 인코딩된 2D 비디오 신호를 생성하는 시스템에 있어서,A system for generating a 2D video signal encoded with 3D converted data, 비디오 영상을 캡처하기 위한 입체영상 비디오 카메라와,A stereoscopic video camera for capturing video images, 변환데이터를 생성하고, 상기 비디오 카메라로부터 데이터를 수신하며 상기 데이터를 비교하여 상기 변환 데이터를 생성하는 변환기로서, 상기 변환데이터가 상기 비디오 영상을 입체영상 표시용 신장된 영상으로 변환시키기 위한 상기 비디오 영상의 개별 포인트들의 변위를 정의하는 변환기와,A converter for generating converted data, receiving data from the video camera, and comparing the data to generate the converted data, wherein the converted data converts the video image into an extended image for stereoscopic display. A transducer defining the displacement of the individual points of 상기 변환기로부터의 변환 데이터와 상기 비디오 영상을 조합하여 인코딩된 비디오 신호를 생성하는 인코더를 포함하는 것을 특징으로 하는 비디오 신호 생성 시스템.And an encoder for combining the converted data from the converter with the video image to produce an encoded video signal. 입체표시를 제공하기 위한 비디오신호를 디코딩하는 방법에 있어서,A method of decoding a video signal for providing stereoscopic display, 2D 비디오 영상을 포함하는 비디오신호를 수신하는 단계와,Receiving a video signal including a 2D video image; 2D 비디오신호 변환을 위한 변환 데이터를 수신하는 단계로서, 상기 변환 데이터가 상기 2D 비디오 영상을 입체표시에 적합한 포맷으로 변환하기 위한 상기 2D 비디오 영상의 각 포인트의 변위를 정의하는 단계와,Receiving conversion data for 2D video signal conversion, the conversion data defining a displacement of each point of the 2D video image for converting the 2D video image into a format suitable for stereoscopic display; 상기 변환 데이터에 따라 상기 2D 비디오 영상내 오브젝트를 변위시킴으로써 표시용 상기 2D 비디오 영상으로부터 좌우측 눈 영상을 생성하는 단계Generating left and right eye images from the 2D video image for display by displacing the object in the 2D video image according to the converted data. 를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법.Video signal decoding method comprising a. 입체표시를 제공하기 위한 비디오 신호를 디코딩하는 디코더에 있어서,A decoder for decoding a video signal for providing stereoscopic display, 2D 비디오 영상과, 상기 2D 비디오 영상을 변환하기 위한 변환데이터를 공급하는 비디오신호를 수신하는 수신기로서, 상기 변환 데이터가 상기 2D 비디오 영상을 입체영상 표시에 적합한 포맷으로 변환하기 위한 상기 20 비디오 영상의 각 포인트들의 변위를 정의하는 수신기와,A receiver for receiving a 2D video image and a video signal for supplying converted data for converting the 2D video image, wherein the converted data is used to convert the 2D video image into a format suitable for stereoscopic display. A receiver defining the displacement of each point, 상기 변환 데이터를 판독하고, 상기 비디오 신호를 제어하여 변환된 비디오 신호를 제공하는 디코더A decoder that reads the converted data and controls the video signal to provide a converted video signal 를 포함하는 것을 특징으로 하는 디코더.Decoder comprising a. 3D 변환 데이터로 인코딩된 2D 비디오 신호를 생성하는 시스템에 있어서,A system for generating a 2D video signal encoded with 3D converted data, 서로에 대해 측면 방향으로 변위되는 최소한의 제1 및 제2 비디오 카메라와,At least first and second video cameras which are laterally displaced relative to one another, 변환 데이터를 생성하며, 상기 비디오 카메라로부터 데이터를 수신하여 그 데이터를 비교하여 상기 변환 데이터를 생성하는 프로세서로서, 상기 변환 데이터는 상기 비디오 영상을 입체표시용 신장된 영상으로 변환하기 위한 상기 비디오 카메라들중 하나로부터의 비디오 영상의 개별 포인트의 변위를 정의하는 프로세서와,A processor for generating converted data and receiving the data from the video camera and comparing the data to generate the converted data, wherein the converted data converts the video image into an extended image for stereoscopic display. A processor defining a displacement of an individual point of the video image from one of the 상기 하나의 비디오 카메라로부터의 비디오 신호를 상기 프로세서로부터의 변환 데이터와 조합하여 인코딩된 비디오 신호를 생성하는 인코더An encoder that combines the video signal from the one video camera with the transform data from the processor to produce an encoded video signal 를 포함하는 것을 특징으로 하는 비디오 신호 생성 시스템.Video signal generation system comprising a. 입체표시를 제공하기 위한 비디오 신호를 디코딩하는 디코더로서, 상기 비디오 신호는 2D 비디오 영상을 제공하며 상기 2D 비디오 영상을 변환하기 위한 변환 데이터를 더 포함하고, 상기 변환 데이터는 상기 2D 비디오 영상을 입체표시에 적합한 포맷으로 변환하기 위한 상기 2D 비디오 영상의 개별 포인트의 변위를 정의하는 디코더에 있어서,A decoder for decoding a video signal for providing stereoscopic display, the video signal further comprising conversion data for providing a 2D video image and converting the 2D video image, wherein the converted data stereoscopically displays the 2D video image. A decoder for defining the displacement of individual points of the 2D video image for conversion into a format suitable for 상기 비디오 신호를 수신하는 수신기와,A receiver for receiving the video signal; 상기 변환 데이터를 판독하며 상기 비디오 신호를 제어하여 변환된 비디오 신호를 제공하는 디코더 회로A decoder circuit for reading the converted data and controlling the video signal to provide a converted video signal 를 포함하는 것을 특징으로 하는 디코더.Decoder comprising a. 청구항 50에 있어서, 상기 디코더 회로는,The method of claim 50, wherein the decoder circuit, 상기 비디오 신호를 분리된 비디오 컴포넌트로 변환하기 위한 RGB 또는 컴포넌트 비디오 변환기와,An RGB or component video converter for converting the video signal into a separate video component; 각 비디오 컴포넌트를 각각의 디지털 신호로 변환하기 위한 아날로그 대 디지털 변환기와,An analog-to-digital converter for converting each video component into its own digital signal, 각 디지털 신호를 저장하는 디지털 저장 장치를 포함하는 것을 특정으로 하는 디코더.And a digital storage device for storing each digital signal. 청구항 51에 있어서,The method of claim 51, 가변 주파수 클럭을 제어하는데 적합한 회로를 더 포함하며,Further comprising circuitry suitable for controlling a variable frequency clock, 상기 가변 주파수 클럭은 상기 디지털 저장장치의 판독 레이트를 제어하고,The variable frequency clock controls the read rate of the digital storage device, 상기 디지털 신호는 가변 레이트에서 상기 디지털 저장장치를 판독하는 것을 특징으로 하는 디코더.The digital signal reads the digital storage device at a variable rate. 청구항 51에 있어서,The method of claim 51, 가변 주파수 클럭을 제어하는데 적합한 회로를 더 포함하며,Further comprising circuitry suitable for controlling a variable frequency clock, 상기 가변 주파수 클럭은 상기 디지털 저장장치의 레이트에서 상기 판독을 제어하고,The variable frequency clock controls the read at the rate of the digital storage device, 상기 분리된 비디오 컴포넌트는 가변 레이트에서 상기 디지털 저장 장치로 판독되는 것을 특징으로 하는 디코더.And the separated video component is read into the digital storage device at a variable rate. 청구항 51에 있어서,The method of claim 51, 상기 디지털 저장장치는 2중 포트 RAM 라인 저장기(store)인 것을 특징으로 하는 디코더.And the digital storage device is a dual port RAM line store. 청구항 50에 있어서,The method of claim 50, 상기 디코더는 단일 비디오 라인을 처리하는 것을 특징으로 하는 디코더.Wherein said decoder processes a single video line. 청구항 50에 있어서,The method of claim 50, 상기 디코더는 다수의 비디오 라인을 처리하는 것을 특징으로 하는 디코더.Wherein said decoder processes a plurality of video lines. 청구항 50에 있어서,The method of claim 50, 상기 디코더 회로는 상기 비디오 신호를 디스플레이상에서 시청을 가능하게 하는 변환된 비디오신호로 변환하기 위한 아날로그 대 디지털 변환기를 포함하는 것을 특징으로 하는 디코더.And the decoder circuitry comprises an analog to digital converter for converting the video signal into a converted video signal for viewing on a display. 청구항 50에 있어서,The method of claim 50, 상기 디코더 회로는 변환된 비디오신호의 좌우측 영상용 디지털신호를 각각 저장하기 위한 병렬저장장치를 포함하는 것을 특징으로 하는 디코더.The decoder circuit comprises a parallel storage device for storing the digital signals for the left and right images of the converted video signal, respectively. 청구항 50에 있어서,The method of claim 50, 상기 비디오신호로부터 상기 변환 데이터를 분리하기 위한 분리회로를 포함하는 것을 특징으로 하는 디코더.And a separating circuit for separating the converted data from the video signal.
KR10-1998-0704832A 1995-12-22 1996-12-20 Image conversion method and image conversion system, encoding method and encoding system KR100496513B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-1998-0704832A KR100496513B1 (en) 1995-12-22 1996-12-20 Image conversion method and image conversion system, encoding method and encoding system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
AUPN7323 1995-12-22
KR10-1998-0704832A KR100496513B1 (en) 1995-12-22 1996-12-20 Image conversion method and image conversion system, encoding method and encoding system

Publications (1)

Publication Number Publication Date
KR100496513B1 true KR100496513B1 (en) 2005-10-14

Family

ID=43670657

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-1998-0704832A KR100496513B1 (en) 1995-12-22 1996-12-20 Image conversion method and image conversion system, encoding method and encoding system

Country Status (1)

Country Link
KR (1) KR100496513B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011087279A2 (en) * 2010-01-12 2011-07-21 (주)인디에스피 Stereoscopic image conversion method and stereoscopic image conversion device
KR101055411B1 (en) 2010-03-12 2011-08-09 이상원 Method and apparatus of generating stereoscopic image
KR101163536B1 (en) 2010-06-23 2012-07-06 쓰리디원 주식회사 Method For Converting Image In Real Time
KR101231160B1 (en) 2009-09-11 2013-02-07 디즈니엔터프라이지즈,인크. System And Method For Three-Dimensional Video Capture Workflow For Dynamic Rendering
KR101281961B1 (en) * 2009-12-21 2013-07-03 한국전자통신연구원 Method and apparatus for editing depth video
KR20130091541A (en) * 2012-02-08 2013-08-19 삼성전자주식회사 The method and apparatus for creating 3d image based on user interaction
KR101878808B1 (en) * 2012-01-20 2018-07-19 엘지전자 주식회사 Image display apparatus and method for operating the same

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101231160B1 (en) 2009-09-11 2013-02-07 디즈니엔터프라이지즈,인크. System And Method For Three-Dimensional Video Capture Workflow For Dynamic Rendering
US8614737B2 (en) 2009-09-11 2013-12-24 Disney Enterprises, Inc. System and method for three-dimensional video capture workflow for dynamic rendering
KR101281961B1 (en) * 2009-12-21 2013-07-03 한국전자통신연구원 Method and apparatus for editing depth video
WO2011087279A2 (en) * 2010-01-12 2011-07-21 (주)인디에스피 Stereoscopic image conversion method and stereoscopic image conversion device
WO2011087279A3 (en) * 2010-01-12 2011-12-08 (주)인디에스피 Stereoscopic image conversion method and stereoscopic image conversion device
KR101121979B1 (en) * 2010-01-12 2012-03-09 (주) 인디에스피 Method and device for stereoscopic image conversion
KR101055411B1 (en) 2010-03-12 2011-08-09 이상원 Method and apparatus of generating stereoscopic image
KR101163536B1 (en) 2010-06-23 2012-07-06 쓰리디원 주식회사 Method For Converting Image In Real Time
KR101878808B1 (en) * 2012-01-20 2018-07-19 엘지전자 주식회사 Image display apparatus and method for operating the same
KR20130091541A (en) * 2012-02-08 2013-08-19 삼성전자주식회사 The method and apparatus for creating 3d image based on user interaction
KR101953306B1 (en) * 2012-02-08 2019-03-04 삼성전자주식회사 The method and apparatus for creating 3d image based on user interaction

Similar Documents

Publication Publication Date Title
AU714759B2 (en) Image conversion and encoding techniques
US5835133A (en) Optical system for single camera stereo video
US6108005A (en) Method for producing a synthesized stereoscopic image
JP3978392B2 (en) 3D image signal generation circuit and 3D image display device
US8384766B2 (en) Apparatus for processing a stereoscopic image stream
KR101185870B1 (en) Apparatus and method for processing 3 dimensional picture
WO2004049734A1 (en) Three-dimensional image signal producing circuit and three-dimensional image display apparatus
AU5720698A (en) System and method for synthesizing three-dimensional video from a two-dimensio nal video source
KR20110134327A (en) Method for processing image and image display device thereof
KR100496513B1 (en) Image conversion method and image conversion system, encoding method and encoding system
CN102340678A (en) Stereoscopic display device with adjustable field depth and field depth adjusting method
JP6502701B2 (en) Element image group generating device, program therefor, and digital broadcast receiving device
US8693767B2 (en) Method and device for generating partial views and/or a stereoscopic image master from a 2D-view for stereoscopic playback
JP2012138655A (en) Image processing device and image processing method
WO1995013564A1 (en) Method and apparatus for visualizing two-dimensional motion picture images in three dimensions
KR20010036217A (en) Method of displaying three-dimensional image and apparatus thereof
KR101433082B1 (en) Video conversing and reproducing method to provide medium feeling of two-dimensional video and three-dimensional video
JPH0522753A (en) Stereoscopic picture display unit
JPH07298311A (en) Stereoscopic video display device
MXPA99006050A (en) System and method for synthesizing three-dimensional video from a two-dimensional video source
JPH0211093A (en) Stereoscopic video display method

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
J201 Request for trial against refusal decision
AMND Amendment
E902 Notification of reason for refusal
B701 Decision to grant
B701 Decision to grant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130515

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20140521

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20150519

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20160518

Year of fee payment: 12

EXPY Expiration of term