JP4657258B2 - Stereoscopic image display apparatus and method - Google Patents
Stereoscopic image display apparatus and method Download PDFInfo
- Publication number
- JP4657258B2 JP4657258B2 JP2007163778A JP2007163778A JP4657258B2 JP 4657258 B2 JP4657258 B2 JP 4657258B2 JP 2007163778 A JP2007163778 A JP 2007163778A JP 2007163778 A JP2007163778 A JP 2007163778A JP 4657258 B2 JP4657258 B2 JP 4657258B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- eye image
- eye
- encoded
- stereoscopic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Liquid Crystal Display Device Control (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
Description
本発明は、立体画像用の左眼用画像および右眼用画像を作成して表示する技術に関し、特に、符号化データを復号してフォーマット変換を行った後に立体画像を表示する立体画像表示装置およびその方法に関する。 The present invention relates to a technique for creating and displaying a left-eye image and a right-eye image for a stereoscopic image, and in particular, a stereoscopic image display device that displays a stereoscopic image after decoding encoded data and performing format conversion. And its method.
近年、立体画像を表示する技術が盛んに研究されている。その1つとして、ユーザの左眼と右眼との視差を利用して立体画像を作成し、表示する立体画像装置を挙げることができる。 In recent years, techniques for displaying stereoscopic images have been actively studied. One of them is a stereoscopic image device that creates and displays a stereoscopic image using the parallax between the user's left eye and right eye.
図6は、従来の立体画像装置における画像データの作成方法を説明するための図である。この立体画像装置は、立体画像を作成する立体画像作成装置と、立体画像作成装置によって作成された立体画像を表示する立体画像表示装置とに分けられる。 FIG. 6 is a diagram for explaining a method of creating image data in a conventional stereoscopic image apparatus. This stereoscopic image device is divided into a stereoscopic image creation device that creates a stereoscopic image and a stereoscopic image display device that displays a stereoscopic image created by the stereoscopic image creation device.
立体画像作成装置は、画像データ作成時に2台のカメラで左眼用と右眼用との画像を各々撮影する。そして、図6(a)に示すように、1画素毎に画素を間引いて、左眼用画像および右眼用画像の水平方向のサイズを各々1/2にする。次に、水平方向に半分のサイズになった左眼用画像と右眼用画像とを各々符号化し、これらの符号化データを多重化し、多重化データを伝送、または記録媒体に記録する。 The stereoscopic image creation device captures images for the left eye and for the right eye with two cameras when creating image data. Then, as shown in FIG. 6A, the pixels are thinned out for each pixel, and the horizontal size of the left-eye image and the right-eye image is halved. Next, the image for the left eye and the image for the right eye that are halved in the horizontal direction are encoded, the encoded data is multiplexed, and the multiplexed data is transmitted or recorded on a recording medium.
立体画像表示装置は、立体画像作成装置によって作成された多重化データを受信または記録媒体から読出し、左眼用画像と右眼用画像とを各々再生する。そして、図6(b)に示すように、左眼用画像(L)と右眼用画像(R)とを1画素ずつ水平方向に交互に並べたり、図6(c)に示すように、1ライン毎に垂直方向に交互に並べたりして、立体表示用の画像を作成する。立体画像表示装置は、レンチキュラ方式、パララクスバリア方式、シャッタ(時分割)方式等を用いて、ユーザの左眼には左眼用の画像だけが見え、ユーザの右眼には右眼用の画像だけが見えるようにすることで、ユーザに画像を立体として見せることができる。 The stereoscopic image display device receives the multiplexed data created by the stereoscopic image creation device or reads it from the recording medium, and reproduces the left-eye image and the right-eye image, respectively. Then, as shown in FIG. 6B, the left-eye image (L) and the right-eye image (R) are alternately arranged in the horizontal direction pixel by pixel, or as shown in FIG. An image for stereoscopic display is created by alternately arranging each line in the vertical direction. The stereoscopic image display device uses a lenticular method, a parallax barrier method, a shutter (time division) method, etc., and only the left eye image is visible to the user's left eye, and the right eye image is visible to the user's right eye. By making only visible, the image can be shown to the user as a solid.
このような立体画像装置の一例としては、特開平11−18111号公報に開示された立体映像伝送装置を挙げることができる。この特開平11−18111号公報に開示された立体映像伝送装置においては、圧縮回路が左眼用画像および右眼用画像をそれぞれ1画素毎に間引き処理を行なって、画像を水平走査線方向に圧縮する。 As an example of such a stereoscopic image apparatus, a stereoscopic video transmission apparatus disclosed in Japanese Patent Laid-Open No. 11-18111 can be cited. In the stereoscopic video transmission apparatus disclosed in Japanese Patent Application Laid-Open No. 11-18111, the compression circuit performs a thinning process on the left-eye image and the right-eye image for each pixel, and the image is moved in the horizontal scanning line direction. Compress.
たとえば、図6(d)に示すように、撮影した画像の左から偶数番目のRGB画素値のみを抽出して、左眼用画像と右眼用画像とを作成する。また、図6(e)に示すように、左眼用画像と右眼用画像とのRGBのうち、画素のG値をRB値に対して1画素分ずらして間引くことによって、左眼用画像と右眼用画像とを作成している。ここで、図6(d)および図6(e)に示すR、G、Bの後に付加されている数字は、1ライン上でのR、G、Bの各座標を示している。
しかし、画像、特に動画像を伝送、または記録媒体に記録する場合には、画像のデータ量が非常に大きいため符号化処理を施すのが一般的である。一般的な符号化アルゴリズムであるMPEG(Moving Picture Experts Group)−1、MPEG−2、MPEG−4、およびデジタルビデオカメラで使われるDV方式の圧縮は、全て入力画像データとしてYUVデータが用いられる。 However, when an image, particularly a moving image, is transmitted or recorded on a recording medium, the data amount of the image is very large, and therefore an encoding process is generally performed. In general compression algorithms such as MPEG (Moving Picture Experts Group) -1, MPEG-2, MPEG-4, and DV compression used in digital video cameras, YUV data is used as input image data.
また、カメラで撮影された画像もRGBデータであるとは限らず、YUVデータであることが多い。さらには、YUVデータのフォーマットは、4:4:4、4:2:2、4:2:0、4:1:1等のように1種類ではないため、入力画像がYUVデータであってもフォーマットが異なり、従来の立体画像表示装置が正しく立体画像を表示するためには適切なフォーマット変換が必要な場合があるといった問題点があった。 In addition, an image photographed by a camera is not necessarily RGB data, and is often YUV data. Furthermore, since the format of YUV data is not one type such as 4: 4: 4, 4: 2: 2, 4: 2: 0, 4: 1: 1, etc., the input image is YUV data. However, the format is different, and there is a problem that an appropriate format conversion may be necessary for a conventional stereoscopic image display apparatus to display a stereoscopic image correctly.
本発明は、上記問題点を解決するためになされたものであり、その目的は、色情報が最適となるように立体画像用データを補間して表示することが可能な立体画像表示装置およびその方法を提供することである。 The present invention has been made to solve the above problems, and an object of the present invention is to provide a stereoscopic image display device capable of interpolating and displaying stereoscopic image data so that color information is optimized, and the same Is to provide a method.
本発明のある局面に従えば、輝度情報と色情報とが分離された左眼用画像および右眼用画像を合成して表示する立体画像表示装置であって、多重化されたデータを逆多重化して、符号化された左眼用画像と、符号化された右眼用画像と、左眼用画像および右眼用画像の色情報の補間方法とを抽出するための逆多重化手段と、逆多重化手段によって抽出された符号化された左眼用画像および符号化された右眼用画像を復号するための復号手段と、逆多重化手段によって抽出された左眼用画像および右眼用画像の色情報の補間方法を参照して、復号手段によって復号された左眼用画像および右眼用画像の色情報を補間して所定フォーマットの画像に変換するためのフォーマット変換手段と、フォーマット変換手段によって変換された左眼用画像および右眼用画像を合成するための合成手段と、合成手段によって合成された画像に応じて立体画像を表示するための表示手段とを含む。 According to an aspect of the present invention, there is provided a stereoscopic image display device that displays a composite image of a left-eye image and a right-eye image in which luminance information and color information are separated, and demultiplexes the multiplexed data Demultiplexing means for extracting the encoded left-eye image, the encoded right-eye image, and the left-eye image and the right-eye image color information interpolation method; Decoding means for decoding the encoded left-eye image and encoded right-eye image extracted by the demultiplexing means, and the left-eye image and right-eye extraction extracted by the demultiplexing means Format conversion means for interpolating the color information of the left-eye image and right-eye image decoded by the decoding means and converting them into an image of a predetermined format with reference to the image color information interpolation method, and format conversion Left-eye image converted by means Synthesizing means for synthesizing fine right-eye image, in accordance with the synthesized image by synthesizing means and a display means for displaying a stereoscopic image.
本発明の別の局面に従えば、立体画像表示装置は、輝度情報と色情報とが分離された左眼用画像および右眼用画像を合成して表示する立体画像表示装置であって、多重化されたデータを逆多重化して、符号化された左眼用画像と、符号化された右眼用画像と、左眼用画像および右眼用画像のサンプリングした画素の位置に関する情報とを抽出するための逆多重化手段と、逆多重化手段によって抽出された符号化された左眼用画像および符号化された右眼用画像を復号するための復号手段と、逆多重化手段によって抽出された左眼用画像および右眼用画像のサンプリングした画素の位置に関する情報を参照して、復号手段によって復号された左眼用画像および右眼用画像を水平方向に拡大して所定フォーマットの画像に変換するためのフォーマット変換手段と、フォーマット変換手段によって変換された左眼用画像および右眼用画像を合成するための合成手段と、合成手段によって合成された画像に応じて立体画像を表示するための表示手段とを含む。 According to another aspect of the present invention, a stereoscopic image display device is a stereoscopic image display device that combines and displays a left-eye image and a right-eye image in which luminance information and color information are separated, The encoded data is demultiplexed to extract the encoded image for the left eye, the encoded image for the right eye, and information regarding the positions of the sampled pixels of the image for the left eye and the image for the right eye Demultiplexing means, decoding means for decoding the encoded left-eye image and encoded right-eye image extracted by the demultiplexing means, and demultiplexing means The left-eye image and the right-eye image decoded by the decoding means are horizontally expanded with reference to the information on the positions of the sampled pixels of the left-eye image and the right-eye image to obtain an image of a predetermined format. Former to convert Converting means, combining means for combining the left-eye image and right-eye image converted by the format converting means, and display means for displaying a stereoscopic image in accordance with the image combined by the combining means including.
本発明のさらに別の局面に従えば、輝度情報と色情報とが分離された左眼用画像および右眼用画像を合成して表示する立体画像表示方法であって、多重化されたデータを逆多重化して、符号化された左眼用画像と、符号化された右眼用画像と、左眼用画像および右眼用画像の色情報の補間方法とを抽出するステップと、抽出された符号化された左眼用画像および符号化された右眼用画像を復号するステップと、抽出された左眼用画像および右眼用画像の色情報の補間方法を参照して、復号された左眼用画像および右眼用画像の色情報を補間して所定フォーマットの画像に変換するステップと、所定フォーマットに変換された左眼用画像および右眼用画像を合成するステップと、合成された画像に応じて立体画像を表示するステップとを含む。 According to yet another aspect of the present invention, there is provided a stereoscopic image display method for combining and displaying a left-eye image and a right-eye image in which luminance information and color information are separated, wherein multiplexed data is displayed. Extracting the left-eye image encoded, the encoded right-eye image, and the interpolation method of the color information of the left-eye image and the right-eye image by performing demultiplexing; The decoded left-eye image and the encoded right-eye image are decoded, and the decoded left-eye image and the right-eye image color information are interpolated by referring to the interpolation method of the color information of the extracted left-eye image and right-eye image. Interpolating the color information of the image for the eye and the image for the right eye to convert it to an image of a predetermined format, the step of combining the image for the left eye and the image for the right eye converted to the predetermined format, and the combined image And a step of displaying a stereoscopic image according to.
本発明のさらに別の局面に従えば、輝度情報と色情報とが分離された左眼用画像および右眼用画像を合成して表示する立体画像表示方法であって、多重化されたデータを逆多重化して、符号化された左眼用画像と、符号化された右眼用画像と、左眼用画像および右眼用画像のサンプリングした画素の位置に関する情報とを抽出するステップと、抽出された符号化された左眼用画像および符号化された右眼用画像を復号するステップと、抽出された左眼用画像および右眼用画像のサンプリングした画素の位置に関する情報を参照して、復号された左眼用画像および右眼用画像を水平方向に拡大して所定フォーマットの画像に変換するステップと、所定フォーマットに変換された左眼用画像および右眼用画像を合成するステップと、合成された画像に応じて立体画像を表示するステップとを含む。 According to yet another aspect of the present invention, there is provided a stereoscopic image display method for combining and displaying a left-eye image and a right-eye image in which luminance information and color information are separated, wherein multiplexed data is displayed. Extracting the extracted left-eye image encoded, the encoded right-eye image, and the information about the position of the sampled pixel of the left-eye image and the right-eye image; A step of decoding the encoded left-eye image and the encoded right-eye image, and referring to information regarding the positions of the sampled pixels of the extracted left-eye image and right-eye image, Expanding the decoded left-eye image and right-eye image in the horizontal direction to convert the image into a predetermined format; synthesizing the left-eye image and right-eye image converted into a predetermined format; Composite image Depending on and displaying a stereoscopic image.
本発明のある局面によれば、フォーマット変換手段が、色情報の補間方法を参照して、左眼用画像および右眼用画像の色情報を補間して所定フォーマットの画像に変換するので、色情報が最適となるように立体画像用データを補間してより立体に見えやすい画像を表示することが可能となった。 According to an aspect of the present invention, the format conversion means refers to the color information interpolation method and interpolates the color information of the image for the left eye and the image for the right eye to convert it into an image of a predetermined format. It has become possible to display an image that can be viewed more stereoscopically by interpolating the stereoscopic image data so that the information is optimal.
本発明の別の局面によれば、フォーマット変換手段が、サンプリングした画素の位置に関する情報を参照して、左眼用画像および右眼用画像を水平方向に拡大して所定フォーマットの画像に変換するので、立体画像作成装置と立体画像表示装置とで位相のずれを防ぐことが可能となった。 According to another aspect of the present invention, the format conversion means refers to the information relating to the sampled pixel positions, expands the left-eye image and the right-eye image in the horizontal direction, and converts the image into a predetermined format. Therefore, it is possible to prevent a phase shift between the stereoscopic image creating apparatus and the stereoscopic image display apparatus.
(第1の実施の形態)
図1は、本発明の第1の実施の形態における立体画像装置の概略構成を示すブロック図である。この立体画像装置は、立体画像作成装置(以下、立体画像用データ作成部と呼ぶ。)111と、立体画像表示装置(以下、立体画像用データ表示部と呼ぶ。)112とを含む。
(First embodiment)
FIG. 1 is a block diagram showing a schematic configuration of a stereoscopic image apparatus according to the first embodiment of the present invention. The stereoscopic image device includes a stereoscopic image creation device (hereinafter referred to as a stereoscopic image data creation unit) 111 and a stereoscopic image display device (hereinafter referred to as a stereoscopic image data display unit) 112.
立体画像用データ作成部111は、カメラ101aおよび101bと、左眼用画像作成部102と、右眼用画像作成部103と、エンコーダ104aおよび104bと、多重化部105とを含む。カメラ101aは、左眼用の画像を撮影する。また、カメラ101bは、右眼用の画像を撮影する。
The stereoscopic image data creation unit 111 includes
左眼用画像作成部102は、カメラ101aによって撮影された左眼用の画像データを、エンコーダ104aがエンコード可能なフォーマットに変換する。同様にして、右眼用画像作成部103は、カメラ101bによって撮影された右眼用の画像データを、エンコーダ104bがエンコード可能なフォーマットに変換する。
The left-eye
エンコーダ104aは、MPEG−1、MPEG−2、MPEG−4、DV圧縮方式等のアルゴリズムを利用して、カメラ101aによって撮影された画像をエンコードする。エンコーダ104bは、エンコーダ104aと同様のアルゴリズムを利用して、カメラ101bによって撮影された画像をエンコードする。
The
多重化部105は、エンコーダ104aによってエンコードされた左眼用画像の符号化データ、エンコーダ104bによってエンコードされた右眼用画像の符号化データ、および各種制御情報を多重化する。多重化部105によって多重化されたデータは、立体画像用データ表示部112に送信されたり、記録メディアに記録されたりする。
The
また、立体画像用データ表示部112は、逆多重化部106と、デコーダ107aおよび107bと、フォーマット変換部108aおよび108bと、合成部109と、表示部110とを含む。
The stereoscopic image
逆多重化部106は、立体画像用データ作成部111から受信した多重化データや、記録メディアから読出した多重化データを逆多重化し、左眼用画像の符号化データ、右眼用画像の符号化データおよび各種制御情報を抽出する。抽出された左眼用画像の符号化データはデコーダ107aに転送され、右眼用画像の符号化データはデコーダ107bに転送され、制御情報はフォーマット変換部108aおよび108bに転送される。
The
デコーダ107aは、エンコーダ104aに対応しており、MPEG−1、MPEG−2、MPEG−4、DV圧縮方式等のアルゴリズムを利用して、逆多重化部106から受けた左眼用画像の符号化データを復号する。デコーダ107bは、エンコーダ104bに対応しており、デコーダ107aと同様のアルゴリズムを利用して、逆多重化部106から受けた右眼用画像の符号化データを復号する。
The
フォーマット変換部108aは、逆多重化部106から受けた制御情報を参照して、デコーダ107aによって復号された左眼用画像を、表示部110が表示可能なフォーマットに変換する。同様に、フォーマット変換部108bは、逆多重化部106から受けた制御情報を参照して、デコーダ107bによって復号された右眼用画像を、表示部110が表示可能なフォーマットに変換する。
The format conversion unit 108 a refers to the control information received from the
合成部109は、フォーマット変換部108aによってフォーマット変換された左眼用画像と、フォーマット変換部108bによってフォーマット変換された右眼用画像とを合成し、立体画像用データを作成する。
The synthesizing
表示部110は、LCD(Liquid Crystal Display)モジュールなどによって構成され、レンチキュラ方式、パララクスバリア方式、シャッタ(時分割)方式などを用いて、立体画像を表示する。 The display unit 110 is configured by an LCD (Liquid Crystal Display) module or the like, and displays a stereoscopic image using a lenticular method, a parallax barrier method, a shutter (time division) method, or the like.
図2および図3は、各種画像フォーマットの一例を示す図である。各画素の上の数値はその画素の左端からの座標を表しており、本明細書では画素の位置を画像の左端からの座標で表すことにする。また、特に断らない限り、U成分とV成分とをまとめてC(クロマ成分)と表すことにする。なお、図2においては、YとCとの関係が全てのラインで同じなので、1ラインのみを記載している。 2 and 3 are diagrams showing examples of various image formats. The numerical value above each pixel represents the coordinate from the left end of the pixel, and in this specification, the position of the pixel is represented by the coordinate from the left end of the image. Unless otherwise specified, the U component and the V component are collectively expressed as C (chroma component). In FIG. 2, since the relationship between Y and C is the same for all lines, only one line is shown.
図2(a)は、YUV4:2:2フォーマットを示す図であり、Yに対してCを水平方向に1/2に削減したものである。図2(d)は、YUV4:1:1フォーマットを示す図であり、Yに対してCを水平方向に1/4に削減したものである。図3(a)はYUV4:2:0(MPEG−2用)フォーマットを示す図であり、Yに対してCを水平方向に1/2、垂直方向に1/2に削減したものである。 FIG. 2A is a diagram showing a YUV 4: 2: 2 format, in which C is reduced to 1/2 in the horizontal direction with respect to Y. FIG. 2D is a diagram showing a YUV 4: 1: 1 format, in which C is reduced to 1/4 in the horizontal direction with respect to Y. FIG. 3A is a diagram showing a YUV 4: 2: 0 (for MPEG-2) format, in which C is reduced to 1/2 in the horizontal direction and 1/2 in the vertical direction with respect to Y.
図2(a)および図2(d)に示すように、YUV4:2:2フォーマットやYUV4:1:1フォーマットにおいては、各ライン上でYとCとが同じ位置でサンプリングされている。しかし、図3(a)に示すように、YUV4:2:0(MPEG−2用)フォーマットにおいては、Cを垂直方向にも間引くために、YとCとの垂直方向のサンプリング位置は異なっている。ここで、図3(a)の左端の数値は、その画素の画像の上端からの座標を示す数値である。 As shown in FIGS. 2A and 2D, in the YUV 4: 2: 2 format and the YUV 4: 1: 1 format, Y and C are sampled at the same position on each line. However, as shown in FIG. 3 (a), in the YUV 4: 2: 0 (for MPEG-2) format, since C is thinned out in the vertical direction as well, the vertical sampling positions of Y and C are different. Yes. Here, the numerical value at the left end of FIG. 3A is a numerical value indicating coordinates from the upper end of the image of the pixel.
図2(a)と図3(a)とを比較すればわかるように、水平方向のYとCとの関係では、YUV4:2:2フォーマットとYUV4:2:0(MPEG−2用)フォーマットとが同じである。本発明においては水平方向の処理しか関係しないため、以下の説明ではYUV4:2:2フォーマットの中にYUV4:2:0(MPEG−2用)フォーマットを含めることにする。 As can be seen by comparing FIG. 2A and FIG. 3A, the YUV4: 2: 2 format and the YUV4: 2: 0 (for MPEG-2) format are used in the relationship between Y and C in the horizontal direction. Is the same. In the present invention, since only the processing in the horizontal direction is concerned, the following description will include the YUV 4: 2: 0 (for MPEG-2) format in the YUV 4: 2: 2 format.
本実施の形態においては、カメラ101aおよび101bが、YUV4:2:2フォーマットのデータを出力する場合のものである。左眼用画像作成部102および右眼用画像作成部103は、図2(a)に示す画像データが入力されると、この画像データに対して水平方向に1/2の間引きを行なう。間引きを行なった後の画像データもYUV4:2:2フォーマットである場合には、図2(b)または図2(c)に示すものとなる。また、間引きを行なった後の画像データがYUV4:1:1フォーマットである場合には、図2(e)または図2(f)に示すものとなる。
In the present embodiment, the
ここで、間引き処理をする前の座標iの画素のYをY(i)、座標iの画素のCをC(i)と表すことにする。図2(b)においては、Y(0)、Y(2)、Y(4)、Y(6)、Y(8)…が存在すると共に、C(0)、C(4)、C(8)…が存在する。また、図2(c)においては、Y(1)、Y(3)、Y(5)、Y(7)、Y(9)…が存在すると共に、C(1)、C(5)、C(9)…が存在する。 Here, Y of the pixel at the coordinate i before the thinning process is expressed as Y (i), and C of the pixel at the coordinate i is expressed as C (i). In FIG. 2B, Y (0), Y (2), Y (4), Y (6), Y (8)... Exist, and C (0), C (4), C ( 8) ... exists. In FIG. 2C, Y (1), Y (3), Y (5), Y (7), Y (9)... Exist, and C (1), C (5), C (9) ... exists.
図2(b)と図2(c)との違いは、偶数番目の画素をサンプリングするか、奇数番目の画素をサンプリングするかの違いである。左眼用画像と右眼用画像との組合わせにおいて、左眼用画像として図2(b)に示す画像を使い、右眼用画像として図2(c)に示す画像を使うようにしてもよい。また、左眼用画像として図2(c)に示す画像を使い、右眼用画像として図2(b)に示す画像を使うようにしてもよい。 The difference between FIG. 2B and FIG. 2C is whether the even-numbered pixels are sampled or the odd-numbered pixels are sampled. In the combination of the left eye image and the right eye image, the image shown in FIG. 2B may be used as the left eye image, and the image shown in FIG. 2C may be used as the right eye image. Good. Alternatively, the image shown in FIG. 2C may be used as the left eye image, and the image shown in FIG. 2B may be used as the right eye image.
また、左眼用画像および右眼用画像の双方とも図2(b)に示す画像を使ってもよいし、双方とも図2(c)に示す画像を使ってもよい。左眼用画像と右眼用画像との組み合わせの選択は自由である。本発明の実施の形態2以降についても同様である。 Further, both the left-eye image and the right-eye image may use the image shown in FIG. 2B, or both may use the image shown in FIG. The combination of the left eye image and the right eye image can be freely selected. The same applies to the second and subsequent embodiments of the present invention.
また、間引いた後の画像として、図2(b)に示す画像を使う場合には、YおよびCともサンプリング前の同じ位置のデータをそのまま使えばよい。間引いた後の画像として、図2(c)に示す画像を使う場合にも、Yはサンプリング前の同じ位置のデータをそのまま使えばよい。しかし、間引いた後の画像として、図2(c)に示す画像を使う場合には、Cに関してはサンプリング前後で位置が異なり、サンプリング前の同じ位置のデータが存在しない。したがって、図2(c)に示す画像のCは、サンプリング前のC(0)、C(2)、C(4)、C(6)、C(8)…からC(1)、C(5)、C(9)…を計算する必要がある。 Further, when the image shown in FIG. 2B is used as the image after thinning, it is sufficient to use data at the same position before sampling for Y and C as they are. Even when the image shown in FIG. 2C is used as the image after thinning, Y may use data at the same position before sampling. However, when the image shown in FIG. 2C is used as the thinned image, the position of C differs before and after sampling, and there is no data at the same position before sampling. Therefore, C in the image shown in FIG. 2C is obtained from C (0), C (2), C (4), C (6), C (8). 5), C (9)... Must be calculated.
たとえば、図2(a)に示す画像のCをCaと表し、図2(c)に示す画像のCをCcと表すと、CaとCcとの関係は次に示す式(1)〜(3)のいずれかとなる。 For example, when C in the image shown in FIG. 2A is expressed as Ca and C in the image shown in FIG. 2C is expressed as Cc, the relationship between Ca and Cc is expressed by the following equations (1) to (3). )
Cc(i*4+1)=Ca(i*4) …(1)
Cc(i*4+1)=Ca(i*4+2) …(2)
Cc(i*4+1)=(Ca(i*4)+Ca(i*4+2))/2
…(3)
ここで、Ca(i)は図2(a)に示す画像の座標iの画素のC、Cc(i)は図2(c)に示す画像の座標iの画素のCを表している。式(1)、式(2)または式(3)のように、図2(c)に示す画像のCの位置に対応する画素の、サンプリング前の近傍の画素値を使って計算することになる。すなわち、式(1)は左隣のCの画素値を用いる場合、式(2)は右隣のCの画素値を用いる場合、式(3)は両隣のCの平均画素値を用いる場合を示している。
Cc (i * 4 + 1) = Ca (i * 4) (1)
Cc (i * 4 + 1) = Ca (i * 4 + 2) (2)
Cc (i * 4 + 1) = (Ca (i * 4) + Ca (i * 4 + 2)) / 2
... (3)
Here, Ca (i) represents C of the pixel at the coordinate i of the image shown in FIG. 2A, and Cc (i) represents C of the pixel at the coordinate i of the image shown in FIG. 2C. As shown in Equation (1), Equation (2), or Equation (3), the pixel corresponding to the position C in the image shown in FIG. Become. That is, Formula (1) uses the left C pixel value, Formula (2) uses the right C pixel value, and Formula (3) uses the C average pixel value on both sides. Show.
同様に、左眼用画像作成部102および右眼用画像作成部103がYUV4:1:1フォーマットで画像を作成する場合も、左眼用画像と右眼用画像との組み合わせの選択は自由である。間引いた後の画像として、図2(e)に示す画像を使う場合には、YおよびCともサンプリング前の同じ位置のデータをそのまま使えばよい。間引いた後の画像として、図2(f)に示す画像を使う場合にも、Yはサンプリング前の同じ位置のデータをそのまま使えばよい。しかし、間引いた後の画像として、図2(f)に示す画像を使う場合には、画素のCに関してはサンプリング前後で位置が異なるため、サンプリング前の同じ位置のデータが存在しない。従って、図2(f)に示す画像のCについては、サンプリング前のC(0)、C(2)、C(4)、C(6)、C(8)…から、C(1)、C(9)…を計算する必要がある。
Similarly, when the left-eye
たとえば、図2(a)に示す画像のCをCaと表し、図2(f)に示す画像のCをCfと表すと、CaとCfとの関係は次に示す式(4)〜(6)のいずれかとなる。 For example, when C in the image shown in FIG. 2A is expressed as Ca and C in the image shown in FIG. 2F is expressed as Cf, the relationship between Ca and Cf is expressed by the following equations (4) to (6). )
Cf(i*8+1)=Ca(i*8) …(4)
Cf(i*8+1)=Ca(i*8+2) …(5)
Cf(i*8+1)=(Ca(i*8)+Ca(i*8+2))/2
…(6)
ここで、Ca(i)は図2(a)に示す画像の座標iの画素のC、Cf(i)は図2(f)に示す画像の座標iの画素のCを表している。式(4)、式(5)または式(6)に示すように、図2(f)のCの位置に対応する画素の、サンプリング前の近傍の画素値を使って計算することになる。すなわち、式(4)は左隣のCの画素値を用いる場合、式(5)は右隣のCの画素値を用いる場合、式(6)は両隣のCの平均画素値を用いる場合を示している。
Cf (i * 8 + 1) = Ca (i * 8) (4)
Cf (i * 8 + 1) = Ca (i * 8 + 2) (5)
Cf (i * 8 + 1) = (Ca (i * 8) + Ca (i * 8 + 2)) / 2
(6)
Here, Ca (i) represents C of the pixel at the coordinate i of the image shown in FIG. 2A, and Cf (i) represents C of the pixel at the coordinate i of the image shown in FIG. 2F. As shown in Expression (4), Expression (5), or Expression (6), calculation is performed using the pixel value of the pixel corresponding to the position C in FIG. That is, Formula (4) uses the left C pixel value, Formula (5) uses the C pixel value on the right, and Formula (6) uses the C average pixel value on both sides. Show.
2台のカメラ101aおよび101bで撮影した画像を、各々左眼用画像と右眼用画像とに変換するために、図2(b)および図2(c)に示す画像(YUV4:1:1フォーマットの場合には、図2(e)および図2(f)に示す画像)のいずれを選択するかについては、ユーザが状況に応じて選択する。そして、いずれを選択したかを示すフラグが多重化部105に出力される。多重化部105は、このフラグを制御情報として左眼用画像の符号化データおよび右眼用画像の符号化データに多重化する。
In order to convert the images photographed by the two
光軸を並行にして撮影する場合には、左眼用画像として図2(b)に示す画像(YUV4:1:1フォーマットの場合には、図2(e)に示す画像)、右眼用画像として図2(c)に示す画像(YUVフォーマット4:1:1の場合には、図2(f)に示す画像)を選択すると、高い精度の画像が得られる。 When photographing in parallel with the optical axis, the image shown in FIG. 2B (the image shown in FIG. 2E in the case of YUV4: 1: 1 format) is used for the left eye. When an image shown in FIG. 2C (an image shown in FIG. 2F in the case of YUV format 4: 1: 1) is selected as an image, an image with high accuracy is obtained.
また、左眼用画像および右眼用画像とも、図2(b)に示す画像(YUV4:1:1フォーマットの場合には、図2(e)に示す画像)を選択すると、処理が簡単である。このように、ユーザがその都度、状況にあった画像を選択するようにすればよい。 For both the left-eye image and the right-eye image, if the image shown in FIG. 2B (in the case of YUV4: 1: 1 format, the image shown in FIG. 2E) is selected, the processing is simple. is there. In this way, the user may select an image suitable for the situation each time.
以上説明したように、本実施の形態における立体画像装置においては、カメラ101aおよび101bが撮影した画像がYUV4:2:2フォーマットの場合に、左眼用画像作成部102および右眼用画像作成部103が左眼用画像および右眼用画像を作成するときに、間引き処理を行なって作成される画像の色情報の位置に合わせて色情報を計算するようにしたので、精度の高い立体画像を作成することが可能となった。
As described above, in the stereoscopic image device according to the present embodiment, when the images captured by the
また、画像がどのYUVフォーマットに相当するかを示す情報およびどの位置の画素を符号化したかを示す情報を含んだ制御情報を、左眼用画像の符号化データおよび右眼用画像の符号化データに多重化するようにしたので、立体画像用データ表示部112が立体画像を表示するときに、どの組合わせの画像が立体に見えやすいか等をユーザが決定する際の利便性を向上させることが可能となった。また、どの組合せが立体に見えやすいかの情報を立体画像用データ作成部111にフィードバックすることによって、左眼用画像作成部102および右眼用画像作成部103における左眼用画像および右眼用画像の選択を容易に行なうことが可能となる。
Also, control information including information indicating which YUV format the image corresponds to and information indicating which pixel of the position is encoded is encoded data of the left-eye image and encoding of the right-eye image. Since it is multiplexed with data, when the stereoscopic image
(第2の実施の形態)
本発明の第2の実施の形態における立体画像装置の概略構成は、図1に示す第1の実施の形態における立体画像装置の概略構成と同様である。したがって、重複する構成および機能の詳細な説明は繰返さない。
(Second Embodiment)
The schematic configuration of the stereoscopic image device according to the second embodiment of the present invention is the same as the schematic configuration of the stereoscopic image device according to the first embodiment shown in FIG. Therefore, detailed description of overlapping configurations and functions will not be repeated.
本実施の形態においては、カメラ101aおよび101bが、YUV4:1:1フォーマットの画像データを出力する場合のものである。左眼用画像作成部102および右眼用画像作成部103は、図2(d)に示す画像データが入力されると、この画像データに対して水平方向に1/2の間引きを行なう。間引きを行なった後の画像データもYUV4:1:1フォーマットである場合には、図2(e)または図2(f)に示すものとなる。
In this embodiment, the
間引いた後の画像として、図2(e)に示す画像を使う場合には、YおよびCともサンプリング前の同じ位置のデータをそのまま使えばよい。間引いた後の画像として、図2(f)に示す画像を使う場合にも、Yはサンプリング前の同じ位置のデータをそのまま使えばよい。しかし、間引いた後の画像として、図2(f)に示す画像を使う場合には、Cに関してはサンプリング前後で位置が異なり、サンプリング前の同じ位置のデータが存在しない。したがって、図2(f)に示す画像のCは、サンプリング前のC(0)、C(4)、C(8)…からC(1)、C(9)…を計算する必要がある。 When the image shown in FIG. 2E is used as the thinned image, the data at the same position before sampling may be used as they are for Y and C. Even when the image shown in FIG. 2F is used as the image after thinning, Y may use data at the same position before sampling. However, when the image shown in FIG. 2F is used as the image after thinning, the position of C differs before and after sampling, and there is no data at the same position before sampling. Therefore, for C in the image shown in FIG. 2 (f), it is necessary to calculate C (1), C (9)... From C (0), C (4), C (8).
たとえば、図2(d)に示す画像のCをCdと表し、図2(f)に示す画像のCをCfと表すと、CdとCfとの関係は次に示す式(7)〜式(9)のいずれかとなる。 For example, when C in the image shown in FIG. 2D is represented as Cd and C in the image shown in FIG. 2F is represented as Cf, the relationship between Cd and Cf is expressed by the following equations (7) to ( 9).
Cf(i*8+1)=Cd(i*8) …(7)
Cf(i*8+1)=Cd(i*8+4) …(8)
Cf(i*8+1)=Cd(i*8)*W1+Cd(i*8+4)*W2 …(9)
ここで、Cd(i)は図2(d)に示す画像の座標iの画素のC、Cf(i)は図2(f)に示す画像の座標iの画素のCを表している。また、W1およびW2は重み係数であり、W1+W2=1である。式(7)、式(8)または式(9)のように、図2(f)に示す画像のCの位置に対応する画素の、サンプリング前の近傍の画素値を使って計算することになる。すなわち、式(7)は左隣のCの画素値を用いる場合、式(8)は右隣のCの画素値を用いる場合、式(9)は両隣のCの平均画素値を用いる場合である。
Cf (i * 8 + 1) = Cd (i * 8) (7)
Cf (i * 8 + 1) = Cd (i * 8 + 4) (8)
Cf (i * 8 + 1) = Cd (i * 8) * W1 + Cd (i * 8 + 4) * W2 (9)
Here, Cd (i) represents C of the pixel at the coordinate i of the image shown in FIG. 2 (d), and Cf (i) represents C of the pixel at the coordinate i of the image shown in FIG. 2 (f). W1 and W2 are weighting factors, and W1 + W2 = 1. As shown in Expression (7), Expression (8), or Expression (9), the pixel corresponding to the position of C in the image shown in FIG. Become. That is, Equation (7) uses the pixel value of the adjacent C on the left, Equation (8) uses the pixel value of the adjacent C on the right, and Equation (9) shows the case of using the average pixel value of the adjacent C. is there.
YUV4:1:1フォーマットの場合はもともとCの情報が少なく、水平方向に1/2に間引くと情報量がさらに少なくなるので、間引いた後の画像が図2(e)に示す画像の場合でも、Cに関してはサンプリング前の近傍画素の重み付和等を計算した方が画質はよくなる。 In the case of the YUV4: 1: 1 format, the information of C is originally small, and the amount of information is further reduced by thinning in half in the horizontal direction. Therefore, even when the thinned image is the image shown in FIG. As for C, the image quality is better when the weighted sum of neighboring pixels before sampling is calculated.
2台のカメラ101aおよび101bで撮影した画像を、各々左眼用画像と右眼用画像とに変換するために、図2(e)および図2(f)に示す画像のいずれを選択するかについては、ユーザが状況に応じて選択する。そして、いずれを選択したかを示すフラグが多重化部105に出力される。多重化部105は、このフラグを制御情報として左眼用画像の符号化データおよび右眼用画像の符号化データに多重化する。
Which of the images shown in FIGS. 2 (e) and 2 (f) is selected in order to convert the images captured by the two
光軸を並行にして撮影する場合には、左眼用画像として図2(e)に示す画像、右眼用画像として図2(f)に示す画像を選択すると、高い精度の画像が得られる。また、左眼用画像および右眼用画像とも、図2(e)に示す画像を選択すると、処理が簡単である。このように、ユーザがその都度、状況にあった画像を選択するようにすればよい。 When photographing with the optical axes in parallel, a high-accuracy image can be obtained by selecting the image shown in FIG. 2E as the left-eye image and the image shown in FIG. 2F as the right-eye image. . Further, both the left-eye image and the right-eye image can be easily processed by selecting the image shown in FIG. In this way, the user may select an image suitable for the situation each time.
以上説明したように、本実施の形態における立体画像装置においては、カメラ101aおよび101bが撮影した画像がYUV4:1:1フォーマットの場合に、左眼用画像作成部102および右眼用画像作成部103が左眼用画像および右眼用画像を作成するときに、間引き処理を行なって作成される画像の色情報の位置に合わせて色情報を計算するようにしたので、精度の高い立体画像を作成することが可能となった。
As described above, in the stereoscopic image device according to the present embodiment, when the images captured by the
また、画像がどのYUVフォーマットに相当するかを示す情報およびどの位置の画素を符号化したかを示す情報を含んだ制御情報を、左眼用画像の符号化データおよび右眼用画像の符号化データに多重化するようにしたので、立体画像用データ表示部112が立体画像を表示するときに、どの組合わせの画像が立体に見えやすいか等をユーザが決定する際の利便性を向上させることが可能となった。また、どの組合せが立体に見えやすいかの情報を立体画像用データ作成部111にフィードバックすることによって、左眼用画像作成部102および右眼用画像作成部103における左眼用画像および右眼用画像の選択を容易に行なうことが可能となる等、第1の実施の形態において説明した効果と同様の効果を得ることが可能となった。
Also, control information including information indicating which YUV format the image corresponds to and information indicating which pixel of the position is encoded is encoded data of the left-eye image and encoding of the right-eye image. Since it is multiplexed with data, when the stereoscopic image
(第3の実施の形態)
本発明の第3の実施の形態における立体画像装置の概略構成は、図1に示す第1の実施の形態における立体画像装置の概略構成と同様である。したがって、重複する構成および機能の詳細な説明は繰返さない。
(Third embodiment)
The schematic configuration of the stereoscopic image device according to the third embodiment of the present invention is the same as the schematic configuration of the stereoscopic image device according to the first embodiment shown in FIG. Therefore, detailed description of overlapping configurations and functions will not be repeated.
本実施の形態において、カメラ101aおよび101bが、YUV4:2:0(MPEG−1用)フォーマットのデータを出力する場合のものである。左眼用画像作成部102および右眼用画像作成部103は、図3(b)に示す画像データが入力されると、この画像データに対して水平方向に1/2の間引きを行なう。間引きを行なった後の画像データもYUV4:2:0フォーマットである場合には、図3(c)または図3(d)に示すものとなる。
In this embodiment, the
また、間引いた後の画像として、図3(c)および図3(d)のいずれに示す画像を使う場合にも、Yはサンプリング前の同じ位置のデータをそのまま使えばよい。しかし、Cに関してはサンプリング前後で位置が異なり、サンプリング前の同じ位置のデータが存在しない。 In addition, in the case where the image shown in either FIG. 3C or FIG. 3D is used as the image after thinning, Y can use data at the same position before sampling as it is. However, the position of C differs before and after sampling, and there is no data at the same position before sampling.
したがって、図3(c)に示す画像のCは、サンプリング前のC(0_1)、C(2_3)、C(4_5)、C(6_7)、C(8_9)…からC(1)、C(5)、C(9)…を計算する必要がある。ここで、C(i_(i+1))は座標iと座標(i+1)の中間位置を意味する。 Therefore, C in the image shown in FIG. 3C is obtained from C (0_1), C (2_3), C (4_5), C (6_7), C (8_9). 5), C (9)... Must be calculated. Here, C (i_ (i + 1)) means an intermediate position between coordinates i and coordinates (i + 1).
たとえば、図3(b)に示す画像のCをCbと表し、図3(c)に示す画像のCをCcと表すと、CbとCcとの関係は次に示す式(10)〜(12)のいずれかとなる。 For example, when C in the image shown in FIG. 3B is expressed as Cb and C in the image shown in FIG. 3C is expressed as Cc, the relationship between Cb and Cc is expressed by the following equations (10) to (12). )
Cc(i*4+1)=Cb((i*4)_(i*4+1))…(10)
Cc(i*4+1)=Cb((i*4+2)_(i*4+3))…(11)
Cc(i*4+1)=Cb((i*4)_(i*4+1))*W1+Cb((i*4+2)_(i*4+3))*W2 …(12)
ここで、Cc(i)は図3(c)の座標iのCを表している。また、W1およびW2は重み係数であり、W1+W2=1である。
Cc (i * 4 + 1) = Cb ((i * 4) _ (i * 4 + 1)) (10)
Cc (i * 4 + 1) = Cb ((i * 4 + 2) _ (i * 4 + 3)) (11)
Cc (i * 4 + 1) = Cb ((i * 4) _ (i * 4 + 1)) * W1 + Cb ((i * 4 + 2) _ (i * 4 + 3)) * W2 (12)
Here, Cc (i) represents C of the coordinate i in FIG. W1 and W2 are weighting factors, and W1 + W2 = 1.
また、図3(d)に示す画像のCは、サンプリング前のC(0_1)、C(2_3)、C(4_5)、C(6_7)、C(8_9)…からC(2)、C(6)、C(10)…を計算する必要がある。 Also, C in the image shown in FIG. 3 (d) is C (0_1), C (2_3), C (4_5), C (6_7), C (8_9),. 6) It is necessary to calculate C (10).
たとえば、図3(b)に示す画像のCをCbと表し、図3(d)に示す画像のCをCdと表すと、CbとCdとの関係は次に示す式(13)〜(15)のいずれかとなる。 For example, when C in the image shown in FIG. 3B is expressed as Cb and C in the image shown in FIG. 3D is expressed as Cd, the relationship between Cb and Cd is expressed by the following equations (13) to (15). )
Cd(i*4+2)=Cb((i*4)_(i*4+1)) …(13)
Cd(i*4+2)=Cb((i*4+2)_(i*4+3))…(14)
Cd(i*4+2)=Cb((i*4)_(i*4+1))*W1+Cb((i*4+2)_(i*4+3))*W2 …(15)
ここで、Cd(i)は図3(d)の座標iのCを表している。W1およびW2は重み係数であり、W1+W2=1である。
Cd (i * 4 + 2) = Cb ((i * 4) _ (i * 4 + 1)) (13)
Cd (i * 4 + 2) = Cb ((i * 4 + 2) _ (i * 4 + 3)) (14)
Cd (i * 4 + 2) = Cb ((i * 4) _ (i * 4 + 1)) * W1 + Cb ((i * 4 + 2) _ (i * 4 + 3)) * W2 (15)
Here, Cd (i) represents C at the coordinate i in FIG. W1 and W2 are weighting factors, and W1 + W2 = 1.
式(10)〜(15)に示すように、図3(b)のCの位置に対応する画素の、サンプリング前の近傍の画素値を使って計算することになる。すなわち、式(10)および式(13)は左隣のCの画素値を用いる場合、式(11)および式(14)は右隣のCの画素値を用いる場合、式(12)および式(15)は両隣のCの平均画素値を用いる場合である。 As shown in Expressions (10) to (15), the calculation is performed using the pixel values in the vicinity of the pixel corresponding to the position C in FIG. 3B before sampling. That is, when Expression (10) and Expression (13) use the C pixel value on the left side, Expression (11) and Expression (14) use the C pixel value on the right side, and when Expression (12) and Expression (14) are used. (15) is a case where the average pixel value of C on both sides is used.
2台のカメラ101aおよび101bで撮影した画像を、各々左眼用画像と右眼用画像とに変換するために、図3(c)および図3(d)に示す画像のいずれを選択するかについては、ユーザが状況に応じて選択する。そして、いずれを選択したかを示すフラグが多重化部105に出力される。多重化部105は、このフラグを制御情報として左眼用画像の符号化データおよび右眼用画像の符号化データに多重化する。
Which of the images shown in FIG. 3 (c) and FIG. 3 (d) is selected in order to convert the images captured by the two
光軸を並行にして撮影する場合には、左眼用画像として図3(c)に示す画像、右眼用画像として図3(d)に示す画像を選択すると、高い精度の画像が得られる。また、左眼用画像および右眼用画像とも、図3(c)を選択すると、処理が簡単である。このように、ユーザがその都度、状況にあった画像を選択するようにすればよい。 When photographing with the optical axes in parallel, a high-accuracy image can be obtained by selecting the image shown in FIG. 3C as the left-eye image and the image shown in FIG. 3D as the right-eye image. . Further, when both the left-eye image and the right-eye image are selected as shown in FIG. In this way, the user may select an image suitable for the situation each time.
以上説明したように、本実施の形態における立体画像装置においては、カメラ101aおよび101bが撮影した画像がYUV4:2:0(MPEG−1用)フォーマットの場合に、左眼用画像作成部102および右眼用画像作成部103が左眼用画像および右眼用画像を作成するときに、間引き処理を行なって作成される画像の色情報の位置に合わせて色情報を計算するようにしたので、精度の高い立体画像を作成することが可能となった。
As described above, in the stereoscopic image device according to the present embodiment, when the images photographed by the
また、画像がどのYUVフォーマットに相当するかを示す情報およびどの位置の画素を符号化したかを示す情報を含んだ制御情報を、左眼用画像の符号化データおよび右眼用画像の符号化データに多重化するようにしたので、立体画像用データ表示部112が立体画像を表示するときに、どの組合わせの画像が立体に見えやすいか等をユーザが決定する際の利便性を向上させることが可能となった。また、どの組合せが立体に見えやすいかの情報を立体画像用データ作成部111にフィードバックすることによって、左眼用画像作成部102および右眼用画像作成部103における左眼用画像および右眼用画像の選択を容易に行なうことが可能となる等、第1の実施の形態において説明した効果と同様の効果を得ることが可能となった。
Also, control information including information indicating which YUV format the image corresponds to and information indicating which pixel of the position is encoded is encoded data of the left-eye image and encoding of the right-eye image. Since it is multiplexed with data, when the stereoscopic image
なお、本発明の第1の実施の形態から第3の実施の形態を通じて、立体画像用データ作成部111と立体画像用データ表示部112とで通信をする場合は、左眼用画像と右眼用画像との組合せを立体画像用データ作成部111で変更して、立体画像用データ表示部112で最も立体に見えやすい組合せがわかった時点で、その組合わせを立体画像用データ表示部112からフィードバックしてもらい、いずれを選択したかを示すフラグを多重化部105で多重化してもよい。
In the case where communication is performed between the stereoscopic image data creation unit 111 and the stereoscopic image
(第4の実施の形態)
本発明の第4の実施の形態における立体画像装置の概略構成は、図1に示す第1の実施の形態における立体画像装置の概略構成と同様である。したがって、重複する構成および機能の詳細な説明は繰返さない。
(Fourth embodiment)
The schematic configuration of the stereoscopic image device according to the fourth embodiment of the present invention is the same as the schematic configuration of the stereoscopic image device according to the first embodiment shown in FIG. Therefore, detailed description of overlapping configurations and functions will not be repeated.
本実施の形態においては、表示部110がレンチキュラ方式やパララクスバリア方式に対応している場合のものである。デコーダ107aおよび107bから図2(b)に示すYUV4:2:2フォーマットの画像データが出力され、フォーマット変換部108aおよび108bがその画像データを、YUV4:4:4フォーマットの画像データに拡張する。
In this embodiment, the display unit 110 corresponds to a lenticular method or a parallax barrier method. The YUV 4: 2: 2 format image data shown in FIG. 2B is output from the
図4は、第4の実施の形態におけるフォーマット変換部108aおよび108bの補間処理を説明するための図である。図4(a)に示すように、デコーダ107aおよび107bからの出力データは、座標2、座標6…における画素のCを含まない。図4(c)は、この画素のCを補間した一例を示している。
FIG. 4 is a diagram for explaining the interpolation processing of the
たとえば、図4(c)に示す画像のCをCcと表し、図4(a)に示す画像のCをCaと表すと、CcとCaとの関係は次に示す式(16)〜(18)のいずれかとなる。なお、式(16)および式(17)は近傍の画素値をそのままコピーする場合を示しており、式(18)は複数の画素値の重み付和を計算する場合を示している。 For example, when C in the image shown in FIG. 4C is expressed as Cc and C in the image shown in FIG. 4A is expressed as Ca, the relationship between Cc and Ca is expressed by the following equations (16) to (18). ) Equations (16) and (17) show a case where neighboring pixel values are copied as they are, and Equation (18) shows a case where a weighted sum of a plurality of pixel values is calculated.
Cc(4*i+2)=Ca(4*i) …(16)
Cc(4*i+2)=Ca(4*i+4) …(17)
Cc(4*i+2)=W1*Ca(4*i)+W2*Ca(4*i+4) …(18)
ここで、Cc(i)は図4(c)に示す画像の座標iの画素のC、Ca(i)は図4(a)に示す画像の座標iの画素のCを表している。また、W1およびW2は重み係数であり、W1+W2=1である。
Cc (4 * i + 2) = Ca (4 * i) (16)
Cc (4 * i + 2) = Ca (4 * i + 4) (17)
Cc (4 * i + 2) = W1 * Ca (4 * i) + W2 * Ca (4 * i + 4) (18)
Here, Cc (i) represents C of the pixel at the coordinate i of the image shown in FIG. 4C, and Ca (i) represents C of the pixel at the coordinate i of the image shown in FIG. 4A. W1 and W2 are weighting factors, and W1 + W2 = 1.
また、デコーダ107aおよび107bから図2(c)に示すYUV4:2:2フォーマットの画像データが出力される場合、式(16)〜式(18)は以下のようになる。
When the YUV 4: 2: 2 format image data shown in FIG. 2C is output from the
Cd(4*i+3)=Cc(4*i+1) …(19)
Cd(4*i+3)=Cc(4*i+5) …(20)
Cd(4*i+3)=W1*Cc(4*i+1)+W2*Cc(4*i+5) …(21)
ここで、Cd(i)は図4(d)に示す画像の座標iの画素のC、Cc(i)は図2(c)に示す画像の座標iの画素のCを表している。また、W1およびW2は重み係数であり、W1+W2=1である。式(16)および式(19)は左隣のCの画素値を用いる場合、式(17)および式(20)は右隣のCの画素値を用いる場合、式(18)および式(21)は両隣のCの平均画素値を用いる場合を示している。
Cd (4 * i + 3) = Cc (4 * i + 1) (19)
Cd (4 * i + 3) = Cc (4 * i + 5) (20)
Cd (4 * i + 3) = W1 * Cc (4 * i + 1) + W2 * Cc (4 * i + 5) (21)
Here, Cd (i) represents C of the pixel at the coordinate i of the image shown in FIG. 4D, and Cc (i) represents C of the pixel at the coordinate i of the image shown in FIG. 2C. W1 and W2 are weighting factors, and W1 + W2 = 1. When Expression (16) and Expression (19) use the pixel value of the adjacent C on the left, Expression (17) and Expression (20) indicate when the pixel value of the adjacent C on the right is used, Expression (18) and Expression (21) ) Shows a case where the average pixel value of C on both sides is used.
次に、デコーダ107aおよび107bから図2(e)に示すYUV4:1:1フォーマットの画像データが出力され、フォーマット変換部108aおよび108bがYUV4:4:4フォーマットの画像データに拡張する場合について説明する。
Next, a description will be given of a case where the image data in the YUV4: 1: 1 format shown in FIG. 2E is output from the
図4(b)に示すように、デコーダ107aおよび107bの出力データは座標2、座標4、座標6…における画素のCを含まない。図4(c)は、この画素のCを補間した一例を示している。
As shown in FIG. 4B, the output data of the
たとえば、図4(c)に示す画像のCをCcと表し、図4(b)に示す画像のCをCbと表すと、CcとCbとの関係は次に示す式(22)〜式(24)のいずれかとなる。なお、式(22)および式(23)は近傍の画素値をそのままコピーする場合を示しており、式(24)は複数の画素値の重み付和を計算する場合を示している。 For example, if C in the image shown in FIG. 4C is expressed as Cc and C in the image shown in FIG. 4B is expressed as Cb, the relationship between Cc and Cb is expressed by the following equations (22) to ( 24). Equations (22) and (23) show the case where the neighboring pixel values are copied as they are, and Equation (24) shows the case where the weighted sum of a plurality of pixel values is calculated.
Cc(8*i+2*k)=Cb(8*i) …(22)
Cc(8*i+2*k)=Cb(8*i+8) …(23)
Cc(8*i+2*k)=W1*Cb(8*i)+W2*Cb(8*i+8) …(24)
ここで、Cc(i)は図4(c)に示す画像の座標iの画素のC、Cb(i)は図4(b)に示す画像の座標iの画素のCを表している。また、W1およびW2は重み係数であり、W1+W2=1、k=1、2、3である。
Cc (8 * i + 2 * k) = Cb (8 * i) (22)
Cc (8 * i + 2 * k) = Cb (8 * i + 8) (23)
Cc (8 * i + 2 * k) = W1 * Cb (8 * i) + W2 * Cb (8 * i + 8) (24)
Here, Cc (i) represents C of the pixel at the coordinate i of the image shown in FIG. 4C, and Cb (i) represents C of the pixel at the coordinate i of the image shown in FIG. 4B. W1 and W2 are weighting factors, and W1 + W2 = 1 and k = 1, 2, 3.
また、デコーダ107aおよび107bから図2(f)に示すYUV4:1:1フォーマットの画像データが出力される場合、式(22)〜式(24)は以下のようになる。
When the
Cd(8*i+2*k+1)=Cf(8*i+1) …(25)
Cd(8*i+2*k+1)=Cf(8*i+9) …(26)
Cd(8*i+2*k+1)=W1*Cf(8*i+1)+W2*Cf( 8*i+9) …(27)
ここで、Cd(i)は図4(d)に示す画像の座標iの画素のC、Cf(i)は図2(f)に示す画像の座標iの画素のCを表している。また、W1およびW2は重み係数であり、W1+W2=1、k=1、2、3である。
Cd (8 * i + 2 * k + 1) = Cf (8 * i + 1) (25)
Cd (8 * i + 2 * k + 1) = Cf (8 * i + 9) (26)
Cd (8 * i + 2 * k + 1) = W1 * Cf (8 * i + 1) + W2 * Cf (8 * i + 9) (27)
Here, Cd (i) represents C of the pixel at the coordinate i of the image shown in FIG. 4D, and Cf (i) represents C of the pixel at the coordinate i of the image shown in FIG. 2F. W1 and W2 are weighting factors, and W1 + W2 = 1 and k = 1, 2, 3.
補間画素の計算方法の選び方は、どの計算方法を選択した時に立体として見えやすいかが判断基準となる。図1の表示部110の特性に大きく依存する場合には、立体画像用データ表示部112で一意に決まっていればよい。また、ユーザの個人差に大きく依存する場合は、立体画像用データ表示部112内でユーザが補間方法を選択するようにしてもよい。
The method of selecting the interpolation pixel calculation method is based on which calculation method is selected so that it can be easily seen as a solid. In the case where it greatly depends on the characteristics of the display unit 110 in FIG. 1, it may be determined uniquely by the stereoscopic image
また、最適な補間方法が、立体画像用データ作成部111が作成するデータに依存する場合には、最適な補間方法を示す情報を多重化部105であらかじめ多重化しておく。そして、立体画像用データ表示部112内の逆多重化部106でこの情報を取り出し、これに従ってフォーマット変換部108aおよび108bが補間方法を選択するようにしてもよい。
If the optimum interpolation method depends on data created by the stereoscopic image data creation unit 111, information indicating the optimum interpolation method is multiplexed in advance by the
合成部109は、YUV4:4:4フォーマットに変換した画像データを、図4(e)に示すように、左眼用画像と右眼用画像とを1画素列ずつ水平方向に交互に並べて、表示用の画像を作成する。この表示用画像を表示部110に表示することで、ユーザは立体画像を見ることができる。
As shown in FIG. 4E, the combining
以上説明したように、本実施の形態における立体画像装置においては、フォーマット変換部108aおよび108bがYUV4:2:2フォーマットの画像データまたはYUV4:1:1フォーマットの画像データを補間して、YUV4:4:4フォーマットの画像データを生成するようにしたので、表示部110がレンチキュラ方式やパララクスバリア方式に対応している場合に、精度の高い立体画像を表示することが可能となった。
As described above, in the stereoscopic image device according to the present embodiment, the
また、どのように色情報を補間するかを示す制御情報を、左眼用画像の符号化データおよび右眼用画像の符号化データに多重化するようにしたので、立体画像用データ表示部112が立体画像を表示するときに、色情報が最適となるように画像を補間することが可能となった。
In addition, since the control information indicating how to interpolate the color information is multiplexed with the encoded data of the left eye image and the encoded data of the right eye image, the stereoscopic image
(第5の実施の形態)
本発明の第5の実施の形態における立体画像装置の概略構成は、図1に示す第1の実施の形態における立体画像装置の概略構成と同様である。したがって、重複する構成および機能の詳細な説明は繰返さない。
(Fifth embodiment)
The schematic configuration of the stereoscopic image device according to the fifth embodiment of the present invention is the same as the schematic configuration of the stereoscopic image device according to the first embodiment shown in FIG. Therefore, detailed description of overlapping configurations and functions will not be repeated.
本実施の形態においては、表示部110がシャッタ(時分割)方式に対応している場合のものである。 In the present embodiment, the display unit 110 corresponds to the shutter (time division) method.
図5は、第5の実施の形態におけるフォーマット変換部108aおよび108bの補間処理を説明するための図である。図5(d)に示すように、垂直方向に1ラインずつ左眼用画像と右眼用画像とを交互に並べるため、デコーダ107aおよび107bの出力データを垂直方向に1/2に間引き、水平方向には2倍に拡大する(左眼用画像および右眼用画像を作成する前のサイズに戻す)ことが必要である。
FIG. 5 is a diagram for explaining the interpolation processing of the
したがって、フォーマット変換部108aおよび108bは、第4の実施の形態において説明したのと同様の方法で、YUV4:4:4フォーマットの画像データとなるようにCを補間する以外に、YUVともに垂直方向に1/2に間引き、さらに水平方向に2倍に拡大する処理が新たに必要である。
Therefore, the
図5(a)は、図2(b)または図2(e)に示す画像データを第4の実施の形態と同様の方法でYUV4:4:4フォーマットの画像データに変換した場合を示しており、図4(c)に対応している。また、図5(b)は、図2(c)または図2(f)に示す画像データを第4の実施の形態と同様の方法でYUV4:4:4フォーマットの画像データに変換した場合を示しており、図4(d)に対応している。 FIG. 5A shows a case where the image data shown in FIG. 2B or FIG. 2E is converted into YUV 4: 4: 4 format image data by the same method as in the fourth embodiment. This corresponds to FIG. FIG. 5B shows a case where the image data shown in FIG. 2C or FIG. 2F is converted into YUV 4: 4: 4 format image data by the same method as in the fourth embodiment. This corresponds to FIG. 4 (d).
ここで、図2(b)および図2(e)は、左眼用画像作成部102および右眼用画像作成部103が、偶数番目の画素をサンプリングして作成されたものである。また、図2(c)および図2(f)は、左眼用画像作成部102および右眼用画像作成部103が奇数番目の画素をサンプリングして作成されたものである。このいずれのサンプリング方法を選択したかを示すフラグが、多重化部105で符号化データの中に多重化される。
Here, FIG. 2B and FIG. 2E are created by sampling the even-numbered pixels by the left-eye
そのため、第4の実施の形態においてCが補間された画素を、フォーマット変換部108aおよび108bがこのフラグにしたがって配置する。すなわち、図4(c)の場合には図5(a)に示すように各画素を配置し、図4(d)の場合には図5(b)に示すように各画素を配置することによって、YおよびCともに水平方向に補間する画素を計算する。これによって、立体画像データ作成部111と立体画像データ表示部112とで位相がずれるのを防ぐことができる。
Therefore, the
以上は、YUV4:2:2フォーマットまたはYUV4:1:1フォーマットについての説明であったが、図3(c)および図3(d)に示すようなYUV4:2:0(MPEG−1用)フォーマットの場合も同様である。 The above is a description of the YUV4: 2: 2 format or the YUV4: 1: 1 format, but YUV4: 2: 0 (for MPEG-1) as shown in FIGS. 3 (c) and 3 (d). The same applies to the format.
なお、以上の説明において、まず画像データをYUV4:4:4フォーマットに変換した後、垂直方向に間引き、水平方向に拡大して左眼用画像および右眼用画像を作成したが、処理の順番はこれに限らず、例えば、水平方向に拡大した後、垂直方向の間引きをするような順序であってもよい。 In the above description, the image data is first converted into the YUV 4: 4: 4 format, then thinned out in the vertical direction and expanded in the horizontal direction to create a left-eye image and a right-eye image. However, the order is not limited to this. For example, the order may be such that the image is vertically thinned and then thinned in the vertical direction.
合成部110は、このようにして作成された画像を図5(d)に示すように、左眼用画像(L)と右眼用画像(R)とを垂直方向に1ラインずつ交互に配置して、立体表示用画像を作成する。 As shown in FIG. 5D, the combining unit 110 alternately arranges the left-eye image (L) and the right-eye image (R) one line at a time in the vertical direction. Thus, a stereoscopic display image is created.
以上説明したように、本実施の形態における立体画像装置においては、フォーマット変換部108aおよび108bがYUV4:4:4フォーマットの画像データとなるように補間した後、YUVを垂直方向に1/2に間引き、さらに水平方向に2倍に拡大するようにしたので、表示部110がシャッタ(時分割)方式に対応している場合に、精度の高い立体画像を表示することが可能となった。
As described above, in the stereoscopic image device according to the present embodiment, after the
また、サンプリングした画素の位置を示す制御情報を、左眼用画像の符号化データおよび右眼用画像の符号化データに多重化するようにしたので、立体画像用データ表示部112が立体画像を表示するときに、色情報が最適となるように画像を補間することができるとともに、立体画像データ作成部111と立体画像データ表示部112とで位相がずれるのを防止することが可能となった。
In addition, since the control information indicating the position of the sampled pixel is multiplexed with the encoded data of the left-eye image and the encoded data of the right-eye image, the stereoscopic image
なお、以上の実施の形態においては、2眼視の場合について説明したが、これに限らずN眼視(N≧2)の場合にも同様である。 In the above embodiment, the case of binocular vision has been described.
今回開示された実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
101a,101b カメラ、102 左眼用画像作成部、103 右眼用画像作成部、104a,104b エンコーダ、105 多重化部、106 逆多重化部、107a,107b デコーダ、108a,108b フォーマット変換部、109 合成部、110 表示部、111 立体画像用データ作成部、112 立体画像用データ表示部。 101a, 101b Camera, 102 Left eye image creation unit, 103 Right eye image creation unit, 104a, 104b Encoder, 105 Multiplexing unit, 106 Demultiplexing unit, 107a, 107b Decoder, 108a, 108b Format conversion unit, 109 A composition unit, a 110 display unit, a 111 stereoscopic image data creation unit, and a 112 stereoscopic image data display unit.
Claims (4)
多重化されたデータを逆多重化して、符号化された左眼用画像と、符号化された右眼用画像と、左眼用画像および右眼用画像の色情報の補間方法とを抽出するための逆多重化手段と、
前記逆多重化手段によって抽出された符号化された左眼用画像および符号化された右眼用画像を復号するための復号手段と、
前記逆多重化手段によって抽出された前記左眼用画像および前記右眼用画像の色情報の補間方法を参照して、前記復号手段によって復号された左眼用画像および右眼用画像の色情報を補間して所定フォーマットの画像に変換するためのフォーマット変換手段と、
前記フォーマット変換手段によって変換された左眼用画像および右眼用画像を合成するための合成手段と、
前記合成手段によって合成された画像に応じて立体画像を表示するための表示手段とを含む、立体画像表示装置。 A stereoscopic image display device that combines and displays a left-eye image and a right-eye image in which luminance information and color information are separated,
The multiplexed data is demultiplexed to extract the encoded left eye image, the encoded right eye image, and the interpolation method of the color information of the left eye image and the right eye image. Demultiplexing means for,
Decoding means for decoding the encoded left-eye image and encoded right-eye image extracted by the demultiplexing means;
Referring to the interpolation method of the color information of the left eye image and the right eye image extracted by the demultiplexing means, the color information of the left eye image and the right eye image decoded by the decoding means Format conversion means for interpolating and converting to an image of a predetermined format;
Combining means for combining the left-eye image and the right-eye image converted by the format conversion means;
A stereoscopic image display apparatus including display means for displaying a stereoscopic image in accordance with the image synthesized by the synthesizing means.
多重化されたデータを逆多重化して、符号化された左眼用画像と、符号化された右眼用画像と、左眼用画像および右眼用画像のサンプリングした画素の位置に関する情報とを抽出するための逆多重化手段と、
前記逆多重化手段によって抽出された符号化された左眼用画像および符号化された右眼用画像を復号するための復号手段と、
前記逆多重化手段によって抽出された前記左眼用画像および前記右眼用画像のサンプリングした画素の位置に関する情報を参照して、前記復号手段によって復号された左眼用画像および右眼用画像を水平方向に拡大して所定フォーマットの画像に変換するためのフォーマット変換手段と、
前記フォーマット変換手段によって変換された左眼用画像および右眼用画像を合成するための合成手段と、
前記合成手段によって合成された画像に応じて立体画像を表示するための表示手段とを含む、立体画像表示装置。 A stereoscopic image display device that combines and displays a left-eye image and a right-eye image in which luminance information and color information are separated,
The multiplexed data is demultiplexed to obtain an encoded left-eye image, an encoded right-eye image, and information about the positions of the sampled pixels of the left-eye image and the right-eye image. Demultiplexing means for extracting;
Decoding means for decoding the encoded left-eye image and encoded right-eye image extracted by the demultiplexing means;
The left eye image and the right eye image decoded by the decoding means are referred to by referring to the information about the positions of the sampled pixels of the left eye image and the right eye image extracted by the demultiplexing means. Format conversion means for enlarging in the horizontal direction and converting the image into a predetermined format;
Combining means for combining the left-eye image and the right-eye image converted by the format conversion means;
A stereoscopic image display apparatus including display means for displaying a stereoscopic image in accordance with the image synthesized by the synthesizing means.
多重化されたデータを逆多重化して、符号化された左眼用画像と、符号化された右眼用画像と、前記左眼用画像および前記右眼用画像の色情報の補間方法とを抽出するステップと、
前記抽出された符号化された左眼用画像および符号化された右眼用画像を復号するステップと、
前記抽出された左眼用画像および右眼用画像の色情報の補間方法を参照して、前記復号された左眼用画像および右眼用画像の色情報を補間して所定フォーマットの画像に変換するステップと、
前記所定フォーマットに変換された左眼用画像および右眼用画像を合成するステップと、
前記合成された画像に応じて立体画像を表示するステップとを含む、立体画像表示方法。 A stereoscopic image display method for combining and displaying a left-eye image and a right-eye image in which luminance information and color information are separated,
Demultiplexing the multiplexed data, and encoding the left-eye image, the encoded right-eye image, and the interpolation method of the color information of the left-eye image and the right-eye image. Extracting, and
Decoding the extracted encoded left-eye image and encoded right-eye image;
Referring to the color information interpolation method of the extracted left eye image and right eye image, the color information of the decoded left eye image and right eye image is interpolated and converted into an image of a predetermined format. And steps to
Synthesizing the left-eye image and the right-eye image converted into the predetermined format;
A method of displaying a stereoscopic image according to the synthesized image.
多重化されたデータを逆多重化して、符号化された左眼用画像と、符号化された右眼用画像と、左眼用画像および右眼用画像のサンプリングした画素の位置に関する情報とを抽出するステップと、
前記抽出された符号化された左眼用画像および符号化された右眼用画像を復号するステップと、
前記抽出された左眼用画像および右眼用画像のサンプリングした画素の位置に関する情報を参照して、前記復号された左眼用画像および右眼用画像を水平方向に拡大して所定フォーマットの画像に変換するステップと、
前記所定フォーマットに変換された左眼用画像および右眼用画像を合成するステップと、
前記合成された画像に応じて立体画像を表示するステップとを含む、立体画像表示方法。 A stereoscopic image display method for combining and displaying a left-eye image and a right-eye image in which luminance information and color information are separated,
The multiplexed data is demultiplexed to obtain an encoded left-eye image, an encoded right-eye image, and information about the positions of the sampled pixels of the left-eye image and the right-eye image. Extracting, and
Decoding the extracted encoded left-eye image and encoded right-eye image;
With reference to information regarding the positions of the sampled pixels of the extracted left-eye image and right-eye image, the decoded left-eye image and right-eye image are expanded in the horizontal direction to obtain an image in a predetermined format Converting to
Synthesizing the left-eye image and the right-eye image converted into the predetermined format;
A method of displaying a stereoscopic image according to the synthesized image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007163778A JP4657258B2 (en) | 2007-06-21 | 2007-06-21 | Stereoscopic image display apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007163778A JP4657258B2 (en) | 2007-06-21 | 2007-06-21 | Stereoscopic image display apparatus and method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002123952A Division JP4173684B2 (en) | 2002-04-25 | 2002-04-25 | Stereoscopic image creation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007312407A JP2007312407A (en) | 2007-11-29 |
JP4657258B2 true JP4657258B2 (en) | 2011-03-23 |
Family
ID=38844767
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007163778A Expired - Fee Related JP4657258B2 (en) | 2007-06-21 | 2007-06-21 | Stereoscopic image display apparatus and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4657258B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010062695A (en) * | 2008-09-02 | 2010-03-18 | Sony Corp | Image processing apparatus, image processing method, and program |
JP5238528B2 (en) * | 2009-01-20 | 2013-07-17 | 株式会社東芝 | Encoding apparatus and method, and decoding apparatus and method |
JP5250158B2 (en) * | 2013-02-15 | 2013-07-31 | 株式会社東芝 | Encoding apparatus and method |
JP2013168982A (en) * | 2013-04-08 | 2013-08-29 | Toshiba Corp | Encoding device and method, and decoding device and method |
JP6334918B2 (en) * | 2013-12-27 | 2018-05-30 | 株式会社メガチップス | Image processing device |
JP2019013012A (en) * | 2018-08-17 | 2019-01-24 | 日本電信電話株式会社 | data structure |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0846995A (en) * | 1994-07-29 | 1996-02-16 | Canon Inc | Image recording device and image reproducing device |
JPH09271042A (en) * | 1996-03-31 | 1997-10-14 | Sony Corp | Stereoscopic vision method and device |
JPH1118111A (en) * | 1997-06-20 | 1999-01-22 | Sanyo Electric Co Ltd | Stereoscopic video image transmission method and system |
-
2007
- 2007-06-21 JP JP2007163778A patent/JP4657258B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0846995A (en) * | 1994-07-29 | 1996-02-16 | Canon Inc | Image recording device and image reproducing device |
JPH09271042A (en) * | 1996-03-31 | 1997-10-14 | Sony Corp | Stereoscopic vision method and device |
JPH1118111A (en) * | 1997-06-20 | 1999-01-22 | Sanyo Electric Co Ltd | Stereoscopic video image transmission method and system |
Also Published As
Publication number | Publication date |
---|---|
JP2007312407A (en) | 2007-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5127633B2 (en) | Content playback apparatus and method | |
JP4693900B2 (en) | Image processing device | |
JP6095067B2 (en) | Stereoscopic video encoding apparatus, stereoscopic video decoding apparatus, stereoscopic video encoding method, stereoscopic video decoding method, stereoscopic video encoding program, and stereoscopic video decoding program | |
EP3399755B1 (en) | Depth map delivery formats for stereoscopic and auto-stereoscopic displays | |
US10055814B2 (en) | Image processing device and image processing method | |
WO2012111756A1 (en) | Image processing device and image processing method | |
JP4251864B2 (en) | Image data creating apparatus and image data reproducing apparatus for reproducing the data | |
JP2010273333A (en) | Three-dimensional image combining apparatus | |
US20150341614A1 (en) | Stereoscopic video encoding device, stereoscopic video decoding device, stereoscopic video encoding method, stereoscopic video decoding method, stereoscopic video encoding program, and stereoscopic video decoding program | |
JP2004274125A (en) | Image processing apparatus and method | |
JP4252105B2 (en) | Image data creation device and image data reproduction device | |
US9338430B2 (en) | Encoding device, encoding method, decoding device, and decoding method | |
US10122986B2 (en) | Image processing device and image processing method | |
JP2004264882A (en) | Image data generating device and image data reproducing device for reproducing data thereof | |
JP4657258B2 (en) | Stereoscopic image display apparatus and method | |
JP2011249945A (en) | Stereoscopic image data transmission device, stereoscopic image data transmission method, stereoscopic image data reception device, and stereoscopic image data reception method | |
US9762884B2 (en) | Encoding device, encoding method, decoding device, and decoding method for encoding multiple viewpoints for compatibility with existing mode allowing fewer viewpoints | |
JP2004207772A (en) | Stereoscopic image display apparatus, recording method, and transmission method | |
JP4173684B2 (en) | Stereoscopic image creation device | |
US20110193937A1 (en) | Image processing apparatus and method, and image producing apparatus, method and program | |
JP2005184377A (en) | Image conversion apparatus and image recording apparatus using it | |
JP2004336492A (en) | Image processor and image processing method | |
WO2004030377A1 (en) | Three-dimensional image display device, recording method, and transmission method | |
JP2011077599A (en) | Transmitting device, receiving device, communication system, and program | |
KR101107153B1 (en) | Video data conversion method and apparatus for 3d tv |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101210 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101214 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101221 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140107 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |