JP4333522B2 - Information processing apparatus, information processing method, recording medium, and program - Google Patents
Information processing apparatus, information processing method, recording medium, and program Download PDFInfo
- Publication number
- JP4333522B2 JP4333522B2 JP2004245376A JP2004245376A JP4333522B2 JP 4333522 B2 JP4333522 B2 JP 4333522B2 JP 2004245376 A JP2004245376 A JP 2004245376A JP 2004245376 A JP2004245376 A JP 2004245376A JP 4333522 B2 JP4333522 B2 JP 4333522B2
- Authority
- JP
- Japan
- Prior art keywords
- picture
- video data
- compressed video
- encoded
- compressed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Management Or Editing Of Information On Record Carriers (AREA)
- Television Signal Processing For Recording (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
Description
本発明は、情報処理装置および情報処理方法、記録媒体、並びに、プログラムに関し、特に、双方向のフレーム間予測を用いて圧縮した映像データを編集する場合に用いて好適な、情報処理装置および情報処理方法、記録媒体、並びに、プログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, a recording medium, and a program, and more particularly, an information processing apparatus and information suitable for use when editing video data compressed using bidirectional inter-frame prediction. The present invention relates to a processing method, a recording medium, and a program.
MPEG(Moving Picture Coding Experts Group/Moving Picture Experts Group)などに代表される画像圧縮方式では、フレーム間予測を用いて映像信号を圧縮符号化することで、高い圧縮効率を実現している。しかし、映像を編集することを考えた場合、フレーム間予測を用いた圧縮画像は、フレーム間に予測による圧縮信号の関連があるため、圧縮されたままの映像信号で、映像素材をつなぎ合わせることとはできない。そのため、映像素材を編集することが予め考慮されたシステムにおいては、一般的に、フレーム間予測を用いず、フレーム内での圧縮のみを用いて符号化が行われている。 In an image compression method represented by MPEG (Moving Picture Coding Experts Group / Moving Picture Experts Group) or the like, high compression efficiency is realized by compressing and encoding a video signal using inter-frame prediction. However, when considering video editing, compressed images using inter-frame prediction are related to the compression signal based on prediction between frames, so video materials can be joined together with the compressed video signal. I can not do such a thing. For this reason, in a system in which editing of a video material is considered in advance, encoding is generally performed using only compression within a frame without using inter-frame prediction.
しかしながら、例えば、HD(High Definition)信号のように、高精細で情報量の多い映像信号が取り扱われる場合、フレーム内圧縮のみで符号化を行うと、低い圧縮効率しか得られないため、多量のデータを伝送したり、蓄積するためには、転送速度が速かったり、記憶容量が大きかったり、または、処理速度が速いなどの、高価なシステムが必要となってしまう。すなわち、高精細で情報量の多い映像信号を安価なシステムで取り扱うためには、フレーム間予測を用いて圧縮効率を上げることが必要となる。 However, for example, when a video signal having a high definition and a large amount of information such as an HD (High Definition) signal is handled, if encoding is performed only by intra-frame compression, only a low compression efficiency can be obtained. In order to transmit or store data, an expensive system having a high transfer rate, a large storage capacity, or a high processing speed is required. That is, in order to handle a high-definition video signal with a large amount of information in an inexpensive system, it is necessary to increase the compression efficiency using inter-frame prediction.
MPEGにおいて、Iピクチャ(I-Picture)、Pピクチャ(P-Picture)、および、Bピクチャ(B-Picture)から構成される、双方向のフレーム間予測を用いた圧縮符号化方式は、Long GOP(Group of Picture)方式の圧縮と呼ばれる。 In MPEG, a compression coding method using bidirectional inter-frame prediction, which is composed of an I picture (I-Picture), a P picture (P-Picture), and a B picture (B-Picture), is Long GOP. This is called (Group of Picture) compression.
Iピクチャとは、フレーム内(Intra)符号化画像のことであり、他の画面とは独立に符号化されるピクチャであり、この情報のみで画像を復号することができるものである。Pピクチャとは、フレーム間(inter)順方向予測符号化画像のことであり、時間的に前(順方向)のフレームからの差分によって表現される前方向予測符号化ピクチャである。Bピクチャとは、双方向予測符号化画像のことであり、時間的に前(順方向)、または後(逆方向)、または前後(双方向)のピクチャを利用して動き補償フレーム間予測により符号化されるピクチャである。 An I picture is an intra-frame (Intra) encoded image, which is a picture that is encoded independently of other screens. An image can be decoded using only this information. A P picture is an inter-frame (inter) forward predictive encoded image, and is a forward predictive encoded picture represented by a difference from a temporally previous (forward) frame. A B picture is a bi-directional predictive encoded image, and is based on motion-compensated interframe prediction using temporally forward (forward direction), backward (reverse direction), or front and back (bidirectional) pictures. A picture to be encoded.
PピクチャやBピクチャは、データ量がIピクチャに比べて小さいため、GOPを長くすれば(すなわち、Long GOPを構成するピクチャ数を増加させれば)、映像の圧縮率を高くすることができるので、デジタル放送やDVD(Digital Versatile Disk)ビデオでの利用に適している。しかしながら、GOPが長すぎると、フレーム精度での編集コントロールが困難となり、特に、業務用用途での編集では、運用上の問題が発生する。 Since the data amount of P pictures and B pictures is smaller than that of I pictures, if the GOP is lengthened (that is, the number of pictures constituting the Long GOP is increased), the video compression rate can be increased. Therefore, it is suitable for use in digital broadcasting and DVD (Digital Versatile Disk) video. However, if the GOP is too long, editing control with frame accuracy becomes difficult, and operational problems occur particularly in editing for business use.
Long GOP方式で圧縮された2つの映像データを所定の編集点で接続することにより編集する処理について、図1を用いて説明する。 Processing for editing two video data compressed by the Long GOP method by connecting them at a predetermined editing point will be described with reference to FIG.
まず、編集対象圧縮映像データ1および編集対象圧縮映像データ2のそれぞれにおいて、編集点近傍の部分的なデコードが行われ、部分的な非圧縮の映像信号1および映像信号2が得られる。そして、非圧縮の映像信号1および映像信号2が編集点で接続されて、必要に応じて編集点付近にエフェクト(Effect)が施されて、再エンコードが行われる。そして、再エンコードされた圧縮映像データが、デコードおよび再エンコードされていない(部分的なデコードが行われた編集点近傍以外の)圧縮映像データと結合される。
First, in each of the editing target compressed
図1を用いて説明した方法は、圧縮された編集素材の映像データを全てデコードしてから、映像信号を編集点でつなぎ、再び全ての映像信号を再エンコードして編集済みの圧縮映像データを得る方法と比較して、再エンコードによる画質劣化を局所的に抑えることができるとともに、編集処理時間を大幅に短縮することができるなどの利点がある。 The method described with reference to FIG. 1 decodes all compressed video data of editing material, then connects the video signals at the editing points, re-encodes all the video signals again, and edits the compressed video data that has been edited. Compared with the obtaining method, there are advantages that image quality deterioration due to re-encoding can be locally suppressed and editing processing time can be greatly shortened.
しかしながら、図1を用いて説明したような方法で編集と再エンコードを行うと、再エンコードを行った部分と行っていない部分のつなぎ目において、画像を参照することができないという問題が発生する。 However, if editing and re-encoding are performed by the method described with reference to FIG. 1, there arises a problem that an image cannot be referred to at the joint between the re-encoded portion and the non-re-encoded portion.
この問題に対して、フレーム間で予測符号化が行われている(Long GOP)方式で圧縮する場合、編集を比較的簡単に実現する方法として、フレーム間予測に制限を加え、GOP内のみで画像を参照し、GOPをまたいで画像を参照しないClosed GOP構造をとるように、フレーム間予測に制限を加える方法が知られている。 In order to solve this problem, when compression is performed using the prediction encoding between frames (Long GOP) method, as a method of realizing editing relatively easily, restrictions are applied to inter-frame prediction, and only within the GOP. There is known a method of restricting inter-frame prediction so as to adopt a closed GOP structure that refers to an image and does not refer to an image across GOPs.
フレーム間予測に制限を加える場合について、図2を用いて説明する。図2においては、フレーム間予測と編集との関係を示すために、編集対象である圧縮素材映像1のデータおよび圧縮素材映像2のデータ、部分再エンコードされた編集後の編集点付近の圧縮映像のデータ、並びに、再エンコードしない部分の圧縮映像のデータについて、それぞれ、display order(ディスプレイオーダ)でのピクチャの並びを示している。図中の矢印は、画像の参照方向を示している(以下、同様)。図2においては、ディスプレイオーダのBBIBBPBBPBBPBBPの15のピクチャが1GOPとされ、画像の参照は、GOP内のみとされている。この方法は、GOPをまたぐ予測を禁止することで、GOP間に予測による圧縮データの関連をなくし、GOP単位での圧縮データのつなぎ替え(再エンコードを行う範囲の決定)を可能にする。
A case where a restriction is applied to inter-frame prediction will be described with reference to FIG. In FIG. 2, in order to show the relationship between inter-frame prediction and editing, the compressed
すなわち、編集対象である圧縮素材映像1のデータおよび圧縮素材映像2のデータは、それぞれ、編集点を含む1GOP単位で、再エンコード範囲が決定され、1GOP単位で決定された再エンコード範囲の編集対象である圧縮素材映像1のデータおよび圧縮素材映像2のデータがデコードされて、非圧縮の素材映像1の信号および素材映像2の信号が生成される。そして、非圧縮の素材映像1の信号と素材映像2の信号とがカット(Cut)編集点において接続されて、接続された素材映像1および素材映像2が部分再エンコードされて、圧縮映像データが生成され、再エンコードしない部分の圧縮映像データと接続されて、圧縮符号化された編集映像データが生成される。
That is, the data of the
実際に符号化されたデータは、図3に示されるように、Coding order(コーディングオーダ)で並んでおり、圧縮映像データの結合はコーディングオーダで行われる。接続された素材映像1および素材映像2が部分再エンコードされて生成された圧縮映像データと、再エンコードしない部分の圧縮映像データとは、再エンコードしない部分の圧縮素材映像1のデータにおいて、コーディングオーダで最後のピクチャであり、ディスプレイオーダ14番目のピクチャであるB13ピクチャと、再エンコードされて生成された圧縮映像データにおいて、コーディングオーダで最初のピクチャであり、ディスプレイオーダ3番目のピクチャであるI2ピクチャとが接続される。そして、再エンコードされて生成された圧縮映像データにおいて、コーディングオーダで最後のピクチャであり、ディスプレイオーダ13番目のピクチャであるB12ピクチャと、再エンコードしない部分の圧縮素材映像2のデータにおいて、コーディングオーダで最初のピクチャであり、ディスプレイオーダ3番目のピクチャであるI2ピクチャとが接続される。すなわち、接続された素材映像1および素材映像2が部分再エンコードされて生成された圧縮映像データと、再エンコードしない部分の圧縮映像データとは、GOPの切替え部分で接続されて、圧縮された編集映像データが生成される。
As shown in FIG. 3, the actually encoded data is arranged in a coding order, and the compressed video data is combined in the coding order. The compressed video data generated by partial re-encoding of the connected
これに対して、Closed GOP構造ではないGOP構造、すなわち、GOPをまたいで画像を参照する場合のLong GOP構造を、以下、Open GOPと称する。 On the other hand, a GOP structure that is not a Closed GOP structure, that is, a Long GOP structure that refers to an image across GOPs is hereinafter referred to as an Open GOP.
また、Open GOPの2つのビットストリームを編集する場合、具体的には、ビットストリームXに、ビットストリームYを挿入する場合において、ビットストリームYの最初のGOPを構成するIピクチャ前Bピクチャ(Iピクチャが表示されるまでに出現するBピクチャ)が削除され、更に、そのGOPを構成する残りの画像のテンポラルリファレンス(Temporal Reference)が変更されることにより、ビットストリームXの最後のGOPを構成する画像を用いて予測されるIピクチャ前Bピクチャを表示させないようにし、Open GOPでMPEG符号化された画像のビットストリームどうしを接続したときのつなぎ目部分における画質の劣化を防止することができるようにした技術がある(例えば、特許文献1)。 Also, when editing two bit streams of Open GOP, specifically, when inserting bit stream Y into bit stream X, B picture before I picture (I The B picture that appears before the picture is displayed is deleted, and the temporal reference (Temporal Reference) of the remaining images constituting the GOP is changed, thereby forming the last GOP of the bitstream X. The B picture before I picture predicted using the image is not displayed, and the deterioration of the image quality at the joint portion when the bit streams of the MPEG encoded images are connected by the Open GOP can be prevented. There is a technique (for example, Patent Document 1).
しかしながら、図2および図3を用いて説明したように、GOPをまたぐ予測を禁止するClosed GOP構造を利用する編集方法では、GOPの開始部および終了部で予測方向に制限を加えることになり、通常用いられる圧縮方式であるOpen GOPと比較して、映像信号の圧縮効率が低下する。 However, as described with reference to FIGS. 2 and 3, in the editing method using the Closed GOP structure that prohibits prediction across GOPs, the prediction direction is limited at the start and end of the GOP. Compared with Open GOP, which is a commonly used compression method, the compression efficiency of video signals is reduced.
また、特許文献1に記載の技術においては、つなぎ目付近のBピクチャが表示されないため、その分の画像が欠落してしまうという問題がある。
Further, in the technique described in
本発明はこのような状況に鑑みてなされたものであり、高い圧縮効率が得られるLong GOP方式で圧縮された、双方向のフレーム間予測を用いた圧縮映像信号の編集を、VBV Bufferの制約を守って実現することができるようにするものである。 The present invention has been made in view of such a situation, and editing of a compressed video signal using bidirectional inter-frame prediction compressed by the Long GOP method, which can obtain a high compression efficiency, is limited by the VBV Buffer. It can be realized by protecting
本発明の第1の情報処理装置は、第1の圧縮映像データおよび第2の圧縮映像データのうちの編集点付近の所定の範囲の映像データをデコードするデコード手段と、第1の圧縮映像データがデコード手段によりデコードされて生成された第1の非圧縮映像信号と、第2の圧縮映像データがデコード手段によりデコードされて生成された第2の非圧縮映像信号とを、編集点で接続し、第3の非圧縮映像信号を生成する接続手段と、接続手段により接続されて生成された第3の非圧縮映像信号をエンコードして、第3の圧縮映像データを生成するエンコード手段と、第2の圧縮映像データの所定のピクチャのQマトリクスに関する情報を取得し、エンコード手段による、Qマトリクスを用いたエンコードを制御する制御手段と、編集点付近以外の所定の範囲の第1の圧縮映像データおよび編集点付近以外の所定の範囲の第2の圧縮映像データと、エンコード手段によりエンコードされて生成された、第3の圧縮映像データとを接続して、圧縮符号化された編集映像データを生成する編集映像データ生成手段とを備えることを特徴とする。 The first information processing apparatus according to the present invention includes a decoding unit that decodes video data in a predetermined range near an editing point of the first compressed video data and the second compressed video data, and the first compressed video data The first uncompressed video signal generated by decoding by the decoding means and the second uncompressed video signal generated by decoding the second compressed video data by the decoding means are connected at the editing point. a connecting means for generating a third non-compressed video signal, encodes the third non-compressed video signal that is generated is connected by connecting means, and encoding means for generating a third compressed image data, the Gets information about Q-matrix of a predetermined picture of the second compressed video data, by encoding means, and control means for controlling the encoding using the Q matrix, except near an edit point Connecting the first compressed video data in a predetermined range and the second compressed video data in a predetermined range other than the vicinity of the editing point and the third compressed video data encoded and generated by the encoding means; wherein the Ru and a edited video data generating means for generating compressed encoded edited image data.
制御手段には、第2の圧縮映像データのうち、編集映像データ生成手段により第3の圧縮映像データに接続される第1のピクチャのQマトリクスに関する情報を取得させるようにすることができ、第1のピクチャが所定の条件に合致する場合、制御手段には、エンコード手段によりエンコードされる第2のピクチャが、第1のピクチャのQマトリクスを用いてエンコードされるようにエンコード手段を制御させるようにすることができ、編集映像データ生成手段は、第2のピクチャに続いて、第1のピクチャを接続させるようにすることができる。 The control means can acquire information relating to the Q matrix of the first picture connected to the third compressed video data by the edited video data generation means out of the second compressed video data. When one picture meets a predetermined condition, the control means controls the encoding means so that the second picture encoded by the encoding means is encoded using the Q matrix of the first picture. The edited video data generation means can connect the first picture subsequent to the second picture.
所定の条件には、第1のピクチャの前にシーケンスヘッダが挿入されていないことが含まれるようにすることができる。 The predetermined condition may include that a sequence header is not inserted before the first picture.
所定の条件には、第1のピクチャがエンコード時にQマトリクスをロードするように設定されていないことが含まれるようにすることができる。 The predetermined condition may include that the first picture is not set to load a Q matrix during encoding.
制御手段には、エンコード手段によりエンコードされるピクチャであって、編集映像データ生成手段により、編集点付近以外の所定の範囲の第1の圧縮映像データと接続されるピクチャにシーケンスヘッダが挿入されるようにエンコード手段を制御させるようにすることができる。 The control means inserts a sequence header into a picture that is encoded by the encoding means and is connected to the first compressed video data in a predetermined range other than the vicinity of the editing point by the edited video data generating means. Thus, the encoding means can be controlled.
制御手段には、第3の圧縮映像データのうちのいずれかのフレーム内符号化画像、または、フレーム間順方向予測符号化画像より、画像表示順で時間的に後ろとなる部分のピクチャタイプが、第1の圧縮映像データおよび第2の圧縮映像データの対応するピクチャタイプから変更されないように、エンコード手段によるエンコード処理を更に制御させるようにすることができる。 In the control means, the picture type of the portion that is temporally behind in the image display order from any intra-frame encoded image or inter-frame forward prediction encoded image of the third compressed video data. The encoding process by the encoding means can be further controlled so as not to change from the corresponding picture types of the first compressed video data and the second compressed video data.
制御手段には、第2の圧縮映像データのうち、編集映像データ生成手段により第3の圧縮映像データに接続される第1のピクチャのQマトリクスに関する情報を取得させるようにすることができ、第1のピクチャのQマトリクスと、編集データ生成手段により第1のピクチャに続いて接続される第2のピクチャのQマトリクスとが等しいか否かを判断させるようにすることができ、第1のピクチャと第2のピクチャとのQマトリクスが等しくないと判断された場合、エンコード時にQマトリクスをロードするように、第2のピクチャを設定させるようにすることができる。 The control means can acquire information relating to the Q matrix of the first picture connected to the third compressed video data by the edited video data generation means out of the second compressed video data. It is possible to determine whether or not the Q matrix of one picture is equal to the Q matrix of the second picture connected subsequent to the first picture by the editing data generating means. When it is determined that the Q matrices of the second picture and the second picture are not equal, the second picture can be set so that the Q matrix is loaded at the time of encoding.
制御手段には、第2の圧縮映像データのうち、第3の圧縮映像データの最後のピクチャである第1のピクチャに対応する第2のピクチャのQマトリクスに関する情報を取得させるようにすることができ、第1のピクチャが、第2のピクチャと同一のQマトリクスでエンコードされるように、エンコード手段を制御させるようにすることができる。 The control unit may acquire information related to the Q matrix of the second picture corresponding to the first picture that is the last picture of the third compressed video data out of the second compressed video data. The encoding means can be controlled so that the first picture is encoded with the same Q matrix as the second picture.
編集点付近以外の所定の範囲の第2の圧縮映像データのシンタクスを更新する更新手段を更に備えさせるようにすることができ、制御手段には、シンタクス更新制御手段の処理を更に制御させるようにすることができ、第2の圧縮映像データのうち、編集映像データ生成手段により第3の圧縮映像データに接続されるフレーム内符号化画像、または、フレーム間順方向予測符号化画像である第1のピクチャおよびその次のフレーム間順方向予測符号化画像である第2のピクチャのQマトリクスに関する情報を取得させるようにすることができ、第1のピクチャと第2のピクチャのQマトリクスが異なり、かつ、第2のピクチャがエンコード時にQマトリクスをロードするように設定されていなかった場合、シンタクス更新制御手段を制御して、第2のピクチャのシンタクスにQuantMatrixExtentionを付加させるようにすることができる。 An update means for updating the syntax of the second compressed video data in a predetermined range other than the vicinity of the edit point can be further provided, and the control means further controls the processing of the syntax update control means. In the second compressed video data, the first is an intra-frame encoded image or an inter-frame forward prediction encoded image connected to the third compressed video data by the edited video data generating means. Information and the Q matrix of the second picture that is the next inter-frame forward predictive encoded image, the Q matrix of the first picture and the second picture is different, If the second picture is not set to load the Q matrix during encoding, the syntax update control means is controlled. It can be made to be added to QuantMatrixExtention the syntax of the second picture.
本発明の第1の情報処理方法は、第1の圧縮映像データおよび第2の圧縮映像データのうちの編集点付近の所定の範囲の映像データをデコードするデコードステップと、第1の圧縮映像データがデコードステップの処理によりデコードされて生成された第1の非圧縮映像信号と、第2の圧縮映像データがデコードステップの処理によりデコードされて生成された第2の非圧縮映像信号とを、編集点で接続し、第3の非圧縮映像信号を生成する接続ステップと、第2の圧縮映像データの所定のピクチャのQマトリクスに関する情報を取得し、取得された情報を用いて、接続ステップの処理により接続されて生成された第3の非圧縮映像信号をエンコードして、第3の圧縮映像データを生成するエンコードステップと、編集点付近以外の所定の範囲の第1の圧縮映像データおよび編集点付近以外の所定の範囲の第2の圧縮映像データと、エンコードステップの処理によりエンコードされて生成された、第3の圧縮映像データとを接続して、圧縮符号化された編集映像データを生成する編集映像データ生成ステップとを含むことを特徴とする。 The first information processing method of the present invention includes a decoding step for decoding video data in a predetermined range near an editing point of the first compressed video data and the second compressed video data, and the first compressed video data Edits the first uncompressed video signal generated by decoding in the decoding step and the second uncompressed video signal generated by decoding the second compressed video data in the decoding step Connecting at a point, generating a third uncompressed video signal, obtaining information about a Q matrix of a predetermined picture of the second compressed video data, and using the obtained information, processing of the connecting step Encoding the third uncompressed video signal connected and generated to generate third compressed video data, and a predetermined range other than the vicinity of the editing point. The first compressed video data and the second compressed video data in a predetermined range other than the vicinity of the editing point are connected to the third compressed video data encoded and generated by the process of the encoding step, and compressed. An edited video data generation step for generating encoded edited video data.
本発明の第1の記録媒体に記録されているプログラムは、第1の圧縮映像データおよび第2の圧縮映像データのうちの編集点付近の所定の範囲の映像データをデコードするデコードステップと、第1の圧縮映像データがデコードステップの処理によりデコードされて生成された第1の非圧縮映像信号と、第2の圧縮映像データがデコードステップの処理によりデコードされて生成された第2の非圧縮映像信号とを、編集点で接続し、第3の非圧縮映像信号を生成する接続ステップと、第2の圧縮映像データの所定のピクチャのQマトリクスに関する情報を取得し、取得された情報を用いて、接続ステップの処理により接続されて生成された第3の非圧縮映像信号をエンコードして、第3の圧縮映像データを生成するエンコードステップと、編集点付近以外の所定の範囲の第1の圧縮映像データおよび編集点付近以外の所定の範囲の第2の圧縮映像データと、エンコードステップの処理によりエンコードされて生成された、第3の圧縮映像データとを接続して、圧縮符号化された編集映像データを生成する編集映像データ生成ステップとを含むことを特徴とする処理をコンピュータに実行させる。 A program recorded on the first recording medium of the present invention includes a decoding step for decoding a predetermined range of video data in the vicinity of the editing point of the first compressed video data and the second compressed video data; A first uncompressed video signal generated by decoding one compressed video data by the process of the decoding step, and a second uncompressed video generated by decoding the second compressed video data by the process of the decoding step. The signal is connected at the editing point, and a connection step for generating a third uncompressed video signal, and information about the Q matrix of a predetermined picture of the second compressed video data are acquired, and the acquired information is used. An encoding step for encoding a third uncompressed video signal connected and generated by the processing of the connection step to generate third compressed video data; First compressed video data in a predetermined range other than the vicinity of the point, second compressed video data in a predetermined range other than the vicinity of the editing point, and third compressed video data generated by encoding in the encoding step And the edited video data generating step for generating the compressed and encoded edited video data.
本発明の第1のプログラムは、第1の圧縮映像データおよび第2の圧縮映像データのうちの編集点付近の所定の範囲の映像データをデコードするデコードステップと、第1の圧縮映像データがデコードステップの処理によりデコードされて生成された第1の非圧縮映像信号と、第2の圧縮映像データがデコードステップの処理によりデコードされて生成された第2の非圧縮映像信号とを、編集点で接続し、第3の非圧縮映像信号を生成する接続ステップと、第2の圧縮映像データの所定のピクチャのQマトリクスに関する情報を取得し、取得された情報を用いて、接続ステップの処理により接続されて生成された第3の非圧縮映像信号をエンコードして、第3の圧縮映像データを生成するエンコードステップと、編集点付近以外の所定の範囲の第1の圧縮映像データおよび編集点付近以外の所定の範囲の第2の圧縮映像データと、エンコードステップの処理によりエンコードされて生成された、第3の圧縮映像データとを接続して、圧縮符号化された編集映像データを生成する編集映像データ生成ステップとを含むことを特徴とする処理をコンピュータに実行させる。 The first program of the present invention includes a decoding step for decoding a predetermined range of video data in the vicinity of an editing point of the first compressed video data and the second compressed video data, and the first compressed video data is decoded The first uncompressed video signal generated by decoding by the processing of the step and the second uncompressed video signal generated by decoding the second compressed video data by the processing of the decoding step are edited at the editing point. Connecting and generating a third uncompressed video signal, obtaining information relating to a Q matrix of a predetermined picture of the second compressed video data, and using the obtained information to connect by processing of the connecting step An encoding step for encoding the generated third uncompressed video signal to generate third compressed video data, and a predetermined range other than the vicinity of the editing point The first compressed video data and the second compressed video data in a predetermined range other than the vicinity of the editing point are connected to the third compressed video data encoded and generated by the process of the encoding step, and the compressed code The computer is caused to execute a process including an edited video data generation step of generating the edited video data.
本発明の第1の情報処理装置および情報処理方法、並びにプログラムにおいては、第1の圧縮映像データおよび第2の圧縮映像データのうちの編集点付近の所定の範囲の映像データがデコードされ、第1の圧縮映像データがデコードされて生成された第1の非圧縮映像信号と、第2の圧縮映像データがデコードされて生成された第2の非圧縮映像信号とが、編集点で接続されて、第3の非圧縮映像信号が生成され、第2の圧縮映像データの所定のピクチャのQマトリクスに関する情報が取得されて、取得された情報を用いて、第3の非圧縮映像信号がエンコードされて、第3の圧縮映像データが生成され、編集点付近以外の所定の範囲の第1の圧縮映像データおよび編集点付近以外の所定の範囲の第2の圧縮映像データと、第3の圧縮映像データとが接続されて、圧縮符号化された編集映像データが生成される。 In the first information processing apparatus, the information processing method, and the program of the present invention, video data in a predetermined range near the editing point of the first compressed video data and the second compressed video data is decoded, and the first The first uncompressed video signal generated by decoding the first compressed video data and the second uncompressed video signal generated by decoding the second compressed video data are connected at the editing point. , A third uncompressed video signal is generated, information about the Q matrix of a predetermined picture of the second compressed video data is acquired, and the third uncompressed video signal is encoded using the acquired information. Third compressed video data is generated, the first compressed video data in a predetermined range other than the vicinity of the editing point, the second compressed video data in a predetermined range other than the vicinity of the editing point, and the third compressed video De And data and is connected, compressed encoded edited image data is generated.
本発明の第2の情報処理装置は、第1の圧縮映像データが編集点付近の所定の範囲でデコードされて生成された第1の非圧縮映像信号と、第2の圧縮映像データが編集点付近の所定の範囲でデコードされて生成された第2の非圧縮映像信号とが、編集点で接続されて生成された第3の非圧縮映像信号を、エンコードして第3の圧縮映像データを生成するエンコード手段と、第2の圧縮映像データのうちの編集点付近の所定の範囲以外の範囲のピクチャであって第3の圧縮映像データに接続されるピクチャである第1のピクチャのQマトリクスに関する情報を取得し、第1のピクチャが所定の条件に合致する場合、エンコード手段によりエンコードされる第2のピクチャが、第1のピクチャのQマトリクスを用いてエンコードされるように、エンコード手段によるエンコード処理を制御する制御手段とを備えることを特徴とする。 According to the second information processing apparatus of the present invention, the first uncompressed video signal generated by decoding the first compressed video data in a predetermined range near the editing point and the second compressed video data are the editing point. The second non-compressed video signal generated by decoding within a predetermined range in the vicinity is encoded with the third non-compressed video signal generated by being connected at the editing point to obtain the third compressed video data. Encoding means to be generated and a Q matrix of a first picture which is a picture in a range other than a predetermined range in the vicinity of the editing point in the second compressed video data and is a picture connected to the third compressed video data If the first picture meets a predetermined condition, the second picture to be encoded by the encoding means is encoded using the Q matrix of the first picture. And a controlling means for controlling the encoding processing by the encoding means.
本発明の第2の情報処理方法は、第1の圧縮映像データが編集点付近の所定の範囲でデコードされて生成された第1の非圧縮映像信号と、第2の圧縮映像データが編集点付近の所定の範囲でデコードされて生成された第2の非圧縮映像信号とが、編集点で接続されて生成された第3の非圧縮映像信号を、エンコードして第3の圧縮映像データを生成するエンコードステップと、第2の圧縮映像データのうちの編集点付近の所定の範囲以外の範囲のピクチャであって第3の圧縮映像データに接続されるピクチャである第1のピクチャのQマトリクスに関する情報を取得し、第1のピクチャが所定の条件に合致する場合、エンコードステップの処理によりエンコードされる第2のピクチャが、第1のピクチャのQマトリクスを用いてエンコードされるように、エンコードステップの処理によるエンコード処理を制御する制御ステップとを含むことを特徴とする。 According to the second information processing method of the present invention, the first uncompressed video signal generated by decoding the first compressed video data in a predetermined range near the editing point and the second compressed video data are edited. The second non-compressed video signal generated by decoding within a predetermined range in the vicinity is encoded with the third non-compressed video signal generated by being connected at the editing point to obtain the third compressed video data. An encoding step to be generated, and a Q matrix of a first picture that is a picture in a range other than a predetermined range in the vicinity of the editing point in the second compressed video data and is a picture connected to the third compressed video data If the first picture meets the predetermined condition, the second picture encoded by the encoding step is encoded using the Q matrix of the first picture. So that the, characterized in that it comprises a control step of controlling the encoding processing by the processing in the encoding step.
本発明の第2の情報処理装置および情報処理方法においては、第1の圧縮映像データが編集点付近の所定の範囲でデコードされて生成された第1の非圧縮映像信号と、第2の圧縮映像データが編集点付近の所定の範囲でデコードされて生成された第2の非圧縮映像信号とが、編集点で接続されて生成された第3の非圧縮映像信号がエンコードされて、第3の圧縮映像データが生成され、第2の圧縮映像データのうちの編集点付近の所定の範囲以外の範囲のピクチャであって第3の圧縮映像データに接続されるピクチャである第1のピクチャのQマトリクスに関する情報が取得され、第1のピクチャが所定の条件に合致する場合、エンコードステップの処理によりエンコードされる第2のピクチャが、第1のピクチャのQマトリクスを用いてエンコードされるように、エンコードステップの処理によるエンコード処理が制御される。 In the second information processing apparatus and information processing method of the present invention, the first uncompressed video signal generated by decoding the first compressed video data in a predetermined range near the editing point, and the second compression The third uncompressed video signal generated by connecting the video data to the second uncompressed video signal generated by decoding the video data within a predetermined range near the editing point is encoded, and the third uncompressed video signal is encoded. The compressed video data of the first picture, which is a picture in a range other than the predetermined range in the vicinity of the editing point in the second compressed video data, and is a picture connected to the third compressed video data. When information about the Q matrix is acquired and the first picture meets a predetermined condition, the second picture encoded by the process of the encoding step is processed using the Q matrix of the first picture. As encoded, the encoding processing by the processing in the encoding step is controlled.
本発明によれば、編集処理を行うようにすることができ、特に、編集の素材である圧縮映像データのQマトリクスを用いて再エンコードが行われるようになされているので、再エンコードによる画質の劣化を抑制することができる。 According to the present invention, editing processing can be performed. In particular, since re-encoding is performed using a Q matrix of compressed video data that is an editing material, image quality by re-encoding is improved. Deterioration can be suppressed.
また、他の本発明によれば、編集処理を行うようにすることができ、特に、編集の素材である圧縮映像データのQマトリクスを用いて再エンコードが制御されるようになされているので、再エンコードによる画質の劣化を抑制することができる。 Further, according to another aspect of the present invention, editing processing can be performed, and in particular, re-encoding is controlled using a Q matrix of compressed video data that is an editing material. Degradation of image quality due to re-encoding can be suppressed.
以下、図を参照して、本発明の実施の形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図4は本発明を適用した編集装置1のハードウェア構成を示すブロック図である。
FIG. 4 is a block diagram showing a hardware configuration of the
CPU(Central Processing Unit)11は、ノースブリッジ12に接続され、例えば、HDD(Hard disk Drive)16に記憶されているデータの読み出しなどの処理を制御したり、CPU20が実行する編集処理を制御するためのコマンドを生成し、出力する。ノースブリッジ12は、PCIバス(Peripheral Component Interconnect/Interface)14に接続され、例えば、CPU11の制御に基づいて、サウスブリッジ15を介して、HDD16に記憶されているデータの供給を受けて、PCIバス14、PCIブリッジ17を介して、メモリ18に供給する。また、ノースブリッジ12は、メモリ13とも接続されており、CPU11の処理に必要なデータを授受する。
A CPU (Central Processing Unit) 11 is connected to the
メモリ13は、CPU11が実行する処理に必要なデータを保存する。サウスブリッジ15は、HDD16のデータの書き込みおよび読み出しを制御する。HDD16には、圧縮符号化された編集用の素材が記憶されている。
The
PCIブリッジ17は、メモリ18のデータの書き込みおよび読み出しを制御したり、デコーダ22乃至24、または、ストリームスプライサ25への圧縮符号化データの供給を制御するとともに、PCIバス14およびコントロールバス19のデータの授受を制御する。メモリ18は、PCIブリッジ17の制御に基づいて、HDD16により読み出された、編集用素材である圧縮符号化データや、ストリームスプライサ25から供給される編集後の圧縮符号化データを記憶する。
The
CPU20は、ノースブリッジ12、PCIバス14、PCIブリッジ17、および、コントロールバス19を介して、CPU11から供給されたコマンドにしたがって、PCIブリッジ17、デコーダ22乃至24、ストリームスプライサ25、エフェクト/スイッチ26、エンコーダ27、および、シンタクス更新部28が実行する処理を制御する。メモリ21は、CPU20の処理に必要なデータを記憶する。
The
デコーダ22乃至デコーダ24は、CPU20の制御に基づいて、供給された圧縮符号化データをデコードし、非圧縮の映像信号を出力する。ストリームスプライサ25は、CPU20の制御に基づいて、供給された圧縮映像データを、所定のフレームで結合する。また、デコーダ72乃至デコーダ74は、編集装置1に含まれない独立した装置として設けられていても良い。例えば、デコーダ74が、独立した装置として設けられている場合、デコーダ74は、後述する処理により編集されて生成された圧縮編集映像データの供給を受け、復号し、出力することができるようになされる。
Based on the control of the
エフェクト/スイッチ26は、CPU20の制御に基づいて、デコーダ22またはデコーダ23から供給される、非圧縮の映像信号出力を切り替える、すなわち、供給された非圧縮の映像信号を所定のフレームで結合するとともに、必要に応じて、所定の範囲にエフェクトを施して、エンコーダ27に供給する。エンコーダ27は、CPU20の制御に基づいて、供給された非圧縮の映像信号をエンコードして、圧縮符号化された圧縮映像データを、ストリームスプライサ25に出力する。
The effect /
シンタクス更新部28は、CPU20の制御に基づいて、ストリームスプライサ25に供給された圧縮符号化された映像データのシンタクスを更新する。
The
次に、第1の実施の形態における編集装置1の動作について説明する。
Next, the operation of the
HDD16には、図5に示されるLong GOPのOpen GOP方式で圧縮された圧縮素材映像1および圧縮素材映像2のデータが記憶されている。図5において、圧縮された圧縮素材映像1および圧縮素材映像2は、表示されるピクチャ順(display order)で記載されている。
The
CPU11は、サウスブリッジ15を制御して、図示しない操作入力部から供給されたユーザの操作入力を基に、HDD16から、圧縮符号化された圧縮素材映像1のデータおよび圧縮素材映像2のデータを読み出させ、ノースブリッジ12、PCIバス14、および、PCIブリッジ17を介して、メモリ18に供給させて記憶させるとともに、編集点を示す情報と、編集開始を示すコマンドを、ノースブリッジ12、PCIバス14、PCIブリッジ17、および、コントロールバス19を介して、CPU20に供給する。
The
CPU20は、CPU11から供給された編集点を示す情報を基に、圧縮符号化された圧縮素材映像1のデータおよび圧縮素材映像2のデータのうち、再エンコードを行う範囲を決定する。そして、CPU20は、PCIブリッジ17を制御して、メモリ18に記憶されている圧縮符号化された圧縮素材映像1のデータのうち、再エンコードを行う範囲のピクチャと、参照する必要があるピクチャに対応する圧縮素材映像1のデータをデコーダ22に供給させるとともに、圧縮素材映像2のデータのうち、再エンコードを行う範囲のピクチャと、参照する必要があるピクチャに対応する圧縮素材映像2のデータをデコーダ23に供給させる。
Based on the information indicating the edit point supplied from the
すなわち、このとき、圧縮素材映像1のうち、Bピクチャ36およびBピクチャ37が再エンコードを行う範囲に含まれている場合、Bピクチャ36およびBピクチャ37をデコードするために、Iピクチャ31、および、Pピクチャ32乃至Pピクチャ35もデコードされる。また、同様に、圧縮素材映像2のうち、Bピクチャ38およびBピクチャ39が再エンコードを行う範囲に含まれている場合、Bピクチャ38およびBピクチャ39をデコードするために、Iピクチャ40もデコードされる。
That is, at this time, when the
また、このとき、CPU20は、PCIブリッジ17を制御して、メモリ18に記憶されている圧縮符号化された圧縮素材映像1および圧縮素材映像2のデータのうちの再エンコードを行わない範囲のピクチャを、ストリームスプライサ25に供給させる。
At this time, the
CPU20は、デコーダ22およびデコーダ23を制御して、供給された圧縮符号化されたデータをデコードさせる。
The
デコーダ22およびデコーダ23は、CPU20の制御に基づいて、供給されたデータをデコードし、復号されて得られた素材映像1および素材映像2の信号をエフェクト/スイッチ26に供給する。エフェクト/スイッチ26は、CPU20の制御に基づいて、所定のカット(Cut)編集点(スプライス点)で、非圧縮の復号素材映像1と復号素材映像2の信号を接続して、必要に応じて、エフェクトを施し、再エンコード用の非圧縮の編集映像信号を生成し、再エンコードに必要な再エンコード用参照画像(図5においては、Bピクチャ42およびBピクチャ43のエンコードに必要なPピクチャ41に対応する画像データ)とともに、エンコーダ27に供給する。
The
また、デコーダ22およびデコーダ23は、後段のエンコーダ27によるエンコード処理に必要な情報を抽出し、コントロールバス19を介して、CPU20に供給することができる。CPU20は、デコーダ22またはデコーダ23から供給された、後段のエンコーダ27によるエンコード処理に必要な情報を、コントロールバス19を介して、エンコーダ27に供給する。
Further, the
エンコーダ27は、CPU20の制御に基づいて、エフェクト/スイッチ26から供給された、再エンコード用の非圧縮の編集映像信号をエンコードする。
Based on the control of the
そのとき、エンコーダ27は、図5に示されるように、双方向予測符号化を行うBピクチャ42およびBピクチャ43をエンコードするために、参照画として、一つ前のPピクチャ41を用いなければならない。また、ディスプレイオーダにおいて、再エンコードの最後のピクチャがPピクチャとなるように、ピクチャタイプを決定することにより、再エンコードの最後のピクチャ以降のピクチャをエンコードのための参照画として用いなくてもよいようにすることができる。
At that time, as shown in FIG. 5, the
換言すれば、再エンコード終了点がGOPの切れ目(すなわち、Bピクチャ以外)となるようなピクチャタイプで再エンコードを行うようにすることにより、編集用の圧縮素材映像データがOpenGOPであっても、再エンコードの最後のピクチャ以降のピクチャをエンコードのための参照画として用いる必要がなくなる。 In other words, by performing re-encoding with a picture type such that the end point of re-encoding is a GOP break (that is, other than a B picture), even if the compressed material video data for editing is OpenGOP, It is not necessary to use a picture after the last picture of re-encoding as a reference picture for encoding.
そして、エンコーダ27において再エンコードされた映像データは、ストリームスプライサ25に供給される。シンタクス更新部28は、CPU20の制御に基づいて、必要に応じて、ストリームスプライサ25に供給された圧縮符号化された素材映像データのシンタクスを更新する。シンタクス更新部28により、シンタクスが更新される場合については、後述する。そして、ストリームスプライサ25は、CPU20の制御に基づいて、PCIブリッジ17から供給された、圧縮素材映像1および圧縮素材映像2のデータのうちの再エンコードを行わない範囲の圧縮素材映像1および圧縮素材映像2と、エンコーダ27から供給されたエンコードされた映像データとを接続し、圧縮編集映像データを生成する。
The video data re-encoded by the
具体的には、ストリームスプライサ25は、CPU20の制御に基づいて、PCIブリッジ17から供給された、圧縮素材映像1のPピクチャ46とエンコーダ27から供給されたエンコードされた映像データのBピクチャ42とがディスプレイオーダで連続するように接続され、エンコーダ27から供給されたエンコードされた映像データのPピクチャ45と、PCIブリッジ17から供給された、圧縮素材映像2のIピクチャ47とがディスプレイオーダで連続するように接続されるように、ストリームをつなぎ合わせる。
Specifically, the
そして、ストリームスプライサ25は、CPU20の制御に基づいて、作成した圧縮編集映像データをPCIブリッジ17に供給して、メモリ18に保存させるとともに、デコーダ24に供給してデコードさせ、編集結果確認用のモニタなどに出力させて表示させたり、デコードされて生成されたベースバンド信号を、他の装置に出力させる。
Then, the
図示しない操作入力部から、編集されて生成された圧縮編集映像データの保存が指令された場合、CPU11は、PCIブリッジ17を制御して、メモリ18に保存されている圧縮編集映像データを読み出させ、PCIバス14およびノースブリッジ12を介して、サウスブリッジ15に供給させるとともに、サウスブリッジ15を制御して、供給された圧縮編集映像データをHDD16に供給させて保存させる。
When an instruction to save the compressed edited video data generated by editing is issued from an operation input unit (not shown), the
実際のエンコードはコーディングオーダ(coding order)で行われ、エンコーダ27においてエンコードされた圧縮映像も、コーディングオーダで出力される。図5を用いて説明した場合に対応させて、圧縮された信号におけるピクチャの並びをコーディングオーダで示したものを図6に示す。
Actual encoding is performed in a coding order, and the compressed video encoded by the
編集対象である圧縮素材映像1および編集対象である圧縮素材映像2のそれぞれのデータにおいて、編集点を含む再エンコード範囲が決定され、再エンコード範囲の圧縮素材映像1および圧縮素材映像2がデコードされて、非圧縮の素材映像1の信号および素材映像2の信号が生成される。そして、カット(Cut)編集点において、非圧縮の素材映像1の信号と素材映像2とが接続されて、接続された素材映像1および素材映像2が、最後のピクチャがPピクチャ(またはIピクチャ)となるように部分再エンコードされて、圧縮映像データが生成され、再エンコードしない部分の圧縮映像データと接続されて、圧縮された編集映像データが生成される。
In each data of the
接続された素材映像1および素材映像2が部分再エンコードされて生成された圧縮映像データと、再エンコードしない部分の圧縮映像データとは、再エンコードしない部分の圧縮素材映像1のデータにおいて、コーディングオーダで最後のピクチャであって、ディスプレイオーダ14番目のピクチャであるB13ピクチャと、再エンコードされて生成された圧縮映像データにおいて、コーディングオーダで先頭のピクチャであって、ディスプレイオーダ3番目のピクチャであるI2ピクチャとが接続される。そして、再エンコードされて生成された圧縮映像データにおいて、コーディングオーダで最後のピクチャであって、ディスプレイオーダ16番目のピクチャであるP15ピクチャ(Pピクチャ45)と、再エンコードしない部分の圧縮素材映像2において、コーディングオーダで先頭のピクチャであって、データのディスプレイオーダ3番目のピクチャであるI0ピクチャ(Iピクチャ47)とが接続される。すなわち、接続された素材映像1および素材映像2が部分再エンコードされて生成された圧縮映像データと、再エンコードしない部分の圧縮映像データとは、GOPの切替え部分に関係なく接続されて、圧縮された編集映像データが生成される。
The compressed video data generated by partial re-encoding of the
このように、ディスプレイオーダにおいて、再エンコードの最後のピクチャであるP15ピクチャ(Pピクチャ45)は、コーディングオーダでも再エンコードの最後のピクチャとなる。このようにして、ピクチャタイプを決定することにより、再エンコードの最後のピクチャ以降のピクチャをエンコードのための参照画として用いなくてもよいようにすることができる。 Thus, in the display order, the P 15 picture (P picture 45), which is the last picture of re-encoding, becomes the last picture of re-encoding in the coding order. In this way, by determining the picture type, it is possible to avoid using pictures after the last picture of re-encoding as a reference picture for encoding.
このとき、VBV(Video Buffering Verifier)バッファも考慮して再エンコードを行う必要がある。図7を用いて、編集を行う場合のVBVバッファについて説明する。 At this time, it is necessary to perform re-encoding in consideration of a VBV (Video Buffering Verifier) buffer. A VBV buffer for editing is described with reference to FIG.
エンコードを行うにあたっては、VBVバッファがオーバーフロー(over flow)、または、アンダーフロー(under flow)しないようにそれぞれのピクチャに発生符号量を割り当てることで、後段のデコーダが正常にデコードを行えるように制御されなくてはならない。特に、編集のための部分的な再エンコードを行う場合、部分再エンコードしない部分に関して(特に、再エンコードを行う部分と再エンコードを行わない部分の接続点付近において)も、VBVバッファがオーバーフローまたはアンダーフローしないように再エンコードを行う必要がある。 When encoding is performed, control is performed so that the subsequent decoder can perform normal decoding by assigning the generated code amount to each picture so that the VBV buffer does not overflow or underflow. It must be done. In particular, when partial re-encoding is performed for editing, the VBV buffer overflows or underflows even with respect to a portion that is not partially re-encoded (particularly near the connection point between the portion that is re-encoded and the portion that is not re-encoded). It is necessary to re-encode so that it does not flow.
再エンコードされた圧縮映像データのバッファの状態により影響を受けるのは、再エンコードされた圧縮映像信号の後に結合される再エンコードしない部分の圧縮映像データである。この再エンコードしない部分の圧縮映像データが、オーバーフローまたはアンダーフローしないための十分条件は、再エンコードされた圧縮映像信号の後に結合される再エンコードしない部分の圧縮編集映像データの最初のIピクチャまたはPピクチャ、すなわち、図7において、Aで示されるIピクチャに続く、図7においてDで示されるPピクチャのOccupancy(オキュパンシ)が、圧縮素材映像2データの図7においてBで示されるIピクチャ次のIピクチャまたはPピクチャ、すなわち、図7において、Cで示されるPピクチャのOccupancyに等しくなることである。よって再エンコードを行う場合は、上記条件を満たす値になるように、再エンコード終了時点(図7のAで示される部分)のバッファのOccupancyを制御する必要がある。
It is the non-re-encoded portion of the compressed video data that is combined after the re-encoded compressed video signal that is affected by the state of the buffer of the re-encoded compressed video data. A sufficient condition for the compressed video data of the non-re-encoded portion not to overflow or underflow is that the first I picture or P of the compressed edited video data of the non-re-encoded portion combined after the re-encoded compressed video signal. In FIG. 7, the Occupancy of the P picture indicated by D in FIG. 7 following the I picture indicated by A in FIG. 7 is the next to the I picture indicated by B in FIG. 7 of the
このようにすることにより、VBVバッファの破綻をできるだけ防止するようにすることができる。 By doing so, it is possible to prevent the VBV buffer from being broken as much as possible.
しかしながら、Aで示されるIピクチャおよびその次のIまたはPピクチャの発生符号量によっては、Aで示されるIピクチャのOccupancyを制御するだけでは、図7を用いて説明したように、Dで示されるPピクチャのOccupancyが、圧縮素材映像2データの図7においてCで示されるPピクチャのOccupancyに等しくなるようにすることができず、VBVバッファが破綻してしまう恐れがある。
However, depending on the generated code amount of the I picture indicated by A and the next I or P picture, it is indicated by D as described with reference to FIG. 7 only by controlling the occupancy of the I picture indicated by A. The Occupancy of the P picture cannot be made equal to the Occupancy of the P picture indicated by C in FIG. 7 of the
図8を用いて、VBVバッファが破綻してしまう場合について説明する。 A case where the VBV buffer fails will be described with reference to FIG.
一般的に、Iピクチャの発生符号量およびPピクチャの発生符号量は、Bピクチャの発生符号量よりも大きい。例えば、再エンコードして生成された圧縮映像データの後に結合される、再エンコードしない圧縮素材映像2のデータの先頭のIピクチャであるI2ピクチャの発生符号量B、および、次のPピクチャであるP5ピクチャの発生符号量Cが大きい場合について考える。
In general, the generated code amount of an I picture and the generated code amount of a P picture are larger than the generated code amount of a B picture. For example, the generated code amount B of the I 2 picture that is the leading I picture of the data of the
このとき、編集されて生成される圧縮編集映像のうちの、部分エンコードされた部分に続く部分エンコードされない部分の先頭のIピクチャに続くPピクチャにおけるDで示される部分のOccupancyが、編集前の圧縮素材映像2データのCで示される部分のOccupancyに等しくなるように、Aで示されるIピクチャのOccupancyを制御しようとしても、連続するPピクチャの符号発生量が多いために、図中Dに示されるように、バッファをアンダーフローしてしまう。この例では、編集後のI0ピクチャにおけるAで示されるIピクチャのOccupancyは、ほぼ、バッファの最大値であるため、再エンコード部分において、発生符号量をどのように制御しても、図中Dに示される部分でバッファのアンダーフローを避けることができない。すなわち、図5および図6を用いて説明した方法では、デコーダでの復号処理を100%保障することができない。
At this time, in the compressed edited video generated by editing, the occupancy of the part indicated by D in the P picture following the first I picture of the part not encoded subsequent to the part encoded part is compressed before editing. Even if an attempt is made to control the Occupancy of the I picture indicated by A so as to be equal to the Occupancy of the portion indicated by C of the
そこで、CPU20は、VBVバッファが破綻しない条件を守って再エンコードが行われるように、デコーダ22およびデコーダ23、ストリームスプライサ25、エフェクト/スイッチ26、並びに、エンコーダ27が実行する処理を制御するようにすることができる。
Therefore, the
次に、Long GOPのOpen GOP方式で圧縮された映像信号において、VBVバッファが破綻しない条件を守って編集することができる、第2の実施の形態について説明する。 Next, a description will be given of a second embodiment in which video signals compressed by the Long GOP Open GOP method can be edited while keeping the condition that the VBV buffer does not fail.
第2の実施の形態における編集装置1の動作について説明する。
The operation of the
CPU11は、サウスブリッジ15を制御して、図示しない操作入力部から供給されたユーザの操作入力を基に、HDD16から、圧縮符号化された圧縮素材映像1のデータおよび圧縮素材映像2のデータを読み出させ、ノースブリッジ12、PCIバス14、および、PCIブリッジ17を介して、メモリ18に供給させて記憶させるとともに、編集点を示す情報と、編集開始を示すコマンドを、ノースブリッジ12、PCIバス14、PCIブリッジ17、および、コントロールバス19を介して、CPU20に供給する。
The
CPU20は、CPU11から供給された編集点を示す情報を基に、圧縮符号化された圧縮素材映像1のデータおよび圧縮素材映像2のデータのうち、再エンコードを行う範囲を決定する。
Based on the information indicating the edit point supplied from the
具体的には、CPU20は、圧縮素材映像1において、再エンコードする区間の開始点を、部分再エンコードされた圧縮映像の前に結合する、再エンコードしない部分の圧縮映像のディスプレイオーダで最後のピクチャのピクチャタイプが、IピクチャまたはPピクチャになるように決定する。
Specifically, in the
すなわち、CPU20は、例えば、図9に示されるように、再エンコードしない部分の圧縮素材映像1のディスプレイオーダで最後のピクチャのピクチャタイプがPピクチャ46になるように、再エンコードする区間の開始点を、圧縮素材映像1において、Pピクチャ35の次のBピクチャ36に決定する。換言すれば、CPU20は、再エンコードしない部分の圧縮映像がGOPの終了位置となるようにすることにより、エンコード処理が行いやすいようにすることができる。
That is, for example, as shown in FIG. 9, the
また、CPU20は、圧縮素材映像2において、再エンコードする区間の終了点を、部分再エンコードされた圧縮映像の後に結合する、再エンコードしない部分の圧縮映像のディスプレイオーダで最初のピクチャのピクチャタイプがIピクチャになるように決定する。
Further, the
すなわち、CPU20は、例えば、図9に示されるように、再エンコードしない部分の圧縮素材映像2のディスプレイオーダで最初のピクチャのピクチャタイプがIピクチャ47になるように、再エンコードする区間の終了点を、圧縮素材映像2において、Iピクチャ40の前のBピクチャ39に決定する。
That is, for example, as shown in FIG. 9, the
そして、CPU20は、PCIブリッジ17を制御して、メモリ18に記憶されている圧縮符号化された圧縮素材映像1のデータのうち、再エンコードを行う範囲のピクチャと、Bピクチャ36およびBピクチャ37をデコードするために参照する必要があるピクチャである、Iピクチャ31、Pピクチャ32、Pピクチャ33、Pピクチャ34、および、Pピクチャ35のデータをデコーダ22に供給させるとともに、圧縮素材映像2のデータのうち、再エンコードを行う範囲のピクチャと、Bピクチャ38およびBピクチャ39をデコードするために参照する必要があるピクチャである、Iピクチャ40のデータをデコーダ23に供給させる。
Then, the
また、このとき、CPU20は、PCIブリッジ17を制御して、メモリ18に記憶されている圧縮符号化された圧縮素材映像1および圧縮素材映像2のデータのうちの再エンコードを行わない範囲のピクチャを、ストリームスプライサ25に供給させる。
At this time, the
CPU20は、デコーダ22およびデコーダ23を制御して、供給された圧縮符号化されたデータをデコードさせる。
The
デコーダ22およびデコーダ23は、CPU20の制御に基づいて、供給されたデータをデコードし、復号されて得られた素材映像1および素材映像2の信号をエフェクト/スイッチ26に供給する。エフェクト/スイッチ26は、CPU20の制御に基づいて、所定のカット(Cut)編集点(スプライス点)で、非圧縮の復号素材映像1と復号素材映像2の信号を接続して、必要に応じて、エフェクトを施し、再エンコード用の非圧縮の編集映像信号を生成し、再エンコードに必要な再エンコード用参照画像(図9においては、Bピクチャ42およびBピクチャ43のエンコードに必要なPピクチャ41、並びに、Bピクチャ72およびBピクチャ73のエンコードに必要なIピクチャ74に対応する画像データ)とともに、エンコーダ27に供給する。
The
CPU20は、圧縮素材映像2のうち、再エンコードを行う部分において、ディスプレイオーダで最後に位置する連続するBピクチャの枚数nの情報を取得する。再エンコードしない部分の圧縮素材映像2のディスプレイオーダで最初のピクチャのピクチャタイプは、上述したように、Iピクチャになるように決定されているので、Bピクチャの枚数nは、すなわち、再エンコードしない部分の圧縮素材映像2のディスプレイオーダで最初のIピクチャと、編集後にそのIピクチャの直前に存在するIピクチャまたはPピクチャとの間にあるBピクチャの枚数である。図9における場合では、Bピクチャの枚数nは、Bピクチャ38およびBピクチャ39の2枚である。
The
更に、CPU20は、再エンコードしない部分の圧縮素材映像2のディスプレイオーダで最初のIピクチャの直前に存在するIピクチャまたはPピクチャ、換言すれば、再エンコードする範囲の最後に存在するIピクチャまたはPピクチャのピクチャタイプの情報を取得する。図9における場合では、再エンコードしない部分の圧縮素材映像2のディスプレイオーダで最初のIピクチャの直前に存在するIピクチャまたはPピクチャは、Pピクチャ61である。
Further, the
そして、CPU20は、エンコーダ27が実行する処理において、再エンコード終了点付近のBピクチャタイプの枚数が編集前の圧縮素材映像2と同一となり、そのBピクチャの直前のピクチャのピクチャタイプがIピクチャまたはPピクチャとなるように、エンコーダ27を制御する。また、CPU20は、Bピクチャの直前のピクチャのピクチャタイプも、編集前の圧縮素材映像2と同一となるように制御すると好適である。
Then, in the processing executed by the
すなわち、CPU20は、図9における場合では、編集前の圧縮素材映像2のBピクチャ38およびBピクチャ39と、再エンコードにおけるBピクチャ72およびBピクチャ73のピクチャタイプをそろえ、再エンコードにおけるBピクチャ72およびBピクチャ73の直前をPピクチャ71とする。
That is, in the case of FIG. 9, the
エンコーダ27は、CPU20の制御に基づいて、エフェクト/スイッチ26から供給された、再エンコード用の非圧縮の編集映像信号をエンコードする。
Based on the control of the
そして、エンコーダ27において再エンコードされた映像データは、ストリームスプライサ25に供給される。シンタクス更新部28は、CPU20の制御に基づいて、必要に応じて、ストリームスプライサ25に供給された圧縮符号化された素材映像データのシンタクスを更新する。シンタクス更新部28により、シンタクスが更新される場合については、後述する。ストリームスプライサ25は、CPU20の制御に基づいて、PCIブリッジ17から供給された、圧縮素材映像1および圧縮素材映像2のデータのうちの再エンコードを行わない範囲の圧縮素材映像1および圧縮素材映像2と、エンコーダ27から供給されたエンコードされた映像データとを接続し、圧縮編集映像データを生成する。
The video data re-encoded by the
具体的には、ストリームスプライサ25は、CPU20の制御に基づいて、PCIブリッジ17から供給された、圧縮素材映像1のPピクチャ46とエンコーダ27から供給されたエンコードされた映像データのBピクチャ42とがディスプレイオーダで連続するように接続され、エンコーダ27から供給されたエンコードされた映像データのBピクチャ73と、PCIブリッジ17から供給された、圧縮素材映像2のIピクチャ47とがディスプレイオーダで連続するように接続されるように、ストリームをつなぎ合わせる。
Specifically, the
実際のエンコードはコーディングオーダで行われ、エンコーダ27においてエンコードされた圧縮映像も、コーディングオーダで出力される。図9を用いて説明した場合に対応させて、圧縮された信号におけるピクチャの並びをコーディングオーダで示したものを図10に示す。
Actual encoding is performed in the coding order, and the compressed video encoded by the
すなわち、ストリームスプライサ25は、CPU20の制御に基づいて、再エンコードされた部分と再エンコードされていない部分の接続点において、エンコードされた映像データにおいて、コーディングオーダでPピクチャ71に続くBピクチャ81と、圧縮素材映像2のIピクチャ47(再エンコードされていないIピクチャ)とがコーディングオーダで連続するように接続され、圧縮素材映像2のIピクチャ47と、エンコードされた映像データのBピクチャ72とがコーディングオーダで連続するように接続され、エンコードされた映像データにおいて、コーディングオーダでBピクチャ72に続くBピクチャ73と、圧縮素材映像2のPピクチャ82とがコーディングオーダで連続するように接続されるように、ストリームをつなぎ合わせる。
That is, the
換言すれば、ストリームスプライサ25は、コーディングオーダにおいて、再エンコードされた区間の最後のIピクチャまたはPピクチャに続く、n枚の再エンコードされたBピクチャの前に、再エンコードされていないIピクチャが入るように、ストリームをつなぎ合わせる。
In other words, the
そして、ストリームスプライサ25は、CPU20の制御に基づいて、作成した圧縮編集映像データをPCIブリッジ17に供給して、メモリ18に保存させるとともに、デコーダ24に供給してデコードさせ、編集結果確認用のモニタなどに出力させて表示させたり、デコードされて生成されたベースバンド信号を、他の装置に出力させる。デコーダ24が、独立した装置として構成されている場合、デコーダ24に対応する装置は、図9および図10を用いて説明したようにして生成された、換言すれば、再エンコードされた区間の最後のIピクチャまたはPピクチャに続く、n枚の再エンコードされたBピクチャの前に、再エンコードされていないIピクチャが入る編集後の圧縮映像データの供給を受けてこれをデコードし、デコードされて生成されたベースバンド信号を出力することができるようになされる。
Then, the
次に、図11を用いて、図9および図10を用いて説明した、再エンコードを利用した編集処理を行う場合のVBVバッファについて説明する。 Next, a VBV buffer in the case of performing editing processing using re-encoding described with reference to FIGS. 9 and 10 will be described with reference to FIG.
図9および図10を用いて説明した、再エンコードを利用した編集処理が行われた場合、コーディングオーダにおいて、再エンコードの最後のn枚のBピクチャの前に、再エンコードしないIピクチャが挿入される。したがって、図11に示されるように、再エンコード範囲から最後のn枚のBピクチャを除いた部分(図11のEで示される部分)は、再エンコードされないIピクチャのOccupancyが編集前と一致するように、再エンコードが行われ、その後、再エンコードされないIピクチャの発生符号量の情報(図11においては、Fで示される部分)が圧縮素材映像2の対応するIピクチャの発生符号量の情報(図11においては、Bで示される部分)から求められて、VBVバッファのOccupancyが計算される。 When the editing process using re-encoding described with reference to FIGS. 9 and 10 is performed, an I picture that is not re-encoded is inserted before the last n B pictures of re-encoding in the coding order. The Therefore, as shown in FIG. 11, in the part excluding the last n B pictures from the re-encoding range (the part indicated by E in FIG. 11), the Occupancy of the I picture that is not re-encoded matches that before editing. As described above, information on the generated code amount of the I picture that is re-encoded and is not re-encoded thereafter (the portion indicated by F in FIG. 11) is information on the generated code amount of the corresponding I picture of the compressed material video 2 (The portion indicated by B in FIG. 11) is obtained from the VBV buffer Occupancy.
その後、再エンコードしない部分の圧縮映像のVBVバッファが、オーバーフローまたはアンダーフローしないようにするため、再エンコードしない部分の圧縮映像の先頭のIピクチャの次に位置するIピクチャまたはPピクチャのOccupancyが編集前後で一致するように、再エンコード部分の最後のn枚のBピクチャ(図11においては、Gで示される部分)において、発生符号量が制御されて、エンコードが行なわれる。すなわち、図11において、編集前のCで示される発生符号量と、編集後のHで示される発生符号量は同一であるため、編集前のIで示されるOccupancyに、編集後のJで示されるOccupancyが一致するように、n枚のBピクチャの再エンコードが行われる。これにより、図11において、KおよびLで示される部分でバッファのアンダーフローは発生しない。 After that, in order to prevent the VBV buffer of the compressed video of the portion not re-encoded from overflowing or underflowing, the Occupancy of the I picture or P picture positioned next to the first I picture of the compressed video of the portion not re-encoded is edited. In the last n B pictures (the part indicated by G in FIG. 11) of the re-encoding part, the generated code amount is controlled and encoding is performed so as to match before and after. That is, in FIG. 11, since the generated code amount indicated by C before editing and the generated code amount indicated by H after editing are the same, the Occupancy indicated by I before editing is indicated by J after editing. N B pictures are re-encoded so that the Occupancy matches. Thereby, in FIG. 11, the buffer underflow does not occur in the portions indicated by K and L.
この方法では、再エンコードが行われている部分と再エンコードが行われない部分の圧縮映像の結合部におけるピクチャタイプが、編集前後で保存されているので、図11に示されるように、再エンコードが行われている部分に接続される、再エンコードが行われない部分の先頭のIピクチャの発生符号量Fと、次のIピクチャまたはPピクチャの発生符号量Hが大きくても、編集前の圧縮素材映像2のデータでVBVバッファの制約が満たされていれば、編集後の圧縮映像でも制約を満たすようにエンコードが行われるようにすることが可能である。
In this method, since the picture types in the combined portion of the compressed video of the portion where re-encoding is performed and the portion where re-encoding is not performed are stored before and after editing, as shown in FIG. 11, re-encoding is performed. Even if the generated code amount F of the first I picture connected to the portion where re-encoding is not performed and the generated code amount H of the next I picture or P picture are large, If the constraint of the VBV buffer is satisfied with the data of the
以上、図4乃至図11を用いて、双方向のフレーム間予測を用いて圧縮した映像データを編集することができる編集装置1が実行する処理の第1の実施の形態および第2の実施の形態について説明した。この編集装置1が取り扱うMPEGのSyntaxでは、Qマトリクス(Q-Matrix:Quantiser Matrix)において、以下のようなルールがある。
As described above, with reference to FIGS. 4 to 11, the first embodiment and the second embodiment of the process executed by the
1つ目のルールは、Sequence HeaderまたはQuant Matrix Extensionで、load flagが1に設定される場合、Qマトリクスがロードされ、次にQマトリクスがロードされるまで、そのQマトリクスが利用されるというものである。そして、2つ目のルールは、Sequence Headerを有するピクチャにおいては、ディフォルトのQマトリクスが利用されるというものである。3つ目のルールは、Bピクチャには、Sequence Headerを入れることができないというものである。 The first rule is that when the load flag is set to 1 in the Sequence Header or Quant Matrix Extension, the Q matrix is loaded and then used until the Q matrix is loaded. It is. The second rule is that a default Q matrix is used in a picture having a Sequence Header. The third rule is that a B header cannot contain a Sequence Header.
そして、Qマトリクスは、基本的に、前のピクチャにおいて使用されたものが次のピクチャにおいても利用される。したがって、編集において、再エンコードを行わない部分と再エンコードを行った部分の圧縮映像データが結合されることにより、利用するべきQマトリクスに不整合が発生し、不具合が発生する恐れがある。 Then, basically, the Q matrix used in the previous picture is also used in the next picture. Therefore, in editing, the compressed video data of the portion that has not been re-encoded and the portion that has been re-encoded are combined, so that inconsistency may occur in the Q matrix to be used, which may cause problems.
Long GOP方式の圧縮においては、ある間隔でIピクチャが挿入されており、Iピクチャから次のIピクチャの直前のピクチャまでが1GOPとされている。一般的には、ランダムアクセスを可能にするため、Iピクチャの前にSequence Headerが挿入される。 In the Long GOP compression, an I picture is inserted at a certain interval, and a range from an I picture to a picture immediately before the next I picture is 1 GOP. Generally, in order to enable random access, a Sequence Header is inserted before the I picture.
図2を用いて説明したように、Closed GOP構造の圧縮映像データの編集処理において、GOP単位の圧縮映像データの結合により編集が行われる場合、編集素材となる圧縮映像データにおいて、GOP毎にSequence Headerが挿入されていれば、Qマトリクスが異なる圧縮映像データを編集しても、Sequence Headerの直前で、再エンコードされた部分と再エンコードされていない部分の圧縮映像データが結合される。したがって、編集後のデータにおいて、利用するべきQマトリクスに不整合は発生せず、不具合は発生しない。 As described with reference to FIG. 2, when editing is performed by combining compressed video data in units of GOPs in the editing processing of compressed video data having a closed GOP structure, the sequence for each GOP in the compressed video data serving as the editing material. If the header is inserted, even if the compressed video data having a different Q matrix is edited, the compressed video data of the re-encoded portion and the non-re-encoded portion are combined immediately before the Sequence Header. Therefore, in the edited data, no inconsistency occurs in the Q matrix to be used, and no malfunction occurs.
これに対して、上述した第1の実施の形態、または、第2の実施の形態における場合のように、Closed GOP構造でないOpen GOP構造の圧縮映像データを、GOP単位とは関係なく接続して編集するとき、Sequence Headerの直前で、再エンコードされた部分と再エンコードされていない部分の圧縮映像データが結合されるとは限らない。したがって、Qマトリクスが異なる圧縮映像データを編集すると、編集の前後においてQマトリクスに不整合が発生してしまう。なお、Closed GOP構造であっても、Iピクチャの前にSequence Headerが挿入されていない場合、Open GOP構造における場合と同様に、編集の前後でQマトリクスに不整合が発生してしまう。 In contrast, as in the first embodiment or the second embodiment described above, compressed video data having an Open GOP structure that is not a Closed GOP structure is connected regardless of the GOP unit. When editing, the compressed video data of the re-encoded part and the non-re-encoded part are not necessarily combined immediately before the Sequence Header. Therefore, when compressed video data having different Q matrices are edited, inconsistency occurs in the Q matrix before and after editing. Even in the Closed GOP structure, if the Sequence Header is not inserted before the I picture, inconsistency occurs in the Q matrix before and after editing as in the Open GOP structure.
以下、図12乃至図21を用いて、編集前後においてQマトリクスに不整合を発生させることなく、LongGOPのOpenGOP方式の圧縮符号化データを編集するために実行される処理について説明する。 Hereinafter, a process executed to edit LongGOP OpenGOP compression-encoded data without causing inconsistency in the Q matrix before and after editing will be described with reference to FIGS.
まず、図12を用いて、上述した第1の実施の形態における場合の、編集時の不具合の発生例について説明する。 First, with reference to FIG. 12, an example of occurrence of a problem during editing in the case of the above-described first embodiment will be described.
なお、図12における各圧縮映像の並び順は、コーディングオーダで記載されており、このデータの並び順は、図6を用いて説明した場合と同一である。また、図12において、Qマトリクスとして記載されているアルファベットが同一であるピクチャは、同一のQマトリクスを用いているものとし、QマトリクスがAのとき、ディフォルトのQマトリクスが用いられているものとする。そして、図中の「1」の記載は、Qマトリクスロードフラグ(Load_Flag)が1となっているピクチャを示すものであり、Qマトリクスロードフラグが1となっているピクチャにおいて、Qマトリクスがロードされるように設定されているものとする。また、図12に示される部分のピクチャにおいては、Sequence Headerが挿入されているピクチャは存在しない。 Note that the arrangement order of each compressed video in FIG. 12 is described in a coding order, and this data arrangement order is the same as that described with reference to FIG. In FIG. 12, pictures with the same alphabet described as the Q matrix use the same Q matrix. When the Q matrix is A, the default Q matrix is used. To do. The description of “1” in the figure indicates a picture having a Q matrix load flag (Load_Flag) of 1. In a picture having a Q matrix load flag of 1, the Q matrix is loaded. It is assumed that it is set to Further, in the picture of the portion shown in FIG. 12, there is no picture in which the Sequence Header is inserted.
第1の実施の形態においては、圧縮素材映像1および圧縮素材映像2のデータのそれぞれで、コーディングオーダにおいて、再エンコード部分の先頭がIピクチャとなり、再エンコード部分の終了点がGOPの切れ目、すなわち、Bピクチャ以外となるように、編集点付近の所定の範囲が再エンコード範囲として定められ、それらのデータがデコードされて、編集点で接続された後、再エンコードされる。そして、再エンコードされて生成された圧縮映像データは、デコードされていない圧縮素材映像1および圧縮素材映像2のデータと接続される。
In the first embodiment, in each of the data of the
すなわち、図12に示されるように、編集素材となる圧縮素材映像1のデータのBピクチャ101以前のピクチャは、再エンコードされないで用いられるデータとして、ストリームスプライサ25に供給される。また、編集素材となる圧縮素材映像1のデータのIピクチャ102からBピクチャ103以降の所定の範囲の部分は、再エンコードされる部分のデータとして、参照に必要なピクチャ(例えば、Iピクチャ31、Pピクチャ32乃至Pピクチャ35)とともに、デコーダ22に供給される。同様に、編集素材となる圧縮素材映像2のデータのBピクチャ104以前の適当なピクチャからBピクチャ105までのピクチャ、並びに、Bピクチャ38およびBピクチャ39は、再エンコードされる部分のデータとして、参照に必要なピクチャ(例えば、Iピクチャ40)とともに、デコーダ23に供給される。また、編集素材となる圧縮素材映像2のデータのIピクチャ40、および、Pピクチャ106以降のピクチャは、再エンコードされないで用いられるデータとして、ストリームスプライサ25に供給される。
That is, as shown in FIG. 12, the pictures before the
ここで、編集素材である圧縮素材映像1のデータにおいて、Qマトリクスロードフラグに1がセットされているBピクチャ101の直前のピクチャまでのピクチャにおいては、ディフォルトの「A」で示されるQマトリクスが用いられ、Qマトリクスロードフラグに1がセットされているBピクチャ101から、次にQマトリクスロードフラグに1がセットされているBピクチャ121の直前のピクチャまでの範囲においては、「B」で示されるQマトリクスが利用され、Qマトリクスロードフラグに1がセットされているBピクチャ121以降、次にQマトリクスロードフラグに1がセットされているか、または、Sequence Headerが挿入されているピクチャまでの間の範囲においては、ディフォルトの「A」で示されるQマトリクスが用いられる。
Here, in the data of the
また、編集素材である圧縮素材映像2のデータにおいて、Qマトリクスロードフラグに1がセットされているBピクチャ122の直前のピクチャであるBピクチャ104までのピクチャにおいては、「B」で示されるQマトリクスが利用され、Qマトリクスロードフラグに1がセットされているBピクチャ122から、次にQマトリクスロードフラグに1がセットされているBピクチャ39の直前のピクチャであるBピクチャ38までの範囲においては、「C」で示されるQマトリクスが利用され、Qマトリクスロードフラグに1がセットされているBピクチャ39から、次にQマトリクスロードフラグに1がセットされているBピクチャ123の直前のピクチャであるBピクチャ107までの範囲においては、「B」で示されるQマトリクスが利用され、Qマトリクスロードフラグに1がセットされているBピクチャ123以降、次にQマトリクスロードフラグに1がセットされているか、または、Sequence Headerが挿入されているピクチャまでの間の範囲においては、「D」で示されるQマトリクスが利用される。
Further, in the data of the
このようにQマトリクスの利用が設定されている編集素材である圧縮素材映像1および圧縮素材映像2のデータが、上述した範囲でデコードされて編集点で接続された後、エンコードされて生成された圧縮映像データのそれぞれのピクチャのQマトリクスにおいて、先頭のIピクチャ108から、Qマトリクスロードフラグに1がセットされているBピクチャ110の直前であるBピクチャ109までのQマトリクスは、ディフォルトの「A」で示されるQマトリクスであり、Qマトリクスロードフラグに1がセットされているBピクチャ110以降最後のピクチャであるPピクチャ45までのピクチャにおけるQマトリクスは、「D」で示されるQマトリクスである。
The
しかしながら、再エンコードされていない部分と再エンコードされた部分とが接続された後の圧縮編集映像において、Qマトリクスが変わってしまう場合がある。例えば、Iピクチャ108から、Qマトリクスロードフラグに1がセットされているBピクチャ110の直前であるBピクチャ109までのQマトリクスは、編集前においては「A」であったにもかかわらず、編集後は、Iピクチャ108の直前のBピクチャ113と同一の「B」で示されるQマトリクスとなってしまい、不整合が発生している。また、再エンコードされた部分に接続された再エンコードされていない部分においては、Qマトリクスロードフラグに1がセットされているBピクチャ116の直前であるBピクチャ115までのQマトリクスは、編集前においては「C」または「B」であったにもかかわらず、編集後は、Pピクチャ45と同一の「D」で示されるQマトリクスとなってしまい、不整合が発生している。
However, the Q matrix may change in the compressed edited video after the un-encoded part and the re-encoded part are connected. For example, the Q matrix from the
このように、編集のために接続される部分において、接続点がSequence Headerの直前またはQマトリクスロードフラグが1のピクチャの直前でなければ不整合が発生してしまうので、次のデコード処理時に、エンコード時と異なるQマトリクスを使ってデコードしてしまい、正常な復号映像が得られなくなってしまう恐れがある。 As described above, in the portion connected for editing, inconsistency occurs unless the connection point is immediately before the Sequence Header or immediately before the picture whose Q matrix load flag is 1, so at the time of the next decoding process, There is a risk that normal decoded video cannot be obtained because the decoding is performed using a Q matrix different from that used for encoding.
したがって、Qマトリクスの不整合の発生を防止し、次のデコード処理時に正常な復号映像を得ることができるようにするためには、編集のために接続される部分の接続点の後となるピクチャのQマトリクスが編集の前後で変わらないようにする必要がある。 Therefore, in order to prevent the occurrence of inconsistency in the Q matrix and to obtain a normal decoded video during the next decoding process, the picture after the connection point of the portion connected for editing It is necessary to prevent the Q matrix from changing before and after editing.
次に、図13を参照して、第1の実施の形態において、Qマトリクスの不整合の発生を防止し、次のデコード処理時に正常な復号映像を得ることができるようにするために実行される処理について説明する。 Next, referring to FIG. 13, in the first embodiment, it is executed in order to prevent occurrence of Q matrix mismatch and obtain a normal decoded video during the next decoding process. The processing will be described.
図13に示されるように、第1の実施の形態においては、再エンコードの開始点がGOPの先頭となるように、再エンコード範囲が決められている。したがって、CPU20は、エンコーダ27を制御して、再エンコード範囲の先頭のピクチャであるIピクチャ108にSequence Headerを挿入するか、または、Qマトリクスをロードするように、Qマトリクスロードフラグに1を設定する。エンコーダ27は、CPU20の制御に基づいて、再エンコード範囲の先頭のピクチャであるIピクチャ108にSequence Headerを挿入するか、または、Qマトリクスロードフラグに1を設定する。これにより、圧縮編集画像データにおいてIピクチャ108の直前のピクチャとなるBピクチャ113のQマトリクスの設定にかかわらず、編集前後でQマトリクスの不整合は発生しない。
As shown in FIG. 13, in the first embodiment, the re-encoding range is determined so that the re-encoding start point is at the head of the GOP. Therefore, the
また、図13に示されるように、第1の実施の形態においては、再エンコードの終了点のピクチャタイプがBピクチャ以外(ここでは、Pピクチャ45)となるようになされており、再エンコードの終了点に接続される再エンコードされない部分の先頭は、コーディングオーダにおいて、Iピクチャ47である。ここで、Iピクチャ47の前に、Sequence Headerが挿入されている場合、Qマトリクスの不整合は発生しない。上述したように、通常、ランダムアクセスのため、Iピクチャの前にはSequence Headerが挿入されている。また、Iピクチャ47の前に、Sequence Headerが挿入されていなくても、Iピクチャ47で、Qマトリクスがロードされるように、Qマトリクスロードフラグに1が設定されている場合にも、Qマトリクスの不整合は発生しない。したがって、CPU20は、Iピクチャ47の前に、Sequence Headerが挿入されているか否か、および、Iピクチャ47で、Qマトリクスがロードされるように、Qマトリクスロードフラグに1が設定されているか否かを判断する。
Further, as shown in FIG. 13, in the first embodiment, the picture type at the end point of re-encoding is set to other than B picture (here, P picture 45), and re-encoding is performed. The head of the non-re-encoded part connected to the end point is the
すなわち、CPU20は、Iピクチャ47に対応する圧縮素材映像2のIピクチャ40において、Sequence Headerが挿入されているか否か、および、Iピクチャ47で、Qマトリクスがロードされるように、Qマトリクスロードフラグに1が設定されているか否かを判断する。なお、CPU20は、圧縮素材映像2のIピクチャ40において、Sequence Headerが挿入されているか否か、および、Qマトリクスロードフラグに1が設定されているか否かを示す情報を、デコーダ23から取得することができるようにしてもよいし、または、CPU11から取得することができるようにしてもよい。
That is, the
例えば、デコーダ23が、圧縮素材映像2のデータをデコードするときに、Iピクチャ40においてSequence Headerが挿入されているか否か、および、Qマトリクスロードフラグに1が設定されているか否かを示す情報を抽出して、CPU20に供給することができるようにしてもよいし、または、Iピクチャ40にいてSequence Headerが挿入されているか否か、および、Qマトリクスロードフラグに1が設定されているか否かを検出して、CPU20に通知することができるようにしてもよい。または、CPU11が、サウスブリッジ15を制御して、圧縮素材映像2のデータをHDD16から読み出させ、ノースブリッジ12に供給させたとき、ノースブリッジ12の圧縮素材映像2のデータからIピクチャ40においてSequence Headerが挿入されているか否か、および、Qマトリクスロードフラグに1が設定されているか否かを示す情報を抽出し、CPU20に供給することができるようにしてもよいし、または、Iピクチャ40にいてSequence Headerが挿入されているか否か、および、Qマトリクスロードフラグに1が設定されているか否かを検出して、CPU20に通知することができるようにしてもよい。
For example, when the
Iピクチャ47の前に、Sequence Headerが挿入されておらず、かつ、Qマトリクスロードフラグに1が設定されていないと判断された場合、CPU20は、圧縮素材映像2のIピクチャ40におけるQマトリクスの情報を取得し、エンコーダ27を制御して、このQマトリクスを用いてIピクチャ47の直前のPピクチャ45をエンコードさせる。エンコーダ27は、Iピクチャ47の前に、Sequence Headerが挿入されておらず、かつ、Qマトリクスロードフラグに1が設定されていない場合、CPU20の制御に基づいて、圧縮素材映像2のIピクチャ40におけるQマトリクスを用いて、Iピクチャ47の直前のPピクチャ45をエンコードするとともに、Qマトリクスロードフラグに1を設定する。なお、CPU20は、圧縮素材映像2のIピクチャ40におけるQマトリクスの情報を、デコーダ23から取得することができるようにしてもよいし、または、CPU11から取得することができるようにしてもよい。
When it is determined that the Sequence Header is not inserted before the
例えば、デコーダ23が、圧縮素材映像2のデータをデコードするときに、Iピクチャ40におけるQマトリクスの情報を抽出し、CPU20に供給することができるようにしてもよいし、CPU11が、サウスブリッジ15を制御して、圧縮素材映像2のデータをHDD16から読み出させ、ノースブリッジ12に供給させたとき、ノースブリッジ12の圧縮素材映像2のデータからIピクチャ40におけるQマトリクスの情報を抽出し、CPU20に供給することができるようにしてもよい。
For example, when the
また、Iピクチャ47の次のIピクチャまたはPピクチャ、すなわち、図13におけるPピクチャ114においてQマトリクスの不整合が発生するのは、編集前の圧縮素材映像2のIピクチャ40とPピクチャ106とのQマトリクスが異なり、かつ、Pピクチャ106でQマトリクスロードフラグに1が設定されていない場合である。したがって、CPU20は、編集前の圧縮素材映像2のIピクチャ40とPピクチャ106とのQマトリクスが異なっているか否か、および、Pピクチャ106で、Qマトリクスがロードされるように、Qマトリクスロードフラグに1が設定されているか否かを判断する。
Also, in the I picture or P picture next to the
なお、CPU20は、編集前の圧縮素材映像2のIピクチャ40とPピクチャ106とのQマトリクスの情報、および、Pピクチャ106のQマトリクスロードフラグの値を示す情報を、CPU11から取得することができるようにしてもよい。
Note that the
例えば、CPU11が、サウスブリッジ15を制御して、圧縮素材映像2のデータをHDD16から読み出させ、ノースブリッジ12に供給させたとき、ノースブリッジ12の圧縮素材映像2のデータから編集前の圧縮素材映像2のIピクチャ40とPピクチャ106とのQマトリクスの情報、および、Pピクチャ106のQマトリクスロードフラグの値を示す情報を抽出し、CPU20に供給することができるようにしてもよい。
For example, when the
Iピクチャ40とPピクチャ106とのQマトリクスが異なり、かつ、Pピクチャ106でQマトリクスロードフラグに1が設定されていない場合、CPU20は、シンタクス更新部28を制御して、Pピクチャ114にQuant Matrix Extensionを追加し、次のデコードにおいてQマトリクスをロードすることができるように、Qマトリクスロードフラグに1を設定させる。シンタクス更新部28は、CPU20の制御に基づいて、Pピクチャ114にQuant Matrix Extensionを追加し、Qマトリクスロードフラグに1を設定する。
When the Q matrix of the
次に、図14のフローチャートを参照して、OpenGOP構造の圧縮映像データを、VBVバッファをできるだけ破綻させることがないように編集し、かつ、編集前後でQマトリクスの不整合が起こらないようになされている、第1の実施の形態における編集処理1について説明する。
Next, referring to the flowchart of FIG. 14, the compressed video data having the OpenGOP structure is edited so that the VBV buffer is not broken as much as possible, and the Q matrix is not inconsistent before and after editing. The
ステップS1において、CPU11は、図示しない操作入力部から、編集開始を指令するユーザからの操作入力を受け、サウスブリッジ15を制御して、図示しない操作入力部から供給されたユーザの操作入力を基に、HDD16から、圧縮符号化された圧縮素材映像1のデータおよび圧縮素材映像2のデータを読み出させ、ノースブリッジ12、PCIバス14、および、PCIブリッジ17を介して、メモリ18に供給させて記憶させるとともに、編集点を示す情報と、編集開始を示すコマンドを、ノースブリッジ12、PCIバス14、PCIブリッジ17、および、コントロールバス19を介して、CPU20に供給する。
In step S1, the
なお、このとき、CPU11は、必要に応じて、後述する再エンコードおよび接続処理1において必要な情報、すなわち、圧縮素材映像2のデータにおいて、Iピクチャ40においてSequence Headerが挿入されているか否か、および、Qマトリクスロードフラグに1が設定されているか否かを示す情報、I編集前の圧縮素材映像2のピクチャ40におけるQマトリクスの情報、または、編集前の圧縮素材映像2のIピクチャ40とPピクチャ106とのQマトリクスの情報、および、Pピクチャ106のQマトリクスロードフラグの値を示す情報を、HDD16から読み出された、圧縮符号化された圧縮素材映像1のデータおよび圧縮素材映像2のデータから抽出または検出し、ノースブリッジ12、PCIバス14、PCIブリッジ17、および、コントロールバス19を介して、CPU20に供給または通知するようにしてもよい。
At this time, the
ステップS2において、メモリ18は、圧縮符号化された2つの編集素材データを取得する。 In step S2, the memory 18 acquires two pieces of editing material data that have been compression-encoded.
ステップS3において、CPU20は、CPU11から供給された、編集点を示す情報と、編集開始を示すコマンドを基に、再エンコードの開始点がGOPの先頭となり、再エンコードの終了点のピクチャタイプがBピクチャ以外(ここでは、Pピクチャ45)となるように、圧縮符号化された編集素材データのデコード範囲を決定する。
In step S3, the
ステップS4において、CPU20は、PCIブリッジ17を制御して、メモリ18に記憶されている圧縮符号化された2つの編集素材データから、決定されたデコード範囲のデータをデコードおよび再エンコードするために必要なデータを抽出させ、デコーダ22およびデコーダ23にそれぞれ供給させる。また、このとき、CPU20は、PCIブリッジ17を制御して、再エンコードされない部分の圧縮符号化された編集素材データを、ストリームスプライサ25に供給させる。PCIブリッジ17は、CPU20の制御に基づいて、メモリ18に記憶されている圧縮符号化された2つの編集素材データから、決定されたデコード範囲のデータをデコードおよび再エンコードするために必要なデータを抽出し、デコーダ22およびデコーダ23にそれぞれ供給するとともに、再エンコードされない部分の圧縮符号化された編集素材データを、ストリームスプライサ25に供給する。
In step S4, the
ステップS5において、CPU20は、デコーダ22およびデコーダ23を制御して、決定されたデコード範囲のデータをデコードさせる。デコーダ22およびデコーダ23は、CPU20の制御に基づいて、供給された圧縮符号化された編集素材データをデコードして、エフェクト/スイッチ26に供給する。
In step S5, the
なお、このとき、デコーダ23は、必要に応じて、後述する再エンコードおよび接続処理1において必要な情報、すなわち、圧縮素材映像2のデータをデコードするときに、Iピクチャ40においてSequence Headerが挿入されているか否か、および、Qマトリクスロードフラグに1が設定されているか否かを示す情報、並びに、編集前の圧縮素材映像2のIピクチャ40におけるQマトリクスの情報を抽出または検出し、コントロールバス19を介して、CPU20に供給または通知するようにしてもよい。
At this time, the
ステップS6において、CPU20は、エフェクト/スイッチ26を制御して、デコードされたデータを編集点で接続させて、必要に応じて、エフェクトをかけさせる。エフェクト/スイッチ26は、CPU20の制御に基づいて、供給された非圧縮の復号映像素材を編集点で接続して、必要に応じて、エフェクトをかけ、エンコーダ27に供給する。
In step S6, the
ステップS7において、図15を用いて後述する、再エンコードおよび接続処理1が実行され、処理は終了される。
In step S7, a re-encoding and
このような処理により、Long GOPのOpen GOP構造の圧縮映像データの編集点付近を部分的にデコードし、デコードされた非圧縮の映像信号を所定の編集点で接続した後、再エンコードを行い、デコードおよび再エンコードされていない部分の圧縮映像データと接続することにより、Long GOPのOpen GOP構造の圧縮映像データの編集を実現することができる。 By such processing, the vicinity of the edit point of the compressed video data of the Open GOP structure of Long GOP is partially decoded, and after the decoded uncompressed video signal is connected at a predetermined edit point, re-encoding is performed, By connecting to the compressed video data of the part that has not been decoded and re-encoded, editing of the compressed video data of the Long GOP Open GOP structure can be realized.
次に、図15のフローチャートを参照して、図14のステップS7において実行される、再エンコードおよび接続処理1について説明する。
Next, the re-encoding and
ステップS21において、エンコーダ27は、CPU20の制御に基づいて、コーディングオーダで再エンコードの開始点となるピクチャをIピクチャとし、シーケンスヘッダを挿入して、エンコードを行う。
In step S21, under the control of the
ステップS22において、エンコーダ27は、次にエンコードを行おうとしているピクチャは、再エンコードしない部分との接続点となるピクチャであるか否か、すなわち、図13における場合では、Pピクチャ45であるか否かを判断する。ステップS22において、次にエンコードを行おうとしているピクチャは、再エンコードしない部分との接続点となるピクチャではないと判断された場合、処理は、後述するステップS25に進む。
In step S22, the
ステップS22において、次にエンコードを行おうとしているピクチャは、再エンコードしない部分との接続点となるピクチャであると判断された場合、ステップS23において、エンコーダ27は、CPU20に、次にエンコードを行おうとしているピクチャは、再エンコードしない部分との接続点となるピクチャであることを通知する。CPU20は、CPU11、または、デコーダ23から供給された、圧縮素材映像2のIピクチャ40においてSequence Headerが挿入されているか否か、および、Qマトリクスロードフラグに1が設定されているか否かを示す情報を基に、再エンコードの最後のピクチャに結合される再エンコードされない部分の先頭のピクチャ、すなわち、Iピクチャ47に、シーケンスヘッダが挿入されているか、または、Qマトリクスがロードされるように設定されているか否かを判断する。ステップS23において、再エンコードの最後のピクチャに結合される再エンコードされない部分の先頭のピクチャに、シーケンスヘッダが挿入されているか、または、Qマトリクスがロードされるように設定されていると判断された場合、処理は、後述するステップS25に進む。
In step S22, when it is determined that the picture to be encoded next is a picture that becomes a connection point with a portion not to be re-encoded, in step S23, the
ステップS23において、再エンコードの最後のピクチャに結合される再エンコードされない部分の先頭のピクチャに、シーケンスヘッダが挿入されておらず、かつ、Qマトリクスがロードされるように設定されていないと判断された場合、ステップS24において、CPU20は、デコーダ23またはCPU11から、編集前の圧縮素材映像2の対応するピクチャ、すなわち、圧縮素材映像2のIピクチャ40のQマトリクスを取得し、同一のQマトリクスを用いてPピクチャ45のエンコードが行われるように、エンコーダ27を制御する。エンコーダ27は、CPU20の制御に基づいて、再エンコードしない部分との接続点となるピクチャであるPピクチャ45を、圧縮素材映像2のIピクチャ40のQマトリクスを用いてエンコードするとともに、Qマトリクスロードフラグに1を設定する。
In step S23, it is determined that the sequence header is not inserted in the first picture of the part that is not re-encoded and is combined with the last picture of re-encoding, and the Q matrix is not set to be loaded. In step S24, the
ステップS22において、次にエンコードを行おうとしているピクチャは、再エンコードしない部分との接続点となるピクチャではないと判断された場合、もしくは、ステップS23において、再エンコードの最後のピクチャに結合される再エンコードされない部分の先頭のピクチャに、シーケンスヘッダが挿入されているか、または、Qマトリクスがロードされるように設定されていると判断された場合、ステップS25において、エンコーダ27は、CPU20の制御に基づいて、通常アルゴリズムで定められるQマトリクスを用いて、ピクチャのエンコードを行う。
If it is determined in step S22 that the picture to be encoded next is not a picture that becomes a connection point with a portion not to be re-encoded, or is combined with the last picture to be re-encoded in step S23. If it is determined that the sequence header is inserted in the first picture of the part that is not re-encoded or the Q matrix is set to be loaded, the
ステップS24またはステップS25の処理の終了後、ステップS26において、エンコーダ27は、再エンコードが終了したか否かを判断する。ステップS26において、再エンコードが終了していないと判断された場合、処理は、ステップS22に戻り、それ以降の処理が繰り返される。
After the process of step S24 or step S25 is completed, in step S26, the
ステップS26において、再エンコードが終了したと判断された場合、ステップS27において、CPU20は、デコーダ23またはCPU11から供給される情報を基に、再エンコードされる部分に続く再エンコードされない部分の1つ目と2つ目のIピクチャまたはPピクチャ、すなわち、Iピクチャ47とPピクチャ114との編集前のQマトリクスは同一であるか否かを判断する。ステップS27において、再エンコードされる部分に続く再エンコードされない部分の1つ目と2つ目のIピクチャまたはPピクチャの編集前のQマトリクスは同一であると判断された場合、処理は、後述するステップS30に進む。
If it is determined in step S26 that the re-encoding has been completed, in step S27, the
ステップS27において、再エンコードされる部分に続く再エンコードされない部分の1つ目と2つ目のIピクチャまたはPピクチャの編集前のQマトリクスは同一ではないと判断された場合、ステップS28において、CPU20は、デコーダ23またはCPU11から供給される情報を基に、再エンコードされる部分に続く再エンコードされない部分の2つ目のIピクチャまたはPピクチャ、すなわち、Pピクチャ114は、Qマトリクスがロードされるように設定されているか否かを判断する。ステップS28において、再エンコードされる部分に続く再エンコードされない部分の2つ目のIピクチャまたはPピクチャは、Qマトリクスがロードされるように設定されていると判断された場合、処理は、後述するステップS30に進む。
If it is determined in step S27 that the first and second I-picture or P-picture Q-matrix of the non-re-encoded part following the re-encoded part is not the same, the
ステップS28において、再エンコードされる部分に続く再エンコードされない部分の2つ目のIピクチャまたはPピクチャは、Qマトリクスがロードされるように設定されていないと判断された場合、ステップS29において、CPU20は、シンタクス更新部28を制御して、再エンコードされる部分に続く再エンコードされない部分の2つ目のIピクチャまたはPピクチャ、すなわち、Pピクチャ114のシンタクスを更新させ、QuantMatrixExtentionを追加させ、次のデコード時にQマトリクスがロードされるように設定させる。シンタクス更新部28は、CPU20の制御に基づいて、再エンコードされる部分に続く再エンコードされない部分の2つ目のIピクチャまたはPピクチャ、すなわち、Pピクチャ114のシンタクスを更新して、QuantMatrixExtentionを追加して、次のデコード時にQマトリクスがロードされるように設定する。
If it is determined in step S28 that the second I picture or P picture of the part that is not re-encoded following the part to be re-encoded is not set to be loaded with the Q matrix, in step S29, the
ステップS27において、再エンコードされる部分に続く再エンコードされない部分の1つ目と2つ目のIピクチャまたはPピクチャの編集前のQマトリクスは同一であると判断された場合、ステップS28において、再エンコードされる部分に続く再エンコードされない部分の2つ目のIピクチャまたはPピクチャは、Qマトリクスがロードされるように設定されていると判断された場合、もしくは、ステップS29の処理の終了後、ステップS30において、CPU20は、ストリームスプライサ25を制御して、再エンコードされていない部分と、再エンコードをされていない部分とを接続させる。ストリームスプライサ25は、CPU20の制御に基づいて、再エンコードされていない部分と、再エンコードをされていない部分、すなわち、Bピクチャ113とIピクチャ108、および、Pピクチャ45とIピクチャ47とを接続し、生成された圧縮編集映像データをPCIブリッジ17およびデコーダ24に供給して、処理は、図14のステップS7に戻り、処理が終了される。
If it is determined in step S27 that the first and second I-picture or P-picture Q-matrix of the non-re-encoded portion following the re-encoded portion is the same, the re-encoding portion is re-encoded in step S28. If it is determined that the second I picture or P picture of the part that is not re-encoded following the part to be encoded is set to be loaded with the Q matrix, or after the end of the process of step S29, In step S30, the
このような処理により、編集前後でQマトリクスに不整合が発生することがなくなるため、編集による画像の劣化を防止することができる。 By such processing, no inconsistency occurs in the Q matrix before and after editing, and image deterioration due to editing can be prevented.
次に、図16を用いて、上述した第2の実施の形態における場合の、編集時の不具合の例について説明する。 Next, an example of a problem during editing in the case of the above-described second embodiment will be described with reference to FIG.
なお、図16における圧縮映像の並び順は、コーディングオーダで記載されており、このデータの並び順は、図10を用いて説明した場合と同一である。また、図16において、Qマトリクスとして記載されているアルファベットが同一であるピクチャは、同一のQマトリクスを用いているものとし、QマトリクスがAのとき、ディフォルトのQマトリクスが用いられているものとする。そして、Qマトリクスロードフラグが1となっているピクチャにおいて、Qマトリクスがロードされるように設定されているものとする。また、図16において、Sequence Headerが挿入されているピクチャには、丸印が記載されている。 Note that the arrangement order of the compressed video in FIG. 16 is described in a coding order, and this data arrangement order is the same as that described with reference to FIG. Also, in FIG. 16, pictures with the same alphabet described as the Q matrix use the same Q matrix. When the Q matrix is A, the default Q matrix is used. To do. It is assumed that the Q matrix is set to be loaded in the picture having the Q matrix load flag set to 1. In FIG. 16, a circle in which a sequence header is inserted is described.
第2の実施の形態においては、圧縮素材映像1において、再エンコードする区間の開始点は、部分再エンコードされた圧縮映像の前に結合する、再エンコードしない部分の圧縮映像のディスプレイオーダで最後のピクチャのピクチャタイプが、IピクチャまたはPピクチャになるように決定されている。例えば、図16にも示されるように、再エンコードしない部分の圧縮素材映像1のディスプレイオーダで最後のピクチャのピクチャタイプがPピクチャ(Pピクチャ46)になるように、再エンコードする区間のディスプレイオーダにおける開始点は、圧縮素材映像1において、Pピクチャ35の次のBピクチャ36に決定される。換言すれば、再エンコードしない部分の圧縮映像がGOPの終了位置となるので、エンコード処理が行いやすいようになされている。
In the second embodiment, in the
また、圧縮素材映像2において、再エンコードする区間の終了点は、部分再エンコードされた圧縮映像の後に結合する再エンコードしない部分の圧縮映像のディスプレイオーダで最初のピクチャのピクチャタイプがIピクチャになるように決定される。また、図16にも示されるように、再エンコードにおいては、再エンコードする区間の終了点付近のBピクチャタイプの枚数が編集前の圧縮素材映像2と同一となり、そのBピクチャの直前のピクチャのピクチャタイプがIピクチャまたはPピクチャとなるようになされる。
In the
すなわち、図16に示されるように、編集素材となる圧縮素材映像1のデータのBピクチャ151以前のピクチャは、再エンコードされないで用いられるデータとして、ストリームスプライサ25に供給される。また、編集素材となる圧縮素材映像1のデータのIピクチャ161からBピクチャ162以降の所定の範囲の部分は、再エンコードされる部分のデータとして、参照に必要なピクチャ(例えば、Iピクチャ31、Pピクチャ32乃至Pピクチャ35)とともに、デコーダ22に供給される。同様に、編集素材となる圧縮素材映像2のデータのBピクチャ39より前の、編集点を含む所定の範囲のピクチャは、再エンコードされる部分のデータとして、参照に必要なピクチャ(例えば、Iピクチャ40)とともに、デコーダ23に供給される。また、編集素材となる圧縮素材映像2のデータのIピクチャ40とPピクチャ152以降のピクチャは、再エンコードされないで用いられるデータとして、ストリームスプライサ25に供給される。
That is, as shown in FIG. 16, pictures before the
ここで、編集素材である圧縮素材映像1のデータにおいて、Qマトリクスロードフラグに1がセットされているBピクチャ151までのピクチャにおいては、ディフォルトの「A」で示されるQマトリクスが用いられ、Qマトリクスロードフラグに1がセットされているBピクチャ151からQマトリクスロードフラグに1がセットされているBピクチャ163の直前のピクチャまでの範囲においては、「B」で示されるQマトリクスが利用され、Qマトリクスロードフラグに1がセットされているBピクチャ163以降、次にQマトリクスロードフラグに1がセットされているか、または、Sequence Headerが挿入されているピクチャまでの間の範囲においては、ディフォルトの「A」で示されるQマトリクスが用いられる。
Here, in the data of the
また、編集素材である圧縮素材映像2のデータにおいて、Qマトリクスロードフラグに1がセットされているとともに、Sequence Headerが挿入されているIピクチャ164から、Qマトリクスロードフラグに1がセットされているBピクチャ165の直前のピクチャまでのピクチャにおいては、「B」で示されるQマトリクスが利用され、Qマトリクスロードフラグに1がセットされているBピクチャ165から、次にQマトリクスロードフラグに1がセットされているBピクチャ166の直前のピクチャであるBピクチャ153までの範囲においては、「C」で示されるQマトリクスが利用され、Qマトリクスロードフラグに1がセットされているBピクチャ166以降、次にQマトリクスロードフラグに1がセットされているか、または、Sequence Headerが挿入されているピクチャまでの間の範囲においては、「D」で示されるQマトリクスが利用される。
In addition, in the data of the
このようにQマトリクスの利用が設定されている編集素材である圧縮素材映像1および圧縮素材映像2のデータが、上述した範囲でデコードされて編集点で接続された後、エンコードされて生成された圧縮映像データにおいて、先頭のIピクチャ154から、Qマトリクスロードフラグに1がセットされているBピクチャ167の直前のピクチャまでのQマトリクスは、ディフォルトの「A」で示されるQマトリクスであり、Qマトリクスロードフラグに1がセットされているBピクチャ167から、Bピクチャ73までのQマトリクスは、「D」で示されるQマトリクスとなる。
The
しかしながら、再エンコードされていない部分と接続された後の圧縮編集映像において、Iピクチャ154にSequence Headerが挿入されていないので、Iピクチャ154から、Qマトリクスロードフラグに1がセットされているBピクチャ167の直前のピクチャまでのQマトリクスは、編集前においては「A」であったにもかかわらず、編集後には、Iピクチャ154の直前のBピクチャ151と同一の「B」で示されるQマトリクスとなってしまい、不整合が発生している。また、再エンコードされた部分に接続された再エンコードされていないIピクチャ47は、図16に示される場合においては、Sequence Headerが挿入されておらず、Qマトリクスロードフラグが1でもないので、Iピクチャ47に対応する編集前のIピクチャ40のQマトリクスが「C」であるのにもかかわらず、直前のBピクチャ81と同一の「D」で示されるQマトリクスとなってしまい、不整合が発生している。その次のBピクチャ72のQマトリクスは、図16における場合では、編集前後において「D」で一致しており、不整合が生じていないが、Iピクチャ47にSequence Headerが挿入されているか、Qマトリクスロードフラグが1であった場合、編集後のQマトリクスは、Iピクチャ47と同一となってしまい、不整合が発生する可能性がある。そして、エンコードされる最後のピクチャであるBピクチャ73に接続されるPピクチャ82から、次にSequence Headerが挿入されているか、Qマトリクスロードフラグが1であるピクチャまでのピクチャ、すなわち、図16における場合においては、Pピクチャ82およびBピクチャ155のQマトリクスは、編集前においては「C」であったにもかかわらず、編集後には、Pピクチャ82の直前のBピクチャ73と同一の「D」で示されるQマトリクスとなってしまい、不整合が発生している。
However, since the Sequence Header is not inserted in the
このように、編集のために接続される部分の接続点前後でQマトリクスが異なる場合、接続点がSequence Headerの直前またはQマトリクスロードフラグが1のピクチャの直前でなければ不整合が発生するので、次のデコード処理時に、エンコード時と異なるQマトリクスを使ってデコードしてしまうので、正常な復号映像が得られなくなってしまう恐れがある。 In this way, if the Q matrix is different before and after the connection point of the portion connected for editing, inconsistency occurs unless the connection point is immediately before the Sequence Header or immediately before the picture whose Q matrix load flag is 1. At the time of the next decoding process, since decoding is performed using a Q matrix different from that at the time of encoding, there is a possibility that a normal decoded video cannot be obtained.
したがって、Qマトリクスの不整合の発生を防止し、次のデコード処理時に正常な復号映像を得ることができるようにするためには、編集のために接続される部分の接続点の後となるピクチャのQマトリクスが編集の前後で変わらないようにする必要がある。 Therefore, in order to prevent the occurrence of inconsistency in the Q matrix and to obtain a normal decoded video during the next decoding process, the picture after the connection point of the portion connected for editing It is necessary to prevent the Q matrix from changing before and after editing.
次に、図17を参照して、第2の実施の形態において、Qマトリクスの不整合の発生を防止し、次のデコード処理時に正常な復号映像を得ることができるようにするために実行される処理について説明する。 Next, referring to FIG. 17, in the second embodiment, it is executed to prevent occurrence of Q matrix mismatch and to obtain a normal decoded video at the next decoding processing. The processing will be described.
図17に示されるように、第2の実施の形態においては、再エンコードの開始点がGOPの先頭となるように、再エンコード範囲が決められている。したがって、CPU20は、エンコーダ27を制御して、再エンコード範囲の先頭のピクチャであるIピクチャ154にSequence Headerを挿入するか、または、Qマトリクスをロードするように、Qマトリクスロードフラグに1を設定する。エンコーダ27は、CPU20の制御に基づいて、再エンコード範囲の先頭のピクチャであるIピクチャ154にSequence Headerを挿入するか、または、Qマトリクスロードフラグに1を設定する。これにより、圧縮編集画像データにおいてIピクチャ154の直前のピクチャとなるBピクチャ151のQマトリクスの設定にかかわらず、編集前後でQマトリクスの不整合は発生しない。
As shown in FIG. 17, in the second embodiment, the re-encoding range is determined so that the re-encoding start point is at the head of the GOP. Therefore, the
また、図17に示されるように、第2の実施の形態においては、圧縮素材映像2において、再エンコードされる区間の終了点は、再エンコードされた圧縮映像の後に結合する再エンコードしない部分の圧縮映像のディスプレイオーダで最初のピクチャのピクチャタイプがIピクチャになるように決定され、再エンコードにおいては、再エンコードする区間の終了点付近のBピクチャタイプの枚数が編集前の圧縮素材映像2と同一となり、そのBピクチャの直前のピクチャのピクチャタイプがIピクチャまたはPピクチャとなるようになされる。そして、再エンコードされた部分と再エンコードされない圧縮素材映像2に対応する部分の接続は、コーディングオーダで、再エンコードする区間の終了点付近の連続するBピクチャ、すなわち、Bピクチャ72および73の直前に、再エンコードされない圧縮素材映像2に対応する部分の先頭のIピクチャ47が挿入され、Bピクチャ72およびBピクチャ73に続いて、圧縮素材映像2のPピクチャ152に対応するPピクチャ82が続くようになされている。
Also, as shown in FIG. 17, in the second embodiment, the end point of the re-encoded section in the
ここで、Iピクチャ47の前に、Sequence Headerが挿入されている場合、Iピクチャ47のQマトリクスの不整合は発生しない。上述したように、通常、ランダムアクセスのため、Iピクチャの前にはSequence Headerが挿入されている。また、Iピクチャ47の前に、Sequence Headerが挿入されていなくても、Iピクチャ47で、Qマトリクスがロードされるように、Qマトリクスロードフラグに1が設定されている場合にも、Qマトリクスの不整合は発生しない。したがって、CPU20は、Iピクチャ47の前に、Sequence Headerが挿入されているか否か、および、Iピクチャ47で、Qマトリクスがロードされるように、Qマトリクスロードフラグに1が設定されているか否かを判断する。
Here, when a Sequence Header is inserted before the
すなわち、CPU20は、Iピクチャ47に対応する圧縮素材映像2のIピクチャ40において、Sequence Headerが挿入されているか否か、および、Iピクチャ47で、Qマトリクスがロードされるように、Qマトリクスロードフラグに1が設定されているか否かを判断する。なお、CPU20は、圧縮素材映像2のIピクチャ40においてSequence Headerが挿入されているか否か、および、Qマトリクスロードフラグに1が設定されているか否かを示す情報を、デコーダ23から取得することができるようにしてもよいし、または、CPU11から取得することができるようにしてもよい。
That is, the
例えば、デコーダ23が、圧縮素材映像2のデータをデコードするときに、Iピクチャ40においてSequence Headerが挿入されているか否か、および、Qマトリクスロードフラグに1が設定されているか否かを検出するか、これらを示す情報を抽出し、CPU20に供給することができるようにしてもよいし、CPU11が、サウスブリッジ15を制御して、圧縮素材映像2のデータをHDD16から読み出させ、ノースブリッジ12に供給させたとき、ノースブリッジ12の圧縮素材映像2からIピクチャ40においてSequence Headerが挿入されているか否か、および、Qマトリクスロードフラグに1が設定されているか否かを検出するか、これらを示す情報を抽出し、CPU20に供給することができるようにしてもよい。
For example, when the
Iピクチャ47の前に、Sequence Headerが挿入されておらず、かつ、Qマトリクスロードフラグに1が設定されていないと判断された場合、CPU20は、圧縮素材映像2のIピクチャ40におけるQマトリクスの情報を取得し、エンコーダ27を制御して、このQマトリクスを用いて、Iピクチャ47の直前となるBピクチャ81をエンコードさせるとともに、Qマトリクスロードフラグに1を設定させる。エンコーダ27は、Iピクチャ47の前に、Sequence Headerが挿入されておらず、かつ、Qマトリクスロードフラグに1が設定されていない場合、CPU20の制御に基づいて、圧縮素材映像2のIピクチャ40におけるQマトリクスを用いて、Bピクチャ81をエンコードするとともに、Qマトリクスロードフラグに1を設定する。なお、CPU20は、圧縮素材映像2のIピクチャ40におけるQマトリクスの情報を、デコーダ23から取得することができるようにしてもよいし、または、CPU11から取得することができるようにしてもよい。
When it is determined that the Sequence Header is not inserted before the
例えば、デコーダ23が、圧縮素材映像2のデータをデコードするときに、Iピクチャ40におけるQマトリクスの情報を抽出し、CPU20に供給することができるようにしてもよいし、CPU11が、サウスブリッジ15を制御して、圧縮素材映像2のデータをHDD16から読み出させ、ノースブリッジ12に供給させたとき、ノースブリッジ12の圧縮素材映像2からIピクチャ40におけるQマトリクスの情報を抽出し、CPU20に供給することができるようにしてもよい。
For example, when the
また、コーディングオーダで、Iピクチャ47の次に接続されるBピクチャ72においては、Iピクチャ47と同一のQマトリクスでエンコードされるようになされているか、または、Qマトリクスがロードされるように、Qマトリクスロードフラグに1が設定されていれば、Qマトリクスの不整合は発生しない。したがって、CPU20は、圧縮素材映像2のIピクチャ40におけるQマトリクスの情報を取得し、Iピクチャ47の次に接続されるBピクチャ72は、Iピクチャ47に対応するIピクチャ40におけるQマトリクスと同一のQマトリクスでエンコードされるか否か、および、Qマトリクスロードフラグに1が設定されているか否かを判断する。なお、CPU20は、圧縮素材映像2のIピクチャ40におけるQマトリクスの情報を、上述した場合と同様にして、デコーダ23から取得することができるようにしてもよいし、または、CPU11から取得することができるようにしてもよい。
Also, in the coding order, the
そして、CPU20は、Iピクチャ47の次に接続されるBピクチャ72は、Iピクチャ47に対応するIピクチャ40におけるQマトリクスと同一のQマトリクスでエンコードされておらず、かつ、Qマトリクスロードフラグに1が設定されていない場合、エンコーダ27を制御して、Bピクチャ72のQマトリクスロードフラグに1を設定させる。エンコーダ27は、CPU20の制御に基づいて、Bピクチャ72のQマトリクスロードフラグに1を設定する。
Then, the
また、コーディングオーダで、再エンコードされる最後のピクチャに続くピクチャ、すなわち、Bピクチャ73の次に接続されるPピクチャ82でQマトリクスの不整合を発生させないためには、Bピクチャ73を、編集前の圧縮素材映像2のBピクチャ39と同一のQマトリクスでエンコードするようにすればよい。このようにすれば、圧縮素材映像2のPピクチャ82(編集前の圧縮素材映像2のBピクチャ39に続くPピクチャ152に対応するピクチャ)において、Qマトリクスロードフラグに1が設定されているか否かにかかわらず、Bピクチャ73の次に接続されるPピクチャ82でQマトリクスの不整合を発生させないようにすることができる。
In order to prevent inconsistency of the Q matrix in the picture following the last picture to be re-encoded in the coding order, that is, the
すなわち、CPU20は、編集前の圧縮素材映像2のBピクチャ39におけるQマトリクスの情報を取得し、エンコーダ27を制御して、このQマトリクスを用いて、Bピクチャ73をエンコードさせるとともに、Qマトリクスロードフラグに1を設定させる。エンコーダ27は、CPU20の制御に基づいて、圧縮素材映像2のBピクチャ39におけるQマトリクスを用いて、Bピクチャ73をエンコードするとともに、Qマトリクスロードフラグに1を設定する。なお、CPU20は、圧縮素材映像2のBピクチャ39におけるQマトリクスの情報を、CPU11から取得することができる。
That is, the
例えば、CPU11が、サウスブリッジ15を制御して、圧縮素材映像2のデータをHDD16から読み出させ、ノースブリッジ12に供給させたとき、ノースブリッジ12の圧縮素材映像2のデータからBピクチャ39におけるQマトリクスの情報を抽出し、CPU20に供給することができるようにすることができる。
For example, when the
すなわち、CPU20は、CPU112から供給されたBピクチャ39におけるQマトリクスの情報をエンコーダ27に供給する。エンコーダ27は、CPU20の制御に基づいて、このQマトリクスを用いて、Bピクチャ73をエンコードする。
That is, the
次に、図18のフローチャートを参照して、OpenGOP構造の圧縮映像データを、VBVバッファを破綻させることがないように編集し、かつ、編集前後でQマトリクスの不整合が起こらないようになされている、第2の実施の形態における編集処理2について説明する。
Next, referring to the flowchart in FIG. 18, the compressed video data having the OpenGOP structure is edited so as not to break the VBV buffer, and the Q matrix is not inconsistent before and after editing. The
ステップS41において、CPU11は、図示しない操作入力部から、編集開始を指令するユーザからの操作入力を受け、サウスブリッジ15を制御して、図示しない操作入力部から供給されたユーザの操作入力を基に、HDD16から、圧縮符号化された圧縮素材映像1のデータおよび圧縮素材映像2のデータを読み出させ、ノースブリッジ12、PCIバス14、および、PCIブリッジ17を介して、メモリ18に供給させて記憶させるとともに、編集点を示す情報と、編集開始を示すコマンドを、ノースブリッジ12、PCIバス14、PCIブリッジ17、および、コントロールバス19を介して、CPU20に供給する。
In step S41, the
なお、このとき、CPU11は、必要に応じて、後述する再エンコードおよび接続処理1において必要な情報、すなわち、圧縮素材映像2のデータにおいて、Iピクチャ40にSequence Headerが挿入されているか否か、および、Qマトリクスロードフラグに1が設定されているか否かを示す情報、編集前の圧縮素材映像2のIピクチャ40のQマトリクスの情報、または、Bピクチャ39のQマトリクスの情報を、HDD16から読み出された、圧縮符号化された圧縮素材映像1のデータおよび圧縮素材映像2のデータから抽出または検出し、ノースブリッジ12、PCIバス14、PCIブリッジ17、および、コントロールバス19を介して、CPU20に供給するようにしてもよい。
At this time, the
ステップS42において、メモリ18は、圧縮符号化された2つの編集素材データを取得する。 In step S42, the memory 18 acquires two pieces of editing material data that have been compression-encoded.
ステップS43において、CPU20は、CPU11から供給された、編集点を示す情報と、編集開始を示すコマンドを基に、再エンコードしない部分の圧縮素材映像1のディスプレイオーダで最後のピクチャのピクチャタイプがPピクチャになり、再エンコードしない部分の圧縮素材映像2のディスプレイオーダで最初のピクチャのピクチャタイプがIピクチャになるように、圧縮符号化された編集素材データのデコード範囲を決定する。
In step S43, the
ステップS44において、CPU20は、PCIブリッジ17を制御して、メモリ18に記憶されている圧縮符号化された2つの編集素材データから、決定されたデコード範囲のデータをデコードおよび再エンコードするために必要なデータを抽出させ、デコーダ22およびデコーダ23にそれぞれ供給させる。また、このとき、CPU20は、PCIブリッジ17を制御して、再エンコードされない部分の圧縮符号化された編集素材データを、ストリームスプライサ25に供給させる。PCIブリッジ17は、CPU20の制御に基づいて、メモリ18に記憶されている圧縮符号化された2つの編集素材データから、決定されたデコード範囲のデータをデコードおよび再エンコードするために必要なデータを抽出し、デコーダ22およびデコーダ23にそれぞれ供給するとともに、再エンコードされない部分の圧縮符号化された編集素材データを、ストリームスプライサ25に供給する。
In step S44, the
ステップS45において、CPU20は、デコーダ22およびデコーダ23を制御して、決定されたデコード範囲のデータをデコードさせる。デコーダ22およびデコーダ23は、CPU20の制御に基づいて、供給された圧縮符号化された編集素材データをデコードして、エフェクト/スイッチ26に供給する。
In step S45, the
なお、このとき、デコーダ23は、必要に応じて、後述する再エンコードおよび接続処理1において必要な情報、すなわち、圧縮素材映像2のデータをデコードするときに、Iピクチャ40においてSequence Headerが挿入されているか否か、および、Qマトリクスロードフラグに1が設定されているか否かを示す情報、または、編集前の圧縮素材映像2のIピクチャ40のQマトリクスの情報を抽出または検出し、コントロールバス19を介して、CPU20に供給するようにしてもよい。
At this time, the
ステップS46において、CPU20は、エフェクト/スイッチ26を制御して、デコードされたデータを編集点で接続させて、必要に応じて、エフェクトをかけさせる。エフェクト/スイッチ26は、CPU20の制御に基づいて、供給された非圧縮の復号映像素材を編集点で接続して、必要に応じて、エフェクトをかけ、エンコーダ27に供給する。
In step S46, the
ステップS47において、図19および図20を用いて後述する、再エンコードおよび接続処理2が実行され、処理は終了される。
In step S47, the re-encoding and
このような処理により、Long GOPのOpen GOP構造の圧縮映像データの編集点付近を部分的にデコードし、デコードされた非圧縮の映像信号を所定の編集点で接続した後、再エンコードを行い、デコードおよび再エンコードされていない部分の圧縮映像データと接続することにより、Long GOPのOpen GOP構造の圧縮映像データの編集を実現することができる。 By such processing, the vicinity of the edit point of the compressed video data of the Open GOP structure of Long GOP is partially decoded, and after the decoded uncompressed video signal is connected at a predetermined edit point, re-encoding is performed, By connecting to the compressed video data of the part that has not been decoded and re-encoded, editing of the compressed video data of the Long GOP Open GOP structure can be realized.
次に、図19および図20を参照して、図18のステップS47において実行される、再エンコードおよび接続処理2について説明する。
Next, the re-encoding and
ステップS61において、エンコーダ27は、CPU20の制御に基づいて、コーディングオーダで再エンコードの開始点となるピクチャを、Iピクチャとし、シーケンスヘッダを挿入して、エンコードを行う。
In step S61, under the control of the
ステップS62において、エンコーダ27は、次にエンコードを行おうとしているピクチャは、再エンコードしない部分との最初の接続点となるピクチャであるか否か、すなわち、図17における場合では、Bピクチャ81であるか否かを判断する。ステップS62において、次にエンコードを行おうとしているピクチャは、再エンコードしない部分との最初の接続点となるピクチャではないと判断された場合、処理は、後述するステップS65に進む。
In step S62, the
ステップS62において、次にエンコードを行おうとしているピクチャは、再エンコードしない部分との最初の接続点となるピクチャであると判断された場合、ステップS63において、エンコーダ27は、CPU20に、次にエンコードを行おうとしているピクチャは、再エンコードしない部分との最初の接続点となるピクチャであることを通知する。CPU20は、CPU11、または、デコーダ23から供給された、圧縮素材映像2のIピクチャ40においてSequence Headerが挿入されているか否か、および、Qマトリクスロードフラグに1が設定されているか否かを示す情報を基に、再エンコードの最後に連続するBピクチャの前に結合される再エンコードされない部分の先頭のIピクチャに、シーケンスヘッダが挿入されているか、または、Qマトリクスがロードされるように設定されているか否かを判断する。ステップS63において、再エンコードの最後に連続するBピクチャの前に結合される再エンコードされない部分の先頭のIピクチャに、シーケンスヘッダが挿入されているか、または、Qマトリクスがロードされるように設定されていると判断された場合、処理は、後述するステップS65に進む。
If it is determined in step S62 that the next picture to be encoded is a picture that is the first connection point with the part that is not re-encoded, the
ステップS63において、再エンコードの最後に連続するBピクチャの前に結合される再エンコードされない部分の先頭のIピクチャに、シーケンスヘッダが挿入されておらず、かつ、Qマトリクスがロードされるように設定されていないと判断された場合、ステップS64において、CPU20は、デコーダ23またはCPU11から、編集前の圧縮素材映像2の対応するピクチャ、すなわち、圧縮素材映像2のIピクチャ40のQマトリクスを取得し、同一のQマトリクスを用いてBピクチャ81のエンコードが行われるように、エンコーダ27を制御する。エンコーダ27は、CPU20の制御に基づいて、再エンコードしない部分との最初の接続点となるピクチャ、すなわち、Bピクチャ81を、圧縮素材映像2のIピクチャ40のQマトリクスを用いてエンコードする。
In step S63, a setting is made so that the sequence header is not inserted and the Q matrix is loaded in the first I picture of the part that is not re-encoded and joined before the consecutive B pictures at the end of re-encoding. If it is determined that it is not, in step S64, the
ステップS62において、次にエンコードを行おうとしているピクチャは、再エンコードしない部分との最初の接続点となるピクチャではないと判断された場合、ステップS63において、再エンコードの最後に連続するBピクチャの前に結合される再エンコードされない部分の先頭のIピクチャに、シーケンスヘッダが挿入されているか、または、Qマトリクスがロードされるように設定されていると判断された場合、または、ステップS64の処理の終了後、ステップS65において、エンコーダ27は、次にエンコードを行おうとしているピクチャは、再エンコードされない部分の先頭のIピクチャに接続されるピクチャ、すなわち、図17におけるBピクチャ72であるか否かを判断する。ステップS65において、次にエンコードを行おうとしているピクチャは、再エンコードされない部分の先頭のIピクチャに接続されるピクチャではないと判断された場合、処理は、後述するステップS69に進む。
If it is determined in step S62 that the next picture to be encoded is not a picture that is the first connection point with a portion that is not re-encoded, in step S63, the B pictures that are consecutive at the end of the re-encoding are determined. When it is determined that the sequence header is inserted in the first I picture of the part that is not re-encoded before being combined or the Q matrix is set to be loaded, or the process of step S64 In step S65, the
ステップS65において、次にエンコードを行おうとしているピクチャは、再エンコードされない部分の先頭のIピクチャに接続されるピクチャであると判断された場合、ステップS66において、エンコーダ27は、CPU20に、次にエンコードを行おうとしているピクチャは、再エンコードされない部分の先頭のIピクチャに接続されるピクチャであることを通知するとともに、このピクチャをエンコードするために用いようとしているQマトリクスに関する情報、および、Qマトリクスロードフラグに1が設定されているか否かを示す情報を供給する。CPU20は、エンコーダ27から供給された、Iピクチャに接続されるピクチャをエンコードするために用いようとしているQマトリクスに関する情報と、CPU11、または、デコーダ23から供給された、編集前の圧縮素材映像2の再エンコードされない部分の先頭のIピクチャに接続されるピクチャに対応するピクチャ、すなわち、圧縮素材映像2のIピクチャ40のQマトリクスに関する情報を基に、再エンコードされない部分の先頭のIピクチャと、これに接続されるピクチャのQマトリクスは同一であるか否かを判断する。ステップS66において、再エンコードされない部分の先頭のIピクチャと、これに接続されるピクチャのQマトリクスは同一であると判断された場合、処理は、後述するステップS69に進む。
If it is determined in step S65 that the next picture to be encoded is a picture connected to the first I picture of the part that is not re-encoded, the
ステップS66において、再エンコードされない部分の先頭のIピクチャと、これに接続されるピクチャのQマトリクスは同一ではないと判断された場合、ステップS67において、CPU20は、再エンコードされない部分の先頭のIピクチャに接続されるピクチャは、Qマトリクスがロードされるように設定されているか否かを判断する。ステップS67において、再エンコードされない部分の先頭のIピクチャに接続されるピクチャは、Qマトリクスがロードされるように設定されていると判断された場合、処理は、後述するステップS69に進む。
If it is determined in step S66 that the leading I picture of the portion that is not re-encoded and the Q matrix of the picture connected thereto are not the same, in step S67, the
ステップS67において、再エンコードされない部分の先頭のIピクチャに接続されるピクチャは、Qマトリクスがロードされるように設定されていないと判断された場合、ステップS68において、CPU20は、エンコーダ27を制御して、再エンコードされない部分の先頭のIピクチャに接続されるピクチャ、すなわち、図17におけるBピクチャ72に、Qマトリクスがロードされるように設定させる。エンコーダ27は、CPU20の制御に基づいて、Qマトリクスがロードされるように設定して、再エンコードされない部分の先頭のIピクチャに接続されるピクチャ、すなわち、図17におけるBピクチャ72をエンコードする。
If it is determined in step S67 that the picture connected to the first I picture of the part that is not re-encoded is not set to be loaded with the Q matrix, the
ステップS65において、次にエンコードを行おうとしているピクチャは、再エンコードされない部分の先頭のIピクチャに接続されるピクチャではないと判断された場合、ステップS66において、再エンコードされない部分の先頭のIピクチャと、これに接続されるピクチャのQマトリクスは同一であると判断された場合、ステップS67において、再エンコードされない部分の先頭のIピクチャに接続されるピクチャは、Qマトリクスがロードされるように設定されていると判断された場合、または、ステップS68の処理の終了後、ステップS69において、エンコーダ27は、次にエンコードするピクチャは、再エンコードする部分の最後のBピクチャ、すなわち、図17におけるBピクチャ73であるか否かを判断する。
If it is determined in step S65 that the next picture to be encoded is not a picture connected to the leading I picture of the part that is not re-encoded, the leading I picture of the part that is not re-encoded is determined in step S66. If it is determined that the Q matrices of the pictures connected thereto are the same, in step S67, the picture connected to the first I picture of the portion that is not re-encoded is set so that the Q matrix is loaded. If it is determined that, or after the end of the process of step S68, in step S69, the
ステップS69において、次にエンコードするピクチャは、再エンコードする部分の最後のBピクチャであると判断された場合、ステップS70において、エンコーダ27は、CPU20に、次にエンコードを行おうとしているピクチャは、再エンコードする部分の最後のBピクチャであることを通知する。CPU20は、CPU11から供給された、編集前の圧縮素材映像2の対応するBピクチャであるBピクチャ39のQマトリクスを取得し、エンコーダ27を制御して、取得したBピクチャ39のQマトリクスを用いて、再エンコードする部分の最後のBピクチャのエンコードを実行させる。エンコーダ27は、CPU20の制御に基づいて、Bピクチャ39のQマトリクスを用いて、再エンコードする部分の最後のBピクチャ、すなわち、図17におけるBピクチャ73のエンコードを行う。
If it is determined in step S69 that the next picture to be encoded is the last B picture of the part to be re-encoded, in step S70, the
ステップS69において、次にエンコードするピクチャは、再エンコードする部分の最後のBピクチャではない、すなわち、再エンコードされない部分と接続されないピクチャのうちのいずれかであると判断された場合、ステップS71において、エンコーダ27は、通常アルゴリズムで定められるQマトリクスを用いて、エンコードを行う。
If it is determined in step S69 that the next picture to be encoded is not the last B picture of the part to be re-encoded, that is, one of the pictures not connected to the part that is not re-encoded, in step S71, The
ステップS70、または、ステップS71の処理の終了後、ステップS72において、エンコーダ27は、再エンコードされる部分の全てのデータが再エンコードされたか否かを判断する。ステップS72において、再エンコードされる部分の全てのデータが再エンコードされていないと判断された場合、処理は、ステップS62に戻り、それ以降の処理が実行される。
After the process of step S70 or step S71 is completed, in step S72, the
ステップS72において、再エンコードされる部分の全てのデータが再エンコードされたと判断された場合、ステップS73において、図21を用いて後述する接続処理が実行されて、処理は、図18のステップS47に戻り、処理が終了される。 If it is determined in step S72 that all the data in the re-encoded portion has been re-encoded, a connection process described later with reference to FIG. 21 is executed in step S73, and the process proceeds to step S47 in FIG. Return and the process is terminated.
このような処理により、再エンコードが行われた部分と再エンコードが行われていない部分の接続点において、編集前後でQマトリクスの不整合が発生しないようにすることができ、編集による画像の劣化を防止することができる。 By such processing, it is possible to prevent inconsistency of the Q matrix before and after editing at the connection point between the re-encoded portion and the non-re-encoded portion. Can be prevented.
次に、図21のフローチャートを参照して、図20のステップS73において実行される接続処理について説明する。 Next, the connection process executed in step S73 of FIG. 20 will be described with reference to the flowchart of FIG.
ステップS91において、ストリームスプライサ25は、PCIブリッジ17から供給された、再エンコードしない部分の圧縮素材映像1のデータ、すなわち、図9または図17における場合では、ディスプレイオーダにおいて時間的にPピクチャ35(すなわち、編集後のPピクチャ46)以前となるピクチャのデータを取得する。
In step S91, the
ステップS92において、ストリームスプライサ25は、エンコーダ27から供給された、再エンコードされた編集点付近の圧縮映像データ、すなわち、図9における場合では、ディスプレイオーダにおいてBピクチャ41乃至Iピクチャ74に対応するピクチャを取得する。
In step S92, the
ステップS93において、ストリームスプライサ25は、再エンコードされた編集点付近の圧縮映像データのうち、エンコードの参照のためにエンコードされた部分、すなわち、図9における場合では、Pピクチャ41およびIピクチャ74に対応するピクチャを破棄し、再エンコードしない部分の圧縮素材映像1のデータと、再エンコードされた圧縮映像データを接続する。すなわち、図9および図17における場合では、ストリームスプライサ25は、Pピクチャ46とBピクチャ42とがディスプレイオーダで連続するように接続する。
In step S93, the
ステップS94において、ストリームスプライサ25は、PCIブリッジ17から供給された、再エンコードしない部分の圧縮素材映像2のデータ、すなわち、図9または図17における場合では、ディスプレイオーダにおいて時間的にIピクチャ40(すなわち、編集後のIピクチャ47)以降となるピクチャのデータを取得する。
In step S94, the
ステップS95において、ストリームスプライサ25は、再エンコードされた編集点付近の圧縮映像データのうち、コーディングオーダで最後からn+1番目のピクチャ、すなわち、図9、図10または図17における場合では、B12ピクチャ81に対応するピクチャの次に、再エンコードしない部分の圧縮素材映像2のコーディングオーダで最初のIピクチャ、すなわち、図9、図10または図17における場合では、I2ピクチャ47に対応するピクチャを接続する
In step S95, the
ステップS96において、ストリームスプライサ25は、再エンコードしない部分の圧縮素材映像2のコーディングオーダで最初のIピクチャ、すなわち、図9、図10または図17における場合では、I2ピクチャ47に対応するピクチャに、再エンコードされた編集点付近の圧縮映像データの最後からn枚のBピクチャ、すなわち、図9、図10または図17における場合では、B0ピクチャ72およびB1ピクチャ73を接続する。
In step S96, the
そして、ステップS97において、ストリームスプライサ25は、再エンコードされた編集点付近の圧縮映像データの最後のBピクチャ、すなわち、図9、図10または図17における場合では、B1ピクチャ73の次に、再エンコードしない部分の圧縮素材映像2の2番目のIまたはPピクチャ、すなわち、図9、図10または図17における場合では、Pピクチャ82を接続し、処理は、図20のステップS73に戻り、処理が終了される。
Then, in step S97, the
このような処理により、LongGOPのOpenGOPの圧縮素材映像を編集するときに、VBVバッファを破綻させないように、発生符号量が制御され、再エンコード時のピクチャタイプが決定された再エンコード部分の圧縮符号化データと、再エンコードされていない部分の圧縮符号化データとを接続することが可能となる。 By such processing, when editing the compressed material video of OpenGOP of LongGOP, the generated code amount is controlled so that the VBV buffer does not break down, and the compression code of the re-encoded part whose picture type at the time of re-encoding is determined It is possible to connect the encoded data and the compressed encoded data of the part that has not been re-encoded.
なお、第2の実施の形態においては、ディスプレイオーダで、最後からn+1番目のピクチャより後ろのピクチャのピクチャタイプが、編集前後で変更されないように制御されるものとして説明したが、再エンコードされる範囲の所定のIピクチャまたはPピクチャを含めてそれより後ろのピクチャのピクチャタイプが、編集前後で変更されないように制御された場合にも、本発明は適用可能である。 In the second embodiment, it has been described that the picture type of the picture after the (n + 1) th picture from the last in the display order is controlled so as not to be changed before and after editing, but is re-encoded. The present invention is also applicable when the picture type of a picture subsequent to that including a predetermined I picture or P picture in the range is controlled so as not to be changed before and after editing.
このように、本発明を適用することにより、Long GOPのOpen GOP方式で圧縮された映像素材を、部分的にデコード、再エンコードする方法を用いた編集において、編集前後でQマトリクスの整合性を保つようにすることができる。そして、Qマトリクスが異なる圧縮映像データの編集において、エンコード時に最適なQマトリクスを選択することが可能となるため、圧縮映像の高画質化を実現することができる。 In this way, by applying the present invention, in the editing using the method of partially decoding and re-encoding the video material compressed by the Open GOP method of Long GOP, the consistency of the Q matrix before and after editing is improved. Can be kept. In the editing of compressed video data having a different Q matrix, it is possible to select an optimum Q matrix at the time of encoding, so that it is possible to achieve high image quality of the compressed video.
上述した一連の処理は、ソフトウェアにより実行することもできる。そのソフトウェアは、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。この場合、例えば、図4を用いて説明した編集装置1は、図22に示されるようなパーソナルコンピュータ301により構成される。
The series of processes described above can also be executed by software. The software is a computer in which the program constituting the software is incorporated in dedicated hardware, or various functions can be executed by installing various programs, for example, a general-purpose personal computer For example, it is installed from a recording medium. In this case, for example, the
図22において、CPU(Central Processing Unit)311は、ROM(Read Only Memory)312に記憶されているプログラム、または記憶部318からRAM(Random Access Memory)313にロードされたプログラムにしたがって、各種の処理を実行する。RAM313にはまた、CPU311が各種の処理を実行する上において必要なデータなども適宜記憶される。
In FIG. 22, a CPU (Central Processing Unit) 311 performs various processes according to a program stored in a ROM (Read Only Memory) 312 or a program loaded from a
CPU311、ROM312、およびRAM313は、バス314を介して相互に接続されている。このバス314にはまた、入出力インタフェース315も接続されている。
The
入出力インタフェース315には、キーボード、マウスなどよりなる入力部316、ディスプレイやスピーカなどよりなる出力部317、ハードディスクなどより構成される記憶部318、モデム、ターミナルアダプタなどより構成される通信部319が接続されている。通信部319は、インターネットを含むネットワークを介しての通信処理を行う。
The input /
入出力インタフェース315にはまた、必要に応じてドライブ320が接続され、磁気ディスク331、光ディスク332、光磁気ディスク333、もしくは、半導体メモリ334などが適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部318にインストールされる。
A
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。 When a series of processing is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a network or a recording medium into a general-purpose personal computer or the like.
この記録媒体は、図22に示されるように、装置本体とは別に、ユーザにプログラムを供給するために配布される、プログラムが記憶されている磁気ディスク331(フロッピディスクを含む)、光ディスク332(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク333(MD(Mini-Disk)(商標)を含む)、もしくは半導体メモリ334などよりなるパッケージメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに供給される、プログラムが記憶されているROM312や、記憶部318に含まれるハードディスクなどで構成される。
As shown in FIG. 22, this recording medium is distributed to supply a program to a user separately from the main body of the apparatus, and includes a magnetic disk 331 (including a floppy disk) on which a program is stored, an optical disk 332 ( Package media including CD-ROM (compact disk-read only memory), DVD (including digital versatile disk), magneto-optical disk 333 (including MD (mini-disk) (trademark)), or
また、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 Further, in the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but may be performed in parallel or It also includes processes that are executed individually.
なお、上述の実施の形態においては、編集装置1が、それぞれ、デコーダとエンコーダを有しているものとして説明したが、デコーダおよびエンコーダが、それぞれ、独立した装置として構成されている場合においても、本発明は適用可能である。例えば、図17に示されるように、ストリームデータを復号してベースバンド信号に変換する復号装置371、ベースバンド信号を符号化してストリームデータに変換する符号化装置372が、それぞれ独立した装置として構成されていても良い。
In the above-described embodiment, the
このとき、復号装置371は、映像素材である圧縮符号化データを復号し、符号化装置372に供給するのみならず、本発明を適用することにより符号化装置372により部分的に符号化されたのち、編集されて生成された圧縮符号化データの供給を受け、復号処理を行い、ベースバンド信号に変換することができる。ベースバンド信号に変換された編集後のストリームは、例えば、所定の表示装置に供給されて表示されたり、他の装置に出力されて、必要な処理が施される。
At this time, the
さらに、上述の実施の形態においては、デコーダ22乃至24が、供給された圧縮符号化データを完全にデコードせず、対応するエンコーダ27が、非完全に復号されたデータの対応する部分を部分的にエンコードする場合においても、本発明は適用可能である。
Further, in the above-described embodiment, the
例えば、デコーダ22乃至24が、VLC符号に対する復号および逆量子化のみを行い、逆DCT変換を実行していなかった場合、エンコーダ27は、量子化および可変長符号化処理を行うが、DCT変換処理は行わない。このような部分的な符号化(中途段階からの符号化)を行うエンコーダにおいても、本発明を適用することができるのは言うまでもない。
For example, when the
さらに、上述の実施の形態においては、デコーダ22乃至24が完全に復号したベースバンド信号を、エンコーダ27が中途段階まで符号化する場合(例えば、DCT変換および量子化を行うが可変長符号化処理を行わないなど)や、デコーダ22乃至24が完全に復号していない(例えば、VLC符号に対する復号および逆量子化のみを行い、逆DCT変換を実行していない)ため、中途段階まで符号化されているデータに対して、エンコーダ27が更に中途段階まで符号化する場合など(例えば、量子化を行うが可変長符号化処理を行わないなど)においても、本発明は適用可能である。
Further, in the above-described embodiment, when the
更に、図17に示される復号装置371が、供給されたストリームデータを完全に復号せず、対応する符号化装置372が、非完全に復号されたデータの対応する部分を部分的に符号化する場合においても、本発明は適用可能である。
Furthermore, the
例えば、復号装置371が、VLC符号に対する復号および逆量子化のみを行い、逆DCT変換を実行していなかった場合、符号化装置372は、量子化および可変長符号化処理を行うが、DCT変換処理は行わない。このような部分的な復号処理(中途段階までの復号)を行う復号装置371のデコード処理、および、符号化(中途段階からの符号化)を行う符号化装置372のエンコード処理において、本発明を適用することができるのは言うまでもない。
For example, when the
更に、復号装置371が完全に復号したベースバンド信号を、符号化装置372が中途段階まで符号化する場合(例えば、DCT変換および量子化を行うが可変長符号化処理を行わないなど)や、復号装置371が完全に復号していない(例えば、VLC符号に対する復号および逆量子化のみを行い、逆DCT変換を実行していない)ため、中途段階まで符号化されているデータに対して、符号化装置372が更に中途段階まで符号化する場合など(例えば、量子化を行うが可変長符号化処理を行わないなど)においても、本発明は適用可能である。
Further, when the
更に、このような部分的な復号を行う(復号処理の工程のうちの一部を実行する)符号化装置351と部分的な符号化を行う(符号化処理の工程のうちの一部を実行する)符号化装置372で構成されたトランスコーダ381においても、本発明は適用可能である。このようなトランスコーダ381は、例えば、スプライシングなどの編集を行う編集装置382、すなわち、上述した編集装置1のストリームスプライサ25やエフェクト/スイッチ26が実行可能な機能を有する編集装置が利用される場合などに用いられる。
Further, the encoding device 351 that performs such partial decoding (executes some of the decoding process steps) and performs partial encoding (executes some of the encoding process steps). The present invention can also be applied to the
さらに、上述の実施の形態においては、CPU11およびCPU20がそれぞれ別の形態で構成されているが、これに限らず、編集装置1全体を制御する1つのCPUとして構成する形態も考えられる。同様に、上述の実施の形態においては、メモリ13およびメモリ21がそれぞれ別の形態で構成されているが、これに限らず、編集装置1において1つのメモリとして構成する形態も考えられる。
Furthermore, in the above-described embodiment, the
さらに、上述の実施の形態においては、HDD16、デコーダ22乃至24、ストリームスプライサ25、エフェクト/スイッチ26、および、エンコーダ27を、それぞれ、ブリッジおよびバスを介して接続し、編集装置として一体化されている場合について述べたが、本発明はこれに限らず、例えば、これらの構成要素のうちの一部が、外部から有線または無線で接続されるようにしても良いし、これらの構成要素は、この他、種々の接続形態で相互に接続されるようにしてもよい。
Further, in the above-described embodiment, the
さらに、上述の実施の形態においては、圧縮された編集用の素材がHDDに記憶されている場合について述べたが、本発明はこれに限らず、例えば、光ディスク、光磁気ディスク、半導体メモリ、磁気ディスク等の種々の記録媒体に記録された編集用の素材を用いて編集処理を行う場合にも適用することができる。 Furthermore, in the above-described embodiment, the case where the compressed editing material is stored in the HDD has been described. However, the present invention is not limited to this, and for example, an optical disk, a magneto-optical disk, a semiconductor memory, a magnetic memory The present invention can also be applied when editing processing is performed using editing materials recorded on various recording media such as disks.
さらに、上述の実施の形態においては、デコーダ22乃至24、ストリームスプライサ25、エフェクト/スイッチ26、および、エンコーダ27は、同一の拡張カード(例えば、PCIカード、PCI−Expressカード)に搭載する形態に限らず、例えばPCI−Expressなどの技術によりカード間の転送速度が高い場合には、それぞれ別の拡張カードに搭載してもよい。
Further, in the above-described embodiment, the
本発明は、MPEG方式による情報処理装置の他、これに類似する符号化又は復号化のアルゴリズムを有する方式の情報処理装置に適用することができる。 The present invention can be applied to an information processing apparatus of a system having an encoding or decoding algorithm similar to the MPEG information processing apparatus.
1 編集装置, 11 CPU, 16 HDD, 20 CPU, 22乃至24 デコーダ, 25 ストリームスプライサ, 26 エフェクト/スイッチ, 27 エンコーダ, 28 シンタクス更新部 1 Editing Device, 11 CPU, 16 HDD, 20 CPU, 22-24 Decoder, 25 Stream Splicer, 26 Effect / Switch, 27 Encoder, 28 Syntax Update Unit
Claims (14)
前記第1の圧縮映像データおよび前記第2の圧縮映像データのうちの編集点付近の所定の範囲の映像データをデコードするデコード手段と、
前記第1の圧縮映像データが前記デコード手段によりデコードされて生成された第1の非圧縮映像信号と、前記第2の圧縮映像データが前記デコード手段によりデコードされて生成された第2の非圧縮映像信号とを、前記編集点で接続し、第3の非圧縮映像信号を生成する接続手段と、
前記接続手段により接続されて生成された前記第3の非圧縮映像信号をエンコードして、第3の圧縮映像データを生成するエンコード手段と、
前記第2の圧縮映像データの所定のピクチャのQマトリクスに関する情報を取得し、前記エンコード手段による、前記Qマトリクスを用いたエンコードを制御する制御手段と、
前記編集点付近以外の所定の範囲の前記第1の圧縮映像データおよび前記編集点付近以外の所定の範囲の前記第2の圧縮映像データと、前記エンコード手段によりエンコードされて生成された、前記第3の圧縮映像データとを接続して、圧縮符号化された編集映像データを生成する編集映像データ生成手段と
を備えることを特徴とする情報処理装置。 In an information processing apparatus that executes a process of editing by connecting the front end of the second compressed video data to the rear end of the first compressed video data,
Decoding means for decoding video data in a predetermined range near an edit point of the first compressed video data and the second compressed video data;
A first non-compressed video signal generated by decoding the first compressed video data by the decoding means, and a second non-compressed signal generated by decoding the second compressed video data by the decoding means Connecting means for connecting a video signal at the editing point to generate a third uncompressed video signal;
Encoding means for encoding the third uncompressed video signal generated by being connected by the connection means to generate third compressed video data;
Control means for acquiring information relating to a Q matrix of a predetermined picture of the second compressed video data, and controlling encoding using the Q matrix by the encoding means;
The first compressed video data in a predetermined range other than the vicinity of the editing point and the second compressed video data in a predetermined range other than the vicinity of the editing point, and the first compressed video data generated by being encoded by the encoding means. connect 3 the compressed video data, the information processing apparatus, characterized in that Ru and an edited video data generating means for generating compressed encoded edited image data.
前記第2の圧縮映像データのうち、前記編集映像データ生成手段により前記第3の圧縮映像データに接続される第1のピクチャの前記Qマトリクスに関する情報を取得し、
前記第1のピクチャが所定の条件に合致する場合、前記制御手段は、前記エンコード手段によりエンコードされる第2のピクチャが、前記第1のピクチャの前記Qマトリクスを用いてエンコードされるように前記エンコード手段を制御し、
前記編集映像データ生成手段は、前記第2のピクチャに続いて、前記第1のピクチャを接続する
ことを特徴とする請求項1に記載の情報処理装置。 The control means includes
Of the second compressed video data, the edited video data generating means obtains information about the Q matrix of the first picture connected to the third compressed video data,
If the first picture meets a predetermined condition, the control means is configured to cause the second picture encoded by the encoding means to be encoded using the Q matrix of the first picture. Control the encoding means,
The information processing apparatus according to claim 1, wherein the edited video data generation unit connects the first picture subsequent to the second picture.
ことを特徴とする請求項2に記載の情報処理装置。 The information processing apparatus according to claim 2, wherein the predetermined condition includes that a sequence header is not inserted before the first picture.
ことを特徴とする請求項2に記載の情報処理装置。 The information processing apparatus according to claim 2, wherein the predetermined condition includes that the first picture is not set to load a Q matrix at the time of encoding.
ことを特徴とする請求項1に記載の情報処理装置。 The control means is a picture encoded by the encoding means, and a sequence header is added to the picture connected to the first compressed video data in a predetermined range other than the vicinity of the editing point by the edited video data generating means. The information processing apparatus according to claim 1, wherein the encoding unit is controlled to be inserted.
ことを特徴とする請求項1に記載の情報処理装置。 The control means includes a picture type of a portion that is temporally later in image display order than any intra-frame encoded image or inter-frame forward prediction encoded image of the third compressed video data. 2. The information according to claim 1, further comprising controlling the encoding process by the encoding unit so that the picture type is not changed from a corresponding picture type of the first compressed video data and the second compressed video data. Processing equipment.
前記第2の圧縮映像データのうち、前記編集映像データ生成手段により前記第3の圧縮映像データに接続される第1のピクチャの前記Qマトリクスに関する情報を取得し、
前記第1のピクチャの前記Qマトリクスと、前記編集データ生成手段により前記第1のピクチャに続いて接続される第2のピクチャの前記Qマトリクスとが等しいか否かを判断し、
前記第1のピクチャと前記第2のピクチャとの前記Qマトリクスが等しくないと判断された場合、エンコード時にQマトリクスをロードするように、前記第2のピクチャを設定する
ことを特徴とする請求項6に記載の情報処理装置。 The control means includes
Of the second compressed video data, the edited video data generating means obtains information about the Q matrix of the first picture connected to the third compressed video data,
Determining whether the Q matrix of the first picture is equal to the Q matrix of the second picture connected subsequent to the first picture by the editing data generating means;
The second picture is set so as to load a Q matrix at the time of encoding when it is determined that the Q matrices of the first picture and the second picture are not equal. 6. The information processing apparatus according to 6.
前記第2の圧縮映像データのうち、前記第3の圧縮映像データの最後のピクチャである第1のピクチャに対応する第2のピクチャのQマトリクスに関する情報を取得し、
前記第1のピクチャが、前記第2のピクチャと同一のQマトリクスでエンコードされるように、前記エンコード手段を制御する
ことを特徴とする請求項6に記載の情報処理装置。 The control means includes
Obtaining information about the Q matrix of the second picture corresponding to the first picture that is the last picture of the third compressed video data out of the second compressed video data;
The information processing apparatus according to claim 6, wherein the encoding unit is controlled so that the first picture is encoded with the same Q matrix as the second picture.
前記制御手段は、
前記シンタクス更新制御手段の処理を更に制御し、
前記第2の圧縮映像データのうち、前記編集映像データ生成手段により前記第3の圧縮映像データに接続されるフレーム内符号化画像、または、フレーム間順方向予測符号化画像である第1のピクチャおよびその次のフレーム間順方向予測符号化画像である第2のピクチャの前記Qマトリクスに関する情報を取得し、
前記第1のピクチャと前記第2のピクチャの前記Qマトリクスが異なり、かつ、前記第2のピクチャがエンコード時にQマトリクスをロードするように設定されていなかった場合、前記シンタクス更新制御手段を制御して、前記第2のピクチャのシンタクスにQuantMatrixExtentionを付加させる
ことを特徴とする請求項1に記載の情報処理装置。 Update means for updating the syntax of the second compressed video data in a predetermined range other than the vicinity of the editing point;
The control means includes
Further controlling the processing of the syntax update control means;
Of the second compressed video data, a first picture that is an intra-frame encoded image or an inter-frame forward-predicted encoded image connected to the third compressed video data by the edited video data generation means And information on the Q matrix of the second picture that is the next interframe forward prediction encoded image,
If the Q matrix of the first picture and the second picture are different and the second picture is not set to load the Q matrix at the time of encoding, the syntax update control means is controlled. The information processing apparatus according to claim 1, further comprising: adding QuantMatrixExtention to the syntax of the second picture.
前記第1の圧縮映像データおよび前記第2の圧縮映像データのうちの編集点付近の所定の範囲の映像データをデコードするデコードステップと、
前記第1の圧縮映像データが前記デコードステップの処理によりデコードされて生成された第1の非圧縮映像信号と、前記第2の圧縮映像データが前記デコードステップの処理によりデコードされて生成された第2の非圧縮映像信号とを、前記編集点で接続し、第3の非圧縮映像信号を生成する接続ステップと、
前記第2の圧縮映像データの所定のピクチャのQマトリクスに関する情報を取得し、取得された前記情報を用いて、前記接続ステップの処理により接続されて生成された前記第3の非圧縮映像信号をエンコードして、第3の圧縮映像データを生成するエンコードステップと、
前記編集点付近以外の所定の範囲の前記第1の圧縮映像データおよび前記編集点付近以外の所定の範囲の前記第2の圧縮映像データと、前記エンコードステップの処理によりエンコードされて生成された、前記第3の圧縮映像データとを接続して、圧縮符号化された編集映像データを生成する編集映像データ生成ステップと
を含むことを特徴とする情報処理方法。 In the information processing method of the information processing apparatus for executing processing for connecting and editing the front end of the second compressed video data to the rear end of the first compressed video data,
A decoding step of decoding a predetermined range of video data in the vicinity of an edit point of the first compressed video data and the second compressed video data;
The first uncompressed video signal generated by decoding the first compressed video data by the process of the decoding step, and the first uncompressed video signal generated by decoding the first compressed video data by the process of the decoding step. Connecting two uncompressed video signals at the editing point to generate a third uncompressed video signal;
The information about the Q matrix of the predetermined picture of the second compressed video data is acquired, and the third uncompressed video signal generated by being connected by the processing of the connecting step is obtained using the acquired information. An encoding step of encoding to generate third compressed video data;
The first compressed video data in a predetermined range other than the vicinity of the editing point and the second compressed video data in a predetermined range other than the vicinity of the editing point, and generated by being encoded by the process of the encoding step, An information processing method comprising: an edited video data generating step of connecting the third compressed video data and generating compressed encoded video data.
前記第1の圧縮映像データおよび前記第2の圧縮映像データのうちの編集点付近の所定の範囲の映像データをデコードするデコードステップと、
前記第1の圧縮映像データが前記デコードステップの処理によりデコードされて生成された第1の非圧縮映像信号と、前記第2の圧縮映像データが前記デコードステップの処理によりデコードされて生成された第2の非圧縮映像信号とを、前記編集点で接続し、第3の非圧縮映像信号を生成する接続ステップと、
前記第2の圧縮映像データの所定のピクチャのQマトリクスに関する情報を取得し、取得された前記情報を用いて、前記接続ステップの処理により接続されて生成された前記第3の非圧縮映像信号をエンコードして、第3の圧縮映像データを生成するエンコードステップと、
前記編集点付近以外の所定の範囲の前記第1の圧縮映像データおよび前記編集点付近以外の所定の範囲の前記第2の圧縮映像データと、前記エンコードステップの処理によりエンコードされて生成された、前記第3の圧縮映像データとを接続して、圧縮符号化された編集映像データを生成する編集映像データ生成ステップと
を含むことを特徴とする処理をコンピュータに実行させるための、コンピュータが読み取り可能なプログラムが記録されている記録媒体。 A program for causing a computer to execute a process of editing by connecting the front end of the second compressed video data to the rear end of the first compressed video data,
A decoding step of decoding a predetermined range of video data in the vicinity of an edit point of the first compressed video data and the second compressed video data;
The first uncompressed video signal generated by decoding the first compressed video data by the process of the decoding step, and the first uncompressed video signal generated by decoding the first compressed video data by the process of the decoding step. Connecting two uncompressed video signals at the editing point to generate a third uncompressed video signal;
The information about the Q matrix of the predetermined picture of the second compressed video data is acquired, and the third uncompressed video signal generated by being connected by the processing of the connecting step is obtained using the acquired information. An encoding step of encoding to generate third compressed video data;
The first compressed video data in a predetermined range other than the vicinity of the editing point and the second compressed video data in a predetermined range other than the vicinity of the editing point, and generated by being encoded by the process of the encoding step, An edited video data generating step of connecting the third compressed video data to generate compressed encoded video data; Medium on which various programs are recorded.
前記第1の圧縮映像データおよび前記第2の圧縮映像データのうちの編集点付近の所定の範囲の映像データをデコードするデコードステップと、
前記第1の圧縮映像データが前記デコードステップの処理によりデコードされて生成された第1の非圧縮映像信号と、前記第2の圧縮映像データが前記デコードステップの処理によりデコードされて生成された第2の非圧縮映像信号とを、前記編集点で接続し、第3の非圧縮映像信号を生成する接続ステップと、
前記第2の圧縮映像データの所定のピクチャのQマトリクスに関する情報を取得し、取得された前記情報を用いて、前記接続ステップの処理により接続されて生成された前記第3の非圧縮映像信号をエンコードして、第3の圧縮映像データを生成するエンコードステップと、
前記編集点付近以外の所定の範囲の前記第1の圧縮映像データおよび前記編集点付近以外の所定の範囲の前記第2の圧縮映像データと、前記エンコードステップの処理によりエンコードされて生成された、前記第3の圧縮映像データとを接続して、圧縮符号化された編集映像データを生成する編集映像データ生成ステップと
を含むことを特徴とする処理をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute a process of editing by connecting the front end of the second compressed video data to the rear end of the first compressed video data,
A decoding step of decoding a predetermined range of video data in the vicinity of an edit point of the first compressed video data and the second compressed video data;
The first uncompressed video signal generated by decoding the first compressed video data by the process of the decoding step, and the first uncompressed video signal generated by decoding the first compressed video data by the process of the decoding step. Connecting two uncompressed video signals at the editing point to generate a third uncompressed video signal;
The information about the Q matrix of the predetermined picture of the second compressed video data is acquired, and the third uncompressed video signal generated by being connected by the processing of the connecting step is obtained using the acquired information. An encoding step of encoding to generate third compressed video data;
The first compressed video data in a predetermined range other than the vicinity of the editing point and the second compressed video data in a predetermined range other than the vicinity of the editing point, and generated by being encoded by the process of the encoding step, An edited video data generating step of connecting the third compressed video data and generating compressed encoded video data. A program for causing a computer to execute the processing.
前記第1の圧縮映像データが編集点付近の所定の範囲でデコードされて生成された第1の非圧縮映像信号と、前記第2の圧縮映像データが前記編集点付近の所定の範囲でデコードされて生成された第2の非圧縮映像信号とが、前記編集点で接続されて生成された第3の非圧縮映像信号を、エンコードして第3の圧縮映像データを生成するエンコード手段と、
前記第2の圧縮映像データのうちの前記編集点付近の所定の範囲以外の範囲のピクチャであって前記第3の圧縮映像データに接続されるピクチャである第1のピクチャのQマトリクスに関する情報を取得し、前記第1のピクチャが所定の条件に合致する場合、前記エンコード手段によりエンコードされる第2のピクチャが、前記第1のピクチャの前記Qマトリクスを用いてエンコードされるように、前記エンコード手段によるエンコード処理を制御する制御手段と
を備えることを特徴とする情報処理装置。 In an information processing apparatus that executes a process of editing by connecting the front end of the second compressed video data to the rear end of the first compressed video data,
The first non-compressed video signal generated by decoding the first compressed video data in a predetermined range near the edit point and the second compressed video data are decoded in a predetermined range near the edit point. Encoding means for generating third compressed video data by encoding the third non-compressed video signal generated by connecting the second uncompressed video signal generated at the editing point;
Information on the Q matrix of a first picture that is a picture in a range other than a predetermined range near the editing point in the second compressed video data and is a picture connected to the third compressed video data. And when the first picture meets a predetermined condition, the encoding is performed so that a second picture encoded by the encoding means is encoded using the Q matrix of the first picture. An information processing apparatus comprising: control means for controlling encoding processing by the means.
前記第1の圧縮映像データが編集点付近の所定の範囲でデコードされて生成された第1の非圧縮映像信号と、前記第2の圧縮映像データが前記編集点付近の所定の範囲でデコードされて生成された第2の非圧縮映像信号とが、前記編集点で接続されて生成された第3の非圧縮映像信号を、エンコードして第3の圧縮映像データを生成するエンコードステップと、
前記第2の圧縮映像データのうちの前記編集点付近の所定の範囲以外の範囲のピクチャであって前記第3の圧縮映像データに接続されるピクチャである第1のピクチャのQマトリクスに関する情報を取得し、前記第1のピクチャが所定の条件に合致する場合、前記エンコードステップの処理によりエンコードされる第2のピクチャが、前記第1のピクチャの前記Qマトリクスを用いてエンコードされるように、前記エンコードステップの処理によるエンコード処理を制御する制御ステップと
を含むことを特徴とする情報処理方法。 In the information processing method of the information processing apparatus for executing processing for connecting and editing the front end of the second compressed video data to the rear end of the first compressed video data,
The first non-compressed video signal generated by decoding the first compressed video data in a predetermined range near the edit point and the second compressed video data are decoded in a predetermined range near the edit point. Encoding a third uncompressed video signal generated by connecting the second uncompressed video signal generated at the editing point to generate third compressed video data;
Information on the Q matrix of a first picture that is a picture in a range other than a predetermined range near the editing point in the second compressed video data and is a picture connected to the third compressed video data. And if the first picture meets a predetermined condition, the second picture encoded by the process of the encoding step is encoded using the Q matrix of the first picture, And a control step for controlling an encoding process by the encoding step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004245376A JP4333522B2 (en) | 2004-08-25 | 2004-08-25 | Information processing apparatus, information processing method, recording medium, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004245376A JP4333522B2 (en) | 2004-08-25 | 2004-08-25 | Information processing apparatus, information processing method, recording medium, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006067097A JP2006067097A (en) | 2006-03-09 |
JP4333522B2 true JP4333522B2 (en) | 2009-09-16 |
Family
ID=36113201
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004245376A Expired - Fee Related JP4333522B2 (en) | 2004-08-25 | 2004-08-25 | Information processing apparatus, information processing method, recording medium, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4333522B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4221676B2 (en) | 2006-09-05 | 2009-02-12 | ソニー株式会社 | Information processing apparatus, information processing method, recording medium, and program |
-
2004
- 2004-08-25 JP JP2004245376A patent/JP4333522B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2006067097A (en) | 2006-03-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4221676B2 (en) | Information processing apparatus, information processing method, recording medium, and program | |
JP4207072B2 (en) | Information processing apparatus, information processing method, recording medium, and program | |
JP4088799B2 (en) | Editing apparatus and editing method | |
KR101119685B1 (en) | Information processing apparatus, information processing method, and recording medium | |
KR101878537B1 (en) | Video encoding apparatus, video decoding apparatus, video encoding method, and video decoding method | |
JP4743119B2 (en) | Information processing apparatus, information processing method, recording medium, and program | |
KR100834322B1 (en) | Image encoding apparatus, picture encoding method and image editing apparatus | |
JPH11196376A (en) | Image compression stream editing device and method therefor | |
JP4492484B2 (en) | Information processing apparatus, information processing method, recording medium, and program | |
JP4342139B2 (en) | Signal processing device | |
KR100893806B1 (en) | Moving picture re-encoding apparatus, moving picture editing apparatus, and method | |
JP4174728B2 (en) | Information processing apparatus, information processing method, recording medium, and program | |
JP2002199392A (en) | Method and device for encoding image | |
JP3182329B2 (en) | Encoded data editing device and data decoding device | |
JP4333522B2 (en) | Information processing apparatus, information processing method, recording medium, and program | |
JPH08251582A (en) | Encoded data editing device | |
JP2008066845A (en) | Information processing apparatus and method, recording medium, and program | |
JP2006067098A (en) | Information processing apparatus, information processing method, recording medium and program | |
JP2008066846A (en) | Information processor and information processing method, recording medium, and program | |
JP2006100947A (en) | Wipe switching method of mpeg-2 stream | |
JP2010252394A (en) | Image coding apparatus, image coding method, and image editing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070508 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090312 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090511 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090602 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090615 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120703 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120703 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |