JPH10275227A - Image processor and method therefor - Google Patents
Image processor and method thereforInfo
- Publication number
- JPH10275227A JPH10275227A JP9081293A JP8129397A JPH10275227A JP H10275227 A JPH10275227 A JP H10275227A JP 9081293 A JP9081293 A JP 9081293A JP 8129397 A JP8129397 A JP 8129397A JP H10275227 A JPH10275227 A JP H10275227A
- Authority
- JP
- Japan
- Prior art keywords
- processing
- image
- data
- characteristic
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 409
- 238000012545 processing Methods 0.000 claims abstract description 913
- 230000008569 process Effects 0.000 claims description 350
- 238000001914 filtration Methods 0.000 claims description 149
- 238000006243 chemical reaction Methods 0.000 claims description 112
- 230000004044 response Effects 0.000 claims description 21
- 230000003111 delayed effect Effects 0.000 claims description 8
- 238000003672 processing method Methods 0.000 claims description 8
- 230000015654 memory Effects 0.000 description 307
- 235000019800 disodium phosphate Nutrition 0.000 description 164
- 238000010586 diagram Methods 0.000 description 121
- 230000000694 effects Effects 0.000 description 84
- 230000006870 function Effects 0.000 description 75
- 238000004364 calculation method Methods 0.000 description 38
- 238000012546 transfer Methods 0.000 description 31
- 238000000926 separation method Methods 0.000 description 30
- 230000008859 change Effects 0.000 description 27
- 230000001419 dependent effect Effects 0.000 description 26
- 238000005070 sampling Methods 0.000 description 25
- 230000009467 reduction Effects 0.000 description 23
- 239000003990 capacitor Substances 0.000 description 22
- 239000011159 matrix material Substances 0.000 description 20
- 239000000872 buffer Substances 0.000 description 17
- 239000003086 colorant Substances 0.000 description 17
- 238000012937 correction Methods 0.000 description 17
- 230000002452 interceptive effect Effects 0.000 description 16
- 230000033001 locomotion Effects 0.000 description 13
- 230000014509 gene expression Effects 0.000 description 12
- 230000005540 biological transmission Effects 0.000 description 11
- 239000000284 extract Substances 0.000 description 11
- 230000009466 transformation Effects 0.000 description 8
- 230000001965 increasing effect Effects 0.000 description 6
- 238000003860 storage Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 5
- 230000002708 enhancing effect Effects 0.000 description 5
- 230000001360 synchronised effect Effects 0.000 description 5
- 239000008186 active pharmaceutical agent Substances 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000012886 linear function Methods 0.000 description 4
- 230000000630 rising effect Effects 0.000 description 4
- 238000003825 pressing Methods 0.000 description 3
- 241001070941 Castanea Species 0.000 description 2
- 235000014036 Castanea Nutrition 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 230000008030 elimination Effects 0.000 description 2
- 238000003379 elimination reaction Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000009987 spinning Methods 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
Landscapes
- Image Processing (AREA)
- Picture Signal Circuits (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、画像の輪郭を強調
する輪郭強調処理を行う画像処理装置およびその方法に
関する。[0001] 1. Field of the Invention [0002] The present invention relates to an image processing apparatus and an image processing method for performing an outline enhancement process for enhancing the outline of an image.
【0002】[0002]
【従来の技術および発明が解決しようとする課題】輪郭
強調処理は、現在、テレビジョン放送局用等の業務用と
して、テレビジョン、ビデオカメラ、VTR装置、画像
編集装置および特殊効果装置等において用いられてお
り、今後は、一般消費者(コンスーマ)向けの画像処理
装置においても活用されるものと期待されている。従
来、輪郭強調処理を行う輪郭強調処理装置は、乗算器お
よび加算器等から構成される専用ハードウェアにより実
現されていた。2. Description of the Related Art Contour enhancement processing is currently used in televisions, video cameras, VTR apparatuses, image editing apparatuses, special effect apparatuses, etc. for business use such as for television broadcasting stations. It is expected to be used in image processing devices for general consumers (consumers) in the future. Conventionally, an outline emphasis processing device that performs outline emphasis processing has been realized by dedicated hardware including a multiplier, an adder, and the like.
【0003】しかしながら、輪郭強調処理は、物体の画
像の輪郭を検出する処理と、検出した輪郭部分を強調す
る処理とにより実現されるため、輪郭強調装置のハード
ウェアは大規模なものとなってしまう。また、一度、こ
れらの処理を行う専用ハードウェアを作成すると、輪郭
部分の検出を行う際に用いられるハイパスフィルタの周
波数特性、あるいは、輪郭部分の強調の度合い等を変更
することが難しい。[0003] However, since the outline emphasis processing is realized by the processing of detecting the outline of the image of the object and the processing of emphasizing the detected outline part, the hardware of the outline emphasis apparatus becomes large-scale. I will. Further, once dedicated hardware for performing these processes is created, it is difficult to change the frequency characteristics of the high-pass filter used for detecting the contour portion, the degree of enhancement of the contour portion, and the like.
【0004】本発明は、上述した従来技術の問題点に鑑
みてなされたものであり、例えば、SIMD制御のリニ
アアレイ型多並列プロセッサを用いてソフトウェア的に
輪郭強調処理を行うことができる画像処理装置およびそ
の方法を提供することを目的とする。また、本発明は、
画像データ中の物体の画像の輪郭を検出する際のフィル
タリング処理の特性、および、輪郭強調の度合いを調整
するための非線形変換処理の特性等を、例えば、GUI
により簡単に設定して輪郭強調処理を行うことができ、
しかも、処理の結果を即座に確認することができる画像
処理装置およびその方法を提供することを目的とする。SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems of the prior art. For example, image processing capable of performing contour enhancement processing by software using a SIMD-controlled linear array type multi-parallel processor. An object is to provide an apparatus and a method thereof. Also, the present invention
The characteristics of the filtering process when detecting the contour of the image of the object in the image data, the characteristics of the non-linear conversion process for adjusting the degree of contour enhancement, and the like are described in, for example, GUI.
Can be set more easily to perform contour enhancement processing.
Moreover, it is an object of the present invention to provide an image processing apparatus and a method thereof that can immediately confirm the processing result.
【0005】[0005]
【課題を解決するための手段】上記目的を達成するため
に、本発明に係る画像処理装置は、外部から入力される
画像データに対する輪郭強調処理の特性を示す特性画像
を表示する特性画像表示手段と、表示した前記特性画像
に対する操作に応じて、前記輪郭強調処理の特性を受け
入れる特性受け入れ手段と、受け入れた前記輪郭強調処
理の特性に応じて、前記輪郭強調処理の特性を示す特性
画像を変更する特性画像変更手段と、受け入れた前記輪
郭強調処理の特性に基づいて、入力された前記画像デー
タに対して前記輪郭強調処理を行う輪郭強調処理手段と
を有する。In order to achieve the above object, an image processing apparatus according to the present invention comprises a characteristic image display means for displaying a characteristic image indicating characteristics of contour enhancement processing on image data input from the outside. And a characteristic accepting unit that accepts the characteristics of the contour emphasis processing in accordance with an operation on the displayed characteristic image, and changes a characteristic image indicating the characteristics of the contour emphasis processing in accordance with the accepted characteristics of the outline emphasis processing. And a contour emphasis processing means for performing the contour emphasis processing on the input image data based on the accepted characteristics of the contour emphasis processing.
【0006】好適には、前記特性画像表示手段は、外部
から入力される前記画像データに対する第1の非線形変
換処理の特性、第2の非線形処理の特性およびフィルタ
リングの特性を示す特性画像それぞれを表示し、前記特
性受け入れ手段は、表示した前記特性画像に対する操作
に応じて、前記第1の非線形変換処理の特性、前記第2
の非線形処理の特性および前記フィルタリングの特性そ
れぞれを受け入れ、前記特性画像変更手段は、受け入れ
た前記第1の非線形変換処理の特性、前記第2の非線形
処理の特性および前記フィルタリングの特性に応じて、
前記第1の非線形変換処理の特性、第2の非線形処理の
特性およびフィルタリングの特性を示す特性画像それぞ
れを変更し、前記輪郭強調処理手段は、受け入れた前記
第1の非線形変換処理の特性に基づいて、前記画像デー
タに対して第1の非線形変換処理を施す第1の非線形処
理手段と、受け入れた前記フィルタリングの特性に基づ
いて、前記第1の非線形変換処理を施した前記画像デー
タをフィルタリング処理して前記画像データ内の画像の
輪郭を検出し、検出した輪郭を示す輪郭データを生成す
る輪郭検出手段と、受け入れた前記第2の非線形変換処
理の特性に基づいて、生成した前記輪郭データに対して
第2の非線形処理を施す第2の非線形処理手段と、外部
から入力された前記画像データに対して、前記第1の非
線形処理、前記輪郭データの生成および前記第2の非線
形処理に対応する時間遅延を与える時間遅延手段と、前
記第2の非線形処理を施した前記画像データと、遅延し
た前記画像データとを加算する加算手段とを有する。Preferably, the characteristic image display means displays a characteristic image indicating a characteristic of a first nonlinear conversion process, a characteristic of a second nonlinear process, and a characteristic of filtering of the image data input from the outside. The characteristic receiving unit may be configured to change the characteristic of the first non-linear conversion processing and the characteristic of the second characteristic in accordance with an operation on the displayed characteristic image.
The characteristic image changing unit receives the characteristic of the nonlinear processing and the characteristic of the filtering, and the characteristic image changing unit receives the characteristic of the received first nonlinear conversion processing, the characteristic of the second nonlinear processing, and the characteristic of the filtering.
The characteristic image indicating the characteristic of the first non-linear conversion process, the characteristic of the second non-linear conversion process, and the characteristic image indicating the filtering characteristic is changed, and the contour emphasis processing unit is configured to change the characteristic image based on the received characteristic of the first non-linear conversion process. First nonlinear processing means for performing a first nonlinear conversion process on the image data, and filtering the image data subjected to the first nonlinear conversion process based on the received filtering characteristics. Contour detecting means for detecting a contour of an image in the image data and generating contour data indicating the detected contour, and generating the contour data based on the received characteristic of the second nonlinear conversion processing. A second non-linear processing means for performing a second non-linear processing on the image data input from the outside; A time delay unit that generates a data and provides a time delay corresponding to the second nonlinear process; and an adding unit that adds the image data that has been subjected to the second nonlinear process and the delayed image data. .
【0007】好適には、輪郭強調処理した前記画像デー
タを表示する表示手段をさらに有する。[0007] Preferably, the apparatus further comprises display means for displaying the image data subjected to the contour emphasis processing.
【0008】好適には、受け入れた前記輪郭強調処理の
特性に基づいて、前記輪郭強調処理手段が実行するプロ
グラムを作成するプログラム作成手段をさらに有し、前
記輪郭強調処理手段は、作成した前記プログラムを実行
して、入力された前記画像データに対して前記輪郭強調
処理を行う。Preferably, the apparatus further comprises program creation means for creating a program to be executed by the contour enhancement processing means based on the received characteristics of the contour enhancement processing, wherein the contour enhancement processing means comprises To perform the outline emphasis processing on the input image data.
【0009】好適には、前記輪郭強調処理手段は、SI
MD形式の多並列プロセッサであることを特徴とする。Preferably, the contour emphasis processing means includes an SI
It is a multi-parallel processor of the MD format.
【0010】本発明に係る画像処理装置は、画像の輪郭
強調を行う輪郭強調処理における各種処理の特性の設
定、つまり、輪郭検出処理におけるハイパスフィルタに
よるフィルタリングの特性、および、フィルタリングの
前後における非線形変換処理の特性等の設定を使用者
が、GUI画像に対する操作を行うことにより行えるよ
うにし、これらの設定に応じてソフトウェア的に輪郭強
調処理を行って、処理結果を表示して使用者の確認の用
に供する。An image processing apparatus according to the present invention sets various processing characteristics in an outline enhancement process for enhancing an outline of an image, that is, a filtering characteristic by a high-pass filter in an outline detection process, and a nonlinear conversion before and after the filtering. The user can set processing characteristics and the like by performing operations on the GUI image, perform contour enhancement processing by software according to these settings, display the processing result, and confirm the user's confirmation. Serve for
【0011】特性画像表示手段は、輪郭強調処理の対象
となる外部から入力される画像データに対して、画像デ
ータ中の物体の画像の輪郭を強調する成分を非線形変換
処理〔第1の非線形変換処理;レベルデペンド処理(lev
el depend)〕の特性、検出した輪郭部分が強調されすぎ
ることによる画像の不自然さを抑える非線形処理〔第2
の非線形変換処理;クリスピニング処理(clispining)〕
の特性を示す画像を、例えば、入力画像の画素データに
対する非線形処理後の画素データの値を示すグラフの形
式で、GUI画像のウィンドウ内に表示する。また、特
性画像表示手段は、例えば、物体の画像の輪郭を検出す
る際のフィルタリングに用いられるハイパスフィルタの
周波数特性を示す画像を、周波数応答のグラフ形式でG
UI画像のウィンドウ内に表示する。The characteristic image display means performs non-linear conversion processing [first non-linear conversion processing] on image data input from the outside, which is the object of the outline enhancement processing, for enhancing the outline of the object image in the image data. Processing; level dependent processing (lev
el depend)], a non-linear process [2nd.
Non-linear transformation processing; crispining processing)
Is displayed in the window of the GUI image, for example, in the form of a graph showing the value of the pixel data after the non-linear processing on the pixel data of the input image. Further, the characteristic image display means may display, for example, an image indicating the frequency characteristics of a high-pass filter used for filtering when detecting the contour of the image of the object in a frequency response graph format.
It is displayed in the UI image window.
【0012】使用者は、例えば、GUI画像のウィンド
ウ内の非線形処理およびハイパスフィルタの特性のグラ
フの曲線を、マウス等を用いて変形操作することによ
り、レベルデペンド処理、クリスピニング処理およびフ
ィルタリング処理の特性を入力し、さらに、GUI画像
内の所定のボタンをマウス等を用いて押下することによ
り、これらの特性を確定する。特性受け入れ手段は、例
えば、使用者が各処理の特性を確定すると、上述したよ
うに入力された各処理の特性を受け入れる。For example, the user performs a deformation operation on a curve of a characteristic graph of a non-linear processing and a high-pass filter in a window of a GUI image using a mouse or the like to thereby obtain characteristics of a level-dependent processing, a crispening processing, and a filtering processing. Are input, and a predetermined button in the GUI image is pressed using a mouse or the like to determine these characteristics. For example, when the user determines the characteristics of each process, the characteristics receiving unit receives the characteristics of each process input as described above.
【0013】特性画像変更手段は、例えば、使用者が、
各処理の特性を確定する前に、マウス等によるグラフの
曲線の変形操作を行っている間、変形操作に応じて各グ
ラフの曲線を順次、変更して表示し、使用者に示す。特
性画像変更手段が変更するグラフの曲線を目視すること
により、使用者は、上記各処理の特性の概要を把握する
ことができる。[0013] The characteristic image changing means is provided, for example, by a user,
Before the characteristics of each process are determined, the curve of each graph is sequentially changed and displayed according to the deformation operation while the curve operation of the graph is performed by a mouse or the like, and is displayed to the user. By visually observing the curve of the graph changed by the characteristic image changing unit, the user can grasp the outline of the characteristics of each of the above processes.
【0014】プログラム作成手段は、特性受入手段が受
け入れた上記各処理の特性に基づいて、上記各処理が、
受け入れた特性を示すように輪郭強調処理手段の動作を
制御するプログラムを作成する。[0014] The program creating means, based on the characteristics of each of the above processing received by the characteristic receiving means, the above processing,
A program for controlling the operation of the contour emphasis processing means so as to show the accepted characteristics is created.
【0015】輪郭強調処理手段は、例えば、SIMD制
御のリニアアアレイ型多並列プロセッサであって、プロ
グラム作成手段が作成したプログラムを実行し、レベル
デペンド処理、クリスピニング処理およびフィルタリン
グを行い、使用者が所望する特性で輪郭強調処理を行
う。The contour emphasis processing means is, for example, a linear array array type multi-parallel processor controlled by SIMD. The contour emphasis processing means executes a program created by the program creating means, performs a level dependent process, a crispening process, and a filtering. Contour emphasis processing is performed using characteristics.
【0016】つまり、輪郭強調処理手段において、第1
の非線形処理手段は、上記プログラムを実行して、外部
から入力される画像データに対して、輪郭を強調するレ
ベルデペンド処理を行う。輪郭検出手段は、輪郭を強調
した画像データに対してハイパスフィルタによるフィル
タリングを行い、周波数が高い物体の画像の輪郭部分を
検出し、検出した輪郭を示す輪郭データを生成する。That is, in the contour emphasis processing means, the first
The non-linear processing means executes the above-mentioned program to perform a level-dependent process for enhancing the outline of the image data input from the outside. The contour detecting means performs filtering by a high-pass filter on the image data in which the contour is emphasized, detects a contour portion of the image of the object having a high frequency, and generates contour data indicating the detected contour.
【0017】第2の非線形処理手段は、輪郭検出手段が
生成した輪郭データを、元の画像データと合成した場合
に、輪郭が強調されすぎて不自然になるのを防止するク
リスピニング処理を行う。時間遅延手段は、外部から入
力された画像データを、上記各処理に要する時間だけ遅
延し、クリスピニング処理された輪郭データとタイミン
グを合わせる。加算手段は、遅延された画像データと、
クリスピニングされた輪郭データとを加算し、画像の輪
郭を強調した画像データを生成する。The second non-linear processing means performs a crispening process for preventing contours from being overemphasized and becoming unnatural when the contour data generated by the contour detecting means are combined with the original image data. . The time delay means delays the image data input from the outside by the time required for each of the above processes, and matches the timing with the contour data subjected to the crispening process. Adding means for delaying the image data;
The crispened outline data is added to generate image data in which the outline of the image is emphasized.
【0018】また、本発明に係る画像処理方法は、外部
から入力される画像データに対する輪郭強調処理の特性
を示す特性画像を表示し、表示した前記特性画像に対す
る操作に応じて、前記輪郭強調処理の特性を受け入れ、
受け入れた前記輪郭強調処理の特性に応じて、前記輪郭
強調処理の特性を示す特性画像を変更し、受け入れた前
記輪郭強調処理の特性に基づいて、入力された前記画像
データに対して前記輪郭強調処理を行う。Further, according to the image processing method of the present invention, a characteristic image indicating a characteristic of a contour enhancement process for image data input from the outside is displayed, and the contour enhancement process is performed according to an operation on the displayed characteristic image. Accept the characteristics of
A characteristic image indicating the characteristic of the outline enhancement processing is changed according to the characteristic of the received outline enhancement processing, and the outline enhancement is performed on the input image data based on the received characteristic of the outline enhancement processing. Perform processing.
【0019】好適には、外部から入力される前記画像デ
ータに対する第1の非線形変換処理の特性、第2の非線
形処理の特性およびフィルタリングの特性を示す特性画
像それぞれを表示し、表示した前記特性画像に対する操
作に応じて、前記第1の非線形変換処理の特性、前記第
2の非線形処理の特性および前記フィルタリングの特性
それぞれを受け入れ、受け入れた前記第1の非線形変換
処理の特性、前記第2の非線形処理の特性および前記フ
ィルタリングの特性に応じて、前記第1の非線形変換処
理の特性、第2の非線形処理の特性およびフィルタリン
グの特性を示す特性画像それぞれを変更し、受け入れた
前記第1の非線形変換処理の特性に基づいて、前記画像
データに対して第1の非線形変換処理を施し、受け入れ
た前記フィルタリングの特性に基づいて、前記第1の非
線形変換処理を施した前記画像データをフィルタリング
処理して前記画像データ内の画像の輪郭を検出し、検出
した輪郭を示す輪郭データを生成し、受け入れた前記第
2の非線形変換処理の特性に基づいて、生成した前記輪
郭データに対して第2の非線形処理を施し、外部から入
力された前記画像データに対して、前記第1の非線形処
理、前記輪郭データの生成および前記第2の非線形処理
に対応する時間遅延を与え、前記第2の非線形処理を施
した前記画像データと、遅延した前記画像データとを加
算する。Preferably, a characteristic image indicating a characteristic of a first nonlinear conversion process, a characteristic of a second nonlinear process, and a characteristic of filtering of the image data input from the outside is displayed, and the displayed characteristic image is displayed. Receiving the respective characteristics of the first non-linear conversion process, the characteristics of the second non-linear process, and the characteristics of the filtering, and accepts the received characteristics of the first non-linear conversion process and the second non-linear conversion process. The characteristic image indicating the characteristic of the first non-linear conversion processing, the characteristic of the second non-linear processing, and the characteristic of the filtering is changed according to the processing characteristic and the filtering characteristic, and the received first nonlinear conversion is received. Performing a first non-linear conversion process on the image data based on a characteristic of the process, and The image data subjected to the first non-linear conversion processing is filtered based on characteristics of the image data to detect a contour of an image in the image data, and contour data indicating the detected contour is generated and accepted. A second nonlinear process is performed on the generated contour data based on the characteristics of the second nonlinear conversion process, and the first nonlinear process and the contour are performed on the image data input from the outside. A time delay corresponding to data generation and the second nonlinear processing is given, and the image data subjected to the second nonlinear processing and the delayed image data are added.
【0020】好適には、輪郭強調処理した前記画像デー
タを表示する。Preferably, the image data subjected to the outline emphasis processing is displayed.
【0021】好適には、受け入れた前記輪郭強調処理の
特性に基づいて、前記輪郭強調処理のプログラムを作成
し、作成した前記プログラムを実行して、入力された前
記画像データに対して前記輪郭強調処理を行う。Preferably, a program for the outline emphasis processing is created based on the received characteristics of the outline emphasis processing, and the created program is executed to execute the outline emphasis processing on the input image data. Perform processing.
【0022】好適には、受け入れた前記輪郭強調処理の
特性に基づいてパラメータファイルを作成し、このパラ
メータファイルを参照する前記輪郭強調処理のプログラ
ムを実行して、入力された前記画像データに対して輪郭
強調処理を行う。Preferably, a parameter file is created based on the received characteristics of the outline emphasis processing, and a program for the outline emphasis processing which refers to the parameter file is executed, and the input image data is processed. Perform contour enhancement processing.
【0023】好適には、SIMD形式の多並列プロセッ
サが前記輪郭強調処理プログラムを実行することを特徴
とする。Preferably, a SIMD multi-parallel processor executes the contour emphasis processing program.
【0024】[0024]
【発明の実施の形態】第1実施例 以下、本発明の第1の実施例を説明する。従来、テレビ
ジョン受像機等のCRT(cathode ray tube)を用いた画
像表示装置(ディスプレイ)に、NTSCおよびPAL
等の各種画像伝達方式の画像信号を表示する場合には、
これらの画像伝達方式それぞれに応じてアナログ的に画
像信号を処理し、水平走査周波数を変更して表示する方
法が採られてきた。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS First Embodiment Hereinafter, a first embodiment of the present invention will be described. Conventionally, NTSC and PAL have been used in image display devices (displays) using a CRT (cathode ray tube) such as a television receiver.
When displaying image signals of various image transmission methods such as
A method has been adopted in which an image signal is processed in an analog manner according to each of these image transmission methods, and the horizontal scanning frequency is changed to display the image signal.
【0025】一方、最近のディジタル信号処理技術の進
歩に伴い、ディジタル的な処理により、各画像伝達方式
の画像データに画像表示装置の水平走査周波数を一致さ
せて表示する方法が採られるようになってきている。画
像伝達方式(NTSC,PAL等)ごとに、画像の解像
度が異なり、画像の縦方向と横方向の画素数も異なって
いる。また、NTSC方式およびPAL方式の他にも、
HDTV方式等のさまざまな画像伝達方式があり、方式
ごとに解像度(画素数)の規格が異なる。また、画像表
示装置も多様であり、最近のLCD等の固定画素表示装
置においては、種々の画素サイズの表示器が存在する。
従って、同一のデジタル画像処理システムにより、これ
ら全ての画像伝達方式の画像データを処理し、表示しよ
うとする場合には、ある画像伝達方式の画像データを、
「補間フィルタ」等により、表示装置に合わせた画像デ
ータに変換する必要等が生じている。On the other hand, with the recent advance in digital signal processing technology, a method has been adopted in which the image data of each image transmission system is displayed with the same horizontal scanning frequency of the image display device by digital processing. Is coming. The image resolution differs for each image transmission method (NTSC, PAL, etc.), and the number of pixels in the vertical and horizontal directions of the image also differs. In addition to the NTSC and PAL systems,
There are various image transmission systems such as the HDTV system, and the standard of the resolution (the number of pixels) differs for each system. In addition, there are various image display devices, and in fixed pixel display devices such as recent LCDs, there are displays having various pixel sizes.
Therefore, when the same digital image processing system processes and displays all the image data of the image transmission method, the image data of a certain image transmission method is
There is a need for conversion to image data suitable for the display device, etc., due to an “interpolation filter”.
【0026】以下、画像の拡大・縮小および標本化周波
数(画素数)変換処理を例として、画像の画素数を変換
する補間フィルタによるフィルタリング方法を説明す
る。画像の拡大・縮小処理、および、画像の標本化周波
数の変換処理(解像度の規格が異なる画像伝達方式の間
での画素数の変換処理)のいずれも、元の画像(原画
像)の各画素の位置、および、画素の輝度や色を表現す
るデータ(画素データ)から、原画像には存在しなかっ
た画素データを算出する演算を行うことにより実現され
る。Hereinafter, a filtering method using an interpolation filter for converting the number of pixels of an image will be described, taking as an example the process of enlarging / reducing an image and converting the sampling frequency (number of pixels). Each of the enlargement / reduction processing of the image and the conversion processing of the sampling frequency of the image (the conversion processing of the number of pixels between image transmission methods having different resolution standards) is performed for each pixel of the original image (original image). This is realized by performing an operation of calculating pixel data that did not exist in the original image from the position (1) and data (pixel data) expressing the luminance and color of the pixel.
【0027】補間フィルタは、画像の拡大・縮小処理お
よび標本化周波数の変換処理を行うための演算を行って
画像データをフィルタリングするので、これらの処理
は、補間フィルタを利用して実現することができる。[0027] The interpolation filter filters the image data by performing operations for enlarging and reducing the image and converting the sampling frequency, so that these processes can be realized using the interpolation filter. it can.
【0028】図1は、原画像の画素の配列を例示する図
である。なお、実際には、画像は多くの画素から構成さ
れることが多いが、説明および図示の簡略化のために、
図1には、少数の画素(縦6画素×横8画素)から構成
される画像が例示されており、図1において、○印は原
画像の画素の位置を示す(以下、各図において同じ)。FIG. 1 is a diagram exemplifying an arrangement of pixels of an original image. In practice, an image is often composed of many pixels, but for simplicity of description and illustration,
FIG. 1 exemplifies an image composed of a small number of pixels (6 vertical pixels × 8 horizontal pixels). In FIG. 1, the circles indicate the positions of the pixels of the original image (hereinafter, the same applies to each drawing). ).
【0029】画素の配列を保って長さを拡大する画像の
拡大処理 まず、さらに図2および図3を参照して、図1に示した
原画像を、画像表示の規格自体は変更せずに、図1に示
す画素の配列(画素の間隔および位置関係)を同一に保
って、長さの比で(10/7)倍に拡大する場合を例
に、画像の拡大処理を説明する。 An image whose length is enlarged while maintaining the pixel arrangement
Enlargement processing First, referring to FIGS. 2 and 3, the original image shown in FIG. 1 is replaced with the pixel arrangement (pixel interval and positional relationship) shown in FIG. 1 without changing the image display standard itself. The image enlargement process will be described by taking as an example a case where the image is enlarged by (10/7) times by the length ratio while keeping the same.
【0030】図2は、画像表示の規格自体は変更せず
に、図1に示した原画像の画素の配列を保って、長さを
(10/7)倍に拡大した拡大画像を示す図である。画
素の配列を保って原画像(図1)を拡大すると、図2に
示す拡大画像が得られる。つまり、画像の長さの拡大倍
率が1.429(≒10/7)倍なので、拡大後の画像
(拡大画像)の1辺の長さは1.429倍され、画素数
は約1.4292 倍に増加する。FIG. 2 is a diagram showing an enlarged image in which the length is enlarged to (10/7) times while maintaining the arrangement of the pixels of the original image shown in FIG. 1 without changing the image display standard itself. It is. When the original image (FIG. 1) is enlarged while maintaining the arrangement of the pixels, an enlarged image shown in FIG. 2 is obtained. That is, since the enlargement magnification of the length of the image is 1.429 (≒ 10/7) times, the length of one side of the enlarged image (enlarged image) is 1.429 times, and the number of pixels is about 1.429. Increase by a factor of two .
【0031】具体的には、例えば、水平方向(水平走査
の方向)に対して、原画像の画素数が8であるのに対
し、拡大画像の画素数は11または12〔≒8×10/
7(11.429)〕画素になる。従って、原画像の画
素間の位置関係と、拡大画像の画素の位置関係とが変化
し、拡大画像の画素画素データは、対応する原画像の画
素データと異なる値になる。Specifically, for example, in the horizontal direction (horizontal scanning direction), the number of pixels of the original image is 8, while the number of pixels of the enlarged image is 11 or 12 [≒ 8 × 10 /
7 (11.429)] pixels. Therefore, the positional relationship between the pixels of the original image and the positional relationship of the pixels of the enlarged image change, and the pixel pixel data of the enlarged image has a different value from the corresponding pixel data of the original image.
【0032】図3は、図1に示した原画像の画素と、原
画像の長さを、拡大倍率(10/7)倍で拡大した拡大
画像の画素との水平方向の位置関係を示す図である。な
お、図3において、横軸の上側の記号Ri(i=1,
2,…)は、原画像の画素を表し、横軸の下側の記号Q
iは、拡大画像の画素を示す。また、図3は、水平方向
の原画像の画素と拡大画像の画素の位置関係のみを示す
が、水平走査の方向に対して垂直な方向(垂直方向)の
原画像の画素と拡大画像の画素の位置関係も同様であ
る。FIG. 3 is a diagram showing the horizontal positional relationship between the pixels of the original image shown in FIG. 1 and the pixels of the enlarged image obtained by enlarging the length of the original image by the magnification (10/7). It is. In FIG. 3, the symbol Ri (i = 1, 1) on the upper side of the horizontal axis
2,...) Represent pixels of the original image, and the symbol Q below the horizontal axis
i indicates a pixel of the enlarged image. FIG. 3 shows only the positional relationship between the pixels of the original image and the pixels of the enlarged image in the horizontal direction. However, the pixels of the original image and the pixels of the enlarged image in the direction (vertical direction) perpendicular to the horizontal scanning direction are shown. Is also the same.
【0033】図3に示すように、画面に映し出される映
像に対する画素位置という意味では、原画像の画素Ri
に対して、拡大画像の画素Qiは、水平方向に(10/
7)倍の間隔で配置される。拡大画像の各画素の画素デ
ータは、後述するように、図3に示す原画像の各画素と
拡大画像の画素との対応関係等に応じて、拡大画像の画
素それぞれについて、その周辺の所定数の原画像の画素
データ値に対して、補間フィルタ演算、つまり補間関数
への畳み込み演算を行うことにより算出される。As shown in FIG. 3, in terms of the pixel position with respect to the image projected on the screen, the pixel Ri of the original image is used.
In contrast, the pixel Qi of the enlarged image is (10 /
7) They are arranged at double intervals. As will be described later, the pixel data of each pixel of the enlarged image includes a predetermined number of pixels around each pixel of the enlarged image in accordance with the correspondence between each pixel of the original image and the pixel of the enlarged image shown in FIG. Is calculated by performing an interpolation filter operation, that is, a convolution operation on an interpolation function, on the pixel data values of the original image.
【0034】画素の配列を保って標本化周波数を高くす
る画像変換処理 以下、さらに図4を参照して、図1に示した原画像を、
画像の大きさを変更せずに標本化周波数を(10/7)
倍に変換する場合を例として、標本化周波数を高くする
画像変換処理(標本周波数変換処理)を説明する。Increasing the sampling frequency while maintaining the pixel arrangement
That the image conversion processing will further with reference to FIG. 4, the original image shown in FIG. 1,
Sampling frequency without changing image size (10/7)
An image conversion process (sampling frequency conversion process) for increasing the sampling frequency will be described by taking the case of double conversion as an example.
【0035】図4は、図1に示した原画像を、画像の大
きさを変更せずに標本化周波数を(10/7)倍に変換
処理して得られる変換画像を示す図である。この標本化
周波数変換処理は、原画像を、解像度の規格が(10/
7)倍だけ高い画像伝達方式の画像に変換することと等
価である。つまり、図4に示すように、この標本化周波
数変換処理により、図1に示した原画像は、同一長内に
〔10/7(=1.429倍)〕の画素数、同一面積内
に1.4292 倍の画素数を含む(1.4292 倍の面
密度の)変換画像に変換される。FIG. 4 is a diagram showing a converted image obtained by converting the original image shown in FIG. 1 to a sampling frequency (10/7) times without changing the size of the image. In this sampling frequency conversion process, the original image is converted to a resolution standard (10 /
7) This is equivalent to converting the image into an image of the image transmission method that is twice as high. That is, as shown in FIG. 4, by this sampling frequency conversion process, the original image shown in FIG. 1 has the number of pixels of [10/7 (= 1.429 times)] and the same area within the same length. The image is converted into a converted image (with a surface density of 1.429 2 times) containing 1.429 2 times the number of pixels.
【0036】原画像(図1)の各画素と拡大画像(図
2)の各画素との位置関係と、原画像の各画素と、標本
周波数変換後の画像(図4)の各画素との位置関係とは
同一であり、いずれも図3に示す通りなので、標本化周
波数および画素の面密度を高める演算は、上述の原画像
に対する拡大処理の演算と同様である。The positional relationship between each pixel of the original image (FIG. 1) and each pixel of the enlarged image (FIG. 2), and the relationship between each pixel of the original image and each pixel of the image after sample frequency conversion (FIG. 4). Since the positional relationship is the same, and both are as shown in FIG. 3, the calculation for increasing the sampling frequency and the areal density of pixels is the same as the above-described calculation for the enlargement processing on the original image.
【0037】画素の配列を保って長さを縮小する画像の
縮小処理 以下、さらに図5および図6を参照して、図1に示した
原画像を、画像表示の規格自体は変更せずに、図1に示
す画素の配列(画素の間隔および位置関係)を同一に保
って、長さを(10/13)倍の縮小倍率で縮小する場
合を例に、画像の縮小処理を説明する。このように画像
を縮小処理する場合、縮小処理により得られる画像(縮
小画像)における画素の間隔および位置関係は、図1に
示す原画像と同一になる。For an image whose length is reduced while maintaining the pixel arrangement,
With reference to FIGS. 5 and 6, the original image shown in FIG. 1 is replaced with the pixel arrangement shown in FIG. 1 (pixel spacing and positional relationship) without changing the image display standard itself. The image reduction processing will be described by taking as an example the case where the length is reduced at a reduction ratio of (10/13) times while maintaining the same. When the image is reduced in this way, the pixel intervals and the positional relationship in the image (reduced image) obtained by the reduction process are the same as the original image shown in FIG.
【0038】図5は、図1に示した原画像を、画素の配
列を変更せずに長さを(10/13)倍に縮小した縮小
画像を示す図である。この縮小処理においては、縮小倍
率は0.769(=10/13)倍なので、画像の1辺
の長さは0.769倍となり、縮小画面を構成する画素
の数は約0.7692 倍に減少する。FIG. 5 is a diagram showing a reduced image obtained by reducing the length of the original image shown in FIG. 1 to (10/13) times without changing the arrangement of pixels. In this reduction processing, since the reduction magnification is 0.769 (= 10/13) times, the length of one side of the image is 0.769 times, and the number of pixels constituting the reduced screen is about 0.769 2 times. To decrease.
【0039】例えば、図1に示したように、原画像の水
平方向の画素数が8の場合には、縮小画像の水平方向の
画素数は、6または7〔≒8×10/13(6.15
4)〕になる。従って、原画像の画素間の位置関係と、
縮小画像の画素間の位置関係とは変化し、縮小画像の画
素データは、原画像の対応する画素データと異なった値
になる。For example, as shown in FIG. 1, when the number of pixels in the horizontal direction of the original image is 8, the number of pixels in the horizontal direction of the reduced image is 6 or 7 [≒ 8 × 10/13 (6 .15
4)]. Therefore, the positional relationship between the pixels of the original image and
The positional relationship between the pixels of the reduced image changes, and the pixel data of the reduced image has a different value from the corresponding pixel data of the original image.
【0040】図6は、画面に映し出された映像を固定し
た場合の図1に示した原画像の画素と、原画像の長さを
(10/13)倍の縮小倍率で縮小した縮小画像の画素
との水平方向の位置関係を示す図である。なお、図6に
おいて、横軸の上側のRi(i=1,2,…)は原画像
の画素を示し、横軸の下側のQiは縮小画像の画素を示
す。なお、図6には、原画像の画素と縮小画像の画素と
の水平方向の位置関係が示されているが、垂直方向の位
置関係も同様である。FIG. 6 shows the pixels of the original image shown in FIG. 1 when the image projected on the screen is fixed, and the reduced image obtained by reducing the length of the original image by (10/13) times the reduction magnification. FIG. 3 is a diagram illustrating a positional relationship between pixels and a horizontal direction. In FIG. 6, Ri (i = 1, 2,...) Above the horizontal axis indicates pixels of the original image, and Qi below the horizontal axis indicates pixels of the reduced image. Although FIG. 6 shows the positional relationship between the pixels of the original image and the pixels of the reduced image in the horizontal direction, the same applies to the positional relationship in the vertical direction.
【0041】図6に示すように、原画像の画素Riは、
縮小画像の画素Qiの(10/13)倍の間隔で配置さ
れる。縮小画像の画素データの値は、図6に示す原画像
の各画素との対応関係に応じて、原画像の対応する画素
の周辺の所定数の画素の画素データに対して、補間フィ
ルタ演算、つまり、補間関数の畳み込み演算を行うこと
により算出される。As shown in FIG. 6, the pixel Ri of the original image is
The pixels are arranged at intervals of (10/13) times the pixel Qi of the reduced image. The value of the pixel data of the reduced image is calculated by performing an interpolation filter operation on the pixel data of a predetermined number of pixels around the corresponding pixel of the original image according to the correspondence relationship with each pixel of the original image shown in FIG. That is, it is calculated by performing a convolution operation of the interpolation function.
【0042】画素の配列を保って標本化周波数を低くす
る画像変換処理 以下、さらに図7を参照して、図1に示した原画像を、
画像の大きさを変更せずに標本化周波数を(10/1
3)倍に変換する場合を例として、標本化周波数を低く
する標本周波数変換処理を説明する。Lowering the sampling frequency while maintaining the pixel arrangement
That the image conversion processing will further with reference to FIG. 7, the original image shown in FIG. 1,
The sampling frequency is changed (10/1) without changing the size of the image.
3) The sampling frequency conversion processing for lowering the sampling frequency will be described by taking as an example the case where the conversion is performed twice.
【0043】図7は、図1に示した原画像を、画像の大
きさを変更せずに標本化周波数を(10/13)倍に変
換処理して得られる変換画像を示す図である。この標本
化周波数変換処理は、原画像を、解像度の規格が(10
/13)倍だけ低い画像伝達方式の画像に変換すること
と等価である。つまり、図7に示すように、この標本化
周波数変換処理により、図1に示した原画像は、同一長
内に〔10/13(≒0.769倍)〕の画素数、同一
面積内に0.7692 倍の画素数を含む(1.4292
倍の面密度の)変換画像に変換される。FIG. 7 is a diagram showing a converted image obtained by converting the original image shown in FIG. 1 to a sampling frequency (10/13) times without changing the size of the image. In this sampling frequency conversion processing, the original image is converted to a resolution standard (10
/ 13) It is equivalent to converting the image into an image of the image transmission method which is lower by a factor of two. That is, as shown in FIG. 7, by this sampling frequency conversion process, the original image shown in FIG. 1 has the number of pixels of [10/13 (≒ 0.769 times)] and the same area within the same length. Including 0.769 2 times the number of pixels (1.429 2
Is converted to a converted image (of double area density).
【0044】原画像(図1)の各画素と縮小画像(図
5)の各画素との位置関係と、原画像の各画素と標本周
波数変換後の画像(図7)の各画素との位置関係とは同
一であり、いずれも図6に示す通りなので、標本化周波
数および画素の面密度を低くする演算は、上述の原画像
に対する縮小処理の演算と同様である。The positional relationship between each pixel of the original image (FIG. 1) and each pixel of the reduced image (FIG. 5), and the position of each pixel of the original image and each pixel of the image after sample frequency conversion (FIG. 7) Since the relationship is the same and both are as shown in FIG. 6, the calculation for lowering the sampling frequency and the surface density of pixels is the same as the calculation for the above-described reduction processing on the original image.
【0045】以上の説明したように、画像の拡大・縮小
処理および標本化周波数変換処理には、原画像において
画素が存在しない位置に、新たな画素の画素データを算
出する補間フィルタによるフィルタリングが必要であ
る。As described above, the enlargement / reduction processing of the image and the sampling frequency conversion processing require filtering by an interpolation filter for calculating pixel data of a new pixel at a position where no pixel exists in the original image. It is.
【0046】補間フィルタの演算 以下、補間フィルタによるフィルタリングに用いられる
演算を説明する。図8は、補間フィルタによるフィルタ
リングを示す図である。図8に示すように、原画像の標
本化間隔をSとし、原画像の画素Rの位置から距離(位
相)Pだけ離れた位置を、補間により生成する画素(補
間画素)Qiの位置(補間点)とすると、補間画素Qi
の値は、原画像の近傍の画素(以下、周辺の画素と記
す)の値Rに対して畳み込み演算を行うことにより算出
される。 Calculation of Interpolation Filter Hereinafter, calculation used for filtering by the interpolation filter will be described. FIG. 8 is a diagram illustrating filtering by an interpolation filter. As shown in FIG. 8, the sampling interval of the original image is S, and a position (distance P) from the position of the pixel R of the original image is determined by the position of the pixel (interpolated pixel) Qi generated by interpolation (interpolation). ), The interpolation pixel Qi
Is calculated by performing a convolution operation on a value R of a pixel in the vicinity of the original image (hereinafter, referred to as a peripheral pixel).
【0047】図9(A)〜(D)は、補間フィルタによ
るフィルタリングの演算処理に用いられる補間関数を示
す図である。「標本化定理」に基づく理想的な「補間」
による補間画素の画素データの算出処理は、下式1およ
び図9(A)に示すsinc関数を補間関数f(x)と
して、無限に過去の原画像の画素の画素データから、無
限に将来の画素の画素データまでに対する畳み込み演算
により行われる。FIGS. 9A to 9D are diagrams showing an interpolation function used for a filtering operation by an interpolation filter. Ideal "interpolation" based on "sampling theorem"
The calculation processing of the pixel data of the interpolated pixel by the following formula is performed by using the sinc function shown in the following expression 1 and FIG. This is performed by a convolution operation up to the pixel data of the pixel.
【0048】[0048]
【数1】 f(x)=sinc(π×x)=sin(π×x)/(π×x) …(1) ただし、πは、円周率である。F (x) = sinc (π × x) = sin (π × x) / (π × x) (1) where π is a circular constant.
【0049】しかしながら、実際には、有限時間内に補
間画素の画素データを算出する必要があるので、式1お
よび図9(A)に示したsinc関数を、有限の範囲で
近似した補間関数を利用する。sinc関数を近似する
方法としては、最近傍近似法、双一次近似法およびCu
bic近似法等が知られている。However, since it is actually necessary to calculate the pixel data of the interpolated pixel within a finite time, the interpolation function obtained by approximating the sinc function shown in Equation 1 and FIG. Use. Methods for approximating the sinc function include the nearest neighbor approximation, bilinear approximation, and Cu
A bic approximation method and the like are known.
【0050】上述の近似方法の内、最近傍近似法は、下
式2および図9(B)に示す補間関数を用いて、原画像
の最近傍の1画素分の画素データから、1補間画素分の
画素データを演算する。Among the above-described approximation methods, the nearest neighbor approximation method uses the interpolation function shown in Equation 2 and FIG. Calculate pixel data for each minute.
【0051】[0051]
【数2】 f(x)=1 ;−0.5<x≦0.5 f(x)=0 ;−0.5≧x,x>0.5 …(2) ただし、式2および図9(B)において、変数xは、原
画像の画素位置からの水平方向の変位(図8のP)を、
原画像の標本間隔Sで正規化した量である(以下の各式
において同じ)。F (x) = 1; −0.5 <x ≦ 0.5 f (x) = 0; −0.5 ≧ x, x> 0.5 (2) 9 (B), the variable x is a horizontal displacement (P in FIG. 8) from the pixel position of the original image,
This is a quantity normalized by the sample interval S of the original image (the same applies to the following equations).
【0052】また、双一次近似法は、下式3および図9
(C)に示す補間関数を用いて、原画像の2画素分の画
素データから1補間画素分の画素データを演算する。The bilinear approximation method is given by the following equation 3 and FIG.
The pixel data for one interpolation pixel is calculated from the pixel data for two pixels of the original image using the interpolation function shown in FIG.
【0053】[0053]
【数3】 f(x)=1−|x|; |x|≦1 f(x)=0 ; |x|>1 …(3)F (x) = 1− | x |; | x | ≦ 1 f (x) = 0; | x |> 1 (3)
【0054】また、双一次近似法は、線形補間として良
く知られており、原画像の画素の両隣の画素データの加
重平均を算出することにより、補間画素の画素データを
算出する。The bilinear approximation method is well known as linear interpolation, and calculates pixel data of an interpolated pixel by calculating a weighted average of pixel data on both sides of a pixel of an original image.
【0055】また、Cubic近似法は、下式4および
図9(D)に示す補間関数を用いて、原画像の4画素分
の近傍の画素データから、1補間画素分の1画素のデー
タを算出する。In the Cubic approximation method, data of one pixel of one interpolated pixel is calculated from pixel data of four pixels in the original image by using the following equation 4 and the interpolation function shown in FIG. calculate.
【0056】[0056]
【数4】 f(x)=|x|3 −2|x|+1 ; |x|≦1 f(x)=−|x|3 +5|x|2 +4−8|x|; 1<|x|≦2 f(x)=0 ; 2<|x| …(4)F (x) = | x | 3 -2 | x | +1; | x | ≦ 1 f (x) = − | x | 3 +5 | x | 2 + 4-8 | x |; 1 <| x | ≦ 2 f (x) = 0; 2 <| x | (4)
【0057】これらの畳み込み演算は、いわゆるFIR
デジタルフィルタを利用して行うことが可能である。こ
の畳み込み演算を実現するFIRディジタルフィルタの
各乗算素子に設定される係数の値(フィルタ係数)とし
ては、補間点(補間画素の位置)を補間関数の中心とし
た場合に、この中心の周辺の所定数(近傍)の原画像の
画素の位置(標本点)における補間関数の値が用いられ
る。なお、FIRディジタルフィルタの各乗算素子に設
定されるフィルタ係数の組み合わせは、フィルタ係数セ
ットと呼ばれる。These convolution operations are performed by a so-called FIR
This can be performed using a digital filter. When the interpolation point (the position of the interpolation pixel) is set at the center of the interpolation function, the value of the coefficient (filter coefficient) set for each multiplication element of the FIR digital filter that realizes this convolution operation is calculated around the center. The value of the interpolation function at a predetermined number (nearby) of pixel positions (sample points) of the original image is used. Note that a combination of filter coefficients set for each multiplication element of the FIR digital filter is called a filter coefficient set.
【0058】フィルタ係数セット 畳み込み演算を実現するFIRデジタルフィルタのフィ
ルタ係数セットを、具体例を挙げてさらに説明する。 Filter Coefficient Set The filter coefficient set of the FIR digital filter for realizing the convolution operation will be further described with a specific example.
【0059】双一次近似法による補間処理を行う場合の
フィルタ係数セット 例えば、双一次近似法による補間処理に用いられるFI
Rデジタルフィルタは2タップ構成を採り、原画像の標
本間隔Sで正規化した原画像の画素と補間画素との位置
の差(図8に示す位相P)の値が0.0である場合に
は、このFIRデジタルフィルタに設定される2つのフ
ィルタ係数は1.0,0.0となる。つまり、これら2
つのフィルタ係数は、原画像の画素と補間画素との位置
が一致する場合(位相P=0)には、FIRディジタル
フィルタは、原画像の画素データそのままを、補間画素
の画素データとして出力するフィルタ係数セットを構成
する。In the case of performing interpolation processing by the bilinear approximation method
Filter coefficient set, for example, FI used for interpolation processing by the bilinear approximation method
The R digital filter employs a two-tap configuration. When the value of the position difference (phase P shown in FIG. 8) between the pixel of the original image and the interpolation pixel normalized by the sampling interval S of the original image is 0.0. , The two filter coefficients set in this FIR digital filter are 1.0 and 0.0. In other words, these two
When the position of the pixel of the original image and the position of the interpolation pixel match (phase P = 0), the FIR digital filter outputs the pixel data of the original image as it is as the pixel data of the interpolation pixel. Construct a coefficient set.
【0060】また、例えば、位相Pが0.5であるとき
には、FIRデジタルフィルタに設定される2つのフィ
ルタ係数は、0.5,0.5となる。また、例えば、位
相Pが0.3であるときには、FIRデジタルフィルタ
に設定される2つのフィルタ係数は、0.7,0.3と
なる。For example, when the phase P is 0.5, the two filter coefficients set in the FIR digital filter are 0.5 and 0.5. For example, when the phase P is 0.3, the two filter coefficients set in the FIR digital filter are 0.7 and 0.3.
【0061】Cubic近似法による補間処理を行う場
合のフィルタ係数セット Cubic近似法による補間処理に用いられるFIRデ
ィジタルフィルタは4タップ構成を採り、位相Pが0.
0であるときには、FIRディジタルフィルタに設定さ
れる4つのフィルタ係数は0.0,1.0,0.0,
0.0であり、これら4つのフィルタ係数は、補間画素
と位置が一致する原画像の画素の画素データを、そのま
ま補間画素の画素データとして出力するフィルタ係数セ
ットを構成する。When performing interpolation processing by the Cubic approximation method
The FIR digital filter used for the interpolation processing by the filter coefficient set Cubic approximation method has a 4-tap configuration, and has a phase P of 0.
When 0, the four filter coefficients set in the FIR digital filter are 0.0, 1.0, 0.0,
0.0, and these four filter coefficients constitute a filter coefficient set for outputting the pixel data of the pixel of the original image whose position coincides with the interpolation pixel as the pixel data of the interpolation pixel.
【0062】また、位相Pが0.5であるときには、F
IRディジタルフィルタに設定される4つのフィルタ係
数は、−0.125,0.625,0.625,−0.
125となる。また、位相Pが0.3であるときには、
FIRディジタルフィルタに設定される4つのフィルタ
係数は、−0.063,0.847,0.363,−
0.147となる。When the phase P is 0.5, F
The four filter coefficients set in the IR digital filter are -0.125, 0.625, 0.625, -0.
125. When the phase P is 0.3,
The four filter coefficients set in the FIR digital filter are -0.063, 0.847, 0.363,-
0.147.
【0063】なお、補間画素ごとに位相Pが変化するの
で、位相ごとに異なる値のフィルタ係数セットを用意
し、補間画素それぞれの位相に応じた値のフィルタ係数
セットを用いて補間処理を行う必要がある。Since the phase P changes for each interpolation pixel, it is necessary to prepare a filter coefficient set having a different value for each phase, and perform the interpolation process using the filter coefficient set having a value corresponding to the phase of each interpolation pixel. There is.
【0064】補間フィルタ演算装置 以下、原画像の画素データに対して補間関数の畳み込み
演算を行う補間フィルタ演算装置を説明する。図10
は、Cubic近似法を利用した補間関数〔図9
(D)〕による畳み込み演算を行って原画像の画素デー
タを補間処理し、補間画像の画素データを生成するFI
Rデジタルフィルタとして動作する演算装置1の構成を
例示する図である。 Interpolation Filter Arithmetic Apparatus The following describes an interpolation filter arithmetic unit that performs convolution of an interpolation function on pixel data of an original image. FIG.
Is an interpolation function using the Cubic approximation method [FIG.
(D) performs a convolution operation to interpolate the pixel data of the original image to generate pixel data of the interpolated image.
FIG. 2 is a diagram illustrating a configuration of an arithmetic device 1 that operates as an R digital filter.
【0065】図10に示すように、演算装置1は、係数
メモリ100、レジスタ1021 〜1024 、乗算器1
041 〜1044 および加算器106から構成される。
演算装置1は、これらの構成部分により、4段構成のシ
フトレジスタを用いて、補間画素の位置(補間点)を挟
んで、水平方向に前後するそれぞれ2つ、合計4つの原
画像の画素データに対して、Cubic近似法を利用し
た補間関数〔図9(D)〕による畳み込み演算を行うこ
とにより、補間画素の画素データを算出する。As shown in FIG. 10, the arithmetic unit 1 includes a coefficient memory 100, registers 102 1 to 102 4 , a multiplier 1
04 1-104 comprised of 4 and the adder 106.
Using these components, the arithmetic unit 1 uses a four-stage shift register to set two pixel data of the original image, two in the horizontal direction and two in the horizontal direction across the position of the interpolation pixel (interpolation point). The pixel data of the interpolated pixel is calculated by performing a convolution operation using an interpolation function (FIG. 9D) using the Cubic approximation method.
【0066】演算装置1の構成部分 以下、演算装置1の各構成部分を説明する。The components of the arithmetic unit 1 will be described below.
【0067】係数メモリ100 係数メモリ100は、補間点〔位相P(図8)〕それぞ
れに対応する複数のフィルタ係数セットを記憶し、外部
に接続されたVTR装置等の画像機器および編集装置等
の画像処理装置(図示せず;以下、これらの総称を画像
処理機器と記す)から、入力原画像に同期したフィルタ
選択信号に応じて記憶したフィルタ係数セットを読み出
し、読み出したフィルタ係数セットを構成する4つのフ
ィルタ係数FC1〜FC4を、乗算器1041 〜104
4 それぞれに設定する。 Coefficient Memory 100 The coefficient memory 100 stores a plurality of filter coefficient sets respectively corresponding to the interpolation points [phase P (FIG. 8)], and stores externally connected image equipment such as a VTR and editing equipment. A stored filter coefficient set is read from an image processing device (not shown; hereinafter, collectively referred to as an image processing device) in accordance with a filter selection signal synchronized with an input original image, and the read filter coefficient set is configured. The four filter coefficients FC1 to FC4 are multiplied by multipliers 104 1 to 104
4 Set each.
【0068】レジスタ102 1 〜 102 4 レジスタ1021 〜1024 は、直列接続されて4段構
成のシフトレジスタを構成し、原画像を水平走査して得
られ、外部の画像処理機器からワード単位で順次、時系
列に入力される画像データの連続した4つの画素データ
を、制御信号の論理値に応じて保持し、例えば、原画像
の画素データに同期したクロック信号CLKが論理値0
(L)から論理値1(H)に立ち上がるタイミングでシ
フトする。[0068] Register 102 1-102 4 registers 102 1 to 102 4 is connected in series to form a shift register of the four-stage structure, obtained the original image by the horizontal scanning, in words from an external image processing device Four consecutive pixel data of the image data sequentially input in time series are held in accordance with the logical value of the control signal. For example, a clock signal CLK synchronized with the pixel data of the original image has a logical value of 0
The shift is performed at the timing of rising from (L) to logical value 1 (H).
【0069】つまり、レジスタ1021 〜1024 はそ
れぞれ、例えば、制御信号が論理値1(H)である場合
にのみ、クロック信号CLKの立ち上がり点で外部の画
像処理機器および前段のレジスタ1021 〜1023 か
ら入力される原画像の画素データをラッチして保持し、
シフト動作を行う。一方、レジスタ1021 〜1024
は、制御信号が論理値0(L)である場合には、クロッ
ク信号CLKの立ち上がり点においてもシフト動作を行
わない。That is, each of the registers 102 1 to 102 4 is connected to an external image processing apparatus and the preceding registers 102 1 to 102 4 at the rising edge of the clock signal CLK only when the control signal has the logical value 1 (H), for example. the pixel data of the original image input from 102 3 to hold the latch,
Perform a shift operation. On the other hand, registers 102 1 to 102 4
Does not perform the shift operation even at the rising point of the clock signal CLK when the control signal has the logical value 0 (L).
【0070】乗算器104 1 〜1 04 4 乗算器104i (i=1〜4)は、レジスタ102i か
ら入力される原画像の画素データと、係数メモリ100
から入力されるフィルタ係数FCiとを乗算し、乗算結
果を加算器106に対して出力する。[0070] Multiplier 104 1 to 1 04 4 multiplier 104 i (i = 1~4) is the original image of the pixel data input from the register 102 i, the coefficient memory 100
Is multiplied by the filter coefficient FCi input from the input unit 106, and the multiplication result is output to the adder 106.
【0071】加算器106 加算器106は、乗算器1041 〜1044 から入力さ
れる乗算結果の総和を算出し、補間画素の画素データ
(補間値)として出力する。 Adder 106 The adder 106 calculates the sum of the multiplication results input from the multipliers 104 1 to 104 4 and outputs the result as pixel data (interpolated value) of the interpolated pixel.
【0072】演算装置1の動作 係数メモリ100は、入力原画像に同期したフィルタ選
択信号に応じて、補間点〔位相P(図8)〕それぞれに
対応する複数のフィルタ係数セットのフィルタ係数FC
1〜FC4を、乗算器1041 〜1044 それぞれに設
定する。レジスタ1021 〜1024 は、制御信号の論
理値に応じて、クロック信号CLKに同期して連続した
4つの画素データをシフトして、保持している画素デー
タを乗算器1041 〜1044 に供給する。 The operation coefficient memory 100 of the arithmetic unit 1 stores the filter coefficients FC of a plurality of filter coefficient sets corresponding to the interpolation points [phase P (FIG. 8)] in accordance with the filter selection signal synchronized with the input original image.
1 to FC4 are set for each of the multipliers 104 1 to 104 4 . The registers 102 1 to 102 4 shift four consecutive pixel data in synchronization with the clock signal CLK in accordance with the logical value of the control signal, and transmit the held pixel data to the multipliers 104 1 to 104 4 . Supply.
【0073】乗算器1041 〜1044 は、連続する4
つの原画像の画素データと、フィルタ係数FC1〜FC
4とを乗算する。加算器106は、乗算器1041 〜1
044 の乗算結果の総和を算出し、補間画素の画素デー
タを算出して出力する。The multipliers 104 1 to 104 4 output consecutive 4
Pixel data of two original images and filter coefficients FC1 to FC
Multiply by 4. The adder 106 includes multipliers 104 1 to 104 1
Calculating the 04 4 multiplication result sum, and outputs the calculated pixel data of the interpolation pixel.
【0074】以上説明したように、演算装置1は、演算
装置1に時系列に入力される原画像の画素データとフィ
ルタ係数とを、乗算器1041 〜1044 および加算器
106により積和演算してフィルタリングを行い、演算
結果を補間画素の画素データとして時系列的に出力す
る。[0074] As described above, the arithmetic unit 1, the pixel data and filter coefficients of the original image to be inputted to the arithmetic unit 1 in time-series, the product-sum operation by the multiplier 104 1-104 4 and the adder 106 The filtering is performed, and the calculation result is output in time series as pixel data of the interpolation pixel.
【0075】演算装置1の動作の具体例 以下、演算装置1の動作を、具体例を挙げて説明する。 A specific example of the operation of the arithmetic unit 1 The operation of the arithmetic unit 1 will be described below with a specific example.
【0076】原画像の長さを(10/7)倍にする拡大
処理 以下、原画像をCubic近似により(10/7)倍に
拡大する場合を例に、演算装置1(図10)の動作を説
明する。原画像の長さを水平方向に(10/7)倍にす
る拡大処理は、補間画素(補間点)と原画像の画素との
位置関係を、図8を参照して上述したように設定して、
補間フィルタ演算を行うことにより実現される。 Enlarging the length of the original image to (10/7) times
Processing Hereinafter, the operation of the arithmetic unit 1 (FIG. 10) will be described by taking as an example a case where the original image is enlarged by (10/7) times by Cubic approximation. In the enlargement process for increasing the length of the original image by (10/7) in the horizontal direction, the positional relationship between the interpolation pixel (interpolation point) and the pixel of the original image is set as described above with reference to FIG. hand,
This is realized by performing an interpolation filter operation.
【0077】図11は、原画像の長さを水平方向に(1
0/7)倍にする拡大処理を行う演算装置1(図10)
の各構成部分のデータの値を、処理周期(サイクル)ご
とに例示する図表である。なお、実際には、ハードウェ
ア的に画像処理を行う演算装置1においては、乗算器1
041 〜1044 および加算器106が、パイプライン
処理により乗算および総和の算出演算を行う、高速演算
実現のための遅延(レイテンシ)が生じるが、図示およ
び説明の便宜上、図11には演算装置1にレイテンシが
生じない場合を示してある。FIG. 11 shows that the length of the original image is set in the horizontal direction (1
Arithmetic unit 1 (FIG. 10) for performing an enlargement process of 0/7) times
5 is a table illustrating the data values of the respective components in each processing cycle (cycle). Actually, in the arithmetic unit 1 that performs image processing by hardware, the multiplier 1
04 1 to 104 4 and the adder 106 perform multiplication and sum calculation by pipeline processing, which causes a delay (latency) for realizing a high-speed operation. For convenience of illustration and description, FIG. 1 shows a case where latency does not occur.
【0078】演算装置1は、原画像の画素データが1画
素分、入力される周期を、拡大画像を1画素分出力する
処理周期(サイクル)として、このサイクル(周期)ご
とに、図11に示すフィルタリング演算を行う。なお、
実際には、原画像の画素データが1画素分、入力される
周期は、処理周期(サイクル)よりも少し短い。The arithmetic unit 1 sets the cycle in which the pixel data of the original image is input for one pixel as the processing cycle (cycle) for outputting the enlarged image for one pixel. The following filtering operation is performed. In addition,
Actually, the input cycle of the pixel data of the original image for one pixel is slightly shorter than the processing cycle (cycle).
【0079】第1のサイクル(図11) 図11に示すように、第1のサイクルにおいては、制御
信号の値は論理値1(H)を採り、レジスタ1021 に
は、外部の画像処理機器から原画像の第1の画素データ
R1が入力される。第1のサイクルの開始時点では、レ
ジスタ1021 〜1024 はそれぞれ、画素データR1
より1〜4サイクル前にレジスタ1021 に入力された
原画像の画素データRm0〜Rm3を保持しており、第
1のサイクルの開始後にクロック信号CLKが立ち上が
るタイミングでシフト動作を行い、新たに画素データR
1,Rm0〜Rm2を保持する。 First Cycle (FIG. 11) As shown in FIG. 11, in the first cycle, the value of the control signal takes a logical value of 1 (H), and the register 102 1 contains an external image processing device. From the first pixel data R1 of the original image. At the start of the first cycle, the registers 102 1 to 102 4 store pixel data R1
The pixel data Rm0 to Rm3 of the original image input to the register 102 1 one to four cycles before are held, and a shift operation is performed at the timing when the clock signal CLK rises after the start of the first cycle, and a new pixel Data R
1, Rm0 to Rm2 are held.
【0080】第2のサイクル(図11) 第2のサイクルにおいては、制御信号の値は論理値1
(H)を採り、レジスタ1021 には、外部の画像処理
機器から原画像の第2の画素データR2が入力される。
第2のサイクルの開始時点では、レジスタ1021 〜1
024 はそれぞれ、画素データR1,Rm0〜Rm2を
保持しており、第2のサイクルの開始後にクロック信号
CLKが立ち上がるタイミングでシフト動作を行い、新
たに画素データR2,R1,Rm0,Rm1を保持す
る。 Second Cycle (FIG. 11) In the second cycle, the value of the control signal is a logical 1
(H), the register 102 1 receives the second pixel data R2 of the original image from an external image processing device.
At the start of the second cycle, the registers 102 1 to 102 1
Each 02 4, pixel data R1, holds Rm0~Rm2, performs a shift operation at the timing when the clock signal CLK rises after the start of the second cycle, the newly holds the pixel data R2, R1, Rm0, Rm1 I do.
【0081】第3のサイクル(図11) 第3のサイクルにおいては、制御信号の値は論理値1
(H)を採り、レジスタ1021 には、外部の画像処理
機器から原画像の第3の画素データR3が入力される。
第3のサイクルの開始時点では、レジスタ1021 〜1
024 はそれぞれ、画素データR2,R1,Rm0,R
m1を保持しており、第3のサイクルの開始後にクロッ
ク信号CLKが立ち上がるタイミングでシフト動作を行
い、新たに画素データR3,R2,R1,Rm0を保持
する。 Third Cycle (FIG. 11) In the third cycle, the value of the control signal is a logical 1
(H), the third pixel data R3 of the original image is input to the register 102 1 from an external image processing device.
At the start of the third cycle, the registers 102 1 to 102 1
02 each 4 pixel data R2, R1, Rm0, R
The shift operation is performed at the timing when the clock signal CLK rises after the start of the third cycle, and the pixel data R3, R2, R1, and Rm0 are newly held.
【0082】第4のサイクル(図11) 第4のサイクルにおいては、次の原画像の画素データR
4がレジスタ1021に入力される。ただし、後述する
ように、第4のサイクルにおいて補間画素データ(Q
1)の生成に用いられた原画像の画素データが、そのま
ま第5のサイクルにおいても補間画素データ(Q2)の
生成に用いられるので、外部の画像処理機器(制御装
置)は、制御信号の値を論理値0(L)に変更し、レジ
スタ1021〜1024 は、シフト動作を行わず、第3
のサイクルと同じ画素データR3,R2,Rm0,Rm
1を保持する。さらに、外部に接続された画像処理機器
(制御装置)は、原画像の画素と補間画素との位置関係
(図3)、つまり、図8に示した原画像の画素Ra,R
b,Rc,Rdおよび補間画素Qそれぞれを、図11に
示す画素データRm0,R1〜R3および補間画素デー
タQ1とした場合の位相P(図8)に対応するフィルタ
選択信号P0を係数メモリ100に対して出力する。 Fourth Cycle (FIG. 11) In the fourth cycle, the pixel data R of the next original image
4 is input to the register 102 1 . However, as described later, in the fourth cycle, the interpolation pixel data (Q
Since the pixel data of the original image used for generating 1) is used for generating the interpolated pixel data (Q2) in the fifth cycle as it is, the external image processing device (control device) controls the value of the control signal. Is changed to a logical value 0 (L), and the registers 102 1 to 102 4 perform the third operation without performing the shift operation.
The same pixel data R3, R2, Rm0, Rm as the cycle of
Hold 1 Further, an externally connected image processing device (control device) controls the positional relationship between the pixels of the original image and the interpolated pixels (FIG. 3), that is, the pixels Ra and R of the original image shown in FIG.
The filter selection signal P0 corresponding to the phase P (FIG. 8) when b, Rc, Rd and the interpolated pixel Q are pixel data Rm0, R1 to R3 and interpolated pixel data Q1 shown in FIG. Output to
【0083】図12は、図10に示した演算装置1の係
数メモリ100が記憶する10種類のフィルタ係数セッ
トを示す図表である。なお、図12には、原画像の長さ
を(10/7)倍にする拡大処理を行う際に生じうる1
0種類の位相P(図3)を変数xとして式4に代入し、
データ長を8ビット(最大振幅128)に制限し、小数
点表現および8ビット表現したフィルタ係数の値を示し
てある。FIG. 12 is a table showing ten types of filter coefficient sets stored in the coefficient memory 100 of the arithmetic unit 1 shown in FIG. Note that FIG. 12 illustrates one example that may occur when performing an enlargement process to increase the length of the original image by (10/7) times.
By substituting 0 types of phases P (FIG. 3) into a variable x as a variable x,
The data length is limited to 8 bits (maximum amplitude 128), and the values of the filter coefficients represented by decimal points and represented by 8 bits are shown.
【0084】原画像の長さを(10/7)倍に拡大処理
する場合には、図3に示したように10種類の原画像の
画素と補間画素との位置関係(位相P;図8)が生じ
る。従って、係数メモリ100は、図3に示した位置関
係それぞれに対応する10種類のフィルタ係数セット
(図12)を予め記憶し、第4のサイクル以降の各サイ
クルにおいて入力されるフィルタ選択信号Pk(k=0
〜9)に基づいて、記憶した10種類のフィルタ係数セ
ットのいずれかを選択し、選択したフィルタ係数セット
を構成する4つのフィルタ係数FC1〜FC4を、乗算
器1041 〜104 4 それぞれに設定する。Enlargement processing of original image length to (10/7) times
In this case, as shown in FIG.
The positional relationship between the pixel and the interpolated pixel (phase P; FIG. 8) occurs
You. Therefore, the coefficient memory 100 stores the position relation shown in FIG.
10 kinds of filter coefficient sets corresponding to each member
(FIG. 12) is stored in advance, and each cycle after the fourth cycle is stored.
Filter selection signal Pk (k = 0)
To 9) based on the stored 10 filter coefficient sets.
Select one of the filters and the selected filter coefficient set
Is multiplied by four filter coefficients FC1 to FC4
Vessel 1041~ 104 FourSet for each.
【0085】つまり、外部の画像処理機器(制御装置)
は、原画像の画素の位置と補間画素の位置(補間点)と
が、標本化間隔S(図8)を10等分して得られる10
個の位相の内の第k番目の位相Pの関係にある場合に、
第k番目の位相Pに対応するフィルタ選択信号Pkを係
数メモリ100に対して出力し、係数メモリ100は、
画像処理機器(制御装置)から入力されたフィルタ選択
信号Pkに応じてフィルタ係数セットを選択し、選択し
たフィルタ係数セットに含まれるフィルタ係数FC1〜
FC4を、乗算器1041 〜1044 それぞれに設定す
る。That is, an external image processing device (control device)
Is obtained by dividing the sampling interval S (FIG. 8) into ten by dividing the positions of the pixels of the original image and the positions of the interpolation pixels (interpolation points).
When there is a relationship of the k-th phase P among the phases,
A filter selection signal Pk corresponding to the k-th phase P is output to the coefficient memory 100.
A filter coefficient set is selected according to a filter selection signal Pk input from an image processing device (control device), and filter coefficients FC1 to FC1 included in the selected filter coefficient set are selected.
FC4 is set for each of the multipliers 104 1 to 104 4 .
【0086】第4のサイクルにおいては、図11に例示
するように、原画像の画素の位置と補間画素(補間点)
の位置とが、第0番目の位相Pの関係にあり、外部の画
像処理機器(制御装置)は、係数メモリ100に対して
フィルタ選択信号P0を出力する。係数メモリ100
は、外部の画像処理機器から入力されたフィルタ選択信
号P0に応じて、図12に示した位相P0に対応するフ
ィルタ係数セット〔0.0,1.0,0.0,0.0
(8ビット表現で0,128,0,0)〕を選択し、選
択したフィルタ係数セットを構成する4つのフィルタ係
数FC1〜FC4(0.0,1.0,0.0,0.0)
を、乗算器1041 〜1044 それぞれに対して出力す
る。In the fourth cycle, as illustrated in FIG. 11, the positions of the pixels of the original image and the interpolation pixels (interpolation points)
Is in the relationship of the 0th phase P, and the external image processing device (control device) outputs the filter selection signal P0 to the coefficient memory 100. Coefficient memory 100
Is a filter coefficient set [0.0, 1.0, 0.0, 0.0] corresponding to the phase P0 shown in FIG. 12 according to the filter selection signal P0 input from an external image processing device.
(0, 128, 0, 0 in 8-bit representation)] and the four filter coefficients FC1 to FC4 (0.0, 1.0, 0.0, 0.0) constituting the selected filter coefficient set
Is output to each of the multipliers 104 1 to 104 4 .
【0087】乗算器1041 〜1044 はそれぞれ、レ
ジスタ1021 〜1024 から入力される原画像の画素
データと、係数メモリ100から入力されるフィルタ係
数FC1〜FC4とを乗算し、加算器106は、乗算器
1041 〜1044 から入力される4つの乗算結果の総
和を算出する。このように、乗算器1041 〜1044
および加算器106は、上述した積和演算を行い、積和
演算結果を補間画素データQ1として出力する。The multipliers 104 1 to 104 4 multiply the original image pixel data input from the registers 102 1 to 102 4 by the filter coefficients FC 1 to FC 4 input from the coefficient memory 100, respectively. Calculates the sum of the four multiplication results input from the multipliers 104 1 to 104 4 . Thus, the multipliers 104 1 to 104 4
The adder 106 performs the product-sum operation described above, and outputs the result of the product-sum operation as interpolated pixel data Q1.
【0088】第5のサイクル(図11) 第5のサイクルの開始時点では、レジスタ1021 〜1
024 はそれぞれ、第4のサイクルにおいて保持した画
素データR3,R2,R1,Rm0を保持しており、レ
ジスタ1021 には、外部の画像処理機器(制御装置)
から、第4のサイクルと同じ原画像の第4の画素データ
R4が入力される。 Fifth cycle (FIG. 11) At the start of the fifth cycle, the registers 102 1 to 102 1
Each 02 4 holds the fourth pixel data R3, R2, R1, Rm0 held in cycle, the register 102 1, the external image processing device (control device)
Thus, the fourth pixel data R4 of the same original image as in the fourth cycle is input.
【0089】また、第5のサイクルにおいては、画素R
1の位置に対する補間画素Q2の位相Pの値が(7/1
0)であるので、外部の画像処理機器(制御装置)は、
係数メモリ100に対して、第7番目の位相P(7/1
0)に対応するフィルタ係数セットP7を出力する。係
数メモリ100は、フィルタ選択信号P7に対応するフ
ィルタ係数セット〔図12;−0.147,0.36
3,0.847,−0.063(8ビット表現で−1
9,46,108,−8)〕の4つのフィルタ係数FC
1〜FC4を、乗算器1041 〜1044 に対して出力
する。乗算器1041 〜1044 および加算器106
は、第4のサイクルにおいてと同様に積和演算を行っ
て、積和演算の結果を補間画素データQ2として出力す
る。In the fifth cycle, the pixel R
The value of the phase P of the interpolation pixel Q2 with respect to the position 1 is (7/1)
0), the external image processing device (control device)
For the coefficient memory 100, the seventh phase P (7/1
0) is output. The coefficient memory 100 stores a filter coefficient set corresponding to the filter selection signal P7 (FIG. 12; -0.147, 0.36).
3,0.847, -0.063 (-1 in 8-bit representation)
9, 46, 108, -8)] four filter coefficients FC
1 to FC4 are output to multipliers 104 1 to 104 4 . Multipliers 104 1 to 104 4 and adder 106
Performs the product-sum operation in the same manner as in the fourth cycle, and outputs the result of the product-sum operation as interpolated pixel data Q2.
【0090】なお、後述するように、第6のサイクルに
おいては、画素データR4〜R1から次の補間画素デー
タQ3が算出されるので、第5のサイクルにおいて、外
部の画像処理機器(制御装置)は、図11に示すよう
に、制御信号の値を論理値1(H)にしてレジスタ10
21 〜1024 に対して出力し、シフト動作を許可す
る。レジスタ1021 〜1024 は、入力された制御信
号の値に応じて、乗算器1041 〜1044 および加算
器106による積和演算処理が終了した後、クロック信
号CLKが立ち上がるタイミングでシフト動作を行い、
新たに画素データR4〜R1を保持する。As will be described later, in the sixth cycle, the next interpolated pixel data Q3 is calculated from the pixel data R4 to R1, so that in the fifth cycle, an external image processing device (control device) is used. Sets the value of the control signal to the logical value 1 (H) as shown in FIG.
Output to 2 1 to 102 4 to enable shift operation. The registers 102 1 to 102 4 perform the shift operation at the timing when the clock signal CLK rises after the product-sum operation processing by the multipliers 104 1 to 104 4 and the adder 106 is completed according to the value of the input control signal. Do
The pixel data R4 to R1 are newly held.
【0091】第6のサイクル(図11) 第6のサイクルの開始時点では、レジスタ1021 〜1
024 はそれぞれ画素データR4〜R1を保持してお
り、レジスタ1021 には、外部の画像処理機器(制御
装置)から第5の画素データR5が入力される。また、
第7のサイクルにおいては、図11に示すように原画像
の画素データR5〜R2から補間画素データQ4が生成
されるので、外部の画像処理機器(制御装置)は、制御
信号の値を論理値1(H)としてレジスタ1021 〜1
024 に対して出力し、シフト動作を許可する。 Sixth cycle (FIG. 11) At the start of the sixth cycle, the registers 102 1 to 102 1
02 4 are respectively hold the pixel data R4~R1, the register 102 1, pixel data R5 of the fifth is input from an external image processing device (control device). Also,
In the seventh cycle, since the interpolated pixel data Q4 is generated from the pixel data R5 to R2 of the original image as shown in FIG. 11, the external image processing device (control device) sets the value of the control signal to a logical value. 1 (H) as registers 102 1 to 102 1
And output to the 02 4, to allow a shift operation.
【0092】また、第6のサイクルにおける位相Pの値
は、本来、第5のサイクルにおける位相Pの値(7/1
0)に、さらに(7/10)を加算した値(14/1
0)となる。しかしながら、外部の画像処理機器が、第
4〜第5のサイクルにおいて、原画像の画素の位相を画
素データ1個分(10/10)だけ遅らせたので、第6
のサイクルにおける位相Pの値は、(14/10)から
(10/10)を減じた値(4/10)になる。The value of the phase P in the sixth cycle is originally the value of the phase P in the fifth cycle (7/1
0) and (7/10) further added (14/1
0). However, since the external image processing device delayed the phase of the pixel of the original image by one pixel data (10/10) in the fourth to fifth cycles, the sixth
Becomes the value (4/10) obtained by subtracting (10/10) from (14/10).
【0093】さらに一般化すると、例えば、原画像の画
素と補間画素との位相関係が図3に示した通りである場
合には、第m(m=4,5,…)のサイクルにおける位
相Pの値は〔{mod(10,7(m−4))}/1
0〕になる。つまり、第mのサイクルにおいて、外部の
画像処理機器(制御装置)は、7(m−4)のモジュロ
10演算の結果を1/10した値の位相Pに対応するフ
ィルタ選択信号Pkを、係数メモリ100に対して設定
する。More generalizing, for example, if the phase relationship between the pixels of the original image and the interpolated pixels is as shown in FIG. 3, the phase P in the m-th (m = 4, 5,...) Cycle Is [{mod (10,7 (m-4))} / 1
0]. That is, in the m-th cycle, the external image processing device (control device) converts the filter selection signal Pk corresponding to the phase P of a value obtained by dividing the result of the modulo 10 operation of 7 (m−4) by 1/10 by the coefficient This is set for the memory 100.
【0094】従って、外部の画像処理機器(制御装置)
は、第6のサイクルにおいては、位相Pの値(4/1
0)に対応するフィルタ選択信号P4を係数メモリ10
0に対して出力する。係数メモリ100は、フィルタ選
択信号P4に対応するフィルタ係数セット〔図12;−
0.096,0.744,0.496,−0.144
(8ビット表現で−12,95,63,−18)〕の4
つのフィルタ係数FC1〜FC4を、乗算器1041 〜
1044 それぞれに対して出力する。乗算器1041 〜
1044 および加算器106は、第4,第5のサイクル
においてと同様に積和演算を行って、積和演算の結果を
補間画素データQ3として出力する。Therefore, an external image processing device (control device)
In the sixth cycle, the value of the phase P (4/1
0) is stored in the coefficient memory 10
Output for 0. The coefficient memory 100 stores a filter coefficient set corresponding to the filter selection signal P4 [FIG.
0.096, 0.744, 0.496, -0.144
(8-bit representation: -12, 95, 63, -18)]
One of the filter coefficients FC1~FC4, multipliers 104 1 to
Output to each of 104 4 . Multipliers 104 1 to
104 4 and the adder 106, the fourth, by performing product-sum operation in the same way as in the fifth cycle, and outputs the result of multiply-add operation as the interpolation pixel data Q3.
【0095】レジスタ1021 〜1024 は、入力され
た制御信号の値に応じて、乗算器1041 〜1044 お
よび加算器106による積和演算処理が終了した後、ク
ロック信号CLKが立ち上がるタイミングでシフト動作
を行い、新たに画素データR5〜R2を保持する。After the product-sum operation by multipliers 104 1 to 104 4 and adder 106 is completed in accordance with the value of the input control signal, registers 102 1 to 102 4 operate at the timing when clock signal CLK rises. A shift operation is performed to newly hold pixel data R5 to R2.
【0096】以下同様に、各サイクルk(7≧k)それ
ぞれにおいて、演算装置1は、図11に示すように処理
を行い、原画像の画素データから出力データ〔補間画素
データQ(k−3)〕を順次、算出し、外部に対して出
力する。Similarly, in each cycle k (7 ≧ k), the arithmetic unit 1 performs the processing as shown in FIG. 11 to convert the pixel data of the original image into the output data [interpolated pixel data Q (k−3). )] Is sequentially calculated and output to the outside.
【0097】以上説明したように、演算装置1(図1
0)は、原画像に対してフィルタリングを行い、拡大処
理することが可能である。つまり、演算装置1は、原画
像の拡大・縮小および解像度の変換を、ハードウェア的
に、換言すると、各演算処理に対応して設けられている
電子回路を利用して行うことができる。しかしながら、
演算装置1を用いて原画像を拡大・縮小(画素数変換)
処理すると、外部の画像処理機器から入力される原画像
のデータレート、および、演算装置1が出力する拡大画
像のデータレートが、画素数の変化に起因して変動して
しまう。As described above, the arithmetic unit 1 (FIG. 1)
0) can perform filtering on the original image and perform enlargement processing. That is, the arithmetic unit 1 can perform enlargement / reduction of the original image and conversion of the resolution using hardware, in other words, using an electronic circuit provided corresponding to each arithmetic processing. However,
Enlarge / reduce the original image using the arithmetic unit 1 (pixel number conversion)
When the processing is performed, the data rate of the original image input from the external image processing device and the data rate of the enlarged image output by the arithmetic device 1 fluctuate due to a change in the number of pixels.
【0098】つまり、例えば、上述のように、演算装置
1を用いて原画像を拡大し、画素数を増やす変換処理を
行う場合には、演算装置1が出力する拡大画像のデータ
レートの平均値は、必然的に速くなる。That is, for example, as described above, when performing a conversion process of enlarging an original image and increasing the number of pixels using the arithmetic unit 1, the average value of the data rate of the enlarged image output by the arithmetic unit 1 Will inevitably be faster.
【0099】反対に、演算装置1を用いて原画像を縮小
し、画素数を減らす変換処理を行う場合には、演算装置
1が出力する縮小画像のデータレートは低くなる。従っ
て、実際には、演算装置1は、入力側および出力側にバ
ッファメモリを設けて、入力される原画像の画像データ
および拡大・縮小画像の画像データをバッファリングし
て、データレートを一定に保つように構成される。On the other hand, when the conversion processing for reducing the number of pixels by reducing the original image using the arithmetic unit 1 is performed, the data rate of the reduced image output from the arithmetic unit 1 becomes low. Therefore, in practice, the arithmetic unit 1 provides buffer memories on the input side and the output side, buffers the input image data of the original image and the image data of the enlarged / reduced image, and keeps the data rate constant. Configured to keep.
【0100】また、演算装置1を用いて原画像の拡大・
縮小処理等を行う場合には、各種画像処理、テレビジョ
ン信号処理およびノイズ除去処理等を平行して行うこと
が望ましい。しかしながら、演算装置1は、拡大・縮小
処理および解像度の変換処理を専用のハードウェアを用
いて行うだけのもので、ノイズ除去処理等を行うことが
できない。従って、これらの処理とその他の処理を平行
して行うためには、演算装置1の他に、ノイズ除去処理
等をそれぞれ行う複数の装置を別途、用いる必要がある
ので、処理装置全体の規模が大きくなってしまう。Also, using the arithmetic unit 1 to enlarge and
When performing reduction processing or the like, it is desirable to perform various image processing, television signal processing, noise removal processing, and the like in parallel. However, the arithmetic unit 1 only performs enlargement / reduction processing and resolution conversion processing using dedicated hardware, and cannot perform noise removal processing or the like. Therefore, in order to perform these processes and other processes in parallel, it is necessary to separately use a plurality of devices each performing a noise removal process and the like in addition to the arithmetic unit 1, so that the scale of the entire processing device is reduced. It gets bigger.
【0101】SIMD並列プロセッサ このような問題点に対処するためには、例えば、SIM
D(Single Instruction Stream Multiple Data strea
m) 制御方式の並列プロセッサを用いて、ソフトウェア
的に原画像の拡大・縮小処理等とノイズ除去処理等とを
平行して行う方法がある。 SIMD parallel processor In order to deal with such a problem, for example, SIM
D (Single Instruction Stream Multiple Data strea
m) There is a method in which the enlargement / reduction processing of the original image and the noise removal processing are performed in parallel by software using a control type parallel processor.
【0102】SIMD並列プロセッサ2の構成 以下、並列プロセッサ2の構成を説明する。図13は、
ソフトウェア的に画像処理を行う並列プロセッサ2の構
成を例示する図である。図13に示すように、並列プロ
セッサ2は、入力ポインタ21、入力SAM(シリアル
アクセスメモリ)部22、データメモリ部23、ALU
アレイ部24、出力SAM部25、出力ポインタ26お
よびプログラム制御部27から構成される。 Configuration of SIMD Parallel Processor 2 Hereinafter, the configuration of the parallel processor 2 will be described. FIG.
FIG. 2 is a diagram illustrating a configuration of a parallel processor 2 that performs image processing by software. As shown in FIG. 13, the parallel processor 2 includes an input pointer 21, an input SAM (serial access memory) unit 22, a data memory unit 23, and an ALU.
It comprises an array unit 24, an output SAM unit 25, an output pointer 26, and a program control unit 27.
【0103】これらの構成部分のうち、入力SAM部2
2、データメモリ部23および出力SAM部25は、主
にメモリから構成される。入力SAM部22、データメ
モリ部23、ALUアレイ部24および出力SAM部2
5は、リニアアレイ(線形配列)形式に並列化された複
数(原画像の1水平走査期間分の画素数H以上)の要素
プロセッサ30を構成する。要素プロセッサ30それぞ
れ(単一エレメント)は、独立したプロセッサの構成部
分を有しており、図13において斜線を付して示す部分
に対応する。また、複数の要素プロセッサ30は、図1
3において横方向に並列に配列され、要素プロセッサ群
を構成する。Of these components, the input SAM unit 2
2. The data memory unit 23 and the output SAM unit 25 mainly include a memory. Input SAM unit 22, data memory unit 23, ALU array unit 24, and output SAM unit 2
Reference numeral 5 designates a plurality (more than the number of pixels H for one horizontal scanning period of the original image) of the element processors 30 parallelized in a linear array format. Each of the element processors 30 (single element) has an independent processor component, and corresponds to a hatched portion in FIG. In addition, the plurality of element processors 30 correspond to FIG.
3 and arranged in parallel in the horizontal direction to form an element processor group.
【0104】並列プロセッサ2の構成部分 以下、並列プロセッサ2の構成部分を説明する。 The components of the parallel processor 2 will be described below.
【0105】プログラム制御部27 プログラム制御部27は、プログラムメモリ、プログラ
ムメモリに記憶されたプログラムの進行を制御するシー
ケンス制御回路、および、入力SAM部22、データメ
モリ部23および出力SAM部25を構成するメモリ用
の「ロウ(ROW)」アドレスコデータ(いずれも図示せ
ず)等から構成される。[0105] Program control unit 27 program control unit 27, a sequence control circuit for controlling the progress of the program memory, a program stored in the program memory, and, forming the input SAM unit 22, data memory unit 23 and the output SAM unit 25 It is composed of “ROW” address code data (both not shown) for the memory to be used.
【0106】プログラム制御部27は、これらの構成部
分により、単一のプログラムを記憶し、原画像の水平走
査期間ごとに、記憶した単一のプログラムに基づいて各
種制御信号を生成し、生成した各種制御信号を介して全
ての要素プロセッサ30を連動して制御することにより
画像データに対する処理を行う。このように、単一のプ
ログラムに基づいて複数の要素プロセッサを制御するこ
とを、SIMD制御と称する。The program control section 27 stores a single program by these components, and generates and generates various control signals based on the stored single program for each horizontal scanning period of the original image. By processing all the element processors 30 in conjunction with each other via various control signals, processing for image data is performed. Controlling a plurality of element processors based on a single program in this manner is referred to as SIMD control.
【0107】入力ポインタ21 入力ポインタ21は、1ビットシフトレジスタであり、
外部の画像処理機器(図示せず)から原画像の1画素分
の画素データが入力されるたびに、論理値1(H)の1
ビット信号〔入力ポインタ信号(SIP)〕をシフトす
ることにより、入力された1画素分の画素データを担当
する要素プロセッサ30を指定し、指定した要素プロセ
ッサ30の入力SAM部22(入力SAMセル)に、対
応する原画像の画素データを書き込む。 Input Pointer 21 The input pointer 21 is a 1-bit shift register.
Each time pixel data for one pixel of the original image is input from an external image processing device (not shown), the logical value of 1 (H) is set to 1
By shifting the bit signal [input pointer signal (SIP)], the element processor 30 in charge of the input pixel data of one pixel is designated, and the input SAM unit 22 (input SAM cell) of the designated element processor 30 is designated. Then, the pixel data of the corresponding original image is written.
【0108】つまり、入力ポインタ21は、原画像の1
水平走査期間ごとに、まず、図13の左端の要素プロセ
ッサ30に対する入力ポインタ信号を論理値1として、
画素データに同期したクロック信号に応じて入力される
最初の原画像の画素データを、図13に示した並列プロ
セッサ2の左端の要素プロセッサ30の入力SAM部2
2に書き込み、さらにその後、クロック信号が1周期分
変化するたびに、順次、右隣の要素プロセッサ30に対
する論理値1の入力ポインタ信号が右方にシフトして、
要素プロセッサ30それぞれの入力SAM部22に、原
画像の画像データを1画素分ずつ書き込んでゆく。That is, the input pointer 21 points to the 1 of the original image.
For each horizontal scanning period, first, an input pointer signal to the leftmost element processor 30 in FIG.
The pixel data of the first original image input in response to the clock signal synchronized with the pixel data is input to the input SAM unit 2 of the leftmost element processor 30 of the parallel processor 2 shown in FIG.
2, and thereafter, every time the clock signal changes by one period, the input pointer signal of the logical value 1 to the element processor 30 on the right is sequentially shifted to the right,
The image data of the original image is written into the input SAM unit 22 of each of the element processors 30 by one pixel.
【0109】要素プロセッサ30 要素プロセッサ30それぞれは、1ビットプロセッサで
あり、外部の画像処理機器から入力される原画像の画素
データそれぞれに対して、論理演算処理および算術演算
処理を行い、要素プロセッサ30全体として、FIRデ
ィジタルフィルタによる水平方向および垂直方向のフィ
ルタリング処理等を実現する。なお、プログラム制御部
27によるSIMD制御は、水平走査期間を周期として
行われるので、各要素プロセッサ30は、最大、水平走
査期間を要素プロセッサ30の命令サイクルの周期で除
算して得られるステップ数のプログラムを、各水平走査
期間ごとに実行し得る。[0109] The processor elements 30 processor elements 30, respectively, a 1-bit processor, for each pixel data of the original image input from an external image processing device, performs a logical operation and an arithmetic operation processing, the processor elements 30 As a whole, horizontal and vertical filtering processes and the like by the FIR digital filter are realized. Since the SIMD control by the program control unit 27 is performed with the horizontal scanning period as a cycle, each element processor 30 determines the maximum number of steps obtained by dividing the horizontal scanning period by the cycle of the instruction cycle of the element processor 30. The program may be executed for each horizontal scanning period.
【0110】また、要素プロセッサ30は、隣接する要
素プロセッサ30と接続されており、必要に応じて、隣
接する要素プロセッサ30とプロセッサ間通信を行う機
能を有する。つまり、要素プロセッサ30それぞれは、
プログラム制御部27のSIMD制御に従って、例え
ば、右隣または左隣の要素プロセッサ30のデータメモ
リ部23等にアクセスして処理を行うることができ、ま
た、右隣の要素プロセッサ30へのアクセスを繰り返す
ことにより、要素プロセッサ30は直接接続されていな
い要素プロセッサ30のデータメモリ部23に対してア
クセスし、データを読み出すことができる。要素プロセ
ッサ30は、隣接プロセッサ間の通信機能を利用して、
水平方向のフィルタリング処理を全体として実現する。The element processor 30 is connected to the adjacent element processor 30 and has a function of performing inter-processor communication with the adjacent element processor 30 as necessary. That is, each of the element processors 30
According to the SIMD control of the program control unit 27, for example, the data memory unit 23 or the like of the element processor 30 on the right or the left can be accessed to perform processing. By repeating, the element processor 30 can access the data memory unit 23 of the element processor 30 that is not directly connected and read data. The element processor 30 utilizes a communication function between adjacent processors,
A horizontal filtering process is realized as a whole.
【0111】ここで、例えば、水平方向に10画素程度
離れた画素データとの間の演算処理が必要になる場合
等、プロセッサ間通信を行うとプログラムステップが非
常に多くなってしまうが、実際のFIRフィルタ処理
は、10画素も離れた画素データ間の演算処理をほとん
ど含まず、連続する画素データに対する演算処理がほと
んどである。従って、プロセッサ間通信を行うFIRフ
ィルタ処理のプログラムステップが増加して非能率にな
るということはほとんどあり得ない。Here, for example, when arithmetic processing between pixel data separated by about 10 pixels in the horizontal direction is required, the number of program steps becomes extremely large when communication between processors is performed. The FIR filter processing hardly includes arithmetic processing between pixel data separated by as much as 10 pixels, and mostly includes arithmetic processing on continuous pixel data. Therefore, it is very unlikely that the number of program steps of the FIR filter processing for performing inter-processor communication increases and becomes inefficient.
【0112】また、要素プロセッサ30それぞれは、常
に水平走査方向における同一位置の画素データを専門に
担当して処理する。従って、入力SAM部22から原画
像の画素データ(入力データ)を転送する先のデータメ
モリ部23の書き込みアドレスを水平走査期間の初期ご
とに変更して、過去の水平走査期間の入力データを保持
しておくことができるので、要素プロセッサ30は、原
画像の画素データを垂直方向にもフィルタリングするこ
とができる。Each of the element processors 30 always processes the pixel data at the same position in the horizontal scanning direction exclusively. Therefore, the write address of the data memory unit 23 to which the pixel data (input data) of the original image is transferred from the input SAM unit 22 is changed at each initial stage of the horizontal scanning period, and the input data of the past horizontal scanning period is held. Thus, the element processor 30 can also filter the pixel data of the original image in the vertical direction.
【0113】入力SAM部22 要素プロセッサ30それぞれにおいて、入力SAM部2
2は、上述したように入力ポインタ21から入力される
入力ポインタ信号が論理値1になった場合に、外部の画
像処理機器から入力端子DINに入力される1画素分の
画素データ(入力データ)を記憶する。つまり、要素プ
ロセッサ30の入力SAM部22は、全体として、水平
走査期間ごとに、原画像の1水平走査期間分の画素デー
タを記憶する。さらに、入力SAM部22は、記憶した
1水平走査期間分の原画像の画素データ(入力データ)
を、プログラム制御部27の制御に従って、次の水平走
査期間において、必要に応じてデータメモリ部23に対
して転送する。 Input SAM unit 22 In each of the element processors 30, the input SAM unit 2
Reference numeral 2 denotes pixel data of one pixel (input data) input to the input terminal DIN from an external image processing device when the input pointer signal input from the input pointer 21 becomes a logical value 1 as described above. Is stored. That is, the input SAM unit 22 of the element processor 30 stores pixel data for one horizontal scanning period of the original image as a whole for each horizontal scanning period. Further, the input SAM unit 22 stores pixel data (input data) of the stored original image for one horizontal scanning period.
Is transferred to the data memory unit 23 as needed in the next horizontal scanning period under the control of the program control unit 27.
【0114】データメモリ部23 データメモリ部23は、プログラム制御部27の制御に
従って、入力SAM部22から入力された原画像の画素
データ、演算途中のデータ、および、定数データ等を記
憶し、ALUアレイ部24に対して出力する。 Data memory unit 23 The data memory unit 23 stores pixel data of an original image, data in the middle of calculation, constant data, and the like input from the input SAM unit 22 under the control of the program control unit 27, and Output to the array unit 24.
【0115】ALUアレイ部24 ALUアレイ部24は、プログラム制御部27の制御に
従って、データメモリ部23から入力される原画像の画
素データ、演算途中のデータ、および、定数データ等に
対して算術演算処理および論理演算処理を行って、デー
タメモリ部23の所定のアドレスに記憶する。なお、A
LUアレイ部24は、原画像の画素データに対する演算
処理を全てビット単位で行い、1サイクルごとに1ビッ
ト分のデータを演算処理する。 ALU Array Unit 24 The ALU array unit 24 performs arithmetic operations on pixel data of the original image, data in the middle of calculation, constant data, and the like input from the data memory unit 23 under the control of the program control unit 27. Processing and logical operation processing are performed and stored at a predetermined address in the data memory unit 23. Note that A
The LU array unit 24 performs all arithmetic processing on the pixel data of the original image on a bit-by-bit basis, and performs arithmetic processing on one-bit data every cycle.
【0116】ALUアレイ部24の処理時間を具体例を
挙げて説明する。例えば、ALUアレイ部24が8ビッ
ト構成の2つの画素データに対する論理演算処理を行う
場合、少なくとも8サイクル分の処理時間が必要とさ
れ、8ビット構成の2つの画素データの加算処理を行う
場合、少なくとも9サイクル分の処理時間が必要とされ
る。さらに、ALUアレイ部24が8ビット構成の2つ
の画素データに対する乗算処理を行う場合、この乗算処
理は64個のビット加算と等価なので、少なくとも64
サイクルの処理時間が必要とされる。The processing time of the ALU array unit 24 will be described with a specific example. For example, when the ALU array unit 24 performs a logical operation process on two pixel data having an 8-bit configuration, a processing time of at least 8 cycles is required. When performing an addition process on two pixel data having an 8-bit configuration, At least nine cycles of processing time are required. Further, when the ALU array unit 24 performs a multiplication process on two pixel data of an 8-bit configuration, this multiplication process is equivalent to addition of 64 bits.
Cycle processing time is required.
【0117】出力SAM部25 出力SAM部25は、プログラム制御部27の制御に従
って、1水平走査期間に割り当てられている処理が終了
した場合に、データメモリ部23から処理結果の転送を
受け、さらに次の水平走査期間において、出力SAM部
25を介して出力する。 Output SAM unit 25 The output SAM unit 25 receives the transfer of the processing result from the data memory unit 23 when the processing assigned to one horizontal scanning period is completed under the control of the program control unit 27, and furthermore, In the next horizontal scanning period, the signal is output via the output SAM unit 25.
【0118】要素プロセッサ30の処理形式 なお、要素プロセッサ30それぞれにおける原画像の画
素データ(入力データ)を入力SAM部22に書き込む
入力処理(第1の処理)、プログラム制御部27の制御
に従って、入力SAM部22に記憶された入力データの
データメモリ部23への転送処理、ALUアレイ部24
による演算処理、出力SAM部25への処理結果(出力
データ)の転送処理(第2の処理)、および、出力SA
M部25からの出力データの出力処理(第3の処理)
は、処理周期を1水平走査期間としたパイプライン形式
で実行される。 Processing Format of Element Processor 30 Note that input processing (first processing) for writing pixel data (input data) of an original image into the input SAM unit 22 in each of the element processors 30 and input processing according to the control of the program control unit 27 are performed. Transfer processing of input data stored in the SAM unit 22 to the data memory unit 23, ALU array unit 24
, The process of transferring the processing result (output data) to the output SAM unit 25 (second process), and the output SA
Output processing of output data from M section 25 (third processing)
Is executed in a pipeline format with a processing cycle of one horizontal scanning period.
【0119】従って、入力データに着目した場合、同一
の入力データに対する第1〜第3の処理それぞれは1水
平走査期間分の処理時間を要するので、これら3つの処
理の開始から終了までには、3水平走査期間分の処理時
間が必要とされる。しかしながら、これら3つの処理が
パイプライン形式で並行して実行されるので、平均する
と、1水平走査期間分の入力データの処理には、1水平
走査期間分の処理時間しか必要とされない。Therefore, when focusing on the input data, each of the first to third processes for the same input data requires a processing time for one horizontal scanning period. Therefore, from the start to the end of these three processes, Processing time for three horizontal scanning periods is required. However, since these three processes are executed in parallel in a pipeline format, on average, processing of input data for one horizontal scanning period requires only a processing time for one horizontal scanning period.
【0120】並列プロセッサ2の動作 以下、図13に示した画像処理用のリニアアレイ型並列
プロセッサ(並列プロセッサ2)の動作を説明する。入
力ポインタ21は、最初の水平走査期間(第1の水平走
査期間)において、入力された原画像の画素データに同
期したクロックに応じて、各要素プロセッサ30に対す
る論理値1(H)の入力ポインタ信号を順次シフトし
て、原画像の画素データそれぞれを担当して演算処理す
る要素プロセッサ30を指定する。 Operation of Parallel Processor 2 Hereinafter, the operation of the linear array type parallel processor for image processing (parallel processor 2) shown in FIG. 13 will be described. In the first horizontal scanning period (first horizontal scanning period), the input pointer 21 inputs the logical value 1 (H) to each element processor 30 in accordance with the clock synchronized with the input pixel data of the original image. The element processor 30 which sequentially shifts the signal and designates the element processor 30 which is in charge of each pixel data of the original image and performs arithmetic processing is designated.
【0121】原画像の画素データは、入力端子DINを
介して入力SAM部22に入力され、入力SAM部22
は、入力ポインタ信号の論理値に応じて、要素プロセッ
サ30それぞれに原画像の1画素分の画素データを記憶
する。1水平走査期間に含まれる画素それぞれに対応す
る要素プロセッサ30の全ての入力SAM部22がそれ
ぞれ原画像の画素データを記憶し、全体として1水平走
査期間分の画素データを記憶すると、入力処理(第1の
処理)が終了する。The pixel data of the original image is input to the input SAM unit 22 via the input terminal DIN.
Stores pixel data for one pixel of the original image in each of the element processors 30 according to the logical value of the input pointer signal. When all the input SAM units 22 of the element processor 30 corresponding to the pixels included in one horizontal scanning period respectively store the pixel data of the original image and store the pixel data of one horizontal scanning period as a whole, the input processing ( (1st process) is complete | finished.
【0122】プログラム制御部27は、入力処理(第1
の処理)が終了すると、水平走査期間ごとに、単一のプ
ログラムに従って、要素プロセッサ30それぞれの入力
SAM部22、データメモリ部23、ALUアレイ部2
4および出力SAM部25をSIMD制御して、原画像
の画素データに対する処理を実行する。The program control unit 27 performs input processing (first
Is completed, the input SAM unit 22, the data memory unit 23, and the ALU array unit 2 of each of the element processors 30 according to a single program for each horizontal scanning period.
4 and the output SAM unit 25 are subjected to SIMD control to execute processing on pixel data of the original image.
【0123】つまり、次の水平走査期間(第2の水平走
査期間)において、入力SAM部22それぞれは、第1
の水平走査期間において記憶した原画像の画素データ
(入力データ)それぞれを、データメモリ部23に転送
する。That is, in the next horizontal scanning period (second horizontal scanning period), each of the input SAM units 22
The pixel data (input data) of the original image stored during the horizontal scanning period is transferred to the data memory unit 23.
【0124】なお、このデータ転送処理は、プログラム
制御部27が、入力SAM読み出し信号(SIR)を活
性化〔論理値1(H)に〕して入力SAM部22の所定
のロウ(ROW)のデータを選択してアクセスを行い、
さらに、メモリアクセス信号(SWA)を活性化して、
アクセスしたデータをデータメモリ部23の所定のロウ
のメモリセル(後述)へ書き込むように入力SAM部2
2およびデータメモリ部23を制御することにより実現
される。In this data transfer processing, the program control unit 27 activates the input SAM read signal (SIR) [to a logical value 1 (H)] and sets a predetermined row (ROW) of the input SAM unit 22 to a predetermined row (ROW). Select and access data,
Further, the memory access signal (SWA) is activated,
The input SAM unit 2 writes the accessed data to a memory cell (described later) of a predetermined row of the data memory unit 23.
2 and the data memory unit 23.
【0125】次に、プログラム制御部27は、プログラ
ムに基づいて各要素プロセッサ30を制御し、データメ
モリ部23からデータをALUアレイ部24に対して出
力させ、ALUアレイ部24に算術演算処理および論理
演算処理を行わせ、処理結果をデータメモリ部23の所
定のアドレスに書き込ませる。プログラムに応じた算術
演算処理および論理演算処理が終了すると、プログラム
制御部27は、データメモリ部23を制御して処理結果
を出力SAM部25に転送させる(ここまでが第2の処
理)。さらに、次の水平走査期間(第3の水平走査期
間)において、出力SAM部25を制御して処理結果
(出力データ)を外部に出力させる(第3の処理)。Next, the program control unit 27 controls each element processor 30 based on the program, causes the data memory unit 23 to output data to the ALU array unit 24, and causes the ALU array unit 24 to perform arithmetic operation processing and A logical operation process is performed, and the processing result is written to a predetermined address of the data memory unit 23. When the arithmetic operation processing and the logical operation processing according to the program are completed, the program control unit 27 controls the data memory unit 23 to transfer the processing result to the output SAM unit 25 (the above is the second processing). Further, in the next horizontal scanning period (third horizontal scanning period), the output SAM unit 25 is controlled to output the processing result (output data) to the outside (third processing).
【0126】つまり、入力SAM部22に記憶された1
水平走査期間分の入力データは、次の水平走査期間にお
いて、必要に応じてデータメモリ部23に転送され、記
憶されて、その後の水平走査期間における処理に用いら
れる。That is, the 1 stored in the input SAM unit 22
The input data for the horizontal scanning period is transferred to and stored in the data memory unit 23 as needed in the next horizontal scanning period, and is used for processing in the subsequent horizontal scanning period.
【0127】第2実施例 以下、本発明の第2の実施例を説明する。 Second Embodiment Hereinafter, a second embodiment of the present invention will be described.
【0128】並列プロセッサ2(図13)の問題点 第1の実施例として説明した並列プロセッサ2(図1
3)によれば、一般的なFIRデジタルフィルタを実現
することができる。しかしながら、補間処理を必要とす
る画像の拡大・縮小処理あるいは解像度の変換処理をF
IRデジタルフィルタの一種により行う場合、入力SA
M部22が記憶するデータの数と、出力SAM部25が
出力するデータの数とが異なるので、入力SAM部22
または出力SAM部25において、原画像の画素データ
(入力データ)Riと処理結果(出力データ)Qiと
を、密に配列することができない。なお、密に配列でき
ないとは、例えば、図14を参照して後述するように、
拡大処理の場合に、入力SAM部22における画素デー
タRiのように、入力側がまばらに配列されたり、縮小
処理の場合に、データメモリ部23における出力データ
Qのように、出力側がまばらに配列されたりすることを
いう。 Problems of Parallel Processor 2 (FIG. 13) The parallel processor 2 (FIG. 1 ) described as the first embodiment
According to 3), a general FIR digital filter can be realized. However, enlargement / reduction processing of an image that requires interpolation processing or resolution conversion processing is performed by F
When using a type of IR digital filter, the input SA
Since the number of data stored in the M unit 22 is different from the number of data output from the output SAM unit 25,
Alternatively, in the output SAM unit 25, the pixel data (input data) Ri of the original image and the processing result (output data) Qi cannot be densely arranged. It should be noted that it is not possible to arrange them densely, for example, as described later with reference to FIG.
In the case of the enlargement processing, the input side is sparsely arranged like the pixel data Ri in the input SAM unit 22, and in the case of the reduction processing, the output side is sparsely arranged like the output data Q in the data memory unit 23. Or
【0129】つまり、並列プロセッサ2においては、要
素プロセッサ30により、演算に必要な水平方向の近傍
画素との位置関係が異なるのに対し、全ての要素プロセ
ッサ30は、プログラム制御部27のSIMD制御に従
って同一の動作を行うので、要素プロセッサ30それぞ
れがアクセスするアドレスを個別に設定することはでき
ない。従って、並列プロセッサ2においては、プロセッ
サ間通信により補間処理に必要なデータを複数の要素プ
ロセッサ30間で転送することが困難である。上述した
並列プロセッサ2の問題点を、具体例を挙げてさらに説
明する。図14は、並列プロセッサ2(図13)により
原画像の長さを(10/7)倍に拡大処理する場合に、
要素プロセッサ30それぞれの入力SAM部22、デー
タメモリ部23および出力SAM部25に記憶されるデ
ータの配列を示す図である。That is, in the parallel processor 2, the element processors 30 differ in the positional relationship with the neighboring pixels in the horizontal direction required for the operation, but all the element processors 30 are controlled according to the SIMD control of the program control unit 27. Since the same operation is performed, the address accessed by each of the element processors 30 cannot be individually set. Therefore, in the parallel processor 2, it is difficult to transfer data required for the interpolation processing between the plurality of element processors 30 by communication between the processors. The problems of the above-described parallel processor 2 will be further described with reference to specific examples. FIG. 14 shows a case where the length of the original image is enlarged (10/7) times by the parallel processor 2 (FIG. 13).
FIG. 3 is a diagram showing an array of data stored in an input SAM unit 22, a data memory unit 23, and an output SAM unit 25 of each of the element processors 30.
【0130】例えば、Cubic近似を利用したフィル
タリング処理を行う場合には、上述のように、連続した
4つの原画像の画素データ(入力データ)に対する畳み
込み演算が必要である。原画像の長さを(10/7)倍
に拡大する拡大処理を具体例として挙げると、図14に
示すように、入力データRiは、要素プロセッサ30の
間で密に配列されないので、例えば出力データQ3を算
出するときに必要となる入力データR1〜R4の内、入
力データR1,R3,R4は、処理結果(出力データ)
Q3を算出する要素プロセッサ30を基点として、左に
2つ、右に1つ、および、右に3つ離れた要素プロセッ
サ30にそれぞれ記憶されている。For example, when performing a filtering process using Cubic approximation, a convolution operation is necessary for pixel data (input data) of four consecutive original images as described above. Taking a specific example of an enlargement process for enlarging the length of the original image by (10/7) times, as shown in FIG. 14, the input data Ri is not densely arranged between the element processors 30. Of the input data R1 to R4 required when calculating the data Q3, the input data R1, R3, and R4 are processing results (output data)
With the element processor 30 for calculating Q3 as a base point, it is stored in each of the element processors 30 that are two on the left, one on the right, and three on the right.
【0131】一方、出力データQ4の算出に必要な入力
データR2〜R5の内、入力データR2,R4,R5
は、出力データQ4を算出する要素プロセッサ30を起
点として、左に1つ、右に2つ、および、右に3つ離れ
た要素プロセッサ30にそれぞれ記憶されている。On the other hand, of the input data R2 to R5 necessary for calculating the output data Q4, the input data R2, R4, R5
Are stored in the element processors 30 one to the left, two to the right, and three to the right starting from the element processor 30 that calculates the output data Q4.
【0132】また、出力データQ5の算出に必要な入力
データR2〜R5は、出力データQ5を算出する要素プ
ロセッサ30を起点として、要素プロセッサ30の左2
つ隣り、左に1つ、右に1つ、および、右に2つ離れた
要素プロセッサ30にそれぞれ記憶されている。The input data R2 to R5 required for calculating the output data Q5 are two points to the left of the element processor 30 starting from the element processor 30 for calculating the output data Q5.
The element processors 30 are stored next to each other, one to the left, one to the right, and two to the right.
【0133】図15は、並列プロセッサ2(図13)を
用いて原画像の長さを(10/7)倍に拡大する拡大処
理を行う場合に、各出力データの算出に必要な入力デー
タを記憶している要素プロセッサ30間のデータ参照関
係のパターンを示す図である。図15に示すように、並
列プロセッサ2(図13)を用いて原画像を(10/
7)倍に拡大処理を行う場合には、各出力データの算出
に必要な入力データを記憶している要素プロセッサ30
間のデータ参照関係は、5つのパターンに分類される。FIG. 15 shows input data necessary for calculating each output data when performing the enlargement process of enlarging the length of the original image to (10/7) times using the parallel processor 2 (FIG. 13). FIG. 6 is a diagram showing a stored data reference pattern between element processors 30. As shown in FIG. 15, the original image is converted to (10 /
7) When performing the enlargement processing twice, the element processor 30 storing the input data necessary for calculating each output data
The data reference relation between them is classified into five patterns.
【0134】以上説明したように、並列プロセッサ2に
おいては、各出力データQ(k−3)の算出に必要な入
力データRkを記憶している要素プロセッサ30と、各
出力データQ(k−3)を算出する要素プロセッサ30
との位置関係が一定せず、出力データQ(k−3)ごと
に変化してしまう。As described above, in the parallel processor 2, the element processor 30 storing the input data Rk necessary for calculating each output data Q (k-3) and the output data Q (k-3) ) To calculate the element processor 30
Is not constant and changes for each output data Q (k−3).
【0135】さらに、上述したように、画素ごとに位相
P(図8)が異なるので、要素プロセッサ30ごとに異
なるフィルタ係数セットを設定する必要がある。Further, as described above, since the phase P (FIG. 8) differs for each pixel, it is necessary to set a different filter coefficient set for each element processor 30.
【0136】第2の実施例の目的および概要 第2の実施例として以下に説明する並列プロセッサは、
第1の実施例として示した並列プロセッサ2(図13)
の問題点を解決するためになされたものである。 Object and Outline of the Second Embodiment The parallel processor described below as the second embodiment is as follows.
Parallel processor 2 shown as the first embodiment (FIG. 13)
It is made to solve the problem of.
【0137】第2の実施例として示す並列プロセッサ
は、所定の要素プロセッサが処理対象とする画像データ
を記憶する他の要素プロセッサと、所定の要素プロセッ
サとの位置関係のパターン数を最小とし、複数の要素プ
ロセッサに対して同じ原画像の画素データ(入力デー
タ)を与え、さらに、要素プロセッサに対してそれぞれ
異なるフィルタ係数を出力し、あるいは、要素プロセッ
サ内でフィルタ係数を算出する方法により、SIMD制
御により容易に原画像を補間演算処理することができる
ように構成されている。The parallel processor shown as the second embodiment minimizes the number of patterns of the positional relationship between another element processor that stores image data to be processed by a predetermined element processor and the predetermined element processor. SIMD control by providing pixel data (input data) of the same original image to the element processors and outputting different filter coefficients to the element processors or calculating the filter coefficients in the element processors. Thus, the interpolation processing can be easily performed on the original image.
【0138】並列プロセッサ3の構成 以下、並列プロセッサ3の構成を説明する。図16は、
第2の実施例として示す本発明に係る並列プロセッサ3
の構成を示す図である。なお、図16においては、並列
プロセッサ3の構成部分の内、図13に示した並列プロ
セッサ2の構成部分と同じものには、同一の符号を付し
て示してある。 Configuration of Parallel Processor 3 Hereinafter, the configuration of the parallel processor 3 will be described. FIG.
Parallel processor 3 according to the present invention shown as a second embodiment
FIG. 3 is a diagram showing the configuration of FIG. In FIG. 16, the same components as those of the parallel processor 2 shown in FIG. 13 among the components of the parallel processor 3 are denoted by the same reference numerals.
【0139】図16に示すように、並列プロセッサ3
は、入力ポインタ21、入力SAM部22、データメモ
リ部23、ALUアレイ部24および出力SAM部2
5、プログラム制御部27aおよびメモリ28から構成
される。つまり、並列プロセッサ3は、まず、実行する
プログラムが異なり、並列プロセッサ2(図13)の構
成部分の内、プログラム制御部27をプログラム制御部
27aで置換し、さらに、メモリ28を付加した構成を
採り、入力SAM部22、データメモリ部23、ALU
アレイ部24および出力SAM部25は、並列プロセッ
サ2においてと同様に、原画像(入力データ)および処
理結果として得られる画像(出力データ)の1水平走査
期間中の画素数以上の複数の要素プロセッサ30を構成
する。[0139] As shown in FIG.
Are an input pointer 21, an input SAM unit 22, a data memory unit 23, an ALU array unit 24, and an output SAM unit 2.
5. It is composed of a program control unit 27a and a memory 28. That is, the parallel processor 3 differs from the first embodiment in that the programs to be executed are different from each other. Among the components of the parallel processor 2 (FIG. 13), the program control unit 27 is replaced with the program control unit 27a, Sampling, input SAM unit 22, data memory unit 23, ALU
The array unit 24 and the output SAM unit 25 include, as in the parallel processor 2, a plurality of element processors that are equal to or more than the number of pixels in one horizontal scanning period of the original image (input data) and the image (output data) obtained as a processing result. 30.
【0140】並列プロセッサ3の構成部分 以下、並列プロセッサ3の各構成部分を説明する。 The components of the parallel processor 3 Each component of the parallel processor 3 will be described below.
【0141】入力ポインタ21 入力ポインタ21は、1ビットシフトレジスタであり、
並列プロセッサ2においてと同様に、要素プロセッサ3
0それぞれに対して入力ポインタ信号(SIP)を選択
的に出力して入力SAM部22を制御し、外部の画像処
理機器から入力される原画像の画素データ(入力デー
タ)を読み込ませる。 Input Pointer 21 The input pointer 21 is a 1-bit shift register.
As in the parallel processor 2, the element processor 3
The input SAM 22 is controlled by selectively outputting an input pointer signal (SIP) for each of the 0s, thereby reading pixel data (input data) of an original image input from an external image processing device.
【0142】入力SAM部22 入力SAM部22は、並列プロセッサ2においてと同様
に、主に、要素プロセッサ30それぞれに対応して設け
られたメモリ(図17を参照して後述する入力バッファ
メモリ302)から構成され、入力ポインタ21から入
力される入力ポインタ信号(SIP)の論理値に応じ
て、要素プロセッサ30それぞれに対して入力される原
画像の画素データ(入力データ)を記憶する。また、入
力SAM部22は、プログラム制御部27aから入力さ
れる転送制御信号SIRが活性化すると、記憶した入力
データをデータメモリ部23に対して出力する。 Input SAM Unit 22 The input SAM unit 22 is mainly a memory provided for each of the element processors 30 (an input buffer memory 302 described later with reference to FIG. 17), as in the parallel processor 2. And stores the pixel data (input data) of the original image input to each of the element processors 30 according to the logical value of the input pointer signal (SIP) input from the input pointer 21. The input SAM unit 22 outputs the stored input data to the data memory unit 23 when the transfer control signal SIR input from the program control unit 27a is activated.
【0143】データメモリ部23 データメモリ部23は、並列プロセッサ2においてと同
様に、主に、要素プロセッサ30それぞれに対応して設
けられたメモリ(図17を参照して後述するデータメモ
リ304)から構成され、プログラム制御部27aから
要素プロセッサ30それぞれに対して入力されるメモリ
書き込みアクセス信号(SWA)が活性化すると、入力
SAM部22またはALUアレイ部24から入力される
データを記憶する。また、データメモリ部23は、プロ
グラム制御部27aから入力されるメモリ読み出しアク
セス信号(SRAA,SRBA)が活性化すると、記憶
したデータをALUアレイ部24に対して出力する。 Data memory unit 23 The data memory unit 23 is mainly provided from a memory (data memory 304 described later with reference to FIG. 17) provided corresponding to each of the element processors 30, as in the parallel processor 2. When the memory write access signal (SWA) input from the program control unit 27a to each of the element processors 30 is activated, data input from the input SAM unit 22 or the ALU array unit 24 is stored. When the memory read access signal (SRAA, SRBA) input from the program control unit 27a is activated, the data memory unit 23 outputs the stored data to the ALU array unit 24.
【0144】ALUアレイ部24 ALUアレイ部24は、並列プロセッサ2においてと同
様に、ALU〔図17を参照して後述する演算部(Arith
metic and Logical Unit) 306〕等から構成され、デ
ータメモリ部23から入力されるデータに対して、プロ
グラム制御部27aによるALU制御信号(SALU−
CONT)を介した制御に従って、論理演算処理および
算術演算処理をビット単位で行う。 ALU Array Unit 24 The ALU array unit 24 includes an ALU [arithmetic unit (Arith
metic and Logical Unit) 306] and the like, and the ALU control signal (SALU-
In accordance with control via CONT, logical operation processing and arithmetic operation processing are performed in bit units.
【0145】出力SAM部25 出力SAM部25は、主に、要素プロセッサ30それぞ
れに対応して設けられたメモリ(図17を参照して後述
する出力バッファメモリ308)から構成され、プログ
ラム制御部27aから要素プロセッサ30それぞれに対
して入力される出力SAM書き込み信号(SOW)が活
性化すると、ALUアレイ部24から入力される処理結
果(出力データ)を記憶する。また、出力SAM部25
は、出力ポインタ26から要素プロセッサ30それぞれ
に対して入力される出力ポインタ信号(SOP)が活性
化すると、記憶したデータを外部に出力する。 Output SAM Unit 25 The output SAM unit 25 is mainly composed of a memory (output buffer memory 308 described later with reference to FIG. 17) provided for each of the element processors 30, and the program control unit 27a When the output SAM write signal (SOW) input to each of the element processors 30 is activated, the processing result (output data) input from the ALU array unit 24 is stored. The output SAM unit 25
When the output pointer signal (SOP) input from the output pointer 26 to each of the element processors 30 is activated, the stored data is output to the outside.
【0146】出力ポインタ26 出力ポインタ26は、1ビットシフトレジスタであり、
要素プロセッサ30それぞれの出力SAM部25に対し
て、出力ポインタ信号(SOP)を選択的に活性化して
出力し、処理結果(出力データ)の出力を制御する。 Output Pointer 26 The output pointer 26 is a 1-bit shift register.
The output pointer signal (SOP) is selectively activated and output to the output SAM unit 25 of each of the element processors 30, and the output of the processing result (output data) is controlled.
【0147】プログラム制御部27a プログラム制御部27aは、第1の実施例と異なるプロ
グラムを実行し、並列プロセッサ2のプログラム制御部
27と同様に、予め記憶した単一プログラムに基づいて
各種制御信号を活性化または不活性化して、要素プロセ
ッサ30をSIMD制御する。 Program control unit 27a The program control unit 27a executes a program different from that of the first embodiment, and, like the program control unit 27 of the parallel processor 2, sends various control signals based on a single program stored in advance. Activate or deactivate to control the element processor 30 by SIMD.
【0148】メモリ28 メモリ28(記憶手段)は、起動時、水平帰線期間、垂
直帰線期間などに外部の制御用CPU(図示せず)等か
ら入力され、全ての要素プロセッサ30におけるフィル
タ演算に必要な補間フィルタ係数のデータを、要素プロ
セッサ30の番号順に保持する。なお、並列プロセッサ
3においては、起動時、水平帰線期間または垂直帰線期
間に、メモリ28に記憶されたフィルタ係数セットが、
各要素プロセッサ30のデータメモリ部23に対して出
力される。 Memory 28 The memory 28 (storage means) is input from an external control CPU (not shown) or the like at the time of start-up, horizontal retrace period, vertical retrace period, and the like. Are held in the order of the numbers of the element processors 30. In the parallel processor 3, the filter coefficient set stored in the memory 28 is set at the time of activation, during the horizontal retrace period or the vertical retrace period.
The data is output to the data memory unit 23 of each element processor 30.
【0149】要素プロセッサ30の詳細説明 以下、図17および図18をさらに参照して、並列プロ
セッサ3(図16)の要素プロセッサ30を詳細に説明
する。 Detailed Description of Element Processor 30 The element processor 30 of the parallel processor 3 (FIG. 16) will be described in further detail with reference to FIGS. 17 and 18.
【0150】図17は、図16に示した並列プロセッサ
3の要素プロセッサ30の構成を例示する図である。図
17に示すように、並列プロセッサ3の要素プロセッサ
30は、1ビットプロセッサであり、入力バッファメモ
リ(IQ)302、データメモリ(RF)304、演算
部(ALU)306および出力バッファメモリ(OQ)
308から構成される。入力SAM部22、データメモ
リ部23、ALUアレイ部24および出力SAM部25
(図16)それぞれが、入力バッファメモリ302、デ
ータメモリ304、演算部306および出力バッファメ
モリ308(図17)に対応し、1つの要素プロセッサ
30を構成する。FIG. 17 is a diagram illustrating the configuration of element processor 30 of parallel processor 3 shown in FIG. As shown in FIG. 17, the element processor 30 of the parallel processor 3 is a 1-bit processor, and has an input buffer memory (IQ) 302, a data memory (RF) 304, an operation unit (ALU) 306, and an output buffer memory (OQ).
308. Input SAM unit 22, data memory unit 23, ALU array unit 24, and output SAM unit 25
(FIG. 16) Each corresponds to the input buffer memory 302, the data memory 304, the arithmetic unit 306, and the output buffer memory 308 (FIG. 17), and constitutes one element processor 30.
【0151】つまり、要素プロセッサ30においては、
入力SAM部22、データメモリ部23および出力SA
M部25が、メモリの「カラム」を構成する。That is, in the element processor 30,
Input SAM unit 22, data memory unit 23 and output SA
The M unit 25 forms a “column” of the memory.
【0152】要素プロセッサ30それぞれにおいて、入
力バッファメモリ302は、原画像の画素データ(入力
データ)を一旦、記憶し、データメモリ304に対して
転送する。In each of the element processors 30, the input buffer memory 302 temporarily stores the pixel data (input data) of the original image and transfers it to the data memory 304.
【0153】演算部306は、フルアダー(全加算器)
を主体にした回路から構成され、プログラム制御部27
aの制御に従って、データメモリ304に新たに転送さ
れた入力データ、過去に記憶されたデータ、および、処
理の途中で記憶されたデータ等に対して1ビット単位の
各種演算処理を行い、再びデータメモリ304に記憶す
る。なお、演算部306は、例えば、ワード単位に演算
処理を行うパーソナルコンピュータ用の汎用プロセッサ
とは異なり、並列プロセッサ2のALUアレイ部24と
同様に、1ビット単位で演算処理を行う。従って、要素
プロセッサ30はいわゆるビット処理プロセッサであ
る。要素プロセッサ30をビット処理プロセッサとする
ことにより、要素プロセッサ30、1つ当たりのハード
ウェア規模を小さくして並列度を上げ、LSIに収容可
能な並列数を1水平走査期間分の画素数H以上の多数と
することができる。The operation unit 306 is a full adder (full adder)
And a program control unit 27
According to the control of a, the input data newly transferred to the data memory 304, the data stored in the past, the data stored in the middle of the processing, and the like are subjected to various arithmetic processing in units of 1 bit, and the data is again processed. It is stored in the memory 304. Note that, for example, the arithmetic unit 306 is different from a general-purpose processor for a personal computer that performs arithmetic processing in word units, and performs arithmetic processing in 1-bit units similarly to the ALU array unit 24 of the parallel processor 2. Therefore, the element processor 30 is a so-called bit processor. By using the bit processor as the element processor 30, the hardware scale of each element processor 30 is reduced to increase the degree of parallelism. Can be many.
【0154】出力バッファメモリ308は、プログラム
制御部27aの制御に従ってデータメモリ304から転
送される処理結果(出力データ)を受けて記憶し、外部
に対して出力する。The output buffer memory 308 receives and stores the processing result (output data) transferred from the data memory 304 under the control of the program control section 27a, and outputs the processing result to the outside.
【0155】要素プロセッサ30の具体的回路構成 図18は、図16に示した並列プロセッサ3の要素プロ
セッサ30の具体的な詳細回路構成を例示する図であ
る。なお、図18には、要素プロセッサ30の構成の理
解を容易にするために、ごく一般的な回路を示し、図示
の都合上、同一回路が複数ある場合には、1回路分のみ
を示してある。[0155] Specifically circuit diagram 18 of the element processor 30 is a diagram illustrating a specific detailed circuit configuration of the processor element 30 of the parallel processor 3 shown in FIG. 16. FIG. 18 shows a very general circuit in order to facilitate understanding of the configuration of the element processor 30. For convenience of illustration, when there are a plurality of identical circuits, only one circuit is shown. is there.
【0156】入力SAMセル22 i 図18に示すように、入力SAM部22(図16)の1
つの要素プロセッサ30に対応する部分〔入力バッファ
メモリ302(図17)〕は、トランジスタTr1,T
r2およびコンデンサC1を含む入力SAMセル22i
から構成され、原画像の画素データを1ビット分、記憶
する。[0156] As shown in the input SAM cell 22 i Figure 18, the input SAM unit 22 (FIG. 16) 1
[Input buffer memory 302 (FIG. 17)] corresponding to one element processor 30 includes transistors Tr1 and T
input SAM cell 22 i including r2 and capacitor C1
And stores 1-bit pixel data of the original image.
【0157】なお、実際には、1つの要素プロセッサ3
0に対応する入力SAM部22(入力バッファメモリ3
02)の部分は、原画像の画素データ(入力データ)の
各ビット(ビット数ISB)に対応するISB個の入力
SAMセル221 〜22ISBから構成されるが、図18
においては、入力SAMセル22i (1≦i≦ISB)
を1つのみ示してある。In practice, one element processor 3
0 (input buffer memory 3)
02) is composed of ISB input SAM cells 22 1 to 22 ISB corresponding to each bit (bit number ISB) of the pixel data (input data) of the original image.
, The input SAM cell 22 i (1 ≦ i ≦ ISB)
Is shown only once.
【0158】入力SAMセル221 において、トランジ
スタTr1のゲート端子は、入力ポインタ21に接続さ
れ、トランジスタTr1の他の2つの端子それぞれは、
入力データバス208および1ビットのデータを記憶す
るコンデンサC1の一端に接続される。In the input SAM cell 22 1 , the gate terminal of the transistor Tr1 is connected to the input pointer 21, and the other two terminals of the transistor Tr1 are
It is connected to the input data bus 208 and one end of a capacitor C1 for storing 1-bit data.
【0159】また、トランジスタTr2のゲート端子に
は、プログラム制御部27aから入力SAM読み出し信
号(SIR)が入力され、トランジスタTr2の他の2
つの端子それぞれは、書き込みビット線204およびコ
ンデンサC1の一端に接続される。また、コンデンサC
1の一端は、トランジスタTr1、Tr2に接続され、
他端は接地されている。An input SAM read signal (SIR) is input to the gate terminal of the transistor Tr2 from the program control unit 27a, and the other terminal of the transistor Tr2 is connected to the other terminal.
Each of the two terminals is connected to the write bit line 204 and one end of the capacitor C1. The capacitor C
1 is connected to transistors Tr1 and Tr2,
The other end is grounded.
【0160】データメモリセル23 i データメモリ部23の1つの要素プロセッサ30に対応
する部分〔データメモリ304(図17)〕は、トラン
ジスタTr11〜Tr14、コンデンサC11、抵抗器
Rを含み、2本の読み出しビット線200、202と1
本の書き込みビット線204の3つのポートを有する3
ポート構成のデータメモリセル23i (1≦i≦MB)
から構成される。なお、実際には、1つの要素プロセッ
サ30に対応するデータメモリ部23の部分(データメ
モリ304)は、データメモリとして必要とされるビッ
ト数MBに対応するMB個のデータメモリセル231 〜
23MBを有するが、図18においては、データメモリセ
ル23i を1つのみ示してある。A portion [data memory 304 (FIG. 17)] of the data memory cell 23 i corresponding to one element processor 30 of the data memory unit 23 includes transistors Tr11 to Tr14, a capacitor C11 and a resistor R, and includes two transistors. Read bit lines 200, 202 and 1
Three with three ports of write bit lines 204
Data memory cell 23 i having a port configuration (1 ≦ i ≦ MB)
Consists of In practice, the portion of the data memory unit 23 corresponding to one element processor 30 (data memory 304), MB number of data memory cells 23 1 corresponding to the bit number MB required as data memory
Has a 23 MB, 18 are shown only one data memory cell 23 i.
【0161】データメモリセル23i において、トラン
ジスタTr11のゲート端子には、プログラム制御部2
7aからメモリアクセス信号(SWA)が入力され、ト
ランジスタTr11の他の2つの端子はそれぞれ、書き
込みビット線204および1ビットのデータを記憶する
コンデンサC11の一端に接続される。In the data memory cell 23 i , the program control unit 2 is connected to the gate terminal of the transistor Tr 11.
A memory access signal (SWA) is input from 7a, and the other two terminals of the transistor Tr11 are connected to the write bit line 204 and one end of a capacitor C11 for storing 1-bit data, respectively.
【0162】コンデンサC11の一端は、トランジスタ
Tr12のゲート端子およびトランジスタTr11に接
続され、他端は接地される。トランジスタTr12のゲ
ート端子以外の2つの端子はそれぞれ、負電源(グラウ
ンド)に接続され(接地され)、抵抗Rを介して正電源
(図示せず)にそれぞれ接続されている。なお、抵抗R
は省略可能である。One end of the capacitor C11 is connected to the gate terminal of the transistor Tr12 and the transistor Tr11, and the other end is grounded. Two terminals other than the gate terminal of the transistor Tr12 are connected (grounded) to a negative power supply (ground), and are connected to a positive power supply (not shown) via a resistor R, respectively. The resistance R
Can be omitted.
【0163】トランジスタTr13のゲート端子には、
プログラム制御部27aからメモリ読み出しアクセス信
号SRAA信号が入力され、トランジスタTr13の他
の2つの端子には、トランジスタTr12および抵抗R
と、読み出しビット線200とがそれぞれ接続される。
トランジスタTr14のゲート端子には、プログラム制
御部27aからメモリ読み出しアクセス信号SRBAが
入力され、トランジスタTr14の他の2つの端子に
は、トランジスタTr12および抵抗Rと、読み出しビ
ット線202とがそれぞれ接続される。The gate terminal of the transistor Tr13 has
The memory read access signal SRAA signal is input from the program control unit 27a, and the other two terminals of the transistor Tr13 are connected to the transistor Tr12 and the resistor R
And the read bit line 200 are connected to each other.
A memory read access signal SRBA is input to the gate terminal of the transistor Tr14 from the program control unit 27a, and the other two terminals of the transistor Tr14 are connected to the transistor Tr12, the resistor R, and the read bit line 202, respectively. .
【0164】ALUセル24 i ALUアレイ部24の1つの要素プロセッサ30に対応
する部分〔演算部306(図17)〕は、ALU回路2
30、フリップフロップ(FF)2321 〜23
23 ,238およびセレクタ(SEL)234,236
1 〜2363 を有するALUセル24i から構成され
る。 ALU cell 24 i A part of the ALU array unit 24 corresponding to one element processor 30 [arithmetic unit 306 (FIG. 17)] includes the ALU circuit 2
30, flip-flops (FF) 232 1 to 23
2 3, 238 and a selector (SEL) 234, 236
Composed of ALU cell 24 i having 1-236 3.
【0165】ALUセル24i において、ALU回路2
30は、フルアダー(full adder)回路等を含む1ビット
ALU構成を採り、フリップフロップ2321 〜232
3 から入力される1ビットデータに対して論理演算処理
および算術演算処理を行い、その演算処理結果をセレク
タ234に対して出力する。In ALU cell 24 i , ALU circuit 2
Reference numeral 30 denotes a 1-bit ALU configuration including a full adder circuit and the like, and flip-flops 232 1 to 232
Logical operation processing and arithmetic operation processing are performed on the 1-bit data input from 3 , and the operation processing result is output to the selector 234.
【0166】出力SAMセル25 i ALUアレイ部24の1つの要素プロセッサ30に対応
する部分〔出力バッファメモリ308(図17)〕は、
トランジスタTr7,Tr8およびコンデンサC4を有
し、出力ポインタ26による制御に従って動作する出力
SAMセル25i (1≦i≦OSB)から構成される。
なお、出力SAMセル25i は、実際には処理結果(出
力データ)のビット数(OSB)に対応してOSB個、
設けられるが、図18には、図示の簡略化のために、こ
れらの出力SAMセル251 〜25OSB の内、1個(出
力SAMセル25i )のみを示してある。The portion of the output SAM cell 25 i ALU array unit 24 corresponding to one element processor 30 [output buffer memory 308 (FIG. 17)]
An output SAM cell 25 i (1 ≦ i ≦ OSB) having transistors Tr7 and Tr8 and a capacitor C4 and operating under the control of the output pointer 26.
The number of output SAM cells 25 i is actually OSB corresponding to the number of bits (OSB) of the processing result (output data).
FIG. 18 shows only one (output SAM cell 25 i ) of these output SAM cells 25 1 to 25 OSB for simplification of illustration.
【0167】出力SAMセル25i においては、トラン
ジスタTr7のゲート端子には、プログラム制御部27
aから出力SAM書き込み信号SOWが入力され、トラ
ンジスタTr7の他の2つの端子には、書き込みビット
線204aおよび1ビットのデータを記憶するコンデン
サC4の一端がそれぞれ接続される。コンデンサC4の
一端は、トランジスタTr7,Tr8に接続され、他端
は、接地される。In the output SAM cell 25 i , the program control unit 27 is connected to the gate terminal of the transistor Tr 7.
The output SAM write signal SOW is input from a, and the other two terminals of the transistor Tr7 are connected to the write bit line 204a and one end of a capacitor C4 for storing 1-bit data, respectively. One end of the capacitor C4 is connected to the transistors Tr7 and Tr8, and the other end is grounded.
【0168】トランジスタTr8のゲート端子は、出力
ポインタ26に接続され、他の2つの端子のうちの一方
は、コンデンサC4およびトランジスタTr7に接続さ
れ、他方は出力データバス210に接続されている。The gate terminal of the transistor Tr8 is connected to the output pointer 26, one of the other two terminals is connected to the capacitor C4 and the transistor Tr7, and the other is connected to the output data bus 210.
【0169】ワード線、信号線およびデータバス 図18に示した要素プロセッサ30の全てのワード線
は、他の要素プロセッサ30にも接続され、プログラム
制御部27a(図16)の内部でアドレスデコードされ
ており、入力SAM読み出し信号SIR、メモリ書き込
み線SWA、メモリ読み出しアクセス信号SRAA,S
RBA、出力SAM書き込み信号SOW等を全ての要素
プロセッサ30に対して伝達する。また、入力データバ
ス208は、全ての要素プロセッサ30の入力SAMセ
ル221 に接続され、出力データバス210は、全ての
要素プロセッサ30の出力SAMセル25i に接続され
ている。 Word lines, signal lines and data buses All the word lines of the element processor 30 shown in FIG. 18 are also connected to other element processors 30, and are subjected to address decoding inside the program control unit 27a (FIG. 16). Input SAM read signal SIR, memory write line SWA, memory read access signals SRAA, S
RBA, output SAM write signal SOW, etc. are transmitted to all element processors 30. The input data bus 208 is connected to the input SAM cell 22 1 of all processor elements 30, output data bus 210 is connected to the output SAM cell 25 i of all the processor elements 30.
【0170】要素プロセッサ30によるデータ転送およ
び演算 以下、並列プロセッサ3の要素プロセッサ30によるデ
ータの転送および演算処理動作を説明する。 Data transfer by element processor 30 and
Fine operation will be described transfer and processing operations of the data by the processor element 30 of the parallel processor 3.
【0171】入力ポインタ21が要素プロセッサ30の
入力SAMセル22i を指定すると、指定された入力S
AMセル22i のトランジスタTr1はオン状態にな
り、コンデンサC1の端子電圧を、入力データバス20
8およびバッファ220を介して入力される原画像の画
素データ(入力データ)に応じた電圧とする。この動作
により、入力ポインタ21により指定された要素プロセ
ッサ30の入力SAM部22(入力バッファメモリ30
2)は、原画像の画素データ(入力データ)を記憶す
る。When the input pointer 21 designates the input SAM cell 22 i of the element processor 30, the designated input S
Transistor Tr1 of AM cell 22 i is turned on, the terminal voltage of the capacitor C1, the input data bus 20
8 and a voltage corresponding to the pixel data (input data) of the original image input via the buffer 220. By this operation, the input SAM unit 22 (input buffer memory 30) of the element processor 30 designated by the input pointer 21
2) stores pixel data (input data) of the original image.
【0172】次に、プログラム制御部27aは、入力S
AM読み出し信号SIRを活性化して入力SAMセル2
2i を選択する。選択された入力SAMセル22i のト
ランジスタTr2がオン状態となり、コンデンサC1の
電圧に応じた転送データ信号を書き込みビット線204
に生じさせる。さらに、プログラム制御部27aは、書
き込みビット線ソース切り換え信号SBCを活性化(論
理値1;H)してバッファ222の出力を許可し、さら
に、メモリアクセス信号SWAを活性化(論理値1;
H)とすると、データメモリセル23i のトランジスタ
Tr11はオン状態となり、コンデンサC11の端子電
圧を、入力SAMセル22i のコンデンサC1に記憶さ
れているデータに応じた電圧とする。なお、ALUセル
24i からデータメモリセル23i にデータが入力され
る場合には、他の書き込みビット線ソース切り換え信号
SBCAが、バッファ224に対して出力される。Next, the program control section 27a receives the input S
Activate AM read signal SIR to input SAM cell 2
2 Select i . The transistor Tr2 of the selected input SAM cell 22 i is turned on, and the transfer data signal corresponding to the voltage of the capacitor C1 is written to the bit line 204.
Is caused. Further, the program control unit 27a activates the write bit line source switching signal SBC (logical value 1; H) to permit the output of the buffer 222, and further activates the memory access signal SWA (logical value 1;
H), the transistor Tr11 of the data memory cell 23 i is turned on, and the terminal voltage of the capacitor C11 is set to a voltage corresponding to the data stored in the capacitor C1 of the input SAM cell 22 i . When data is input from ALU cell 24 i to data memory cell 23 i , another write bit line source switching signal SBCA is output to buffer 224.
【0173】なお、上述した入力SAMセル22i また
はALUセル24i からデータメモリセル23i へのデ
ータ転送は、ワード線の信号の活性化に応じて、1サイ
クルに1ビットずつ書き込みビット線204を介して行
われる。The data transfer from the input SAM cell 22 i or the ALU cell 24 i to the data memory cell 23 i is performed one bit at a time in one cycle in accordance with the activation of the word line signal. Done through.
【0174】次に、ALUセル24i は、ALUセル2
4i または入力SAMセル22i からデータメモリ部2
3に入力され、記憶された原画像の画素データ(入力デ
ータ)、演算途中のデータ、および/または、フリップ
フロップ2321 〜2323に記憶されたデータを用い
て、ビット単位の演算処理を順次、実行する。Next, ALU cell 24 i is connected to ALU cell 2
4 i or input SAM cell 22 i to data memory unit 2
3, the pixel unit (input data) of the original image stored therein, the data in the middle of the calculation, and / or the data stored in the flip-flops 232 1 to 232 3 sequentially perform the bit-wise calculation processing. ,Run.
【0175】データメモリ部23の所定のビットに対応
するデータメモリセル23i 内の第1のデータと、他の
ビットに対応するデータメモリセル23i 内の第2のデ
ータとを加算し、第3のビットに対応するデータメモリ
セル23i に加算結果を書き込む場合を具体例として、
ALUセル24i の演算処理をさらに説明する。The first data in the data memory cell 23 i corresponding to a predetermined bit of the data memory unit 23 and the second data in the data memory cell 23 i corresponding to the other bits are added. As a specific example, a case where the addition result is written to the data memory cell 23 i corresponding to the 3 bits
The operation of the ALU cell 24 i will be further described.
【0176】プログラム制御部27aは、データメモリ
部23の所定のビットに対応するデータメモリセル23
i に対してデータメモリ部23の第1の読み出しビット
200用のアクセス信号SRAAを活性化して出力し、
トランジスタTr13をオン状態として、コンデンサC
11に記憶されていた第1のデータを一方の読み出しビ
ット線200に出力させる。同時に、プログラム制御部
27aは、他のビットに対応するデータメモリセル23
j (i≠j)に対して、データメモリ部23の第1の読
み出しビット200用のアクセス信号SRBA信号を活
性化して出力し、トランジスタTr14をオン状態にし
て、コンデンサC11に記憶されていた第2のデータを
他方の読み出しビット線202に出力させる。The program control unit 27a operates the data memory cell 23 corresponding to a predetermined bit of the data memory unit 23.
Activate and output an access signal SRAA for the first read bit 200 of the data memory unit 23 for i ,
With the transistor Tr13 turned on, the capacitor C
The first data stored in 11 is output to one read bit line 200. At the same time, the program control unit 27a sets the data memory cells 23 corresponding to the other bits.
j (i ≠ j), the access signal SRBA signal for the first read bit 200 of the data memory unit 23 is activated and output, and the transistor Tr14 is turned on to store the access signal SRBA signal in the capacitor C11. 2 is output to the other read bit line 202.
【0177】データメモリセル23i ,23j のコンデ
ンサC11から読み出された第1のデータおよび第2の
データは、ALUセル24i のセレクタ2361 〜23
63を介してALU230に対して出力される。ALU
回路230は、データメモリセル23i ,23j から入
力された第1のデータおよび第2のデータに対して、プ
ログラム制御部27aの制御に従って所定の演算処理を
行い、その演算処理結果を、セレクタ234を介してフ
リップフロップ238に対して出力し、保持させる。The first data and the second data read from the capacitor C11 of the data memory cells 23 i and 23 j are supplied to the selectors 236 1 to 236 of the ALU cell 24 i.
6 3 via the output against ALU230. ALU
The circuit 230 performs predetermined arithmetic processing on the first data and the second data input from the data memory cells 23 i and 23 j under the control of the program control unit 27a, and outputs the arithmetic processing result to the selector The data is output to the flip-flop 238 via the 234 and held.
【0178】次に、プログラム制御部27aは、第2の
書き込みビット線ソース切り換え信号SBCAを活性化
してALUセル24i に対して出力し、フリップフロッ
プ238に保持された演算処理結果を書き込みビット線
204に出力させ、さらに、メモリ書き込みビット線ア
クセス信号SWAを活性化し、所定の第3の書き込みア
ドレス(通常はサムであるがMSBの場合にはキャリー
を使うことがある)に対応するデータメモリセル23i
に対して出力してトランジスタTr11をオン状態と
し、コンデンサC11の端子電圧を演算処理結果に対応
する電圧にする。[0178] Then, the program control unit 27a is a second write bit line source switching signal SBCA activated print to ALU cell 24 i, the bit line write the operation result held in the flip-flop 238 204, and further activates a memory write bit line access signal SWA, and outputs a data memory cell corresponding to a predetermined third write address (usually a sum, but a MSB may use a carry). 23 i
, The transistor Tr11 is turned on, and the terminal voltage of the capacitor C11 is set to a voltage corresponding to the result of the arithmetic processing.
【0179】なお、ALUセル24i における演算処理
動作は、プログラム制御部27aにより、ALU制御信
号(SALU−CONT)を介して制御される。また、
ALUセル24i における演算処理結果は、上述のよう
にデータメモリ部23に書き込まれ、あるいは、必要に
応じてALUセル24i のフリップフロップ2323 に
記憶される。また、ALU230における演算処理が加
算である場合には、ALUセル24i は、加算処理の結
果として得られるキャリーをフリップフロップ2323
に記憶し、加算結果(サム)をデータメモリ部23に記
憶する。[0179] The calculation processing operation in ALU cell 24 i is by program control unit 27a, is controlled via the ALU control signal (SALU-CONT). Also,
Calculation result in the ALU cell 24 i is written into the data memory section 23 as described above, or is stored in the flip-flop 232 3 of the ALU cell 24 i as needed. When the arithmetic processing in the ALU 230 is addition, the ALU cell 24 i outputs the carry obtained as a result of the addition processing to the flip-flop 232 3.
And the addition result (sum) is stored in the data memory unit 23.
【0180】次に、データメモリセル23i よりデータ
を出力させる場合、プログラム制御部27aは、演算処
理結果を記憶しているデータメモリセル23i に対し
て、メモリアクセス信号SRAAまたはメモリアクセス
信号SRBAを活性化して出力し、トランジスタTr1
3またはTr14をオン状態にして、コンデンサC11
に記憶されているデータを読み出しビット線200また
は読み出しビット線202に出力させる。Next, when outputting data from the data memory cell 23 i , the program control unit 27 a sends the memory access signal SRAA or the memory access signal SRBA to the data memory cell 23 i storing the operation processing result. Is activated and output, and the transistor Tr1
3 or Tr14 is turned on, and the capacitor C11
Is output to the read bit line 200 or the read bit line 202.
【0181】さらに、プログラム制御部27aは、所定
の制御信号(SALUCONT)をALUセル24i に
対して出力して、データメモリセル23i から出力SA
Mセル25i にデータを転送させ、出力SAM書き込み
信号SOWを活性化して、指定した出力SAMセル25
i に対して出力し、トランジスタTr17をオン状態に
して、コンデンサC4の端子電圧を転送させたデータに
応じた電圧とし、データを保持させる。[0181] Further, the program control unit 27a is a predetermined control signal (SALUCONT) and outputted to the ALU cell 24 i, the output from the data memory cell 23 i SA
To transfer data to M cells 25 i, to activate the output SAM write signal SOW, specified output SAM cell 25
i , the transistor Tr17 is turned on, the terminal voltage of the capacitor C4 is set to a voltage corresponding to the transferred data, and the data is held.
【0182】なお、データは、書き込みビット線204
を介して、データメモリセル23iから出力SAMセル
25i へ1ビットずつ転送される。また、ALU回路2
30は、データの転送の際に、転送しているデータに対
して何らかの演算処理を行うことも可能である。The data is written to the write bit line 204
Are transferred one bit at a time from the data memory cell 23 i to the output SAM cell 25 i . ALU circuit 2
The data processing unit 30 can also perform some kind of arithmetic processing on the data being transferred when transferring the data.
【0183】次に、出力ポインタ26は、出力ポインタ
信号SOPにより、左端の要素プロセッサ30(図1
6)の出力から、右端の要素プロセッサ30の出力ま
で、出力用クロック信号に従って順番に活性化し、それ
ぞれの出力SAMセル25i のトランジスタTr8をオ
ン状態とし、コンデンサC4の電位に応じた演算処理結
果(出力データ)を、出力データバス210を介して出
力端子DOUTに対して出力させる。Next, the output pointer 26 is supplied to the leftmost element processor 30 (FIG. 1) by the output pointer signal SOP.
From the output of 6), to the output of the rightmost element processor 30, and sequentially activated in accordance with an output clock signal, the transistor Tr8 of the respective output SAM cell 25 i is turned on, the processing result corresponding to the potential of the capacitor C4 (Output data) is output to the output terminal DOUT via the output data bus 210.
【0184】なお、要素プロセッサ30は、原画像およ
び変換画像の1水平走査期間の画素数H以上、設けられ
ているので、上述した出力ポインタ26による出力制御
により、並列プロセッサ3の各要素プロセッサ30の出
力SAMセル25i から、1水平期間ごとに1水平走査
期間分の変換結果(出力データ)が出力される。Since the element processors 30 are provided for the number of pixels H in one horizontal scanning period of the original image and the converted image, the respective element processors 30 of the parallel processor 3 are controlled by the output pointer 26 described above. from the output SAM cell 25 i, 1 horizontal scanning period of the conversion results for each horizontal period (output data) is output.
【0185】なお、上述したように、並列プロセッサ3
においては、起動時等にメモリ28から各要素プロセッ
サ30のデータメモリ部23に対してフィルタ係数セッ
トが出力される。メモリ28からデータメモリ部23に
対してフィルタ係数セットを出力する場合には、フィル
タ係数セットは、メモリ28から、入力データバス20
8の一部(所定のビット数)を介して入力SAM部22
に出力され、さらに、データメモリ部23に転送され
る。Note that, as described above, the parallel processor 3
In, the filter coefficient set is output from the memory 28 to the data memory unit 23 of each element processor 30 at the time of startup or the like. When the filter coefficient set is output from the memory 28 to the data memory unit 23, the filter coefficient set is output from the memory 28 to the input data bus 20.
8 (a predetermined number of bits) through the input SAM unit 22
And transferred to the data memory unit 23.
【0186】以上説明したように、並列プロセッサ3の
各要素プロセッサ30は、プログラム制御部27aから
入力される各種制御信号に応じて、データ入力、データ
転送、演算、および、データ出力等の処理を行い、これ
らの処理の組み合わせにより、原画像の画素データ(入
力データ)に対するフィルタリング処理等を行う。As described above, each element processor 30 of the parallel processor 3 performs processing such as data input, data transfer, calculation, and data output according to various control signals input from the program control unit 27a. Then, a filtering process or the like is performed on pixel data (input data) of the original image by a combination of these processes.
【0187】並列プロセッサ3による拡大処理 以下、さらに図19〜図24を参照して、原画像の画素
データの長さを(10/7)倍に拡大処理する場合を具
体例として、並列プロセッサ3の動作を説明する。図1
9は、図16に示した並列プロセッサ3による画像の拡
大処理を示すフローチャート図である。 Enlarging Process by Parallel Processor 3 Hereinafter, with reference to FIGS. 19 to 24, the parallel processor 3 will be described as a specific example in which the length of pixel data of the original image is enlarged to (10/7) times. Will be described. FIG.
9 is a flowchart showing an image enlargement process by the parallel processor 3 shown in FIG.
【0188】図20は、図19に示した画像の拡大処理
を行う際に、並列プロセッサ3(図16)の各構成部分
に記憶されるデータを示す図である。なお、図20にお
いては、入力SAM部22等の各欄は1ビットに対応す
る。但し、入力データRiおよび出力データQiは、実
際には、例えば8ビットであるが、図示の簡略化のため
に、図20においては4ビットデータとして表現されて
おり、また、図20においては、以下の説明に必要なメ
モリの内容のみを示してある。FIG. 20 is a diagram showing data stored in each component of the parallel processor 3 (FIG. 16) when performing the image enlargement processing shown in FIG. In FIG. 20, each column of the input SAM unit 22 and the like corresponds to one bit. However, the input data Ri and the output data Qi are actually 8 bits, for example, but are represented as 4-bit data in FIG. 20 for simplicity of illustration, and in FIG. Only the contents of the memory necessary for the following description are shown.
【0189】図19に示すように、ステップS100に
おいて、1水平走査期間部の所定のLビットの入力デー
タRi(={ri0〜ri(L-1)})が入力SAM部22に
入力される。なお、S100の処理は、プログラム制御
部27aのプログラム処理の対象ではない。As shown in FIG. 19, in step S100, predetermined L-bit input data Ri (= { ri0- ri (L-1) }) of one horizontal scanning period is input to the input SAM unit 22. Is done. Note that the process of S100 is not a target of the program process of the program control unit 27a.
【0190】原画像の長さを(10/7)倍に拡大処理
する場合、上述のように、拡大画像の画素データ(出力
データ)の算出に必要な原画像の画素データ(入力デー
タ)を記憶している要素プロセッサ30と、拡大画像の
画素データ(出力データ)を算出する要素プロセッサ3
0との位置関係は、拡大画像の画素データ(出力デー
タ)ごとに変化する。例えば、7画素の入力データに対
応して10画素の出力データを算出する場合、各出力デ
ータの算出に必要な入力データを保持している要素プロ
セッサ30間のデータ参照関係のパターンは、図15に
示し、図21を参照して後述するように5種類に限られ
る。When the length of the original image is enlarged by a factor of (10/7), as described above, the pixel data (input data) of the original image necessary for calculating the pixel data (output data) of the enlarged image is obtained. The element processor 30 that stores the data, and the element processor 3 that calculates pixel data (output data) of the enlarged image.
The positional relationship with 0 changes for each pixel data (output data) of the enlarged image. For example, when calculating the output data of 10 pixels corresponding to the input data of 7 pixels, the pattern of the data reference relationship between the element processors 30 holding the input data necessary for calculating each output data is shown in FIG. And limited to five types as described later with reference to FIG.
【0191】このように、要素プロセッサ30間の入力
データの参照関係のパターンが5種類に限られることを
利用し、図20に示すように、7個の入力データ(例え
ば、入力データR1〜R7が、出力データQ1〜Q10
に変換される場合の入力データR1〜R7)のいずれか
を重複させて、10個の要素プロセッサ30に密な配列
となるように記憶させる。つまり、入力データが供給さ
れない要素プロセッサ30(例えば、PE1,PE4,
PE5等)に対して、その左隣の要素プロセッサ30と
同一の入力データを配列する。By utilizing the fact that the pattern of the reference relation of the input data between the element processors 30 is limited to five types, as shown in FIG. 20, seven input data (for example, input data R1 to R7) are used. Are output data Q1 to Q10
, And any of the input data R1 to R7) is stored in the ten element processors 30 in a dense array. That is, the element processor 30 to which no input data is supplied (for example, PE1, PE4,
PE5), the same input data as the element processor 30 on the left side is arranged.
【0192】以下、図21および図22をさらに参照し
て、要素プロセッサ30へのデータの配列方法を説明す
る。図21は、Cubic補間の場合に必要な近傍の4
つの入力画像データの5種類のアクセスパターン〔並列
プロセッサ3(図16)の各要素プロセッサ30に配列
した入力データの参照関係〕を示す図である。なお、図
20と図21のデータは、例えば、出力データQ3は、
PE0,PE2,PE3,PE5にある入力データR1
〜R4のデータから算出されるという対応関係にあり、
出力データQ4は、PE2,PE3,PE5,PE6に
ある入力データR2〜R5から算出され、また、出力デ
ータQ5は、PE2,PE3,PE5,PE6(PE
2,PE4,PE5,PE6)にある入力データR2〜
R4から算出されるという対応関係にある。図22は、
並列プロセッサ3(図16)の各要素プロセッサ30
に、図20に示したように入力データを配列した場合
に、図21に示した5種類の参照関係を整理して得られ
る2種類の参照関係(図21に示した5種類の近傍の入
力画像データへのアクセスについて重複を除去し、縮退
させた場合の参照関係)を示す図である。Hereinafter, a method of arranging data in the element processor 30 will be described with reference to FIGS. 21 and 22. FIG. 21 is a diagram showing four neighbors necessary for Cubic interpolation.
FIG. 17 is a diagram showing five types of access patterns of one input image data [reference relation of input data arranged in each element processor 30 of the parallel processor 3 (FIG. 16)]. 20 and FIG. 21, for example, the output data Q3 is
Input data R1 in PE0, PE2, PE3, PE5
There is a correspondence that is calculated from the data of ~ R4,
The output data Q4 is calculated from the input data R2 to R5 in PE2, PE3, PE5, PE6, and the output data Q5 is PE2, PE3, PE5, PE6 (PE
2, PE4, PE5, PE6).
There is a correspondence that it is calculated from R4. FIG.
Each element processor 30 of the parallel processor 3 (FIG. 16)
In the case where input data is arranged as shown in FIG. 20, two types of reference relationships obtained by organizing the five types of reference relationships shown in FIG. FIG. 11 is a diagram illustrating a reference relationship in a case where access to image data is eliminated and reduced.
【0193】以上、図20に示したように、入力画像デ
ータの割当がない要素プロセッサ30と同じ入力データ
を与えるように並列プロセッサ3の各要素プロセッサ3
0に入力データを配列することにより、例えば、要素プ
ロセッサ30間の入力データの参照関係が図21に示す
第1のパターンを採る場合には、所定の要素プロセッサ
30(自分)は、左2つ隣りの要素プロセッサ30、自
分の要素プロセッサ30、右隣りの要素プロセッサ3
0、および、右隣りの要素プロセッサ30のそれぞれに
入力される入力画像データをアクセスすべきところ、左
2つ隣の要素プロセッサ30へのアクセスは左隣の要素
プロセッサ30へのアクセスと同じであり、また、右2
つ隣の要素プロセッサ30へのアクセスは、右2つ隣の
要素プロセッサ30へのアクセスでも同であるので、種
類1のパターンは種類2のパターンと同様に取り扱う
(補間演算を行う)ことができる。つまり、図21に示
した○印が矢印の先にあると、○印のパターンが同じに
なる。As described above, as shown in FIG. 20, each of the element processors 3 of the parallel processor 3 supplies the same input data as the element processors 30 to which no input image data is allocated.
By arranging the input data in 0, for example, when the reference relation of the input data between the element processors 30 adopts the first pattern shown in FIG. Next element processor 30, own element processor 30, right next element processor 3
0 and the input image data to be input to each of the right adjacent element processors 30 is to be accessed. However, the access to the left two adjacent element processors 30 is the same as the access to the left adjacent element processor 30. , And right 2
Since the access to the next adjacent element processor 30 is the same as the access to the next right adjacent element processor 30, the type 1 pattern can be handled (interpolated) in the same manner as the type 2 pattern. . That is, if the mark shown in FIG. 21 is located at the tip of the arrow, the pattern of the mark becomes the same.
【0194】また、要素プロセッサ30の補間演算のた
めのメモリアクセスが、図21に示す第3のパターンを
採る場合、要素プロセッサ30(自分)は、左隣りの要
素プロセッサ30を参照する代わりに、自分の要素プロ
セッサ30にある入力画像データをアクセスしても同じ
なので、第3のパターンは第4のパターンと同様に取り
扱うことができる。When the memory access for the interpolation operation of the element processor 30 adopts the third pattern shown in FIG. 21, the element processor 30 (self) refers to the element processor 30 on the left side instead of referring to the element processor 30 on the left side. The third pattern can be handled in the same way as the fourth pattern, since the same applies even when the input image data in the own element processor 30 is accessed.
【0195】さらにまた、要素プロセッサ30の補間演
算のためのメモリアクセスが、図21に示す第5のパタ
ーンを採る場合、要素プロセッサ30(自分)は、右隣
りの要素プロセッサ30、自分の要素プロセッサ30、
右2つ隣りの要素プロセッサ30、および、右3つ隣の
要素プロセッサ30を参照する。しかし、参照関係が第
5のパターンを採る場合には、第2のパターンと同一の
入力データに対するメモリアクセスを行えばよいので、
第5のパターンは、第2のパターンと同様に取り扱うこ
とができる。Further, when the memory access for the interpolation operation of the element processor 30 adopts the fifth pattern shown in FIG. 21, the element processor 30 (the self), the element processor 30 on the right side, its own element processor 30,
Reference is made to the element processor 30 immediately next to the right and the element processor 30 immediately next to the right. However, when the reference pattern adopts the fifth pattern, the memory access to the same input data as the second pattern may be performed.
The fifth pattern can be handled in the same way as the second pattern.
【0196】従って、図20に示すように入力データを
各要素プロセッサ30に入力することにより、図21に
示した参照関係の5種類のパターンは、図22に示す2
種類のパターン(種類2,種類4)に整理されて縮退す
る。なお、(10/7)以外の変換比率で原画像の画素
データ(入力データ)を拡大・縮小処理する場合も、予
め、参照関係のパターンの数を最小とする入力データの
供給方法を求めておき、参照関係のパターンを縮退させ
ることができる。Therefore, by inputting the input data to each element processor 30 as shown in FIG. 20, the five types of patterns of the reference relation shown in FIG.
They are arranged in types of patterns (type 2 and type 4) and degenerated. In the case where the pixel data (input data) of the original image is enlarged or reduced at a conversion ratio other than (10/7), a method of supplying the input data that minimizes the number of reference-related patterns is determined in advance. In addition, the pattern of the reference relation can be degenerated.
【0197】このように、図21に示した5種類の要素
プロセッサ30のデータ参照関係のパターンは、実際に
は2種類に縮退させることができる。図22に示した2
種類の内のいずれのパターンであるかを示す1ビットデ
ータ(参照関係データ;0,1)は、各要素プロセッサ
30ごとに指定されねばならないが、これは、画像入力
データと同様に入力される方法により、プログラム演算
により要素プロセッサ30が生成する方法により、ある
いは、第3実施例として後述するように、フィルタ計数
と同様の方法で与えられる。As described above, the data reference relation patterns of the five types of element processors 30 shown in FIG. 21 can actually be reduced to two types. 2 shown in FIG.
One-bit data (reference relation data; 0, 1) indicating which of the patterns is to be specified must be specified for each element processor 30, which is input in the same manner as the image input data. It is provided by a method, a method generated by the element processor 30 by a program operation, or a method similar to the filter count, as described later in the third embodiment.
【0198】なお、図20に示した配列で入力データを
要素プロセッサ30に供給する処理を行う方法として
は、最初から図20に示した配列になるように各要素プ
ロセッサ30に入力データを供給する方法の他に、例え
ば、第1の実施例において示した演算装置1および並列
プロセッサ2(図10,図14)においてと同様に、ま
ず、入力データを疎な配列で各要素プロセッサ30に配
列してから、プログラム制御部27aの制御に従って、
他の要素プロセッサ30から必要な入力データをコピー
させる方法がある。As a method of supplying input data to the element processors 30 in the array shown in FIG. 20, the input data is supplied to each element processor 30 from the beginning so as to form the array shown in FIG. In addition to the method, for example, similarly to the arithmetic unit 1 and the parallel processor 2 (FIGS. 10 and 14) shown in the first embodiment, first, input data is arranged in a sparse array in each element processor 30. After that, according to the control of the program control unit 27a,
There is a method of copying necessary input data from another element processor 30.
【0199】再び図19を参照する。ステップS102
〜ステップS108において、プログラム制御部27a
は各要素プロセッサ30を制御し、供給された入力デー
タRiを入力SAM部22からデータメモリ部23に、
書き込みビット線204を介して、全ての要素プロセッ
サ30が連動して1ビットずつ転送させる。図20に例
示したように、入力データRiは4ビットとして、入力
データRiの各ビットが入力SAM部22のアドレス0
〜4に記憶されとすると、これらのデータは、それぞれ
データメモリ部23のアドレス8〜11に転送される。Referring back to FIG. Step S102
In step S108, the program control unit 27a
Controls each of the element processors 30 to transfer the supplied input data Ri from the input SAM unit 22 to the data memory unit 23,
Through the write bit line 204, all of the element processors 30 work together to transfer one bit at a time. As illustrated in FIG. 20, the input data Ri has 4 bits, and each bit of the input data Ri is the address 0 of the input SAM unit 22.
4, these data are transferred to addresses 8 to 11 of the data memory unit 23, respectively.
【0200】ステップS110において、各要素プロセ
ッサ30は、図23および図24を参照して後述する信
号処理を行う。In step S110, each element processor 30 performs signal processing described later with reference to FIGS.
【0201】ステップS112〜ステップS118にお
いて、プログラム制御部27aは、各要素プロセッサ3
0が算出した演算結果(出力データQi)を、データメ
モリ部23から、読み出しビット線200、202およ
びALUセル24i を介して出力SAM部25に1ビッ
トずつ、各要素プロセッサ30を連動して転送させる。
なお、図20に例示したように、出力データQi(=c
i0〜q13 )が4ビット構成であり、データメモリ部23
のアドレス16〜19に記憶されているとすると、デー
タメモリ部23のアドレス16〜19に記憶された出力
データQiはそれぞれ、出力SAM部25のアドレス2
0〜23に転送される。In steps S112 to S118, the program control unit 27a
The calculation result (output data Qi) calculated by the data processor 23 is output from the data memory unit 23 to the output SAM unit 25 via the read bit lines 200 and 202 and the ALU cell 24 i , one bit at a time by the respective element processors 30. Transfer.
As illustrated in FIG. 20, the output data Qi (= c
i0 to q 13) is 4 bits, the data memory unit 23
If the output data Qi stored in the addresses 16 to 19 of the data memory unit 23 are stored in the addresses 2 to 19 of the output SAM unit 25, respectively.
Transferred to 0-23.
【0202】ステップS120において、算出された1
水平走査期間分の出力データQiが出力SAM部25か
ら出力される。なお、S120の処理は、プログラム制
御部27aによるプログラム処理ではない。In step S120, the calculated 1
The output data Qi for the horizontal scanning period is output from the output SAM unit 25. Note that the process of S120 is not a program process by the program control unit 27a.
【0203】並列プロセッサ3は1水平走査期間分の原
画像の画素データ(入力データ)に対してフィルタリン
グ処理を行う。なお、並列プロセッサ3は、(1)ステ
ップS100の処理、(2)ステップS102〜ステッ
プS118の処理、および、(3)ステップS120の
(1)〜(3)の3つの処理を並列に行う。つまり、並
列プロセッサ3は、所定の1水平走査期間分の入力デー
タに対してステップS102〜ステップS118の処理
を行っている間に、1つ前の水平走査期間の入力データ
に対するステップS120の処理、および、1ライン後
の1水平走査期間分画像データに対するステップS10
0の処理を並行して行う。The parallel processor 3 performs a filtering process on pixel data (input data) of the original image for one horizontal scanning period. The parallel processor 3 performs (1) the processing of step S100, (2) the processing of steps S102 to S118, and (3) the processing of (1) to (3) of step S120 in parallel. That is, the parallel processor 3 performs the processing of step S120 on the input data of the immediately preceding horizontal scanning period while performing the processing of steps S102 to S118 on the input data of the predetermined one horizontal scanning period. And step S10 for image data for one horizontal scanning period after one line
0 is performed in parallel.
【0204】ステップS110の処理 以下、図23および図24を参照して、図19に示した
ステップS110における信号処理を詳細に説明する。
図23および図24はそれぞれ、図19に示したS11
0の詳細な処理を示す第1のフローチャート図および第
2のフローチャート図である。 Processing in step S110 The signal processing in step S110 shown in FIG. 19 will be described below in detail with reference to FIGS.
FIGS. 23 and 24 respectively show S11 shown in FIG.
0 and 1 are a first flowchart and a second flowchart showing detailed processing of the first step.
【0205】垂直帰線期間等において予め、入力ポイン
タ21に、例えば、左端側から順番にフィルタ係数セッ
トを、データ入力端子から受け入れて、要素プロセッサ
30の入力SAM部に記憶され、記憶したデータをデー
タメモリ部に転送して設定する。なお、フィルタ係数セ
ットは、各要素プロセッサ30に順番に設定されるのに
対し、原画像の画素データ(入力データ)Riは、図2
0に示したように、要素プロセッサ30の順番と異なる
パターンで各要素プロセッサ30の入力SAM部22に
記憶される。In a vertical blanking period or the like, the input pointer 21 previously receives, for example, filter coefficient sets in order from the left end from the data input terminal, and stores the data stored in the input SAM unit of the element processor 30 and stores the stored data. Transfer to the data memory and set. Note that the filter coefficient set is set in each of the element processors 30 in order, while the pixel data (input data) Ri of the original image is set as shown in FIG.
As shown in FIG. 0, the data is stored in the input SAM unit 22 of each element processor 30 in a pattern different from the order of the element processors 30.
【0206】従って、例えば、入力SAM部22に入力
データRiを記憶する際のポインタ制御を行う回路と、
入力SAM部22にフィルタ係数セットを記憶する際の
ポインタ制御を行う回路とを2系統、入力ポインタ21
に設けて、入力ポインタ21が、これら2つの場合それ
ぞれで独立したポインタ制御を行うことができるように
する必要がある。Therefore, for example, a circuit for performing pointer control when storing the input data Ri in the input SAM unit 22 includes:
The input SAM unit 22 includes two circuits for performing pointer control when storing a filter coefficient set,
, It is necessary that the input pointer 21 can perform independent pointer control in each of these two cases.
【0207】図23に示すように、ステップS130に
おいて、各要素プロセッサ30のデータメモリ部23
は、供給された入力データを記憶し、左隣りの要素プロ
セッサ30に記憶した入力データをコピーし、未ツナデ
ータ入力を実現する。但し、コピーに際しては、図20
に示した入力SAM部で空欄を埋めるところのみをコピ
ーする。なお、以下、所定の要素プロセッサ30、所定
の要素プロセッサ30の左隣り、左2つ隣り、右隣り、
右2つ隣り、および、右3つ隣りの要素プロセッサ30
に記憶されたデータを、それぞれ入力データR0 ,
R-1,R-2,R+1,R+2,R+3と記す。As shown in FIG. 23, in step S130, the data memory unit 23 of each element processor 30
Stores the supplied input data, copies the input data stored in the element processor 30 on the left side, and realizes the input of un-tuna data. However, at the time of copying, FIG.
In the input SAM section shown in (1), only the blank spaces are copied. Hereinafter, the predetermined element processor 30, the left adjacent to the predetermined element processor 30, the two adjacent left, the right adjacent,
Element processor 30 next to right and next to right three
Are respectively stored in the input data R 0 ,
These are described as R -1 , R -2 , R +1 , R +2 , and R +3 .
【0208】ステップS132において、所定の要素プ
ロセッサ30は、左隣りの要素プロセッサ30の入力デ
ータR-1と、予めメモリ28から入力され、データメモ
リ部にあるフィルタ係数FC1の積を演算し、乗算結果
を数値Y-Aとする(Y1A=R-1×FC1)。なお、AL
Uセル24i による乗算処理は、各要素プロセッサ30
のALUセル24i が、プログラム制御部27aの制御
に従って、ビット演算を繰り返すことにより実行され
る。In step S132, the predetermined element processor 30 calculates the product of the input data R -1 of the element processor 30 on the left and the filter coefficient FC1 previously input from the memory 28 and stored in the data memory section, and multiplies the result. The result is a numerical value Y- A ( Y1A = R- 1 * FC1). In addition, AL
The multiplication processing by the U cell 24 i is performed by each of the element processors 30.
ALU cell 24 i is executed by repeating the bit operation under the control of program control unit 27a.
【0209】ステップS134において、要素プロセッ
サ30は、入力されたデータR0と、フィルタ係数FC
2とを乗算し、乗算結果を数値Y2Aとする(Y2A=R0
×FC2)。In step S134, the element processor 30 sets the input data R0 and the filter coefficient FC
2 and the result of the multiplication is set to a numerical value Y 2A (Y 2A = R 0
× FC2).
【0210】ステップS136において、要素プロセッ
サ30は、数値Y1A,Y2Aを加算し、加算結果を数値Y
1Aとする(Y1A=Y1A+Y2A)。なお、ALUセル24
i による加算処理も、乗算処理と同様に、各要素プロセ
ッサ30のALUセル24iが、プログラム制御部27
aの制御に従って、ビット演算を繰り返すことにより実
行される。In step S136, the element processor 30 adds the numerical values Y 1A and Y 2A and outputs the addition result as the numerical value Y
1A (Y 1A = Y 1A + Y 2A ). The ALU cell 24
Also in the addition processing by i, the ALU cell 24 i of each element processor 30 is controlled by the program control unit 27 similarly to the multiplication processing.
This is executed by repeating the bit operation according to the control of a.
【0211】ステップS138において、要素プロセッ
サ30は、右2つ隣りの要素プロセッサ30の入力デー
タR+2と、フィルタ係数FC3の乗算し、乗算結果を数
値Y2Aとする(Y2A=R+2×FC3)。ステップS14
0において、要素プロセッサ30は、数値Y1A,Y2Aを
加算し、加算結果を数値Y1Aとする(Y1A=Y1A+
Y2A)。[0211] In step S138, the element processor 30 multiplies the input data R + 2 of the element processor 30 adjacent to the right two by the filter coefficient FC3, and sets the multiplication result to a numerical value Y2A ( Y2A = R + 2). × FC3). Step S14
At 0, the element processor 30 adds the numerical values Y 1A and Y 2A and sets the addition result to the numerical value Y 1A (Y 1A = Y 1A +
Y 2A ).
【0212】ステップS142において、要素プロセッ
サ30は、右3つ隣りの要素プロセッサ30のデータR
+3と、フィルタ係数FC4とを乗算し、乗算結果を数値
Y2Aとする(Y2A=R+3×FC4)。In step S142, the element processor 30 sets the data R of the next three
+3 is multiplied by a filter coefficient FC4, and the multiplication result is set to a numerical value Y 2A (Y 2A = R +3 × FC4).
【0213】ステップS144において、要素プロセッ
サ30は、数値Y1A,Y2Aを加算し、加算結果を数値Y
1Aとする(Y1A=Y1A+Y2A)。なお、S144の処理
により算出された数値Y1Aの値は、R-1×FC1+R0
×FC2+R+2×FC3+R+3×FC4であり、図22
に示した第2のパターンに対応する。In step S144, the element processor 30 adds the numerical values Y 1A and Y 2A and outputs the addition result as the numerical value Y
1A (Y 1A = Y 1A + Y 2A ). Note that the value of the numerical value Y 1A calculated in the process of S144 is R −1 × FC1 + R 0
× FC2 + R +2 × FC3 + R +3 × FC4, and FIG.
Corresponds to the second pattern shown in FIG.
【0214】ステップS146において、要素プロセッ
サ30は、左2つ隣りの要素プロセッサ30の入力デー
タR-2と、フィルタ係数FC1とを乗算し、乗算結果を
数値Y1Bとする(Y1B=R-2×FC1)。[0214] In step S146, the processor element 30 includes an input data R -2 processor elements 30 of the left two neighboring multiplies the filter coefficients FC1, a numerical value Y 1B multiplication result (Y 1B = R - 2 x FC1).
【0215】ステップS148において、要素プロセッ
サ30は、自らが記憶している入力データR0 と、フィ
ルタ係数FC2とを乗算し、乗算結果を数値Y2Bとする
(Y2B=R0 ×FC2)。In step S148, the element processor 30 multiplies the input data R 0 stored therein by the filter coefficient FC2, and sets the multiplication result to a numerical value Y 2B (Y 2B = R 0 × FC2).
【0216】さらに、図24に示すように、ステップS
150において、要素プロセッサ30は、数値Y1B,Y
2Bを加算し、加算結果を数値Y1Bとする(Y1B=Y1B+
Y2B)。Further, as shown in FIG.
At 150, the element processor 30 determines that the values Y 1B , Y
2B is added, and the addition result is set to a numerical value Y 1B (Y 1B = Y 1B +
Y2B ).
【0217】ステップS152において、要素プロセッ
サ30は、右隣りの要素プロセッサ30の入力データR
+1と、フィルタ要素FC3とを乗算し、乗算結果を数値
Y2Bとする(Y2B=R+1×FC3)。In step S152, the element processor 30 receives the input data R of the element processor 30 on the right.
+1 is multiplied by the filter element FC3, and the multiplication result is set to a numerical value Y 2B (Y 2B = R +1 × FC3).
【0218】ステップS154において、要素プロサッ
セ31は、数値Y1B,Y2Bを加算し、加算結果を数値Y
1Bとする(Y1B=Y1B+Y2B) 。In step S154, the element processor 31 adds the numerical values Y 1B and Y 2B and outputs the addition result as the numerical value Y
1B (Y 1B = Y 1B + Y 2B ).
【0219】ステップS156において、要素プロセッ
サ30は、右2つ隣りの要素プロセッサ30のデータR
+2と、フィルタ要素FC4とを乗算し、乗算結果を数値
Y2Bとする(Y2B=R+2×FC4)。[0219] In step S156, the element processor 30 determines the data R
+2 is multiplied by the filter element FC4, and the multiplication result is set to a numerical value Y 2B (Y 2B = R +2 × FC4).
【0220】ステップS158において、要素プロセッ
サ30は、数値Y1B,Y2Bを加算し、加算結果を数値Y
1Bとする(Y1B=Y1B+Y2B)。S158の処理により
算出された数値Y1Bの値は、R-2×FC1+R0 ×FC
2+R+1+1FC3+R+2×FC4となり、図22に示し
た第4のパターンに対応する。In step S158, the element processor 30 adds the numerical values Y 1B and Y 2B and outputs the addition result as the numerical value Y
1B ( Y1B = Y1B + Y2B ). The value of the numerical value Y 1B calculated by the processing of S158 is R −2 × FC1 + R 0 × FC
2 + R + 1 + 1FC3 + R + 2.times.FC4, which corresponds to the fourth pattern shown in FIG.
【0221】ステップS160において、要素プロセッ
サ30は、図22に示した参照関係データ(0,1)を
参照し、参照関係データの値が第2のパターン(図2
2)を示す第1の値であるか否かを判断する。要素プロ
セッサ30は、参照関係データが第1の値を採る場合に
はステップS162の処理の結果を選択し、第1の値で
はない場合、つまり、図22に示した第4のパターンに
対応する値である場合にはS164の処理の結果を選択
する。In step S160, the element processor 30 refers to the reference relation data (0, 1) shown in FIG. 22 and sets the value of the reference relation data to the second pattern (FIG.
It is determined whether it is the first value indicating 2). The element processor 30 selects the result of the processing in step S162 when the reference relation data takes the first value, and when the reference relation data is not the first value, that is, corresponds to the fourth pattern shown in FIG. If it is a value, the result of the process of S164 is selected.
【0222】ステップS162において、要素プロセッ
サ30は、ステップS144の処理により算出した数値
Y1Aを処理結果(出力データ)とする。ステップS16
4において、要素プロセッサ30は、ステップS158
において算出した数値Y1Bを処理結果(出力データ)と
する。以上説明したように、要素プロセッサ30は、2
種類の参照関係(図22)に基づいて、近傍の要素プロ
セッサ30に記憶された入力データを用いてフィルタリ
ング処理を行う。[0222] In step S162, the processor element 30, and the numerical value Y 1A calculated by the processing in step S144 the processing result (output data). Step S16
In step 4, the element processor 30 determines in step S158
The numerical value Y 1B calculated in is set as a processing result (output data). As described above, the element processor 30 includes two
Based on the type reference relationship (FIG. 22), a filtering process is performed using input data stored in the neighboring element processors 30.
【0223】なお、並列プロセッサ3は、メモリ28
(図16)に、上述のように、全ての要素プロセッサ3
0それぞれに対応するフィルタ係数セットを予め記憶し
ておくよう構成しても、同一の位相の拡大画像の画素デ
ータ(出力データ)を算出する要素プロセッサ30が、
同一のフィルタ係数セットを用いて演算処理を行うこと
に着眼し、位相の種類に対応する数のフィルタ係数セッ
トのみを記憶し、メモリ28の記憶容量を節約するよう
に構成してもよい。The parallel processor 3 has a memory 28
(FIG. 16) shows that, as described above, all the element processors 3
0, the element processor 30 that calculates the pixel data (output data) of the enlarged image having the same phase even if the filter coefficient sets corresponding to the respective 0s are stored in advance.
Focusing on performing arithmetic processing using the same filter coefficient set, only the number of filter coefficient sets corresponding to the type of phase may be stored, and the storage capacity of the memory 28 may be reduced.
【0224】つまり、例えば、原画像の画素データを
(10/7)倍に拡大処理する場合、原画像の画素デー
タに対する補間結果となる画素データの位置の関係を示
す位相は10種類なので、メモリ28に、原画像の画素
データの10種類の位相それぞれに対応する10種類の
フィルタ係数セットのみを予め記憶し、記憶した10種
類のフィルタ係数セットを、フィルタ選択番号Piの値
に応じて、要素プロセッサ30に繰り返し設定するよう
に並列プロセッサ3を構成することができる。That is, for example, when the pixel data of the original image is enlarged by a factor of (10/7), there are ten types of phases indicating the positional relationship of the pixel data as the interpolation result with respect to the pixel data of the original image. 28, only 10 types of filter coefficient sets respectively corresponding to 10 types of phases of the pixel data of the original image are stored in advance, and the stored 10 types of filter coefficient sets are stored in the element according to the value of the filter selection number Pi. The parallel processor 3 can be configured so as to be repeatedly set in the processor 30.
【0225】また、メモリ28が出力するフィルタ係数
セットおよび原画像の画素データ(入力データ)のいず
れかを選択するセレクタ回路を入力SAM部22の入力
側に設け、フィルタ係数セットまたは入力データを選択
的に入力SAM部22に入力するようにし、例えば、垂
直帰線期間等の入力SAM部22が入力データRiの供
給に利用されていない期間に、フィルタ係数セットを要
素プロセッサ30それぞれに設定するように並列プロセ
ッサ3を構成することができる。Further, a selector circuit for selecting one of the filter coefficient set output from the memory 28 and the pixel data (input data) of the original image is provided on the input side of the input SAM unit 22 to select the filter coefficient set or the input data. For example, the filter coefficient set is set to each of the element processors 30 during a period in which the input SAM unit 22 is not used for supplying the input data Ri, such as a vertical blanking period, for example. The parallel processor 3 can be configured.
【0226】このように、セレクタを用いて選択的にフ
ィルタ係数セットを設定するように並列プロセッサ3を
構成すると、入力データと同一のビット幅のバス208
を用いてフィルタ係数セットを入力することができるの
で、プログラム制御部27aは、ビット幅の大きいフィ
ルタ係数セット、あるいは、語長が長いフィルタ係数セ
ットを短時間で要素プロセッサ30に設定することがで
きる。As described above, when the parallel processor 3 is configured to selectively set the filter coefficient set using the selector, the bus 208 having the same bit width as the input data is provided.
Can be used to input a filter coefficient set, so that the program control unit 27a can set a filter coefficient set having a large bit width or a filter coefficient set having a long word length to the element processor 30 in a short time. .
【0227】具体例を挙げる。例えば、フィルタ係数の
ビット幅が10(4つのフィルタ係数のセットの合計が
40ビット)であり、入力データバス208(図18)
が16ビット幅である場合、例えば、FC1〜FC4を
分けて転送することにより、4水平操作期間を使って入
力SAM部22を介してデータメモリ部23にフィルタ
係数セットを、垂直帰線期間内に設定することが可能で
ある。Specific examples will be described. For example, the bit width of the filter coefficient is 10 (the total of the set of four filter coefficients is 40 bits), and the input data bus 208 (FIG. 18)
Is a 16-bit width, for example, by separating and transferring FC1 to FC4, a filter coefficient set is stored in the data memory unit 23 via the input SAM unit 22 using four horizontal operation periods, Can be set to
【0228】さらに、一旦、フィルタ係数セットを全て
供給した後、例えば、入力データバス208のうちの4
ビット程度のビット幅を利用して、フィルタ係数を徐々
に変更していくように並列プロセッサ3を構成してもよ
い。但し、この方法を採った場合、フィルタリング処理
の連続性を確保するために、フィルタ係数セットの転送
完了までの数水平走査期間においては、変更前のフィル
タ係数セットをそのまま使用する必要がある。Further, once all the filter coefficient sets have been supplied, for example, four of the input data bus 208
The parallel processor 3 may be configured to gradually change the filter coefficient using a bit width of about a bit. However, when this method is adopted, the filter coefficient set before the change needs to be used as it is in several horizontal scanning periods until the transfer of the filter coefficient set is completed in order to ensure continuity of the filtering process.
【0229】第3実施例 以下、本発明の第3の実施例を説明する。 Third Embodiment Hereinafter, a third embodiment of the present invention will be described.
【0230】並列プロセッサ4の構成 図25は、本発明の第3の実施例(並列プロセッサ4)
の構成を示す図である。なお、図25においては、並列
プロセッサ4の構成部分の内、並列プロセッサ2,3
(図13,図16)の構成部分と同じものには同一符号
を付して示してある。図25に示す並列プロセッサ4
は、並列プロセッサ2,3(図13,図16)を、フィ
ルタ係数セットを入力データRiとは別の経路で供給す
るように改良したものである。 Configuration of Parallel Processor 4 FIG. 25 shows a third embodiment (parallel processor 4) of the present invention.
FIG. 3 is a diagram showing the configuration of FIG. In FIG. 25, among the components of the parallel processor 4, the parallel processors 2, 3
The same components as those in FIGS. 13 and 16 are denoted by the same reference numerals. Parallel processor 4 shown in FIG.
Is an improvement of the parallel processors 2 and 3 (FIGS. 13 and 16) so that the filter coefficient set is supplied through a different path from the input data Ri.
【0231】図25に示すように、並列プロセッサ4
は、入力ポインタ21、入力SAM部22、データメモ
リ部23、ALUアレイ部24、出力SUMセル2
5i 、出力ポインタ26、プログラム制御部27bおよ
びメモリ28a,29から構成される。つまり、並列プ
ロセッサ4は、並列プロセッサ3(図16)のプログラ
ム制御部27aをプログラム制御部27bで置換し、メ
モリ28をメモリ28aで置換し、さらに、メモリ29
を付加した構成を採る。[0231] As shown in FIG.
Are input pointer 21, input SAM unit 22, data memory unit 23, ALU array unit 24, output SUM cell 2
5 i , an output pointer 26, a program control unit 27b, and memories 28a and 29. That is, the parallel processor 4 replaces the program control unit 27a of the parallel processor 3 (FIG. 16) with the program control unit 27b, replaces the memory 28 with the memory 28a,
Is adopted.
【0232】並列プロセッサ4の各構成部分 以下、並列プロセッサ4の構成部分の内、並列プロセッ
サ2,3の構成部分と異なるものを説明する。 Components of the Parallel Processor 4 Hereinafter, of the components of the parallel processor 4, those different from the components of the parallel processors 2 and 3 will be described.
【0233】メモリ29 メモリ29は、外部の制御装置(図示せず)等から予め
入力され、処理結果(出力データ)の画素の各位相に対
応するフィルタ係数セットを記憶する。また、メモリ2
9は、プログラム制御部27bの制御に従って、起動
時、水平帰線期間または垂直帰線期間等において、記憶
したフィルタ係数セットを、対応する位相の出力データ
の画素を算出する要素プロセッサ30のデータメモリ部
23に、ALUアレイ部24を介して記憶する。 Memory 29 The memory 29 stores a filter coefficient set corresponding to each phase of a pixel of a processing result (output data) which is input in advance from an external control device (not shown) or the like. Also, memory 2
Reference numeral 9 denotes a data memory of the element processor 30 that calculates the stored filter coefficient set and the pixels of the output data of the corresponding phase during startup, a horizontal retrace period, a vertical retrace period, or the like, under the control of the program control unit 27b. The data is stored in the unit 23 via the ALU array unit 24.
【0234】メモリ28a メモリ28aは、外部の制御装置等から予め入力され、
各要素プロセッサ30が算出する出力データの画素ごと
の入力データの画素との位相を示すフィルタ選択番号i
(図12に示したフィルタ選択信号Piに対応)を記憶
する。また、メモリ28aは、記憶したフィルタ選択番
号iを、並列プロセッサ3におけるフィルタ係数セット
と同様に、入力データバス208を介して入力データR
iとともにデータメモリ部23に対して出力する。 Memory 28a Memory 28a is input in advance from an external control device or the like,
A filter selection number i indicating the phase of each pixel of the output data calculated by each element processor 30 with the pixel of the input data
(Corresponding to the filter selection signal Pi shown in FIG. 12). The memory 28a also stores the stored filter selection number i via the input data bus 208 via the input data bus 208, similarly to the filter coefficient set in the parallel processor 3.
Output to the data memory unit 23 together with i.
【0235】なお、上述したフィルタ選択信号Piと同
様に、フィルタ選択番号iは、4ビットで表現可能なの
で、メモリ28aは、4ビットデータをフィルタ選択番
号iとして記憶する。また、メモリ28に記憶されるフ
ィルタ選択番号iは、例えば、出力データの画素と入力
データの画素の位相が10種類である場合、1水平走査
期間に含まれる画素数Hに関係なく10種類になる。Note that, like the above-described filter selection signal Pi, since the filter selection number i can be expressed by 4 bits, the memory 28a stores 4-bit data as the filter selection number i. The filter selection number i stored in the memory 28 is, for example, 10 when the phase of the pixel of the output data and the phase of the pixel of the input data are 10 irrespective of the number H of pixels included in one horizontal scanning period. Become.
【0236】また、例えば、フィルタ選択番号iが、も
し1,000種類であったとしても、10ビットデータ
として表現可能なので実用上問題はない。Further, for example, even if the filter selection numbers i are 1,000 types, there is no practical problem since they can be expressed as 10-bit data.
【0237】プログラム制御部27b プログラム制御部27bは、並列プロセッサ3における
プログラム制御部27aと同様に、並列プロセッサ4の
各構成部分を制御し、後述する動作を行わせる。 Program control unit 27b The program control unit 27b controls each component of the parallel processor 4 in the same manner as the program control unit 27a in the parallel processor 3, and performs the operation described later.
【0238】図26は、各要素プロセッサ30のデータ
メモリ部23に記憶されるフィルタ選択番号i(={φ
i0〜φi3;φはビット分解した場合の1,0を示す})
を例示する図である。図26に示すように、並列プロセ
ッサ4のデータメモリ部23は、i×10種類のフィル
タ選択番号i(i=0〜9)を、4ビットデータとして
記憶する。つまり、具体例を挙げると、第6の要素プロ
セッサ30(番号6)のデータメモリ部23は、フィル
タ選択番号iのデータ{i=2;φ20〜φ23}を記憶す
る。FIG. 26 shows a filter selection number i (= {φ) stored in the data memory unit 23 of each element processor 30.
i0 ~φ i3; φ denotes a 1,0 in the case of bit resolution})
FIG. As shown in FIG. 26, the data memory unit 23 of the parallel processor 4 stores i × 10 types of filter selection numbers i (i = 0 to 9) as 4-bit data. In other words, a specific example, the data memory unit 23 of the sixth element processor 30 of (No. 6), the filter selection number i of data; storing {i = 2 φ 20 ~φ 23 }.
【0239】データメモリ部23へのフィルタ係数セッ
ト供給動作 以下、図27を参照して、フィルタ係数セットを各要素
プロセッサ30のデータメモリ部23に供給する場合の
並列プロセッサ4の各構成部分の動作を説明する。図2
7は、メモリ29のフィルタ係数セットを各要素プロセ
ッサ30のデータメモリ部23に供給する場合の並列プ
ロセッサ4の動作を示すフローチャート図である。 The filter coefficient set to the data memory unit 23 is
Hereinafter, the operation of each component of the parallel processor 4 when the filter coefficient set is supplied to the data memory unit 23 of each element processor 30 will be described with reference to FIG. FIG.
7 is a flowchart showing the operation of the parallel processor 4 when supplying the filter coefficient set of the memory 29 to the data memory unit 23 of each element processor 30.
【0240】図27に示すように、ステップS170に
おいて、プログラム制御部27bは、供給するフィルタ
係数セットに対応するフィルタ選択番号iをカウントす
るカウンタjの計数値を0とする。As shown in FIG. 27, in step S170, the program control section 27b sets the count value of the counter j for counting the filter selection number i corresponding to the supplied filter coefficient set to 0.
【0241】ステップS172において、プログラム制
御部27bは、カウンタjの計数値をビット単位で供給
するために用いるカウンタmの計数値をlとする。ステ
ップS174において、プログラム制御部27bは、全
ての要素プロセッサ30のALUセル24i に、カウン
タjの計数値の第m番目のビットを出力する。各要素プ
ロセッサ30のALUセル24i は、プログラム制御部
27bから入力されたデータを受ける。In step S172, the program control unit 27b sets the count value of the counter m used to supply the count value of the counter j in bit units to 1. In step S174, the program control unit 27b is the ALU cell 24 i of all the processor elements 30, and outputs the m-th bit of the count value of the counter j. ALU cell 24 i of each element processor 30 receives data input from the program control unit 27b.
【0242】ステップS176において、プログラム制
御部27bは、カウンタmの計数値がカウンタjのビッ
ト長以上であるか否かを判断する。プログラム制御部2
7bは、カウンタmの計数値がカウンタjのビット長と
等しい場合には、フィルタ選択番号iの最後のビットが
供給されたことになるので、ステップS180の処理に
進み、カウンタmの計数値がカウンタjのビット長以下
である場合にはステップS174の処理に戻る。At step S176, program control unit 27b determines whether or not the count value of counter m is equal to or greater than the bit length of counter j. Program control unit 2
7b, when the count value of the counter m is equal to the bit length of the counter j, it means that the last bit of the filter selection number i has been supplied. If the bit length is equal to or less than the bit length of the counter j, the process returns to step S174.
【0243】ステップS178において、プログラム制
御部27bは、カウンタmの計数値を1だけ増加させて
(インクリメントして)ステップS174の処理に戻
る。以上説明したステップS170〜ステップS178
の処理により、カウンタjの計数値が、1ビットずつ各
要素プロセッサ30に対して出力される。[0243] In step S178, the program control section 27b increases (increments) the count value of the counter m by 1, and returns to the process in step S174. Steps S170 to S178 described above
, The count value of the counter j is output to each element processor 30 bit by bit.
【0244】ステップS180において、各要素プロセ
ッサ30は、入力されたカウンタjの計数値と、予めメ
モリ28aから入力されたフィルタ選択番号iの値とが
同一であるか否かを判断し、同一である場合、jとmと
をメモリ29に与えて読み出されたj番目のフィルタ係
数セットを受け取り、さらに、所定のフラグを設定す
る。カウンタjの計数値とフィルタ選択番号iとが同一
でない場合、要素プロセッサ30は、メモリ29からの
フィルタ係数セットを受け取らず、ステップS182〜
ステップS188の処理をスキップする。In step S180, each element processor 30 determines whether or not the count value of the input counter j is equal to the value of the filter selection number i previously input from the memory 28a. In some cases, j and m are given to the memory 29 to receive the read j-th filter coefficient set, and further set a predetermined flag. If the count value of the counter j is not the same as the filter selection number i, the element processor 30 does not receive the filter coefficient set from the memory 29 and returns to steps S182 to S182.
The process of step S188 is skipped.
【0245】ステップS182において、各要素プロセ
ッサ30は、フラグの値に応じて、フィルタ係数セット
の総ビット数をカウントするカウンタkの計数値を1に
設定する。In step S182, each element processor 30 sets the count value of the counter k for counting the total number of bits of the filter coefficient set to 1, according to the value of the flag.
【0246】ステップS184において、各要素プロセ
ッサ30は、メモリ29からALUアレイ部24(AL
Uセル24i ;図18)が受けたフィルタ係数セットの
第kビットをデータメモリ部23に1ビットずつ順次、
記憶させる。なお、メモリ29は、各位相(フィルタ選
択番号i)に対応するフィルタ係数セットそれぞれを、
最上位ビット(MSB)または最下位ビット(LSB)
から順番に記憶し、記憶したフィルタ係数セットを、上
述したように、1ビット幅の回線(メモリ29からAL
Uアレイ部への配線)を介して要素プロセッサ30のA
LUセル24i に1ビットずつ順次、出力する。In step S 184, each element processor 30 sends the ALU array unit 24 (AL
U-cell 24 i ; the k-th bit of the filter coefficient set received by FIG.
Remember. The memory 29 stores each filter coefficient set corresponding to each phase (filter selection number i)
Most significant bit (MSB) or least significant bit (LSB)
, And the stored filter coefficient sets are stored in a 1-bit wide line (from memory 29 to AL
A of the element processor 30 via the wiring to the U array unit)
The bits are sequentially output to the LU cell 24 i one bit at a time.
【0247】ステップS186において、各要素プロセ
ッサ30は、カウンタkの計数値がフィルタ係数セット
の全ビット長以上であるか否かを判断する。要素プロセ
ッサ30は、カウンタkの計数値がフィルタ係数セット
の全ビット長より小さい場合にはS188の処理に進
み、カウンタkの計数値がフィルタ係数セットのビット
長以上である場合には、カウンタjの計数値に対応する
フィルタ係数セットの入力が終了したことになるので、
ステップS190の処理に進む。[0247] In step S186, each element processor 30 determines whether or not the count value of the counter k is equal to or greater than the total bit length of the filter coefficient set. If the count value of the counter k is smaller than the total bit length of the filter coefficient set, the process proceeds to S188. If the count value of the counter k is equal to or greater than the bit length of the filter coefficient set, the Since the input of the filter coefficient set corresponding to the count value of has been completed,
Proceed to step S190.
【0248】ステップS188において、要素プロセッ
サ30は、カウンタkの計数値を1だけ増加させて(イ
ンクリメントして)ステップS184の処理に戻る。In step S188, the element processor 30 increases (increments) the count value of the counter k by 1, and returns to the process in step S184.
【0249】ステップS190において、プログラム制
御部27bは、カウンタjの計数値が、出力データの画
素と入力データの画素の位相の種類の数Nから1を減算
した値(N−1)以上であるか否かを判断し、カウンタ
jの計数値が(N−1)以上である(j≧N−1)場合
には、N個のフィルタ係数セットの全てが各要素プロセ
ッサ30に供給されたと判断し、フィルタ係数セットの
供給の処理を終了する。また、プログラム制御部27b
は、カウンタjの計数値が(N−1)より小さい(j<
N−1)場合、ステップS192の処理に進む。In step S190, the program control section 27b determines that the count value of the counter j is equal to or greater than the value (N-1) obtained by subtracting 1 from the number N of the types of phases of the output data pixels and the input data pixels. If the count value of the counter j is equal to or more than (N-1) (j ≧ N-1), it is determined that all of the N filter coefficient sets have been supplied to each element processor 30. Then, the process of supplying the filter coefficient set ends. Also, the program control unit 27b
Indicates that the count value of the counter j is smaller than (N-1) (j <
In the case of (N-1), the process proceeds to step S192.
【0250】ステップS192において、プログラム制
御部27bは、カウンタjの計数値を1だけ増加させて
(インクリメントして)ステップS172の処理に戻
り、次のフィルタ選択番号iに対応するフィルタ係数セ
ットの供給を行う。In step S192, the program control section 27b increases (increments) the count value of the counter j by 1 and returns to the processing in step S172 to supply the filter coefficient set corresponding to the next filter selection number i. I do.
【0251】図27においてステップS170〜ステッ
プS192に示した処理により、並列プロセッサ4の各
要素プロセッサ30は、予め設定されているフィルタ選
択番号iに対応するフィルタ係数セットをメモリ29か
ら受け、データメモリ部23に記憶する。With the processing shown in steps S170 to S192 in FIG. 27, each element processor 30 of the parallel processor 4 receives the filter coefficient set corresponding to the preset filter selection number i from the memory 29, and The information is stored in the unit 23.
【0252】なお、並列プロセッサ4のフィルタ係数セ
ットの供給動作以外の動作、例えば、画像処理動作は、
第1および第2の実施例として示した並列プロセッサ
2,3(図13,図16)の画像処理動作と同じであ
る。The operation other than the operation of supplying the filter coefficient set of the parallel processor 4, for example, the image processing operation,
This is the same as the image processing operation of the parallel processors 2 and 3 (FIGS. 13 and 16) shown as the first and second embodiments.
【0253】以上説明したように、並列プロセッサ4に
よれば、フィルタ係数セットを入力データRiとは別の
経路で供給することにより、要素プロセッサ30にフィ
ルタ係数セットを選択的に供給することができる。As described above, according to the parallel processor 4, the filter coefficient set can be selectively supplied to the element processor 30 by supplying the filter coefficient set through a path different from the input data Ri. .
【0254】また、並列プロセッサ4によれば、要素プ
ロセッサ30へのフィルタ係数セットの供給を行う処理
が容易であり、しかも、フィルタ係数セットの供給に用
いられるプログラムのステップ数が少なくて済む。ま
た、並列プロセッサ4によれば、フィルタ係数セット
を、各要素プロセッサ30のデータメモリ部23に入力
データとは別の経路で供給するので、入力SAM部22
の稼働状況にかかわらず、任意のタイミングでフィルタ
係数セットを供給することができる。Further, according to the parallel processor 4, the processing of supplying the filter coefficient set to the element processor 30 is easy, and the number of steps of the program used for supplying the filter coefficient set is small. Further, according to the parallel processor 4, the filter coefficient set is supplied to the data memory unit 23 of each element processor 30 through a different path from the input data.
The filter coefficient set can be supplied at an arbitrary timing irrespective of the operation status of the.
【0255】具体例を挙げて、並列プロセッサ4の特徴
をさらに説明する。図27に示した処理によれば、例え
ば、メモリ29に記憶された10種類のフィルタ係数セ
ットを各要素プロセッサ30に供給する場合には、1つ
のフィルタ係数セットが、すべての要素プロセッサ30
の約10分の1の要素プロセッサ30に同時に供給され
る。従って、データ量40ビットのフィルタ係数セット
を、要素プロセッサ30の数にかかわらず、400(4
0ビット×10)ステップのプログラム処理により、全
ての要素プロセッサ30に供給することができる。The features of the parallel processor 4 will be further described with reference to specific examples. According to the processing shown in FIG. 27, for example, when ten types of filter coefficient sets stored in the memory 29 are supplied to each element processor 30, one filter coefficient set is used for all the element processors 30.
Are supplied to about one-tenth of the element processors 30 at the same time. Therefore, a filter coefficient set having a data amount of 40 bits is set to 400 (4
It can be supplied to all the element processors 30 by the program processing of (0 bits × 10) steps.
【0256】第4実施例 以下、本発明の第4の実施例を説明する。第4の実施例
は、第2の実施例として示した並列プロセッサ3(図1
6)の動作を、メモリ28が、並列プロセッサ4(図2
5)のメモリ28aと同様にフィルタ選択番号を予め記
憶し、さらに、各要素プロセッサ30が、フィルタ選択
番号iに応じてフィルタ係数セットを算出するように改
良したものである。 Fourth Embodiment Hereinafter, a fourth embodiment of the present invention will be described. The fourth embodiment is different from the parallel processor 3 shown in FIG.
6), the memory 28 is executed by the parallel processor 4 (FIG. 2).
The filter selection number is stored in advance similarly to the memory 28a of 5), and each element processor 30 is modified so as to calculate a filter coefficient set according to the filter selection number i.
【0257】並列プロセッサ3(図16)のフィルタ係
数セット算出動作 以下、図28および図29を参照して、第4の実施例に
おいて、並列プロセッサ3が原画像の画素データを拡大
・縮小する際に、Cubic近似方法(式4)によるフ
ィルタリング処理に用いるフィルタ係数セットを算出す
る際の各構成部分の動作を説明する。図28および図2
9はそれぞれ、第4の実施例における並列プロセッサ3
(図16)のフィルタ係数セット算出動作を示す第1お
よび第2の図である。 The filter section of the parallel processor 3 (FIG. 16)
Several sets of calculation operation below with reference to FIGS. 28 and 29, in the fourth embodiment, when the parallel processor 3 is to scale the pixel data of the original image, the filtering process by Cubic approximation method (Equation 4) The operation of each component at the time of calculating the filter coefficient set used for will be described. FIG. 28 and FIG.
9 are the parallel processors 3 in the fourth embodiment, respectively.
17A and 17B are first and second diagrams illustrating a filter coefficient set calculation operation of FIG.
【0258】図28に示すように、ステップS200に
おいて、要素プロセッサ30は、プログラム制御部27
aから入力され、画像の変換比率(K/L)を示す数値
K,Lと、予め供給されているフィルタ選択番号iの値
とに基づいて、拡大・縮小画像(出力データ)の画素と
原画像(入力データ)の画素の位相i/Kを算出し、数
値X0 として記憶する。As shown in FIG. 28, in step S200, the element processor 30
a, based on the numerical values K and L indicating the image conversion ratio (K / L) and the value of the filter selection number i supplied in advance, the pixel of the enlarged / reduced image (output data) and the original calculating the phase i / K of a pixel of the image (input data) is stored as a numerical value X 0.
【0259】ステップS202において、要素プロセッ
サ30は、数値X0 を数値Xに代入する。ステップS2
04において、要素プロセッサ30は、数値Xの2乗値
(X2 )を算出し、算出結果を数値X2 として記憶す
る。ステップS206において、要素プロセッサ30
は、数値X2 と数値Xとを乗算し、乗算結果(X3 )を
数値X3 として記憶する。At step S202, the element processor 30 substitutes the numerical value X 0 for the numerical value X. Step S2
At 04, the element processor 30 calculates the square value (X 2 ) of the numerical value X and stores the calculation result as the numerical value X 2 . In step S206, the element processor 30
Multiplies the numerical value X 2 by the numerical value X and stores the multiplication result (X 3 ) as the numerical value X 3 .
【0260】ステップS208において、要素プロセッ
サ30は、式4を利用して、数値X,X2 ,X3 より、
次式に従ってフィルタ係数FC3を算出する。In step S208, the element processor 30 calculates the numerical values X, X 2 , and X 3 by using Expression 4.
The filter coefficient FC3 is calculated according to the following equation.
【0261】[0261]
【数5】 FC3=−X3 −2X2 +1 …(5)Equation 5 FC3 = −X 3 −2X 2 +1 (5)
【0262】ステップS210において、要素プロセッ
サ30は、数値X0 (i/K)に1を加算し、数値Xに
代入する。ステップS212において、要素プロセッサ
30は、数値Xの2乗値(X2 )を算出し、算出結果を
X3 に代入する。ステップS214において、要素プロ
セッサ30は、数値X2 と数値Xとを乗算し、乗算結果
(X3 )を数値X3 に代入する。In step S210, the element processor 30 adds 1 to the numerical value X 0 (i / K) and substitutes it for the numerical value X. In step S212, the element processor 30 calculates a square value (X 2 ) of the numerical value X, and substitutes the calculation result into X 3 . In step S214, the processor element 30 multiplies the numerical value X 2 and numeric X, assigns the result of the multiplication (X 3) to the numerical X 3.
【0263】ステップS216において、要素プロセッ
サ30は、式(4)を利用して、X,X2 およびX3 よ
り、次式に従ってフィルタ係数FC4を算出する。In step S216, the element processor 30 calculates the filter coefficient FC4 from X, X 2 and X 3 according to the following equation, using equation (4).
【0264】[0264]
【数6】 FC4=−X3 +5X2 −8X+1 …(6)FC4 = −X 3 + 5X 2 −8X + 1 (6)
【0265】図29に示すように、ステップS218に
おいて、要素プロセッサ30は、1から数値X0 を減算
し、減算値(1−X0 )を数値Xに代入する。As shown in FIG. 29, in step S218, the element processor 30 subtracts the numerical value X 0 from 1 and substitutes the subtracted value (1−X 0 ) for the numerical value X.
【0266】ステップS220において、要素プロセッ
サ30は、数値Xの2乗値を算出し、算出値(X2 )を
数値X2 に代入する。ステップS222において、要素
プロセッサ30は、数値X2 と数値Xとを乗算し、乗算
値(X3 )を数値X3 に代入する。In step S220, the element processor 30 calculates a square value of the numerical value X, and substitutes the calculated value (X 2 ) for the numerical value X 2 . In step S222, the processor element 30 multiplies the numerical value X 2 and numeric X, is substituted multiplied value (X 3) to the numerical X 3.
【0267】ステップS224において、要素プロセッ
サ30は、式4に基づいて、数値X、X2 ,X3 より、
次式に従ってフィルタ係数FC2を算出する。In step S224, the element processor 30 calculates the numerical values X, X 2 , and X 3 based on the equation (4).
The filter coefficient FC2 is calculated according to the following equation.
【0268】[0268]
【数7】 FC2=X3 −2X2 +1 …(7)Equation 7 FC2 = X 3 −2X 2 +1 (7)
【0269】ステップS226において、要素プロセッ
サ30は、数値Xに1を加算し、加算値を演算し、加算
結果(X+1)を数値Xに代入する。In step S226, the element processor 30 adds 1 to the numerical value X, calculates the added value, and substitutes the addition result (X + 1) for the numerical value X.
【0270】ステップS228において、要素プロセッ
サ30は、Xの2乗値を算出し、算出結果(X2 )を数
値X2 に代入する。ステップS230において、要素プ
ロセッサ30は、数値X2 と数値Xを乗算し、乗算結果
(X3 )を数値X3 に代入する。In step S228, the element processor 30 calculates the square value of X, and substitutes the calculation result (X 2 ) for the numerical value X 2 . In step S230, the processor element 30 multiplies the numerical value X 2 and numeric X, assigns the result of the multiplication (X 3) to the numerical X 3.
【0271】ステップS232において、要素プロセッ
サ30は、式4に基づいて、数値X,X2 ,X3 より、
次式に従ってフィルタ係数FC1を算出する。In step S232, the element processor 30 calculates the numerical values X, X 2 , and X 3 based on the equation (4).
The filter coefficient FC1 is calculated according to the following equation.
【0272】[0272]
【数8】 FC1=−X3 +5X2 −8X+4 …(8)Equation 8 FC1 = −X 3 + 5X 2 −8X + 4 (8)
【0273】以上、図28および図29に示したステッ
プS200〜ステップS232の処理により、並列プロ
セッサ3の要素プロセッサ30は、フィルタ選択番号i
に応じてフィルタ係数セット(FC1〜FC4)を算出
する。As described above, by the processing of steps S200 to S232 shown in FIGS. 28 and 29, the element processor 30 of the parallel processor 3 sets the filter selection number i
Filter coefficient sets (FC1 to FC4) are calculated according to.
【0274】第4の実施例として示した並列プロセッサ
3のフィルタ係数算出動作によれば、フィルタ係数セッ
トを各要素プロセッサ30が算出するので、要素プロセ
ッサ30に対して外部のメモリ(メモリ28,29等)
からフィルタ係数セットを供給する必要がなく、画像処
理のタイミングとフィルタ係数セット供給のタイミング
とを調節する必要がない。According to the filter coefficient calculating operation of the parallel processor 3 shown as the fourth embodiment, each element processor 30 calculates a filter coefficient set, so that the element processor 30 has an external memory (memory 28, 29). etc)
It is not necessary to supply the filter coefficient set from, and there is no need to adjust the timing of image processing and the timing of supplying the filter coefficient set.
【0275】なお、図28および図29には、Cubi
c近似方法を用いてフィルタ係数セットを算出する場合
の並列プロセッサ3の動作を示したが、動作を適切に変
更することにより、他の近似方法によるフィルタリング
処理に用いるフィルタ係数セットを算出することが可能
である。FIGS. 28 and 29 show Cubi
Although the operation of the parallel processor 3 when calculating the filter coefficient set using the c-approximation method has been described, it is possible to calculate the filter coefficient set used for the filtering process by another approximation method by appropriately changing the operation. It is possible.
【0276】第5実施例 以下、本発明の第5の実施例を説明する。 Fifth Embodiment Hereinafter, a fifth embodiment of the present invention will be described.
【0277】並列プロセッサ5の構成 図30は、本発明の第5の実施例(並列プロセッサ5)
の構成を示す図である。なお、図30においては、並列
プロセッサ5の各構成部分の内、第1〜第3の実施例と
して示した並列プロセッサ2〜4の構成部分と同じもの
には、同一の符号を付して示してある。 Configuration of Parallel Processor 5 FIG. 30 shows a fifth embodiment (parallel processor 5) of the present invention.
FIG. 3 is a diagram showing the configuration of FIG. In FIG. 30, among the components of the parallel processor 5, the same components as those of the parallel processors 2 to 4 shown as the first to third embodiments are denoted by the same reference numerals. It is.
【0278】図30に示すように、並列プロセッサ5
は、入力ポインタ21、入力SAM部22、データメモ
リ部23、ALUアレイ部24、出力SUMセル2
5i 、出力ポインタ26、プログラム制御部27cおよ
びメモリ29から構成される。つまり、並列プロセッサ
5は、第3の実施例として示した並列プロセッサ4(図
25)のメモリ28aを削除し、プログラム制御部27
bをプログラム制御部27cに置換した構成を採る。[0278] As shown in FIG.
Are input pointer 21, input SAM unit 22, data memory unit 23, ALU array unit 24, output SUM cell 2
5 i , an output pointer 26, a program control unit 27 c and a memory 29. That is, the parallel processor 5 deletes the memory 28a of the parallel processor 4 (FIG. 25) shown as the third embodiment, and
A configuration is adopted in which b is replaced with a program control unit 27c.
【0279】並列プロセッサ5は、要素プロセッサ30
がフィルタ選択番号iを算出するように並列プロセッサ
4(図25)の動作を改良したものである。なお、並列
プロセッサ5のフィルタ選択番号iの算出処理以外の各
処理(画像処理およびフィルタ係数セットの供給等)
は、並列プロセッサ4(図25)と同じである。The parallel processor 5 includes the element processor 30
Is an improvement of the operation of the parallel processor 4 (FIG. 25) so as to calculate the filter selection number i. Each process other than the process of calculating the filter selection number i of the parallel processor 5 (image processing, supply of a filter coefficient set, etc.)
Are the same as those of the parallel processor 4 (FIG. 25).
【0280】プログラム制御部27c プログラム制御部27cの動作は、並列プロセッサ4の
プログラム制御部27b(図25)の動作と比べて、図
31等を参照して後述するように変更されている。[0280] Operation of the program control unit 27c program control unit 27c, compared with the operation of the program control unit 27b of the parallel processor 4 (Fig. 25), has been modified as described below with reference to FIG. 31 or the like.
【0281】並列プロセッサ5の動作 以下、図31を参照して、フィルタ選択番号算出の際の
並列プロセッサ5の動作を説明する。図31は、並列プ
ロセッサ5がフィルタ選択番号iを算出する動作を示す
フローチャート図である。 The operation of the parallel processor 5 in calculating the filter selection number will be described below with reference to FIG. FIG. 31 is a flowchart illustrating the operation of calculating the filter selection number i by the parallel processor 5.
【0282】図31に示すように、ステップS240に
おいて、要素プロセッサ30は、作業空間としてレジス
タZA0 ,ZB0 ,ZC0 をそれぞれ確保する。As shown in FIG. 31, in step S240, element processor 30 secures registers ZA 0 , ZB 0 , and ZC 0 as working spaces, respectively.
【0283】ステップS242において、各要素プロセ
ッサ30は、レジスタZA0 ,ZB0 ,ZC0 に数値0
を記憶する。[0283] In step S242, the processor elements 30, numeric register ZA 0, ZB 0, ZC 0 0
Is stored.
【0284】ステップS244において、各要素プロセ
ッサ30は、左隣りの要素プロセッサ30のレジスタZ
A0 の記憶値ZA-1と、プログラム制御部27cから入
力され、原画像の画像の長さを拡大・縮小する際の変換
比率K/Lを示す数値K,Lの内の数値Lとを加算し、
加算結果(ZA-1+L)をレジスタZA0 に記憶する。
なお、並列プロセッサ5において左端の要素プロセッサ
30は、左隣りに要素プロセッサ30がないので、レジ
スタZA-1の記憶値を0としてステップS244の処理
を行う。[0284] In step S244, each element processor 30 registers the register Z of the element processor 30 on the left.
The stored value ZA -1 of A 0 and the numerical value L of the numerical values K and L input from the program control unit 27c and indicating the conversion ratio K / L when the image length of the original image is scaled up / down. Add
The addition result (ZA -1 + L) is stored in the register ZA 0 .
Note that the leftmost element processor 30 in the parallel processor 5 does not have the element processor 30 on the left side, and therefore performs the process of step S244 with the stored value of the register ZA- 1 set to 0.
【0285】ステップS246において、各要素プロセ
ッサ30は、レジスタZA0 の記憶値が数値Kより大き
いか否かを判断し、レジスタZA0 の記憶値が数値Kよ
り大きい場合には、ステップS248の処理に進み、レ
ジスタZA0 の記憶値が数値Kより大きくない場合に
は、ステップS250の処理に進む。[0285] In step S246, the processor elements 30, stored value of the register ZA 0 is determined whether the number greater than K, when the stored value of the register ZA 0 is a number greater than K, the processing of step S248 advances to, when the stored value of the register ZA 0 is not larger than the value K, the process proceeds to step S250.
【0286】ステップS248において、各要素プロセ
ッサ30は、レジスタZA0 の記憶値を数値Kで除算し
た場合の剰余を算出し、剰余値をレジスタZA0 に記憶
する。なお、要素プロセッサ30は、ステップS248
の処理における剰余の算出を、減算を繰り返すことによ
り実現する。この剰余の算出処理は多くの処理ステップ
を有するが、フィルタ選択番号iの算出処理は、リアル
タイムな画像処理を行う前に予め行ったり、垂直帰線期
間等において行ったりするので、処理時間の問題は生じ
ない。In step S248, each element processor 30 calculates a remainder when the storage value of the register ZA 0 is divided by the numerical value K, and stores the remainder value in the register ZA 0 . The element processor 30 determines in step S248
Is calculated by repeating the subtraction. Although the process of calculating the remainder has many processing steps, the process of calculating the filter selection number i is performed in advance before performing real-time image processing, or performed during a vertical blanking period or the like. Does not occur.
【0287】ステップS250において、各要素プロセ
ッサ30は、ステップS244〜ステップS248の処
理を、要素プロセッサの数より多く繰り返したか否かを
判断し、ステップS244〜ステップS248の動作
を、要素プロセッサの数以下しか繰り返していない場合
には、ステップS244の処理に戻る。また、各要素プ
ロセッサ30は、ステップS244〜ステップS248
の動作を、要素プロセッサの数より多く繰り返した場合
には、ステップS252の処理に進む。In step S250, each element processor 30 determines whether or not the processing in steps S244 to S248 has been repeated more than the number of element processors, and determines that the operation in step S244 to step S248 is equal to or less than the number of element processors. If only this has been repeated, the process returns to step S244. In addition, each element processor 30 performs steps S244 to S248.
Is repeated more times than the number of element processors, the process proceeds to step S252.
【0288】ステップS252において、各要素プロセ
ッサ30は、左隣りの要素プロセッサ30のレジスタZ
B0 の記憶値ZB-1と数値Lとを加算し、加算結果(Z
B-1+L)をレジスタZC0 に記憶する。なお、左端の
要素プロセッサ30は、左隣りに要素プロセッサ30が
ないので、記憶値ZB-1を0としてステップS252の
処理を行う。In step S252, each element processor 30 registers the register Z of the element processor 30 on the left.
The stored value ZB −1 of B 0 and the numerical value L are added, and the addition result (Z
B -1 + L) in the register ZC 0 . Note that the leftmost element processor 30 does not have the element processor 30 on the left side, so the storage value ZB −1 is set to 0 and the processing of step S252 is performed.
【0289】ステップS254において、要素プロセッ
サ30は、レジスタZC0 の記憶値が数値Kの2倍の値
より大きいか否かを判断し、レジスタZC0 の記憶値が
数値Kの2倍の値より大きい場合には、ステップS25
6の処理に進み、レジスタZC0 の記憶値が数値Kの2
倍の値より大きくない場合には、ステップS258の処
理に進む。[0289] In step S254, the processor element 30 determines whether or not the stored value of the register ZC 0 is greater than 2 times the value of the numerical K, than twice the value of the stored value is numeric K registers ZC 0 If larger, step S25
Then, the process proceeds to step 6, where the stored value of the register ZC 0 is 2
If the value is not larger than the double value, the process proceeds to step S258.
【0290】ステップS256において、要素プロセッ
サ30は、レジスタZB0 の記憶値から数値Kを減算
し、減算値(ZB0 −K)をレジスタZB0 に記憶す
る。ステップS258において、要素プロセッサ30
は、レジスタZC0 の記憶値から数値Kを減算し、減算
値(ZC0 −K)をレジスタZB0 に記憶する。In step S256, element processor 30 subtracts numerical value K from the stored value of register ZB 0 and stores the subtracted value (ZB 0 -K) in register ZB 0 . In step S258, the element processor 30
Subtracts the numeric value K from the stored value of the register ZC 0 and stores the subtracted value (ZC 0 −K) in the register ZB 0 .
【0291】ステップS260において、各要素プロセ
ッサ30は、ステップS252〜ステップS258の処
理を、要素プロセッサの数より多く繰り返したか否かを
判断し、ステップS252〜ステップS258の動作
を、要素プロセッサの数より多く繰り返していない場合
には、ステップS252の処理に戻る。また、要素プロ
セッサ30は、ステップS252〜ステップS258の
動作を、拡大・縮小画像(出力データ)の水平方向の画
素数より多く繰り返した場合、ステップS262の処理
に進む。In step S260, each element processor 30 determines whether or not the processing in steps S252 to S258 has been repeated more than the number of element processors, and determines the operation in step S252 to step S258 based on the number of element processors. If not, the process returns to step S252. If the element processor 30 repeats the operations of steps S252 to S258 more than the number of pixels of the enlarged / reduced image (output data) in the horizontal direction, the process proceeds to step S262.
【0292】ステップS262において、各要素プロセ
ッサ30は、数値Kが数値Lより大きいか否か、つま
り、画像の拡大処理を行っているか否かを判断し、数値
Kが数値Lより大きい場合にはステップS266の処理
に進み、数値Kが数値Lより大きくない場合にはステッ
プS264の処理に進む。In step S262, each element processor 30 determines whether or not the numerical value K is larger than the numerical value L, that is, whether or not image enlargement processing is being performed. The process proceeds to step S266, and if the value K is not greater than the value L, the process proceeds to step S264.
【0293】ステップS264において、要素プロセッ
サ30は、フィルタ選択番号iとしてレジスタZB0 の
記憶値を利用する。ステップS266において、要素プ
ロセッサ30は、フィルタ選択番号iとしてレジスタZ
A0 の記憶値を利用する。[0293] In step S264, the processor element 30 using the storage value of the register ZB 0 as the filter selection number i. In step S266, the element processor 30 sets the register Z as the filter selection number i.
The stored value of A 0 is used.
【0294】以上、図31に示した各処理により、並列
プロセッサ5の各要素プロセッサ30は、フィルタ選択
番号iを算出する。As described above, each element processor 30 of the parallel processor 5 calculates the filter selection number i by the processing shown in FIG.
【0295】なお、ステップS246およびステップS
254における判断に対応して、入力データまたは出力
データと、要素プロセッサ30との対応関係(図14の
Riの入力の仕方)を設定するようにしてもよい。つま
り、ステップS248は、上述の位相の剰余(モジュ
ロ)演算と同様の処理を行っているので、ステップS2
46における判断に対応して、モジュロ演算が行われる
画素の番号と、その要素プロセッサが算出する画素の番
号を比較することにより、その要素プロセッサ30に割
り当てられる入力データを決定することができる。Note that step S246 and step S246
In response to the determination at 254, the correspondence between input data or output data and the element processor 30 (how to input Ri in FIG. 14) may be set. That is, in step S248, since the same processing as the above-described modulo operation of the phase is performed, step S2
By comparing the number of the pixel on which the modulo operation is performed and the number of the pixel calculated by the element processor in accordance with the determination at 46, input data assigned to the element processor 30 can be determined.
【0296】第6実施例 以下、本発明の第6の実施例を説明する。 Sixth Embodiment Hereinafter, a sixth embodiment of the present invention will be described.
【0297】並列プロセッサ6の構成 図32は、本発明の第6の実施例(並列プロセッサ6)
の構成を示す図である。なお、図32においては、並列
プロセッサ6の構成部分の内、第1〜第5の実施例とし
て示した並列プロセッサ2〜5(図13,図16,図2
5,図30)の構成部分と同じものには同一の符号を付
して示してある。 Configuration of Parallel Processor 6 FIG. 32 shows a sixth embodiment (parallel processor 6) of the present invention.
FIG. 3 is a diagram showing the configuration of FIG. In FIG. 32, among the components of the parallel processor 6, the parallel processors 2 to 5 (FIGS. 13, 16 and 2) shown as the first to fifth embodiments are shown.
5, the same components as those of FIG. 30 are denoted by the same reference numerals.
【0298】図32に示すように、並列プロセッサ6
は、入力ポインタ21、入力SAM部22、データメモ
リ部23、ALUアレイ部24、出力SUMセル2
5i 、出力ポインタ26およびプログラム制御部27d
から構成される。つまり、並列プロセッサ6は、並列プ
ロセッサ3(図13)のプログラム制御部27を、プロ
グラム制御部27dで置換した構成を採る。[0298] As shown in FIG.
Are input pointer 21, input SAM unit 22, data memory unit 23, ALU array unit 24, output SUM cell 2
5 i , output pointer 26 and program control unit 27d
Consists of That is, the parallel processor 6 adopts a configuration in which the program control unit 27 of the parallel processor 3 (FIG. 13) is replaced with a program control unit 27d.
【0299】並列プロセッサ6は、フィルタ選択番号i
およびそれに対応するフィルタ係数セットを、第4およ
び第5の実施例に示した並列プロセッサ3,5(図1
3,図30)と同様に、各要素プロセッサ30で算出す
るように改良することにより、メモリ28,28a,2
9を不要としたものである。The parallel processor 6 sets the filter selection number i
And the filter coefficient sets corresponding to the parallel processors 3 and 5 (FIG. 1) shown in the fourth and fifth embodiments.
3, FIG. 30), the memory 28, 28a, 2
9 is unnecessary.
【0300】プログラム制御部27d プログラム制御部27dは、各要素プロセッサ30を制
御し、第4および第5の実施例に示した並列プロセッサ
3,5(図16,図30)のプログラム制御部27,2
7cと同様に、フィルタ選択番号iおよびそれに対応す
るフィルタ係数セットを算出させる。なお、フィルタ選
択番号iおよびフィルタ係数セットの算出処理それぞ
れ、および、その他の処理(画像処理等)を行う際の並
列プロセッサ6の動作は、第4および第5の実施例に示
した並列プロセッサ3,5(図16,図30)の動作と
同様である。 Program control unit 27d The program control unit 27d controls each of the element processors 30, and controls the program control units 27, of the parallel processors 3 and 5 (FIGS. 16 and 30) shown in the fourth and fifth embodiments. 2
Similarly to 7c, a filter selection number i and a corresponding filter coefficient set are calculated. The operation of the parallel processor 6 when performing the filter selection number i and filter coefficient set calculation processing and other processing (image processing and the like) is the same as that of the parallel processor 3 shown in the fourth and fifth embodiments. , 5 (FIGS. 16 and 30).
【0301】また、図12に示したように、原画像の画
素データ(入力データ)と拡大・縮小画像の画素データ
(出力データ)の各位相に対応する8ビット表現のフィ
ルタ係数セットの内、位相P1,P2,P3,P8,P
9のフィルタ係数セットの総和は128(実数表現で
1,0)にならず、誤差が生じる。この誤差は、フィル
タ係数セットを8ビットに量子化したときに発生したも
のであり、これらのフィルタ係数セットをそのまま使用
すると、例えば、直流成分の多い入力データを拡大・縮
小処理して得られる出力データに脈流が発生し、画像が
劣化する可能性がある。従って、上述の総和が128に
なるように、フィルタ係数FC1〜FC4を補正するほ
うが好ましい。As shown in FIG. 12, among the 8-bit expression filter coefficient sets corresponding to the respective phases of the pixel data (input data) of the original image and the pixel data (output data) of the enlarged / reduced image, Phases P1, P2, P3, P8, P
The sum of the nine filter coefficient sets does not become 128 (1,0 in real number representation), and an error occurs. This error is generated when the filter coefficient set is quantized to 8 bits. If these filter coefficient sets are used as they are, for example, an output obtained by enlarging / reducing input data having a large DC component is obtained. A pulsating flow may occur in the data, and the image may be degraded. Therefore, it is preferable to correct the filter coefficients FC1 to FC4 so that the above-mentioned sum becomes 128.
【0302】フィルタ係数を補正する場合、フィルタ係
数FC2,FC3よりも、フィルタ係数FC1,FC4
を補正した方が補間フィルタリングの特性に与える影響
が少ないので、フィルタ係数FC1,FC4を補正する
方が好ましい。例えば、図12に示した位相P1に対応
するフィルタ係数FC1の値を、−1から−2に変更す
ることにより、フィルタ係数の総和が128となる。When correcting the filter coefficients, the filter coefficients FC1 and FC4 are better than the filter coefficients FC2 and FC3.
It is more preferable to correct the filter coefficients FC1 and FC4, since correcting the correction has less influence on the characteristics of the interpolation filtering. For example, by changing the value of the filter coefficient FC1 corresponding to the phase P1 shown in FIG. 12 from -1 to -2, the total sum of the filter coefficients becomes 128.
【0303】また、フィルタ係数セットを8ビットに量
子化したときの誤差が最も大きいものを、修正するよう
にしてもよい。具体例を挙げて説明すると、例えば、図
12に示した位相P3のフィルタ係数FC3は、実数表
現では、0.368であり、8ビット表現では46であ
る。その誤差は、0.464(=0.363×128−
46)と大きい。従って、位相P3のフィルタ係数FC
3の値を46から47に変更することにより、フィルタ
係数の総和を128にすることができ、しかも、補間フ
ィルタリングの特性に与える影響を最も少なくすること
ができる。[0303] The one having the largest error when the filter coefficient set is quantized to 8 bits may be corrected. Explaining with a specific example, for example, the filter coefficient FC3 of the phase P3 shown in FIG. 12 is 0.368 in the real number representation and 46 in the 8-bit representation. The error is 0.464 (= 0.363 × 128−
46). Therefore, the filter coefficient FC of the phase P3
By changing the value of 3 from 46 to 47, the sum of the filter coefficients can be made 128, and the influence on the characteristics of the interpolation filtering can be minimized.
【0304】なお、上述した各実施例においては、主に
画像の拡大処理を例として説明したが、画像の縮小処理
を行うことも可能であることは言うまでもない。但し、
画像の縮小処理を行う場合、入力SAM部22には、入
力データが順番通りに密に供給され、出力SAM部25
からは、出力データが疎に出力されてくる。[0304] In each of the above-described embodiments, the description has been given mainly of the example of the image enlargement processing. However, it is needless to say that the image reduction processing can be performed. However,
When performing image reduction processing, the input SAM unit 22 is supplied with input data densely in order, and the output SAM unit 25
, Output data is sparsely output.
【0305】また、上述した各実施例においては、画像
の端部の画素データを処理する右端および左端の要素プ
ロセッサ30の周辺に、補間フィルタリングに必要なデ
ータを記憶する他の要素プロセッサ30が存在しない場
合には、存在しないデータの代わりに数値0を用いる処
理を示したが、例えば、画像端部の画素データがその外
側に連続している、あるいは、端部を中心にして画素デ
ータが対称になっていると仮定するなど、画像端辺での
処理について種々の方法を採ることができ、プログラム
を変更することにより、いずれの方法を採ることも可能
である。In each of the above-described embodiments, another element processor 30 for storing data necessary for interpolation filtering is provided around the right and left element processors 30 for processing pixel data at the end of an image. In the case where the image data does not exist, the processing using the numerical value 0 instead of the non-existing data is described. For example, the pixel data at the end of the image is continuous outside the image, or the pixel data is symmetrical around the end. For example, various methods can be adopted for the processing at the edge of the image, for example, assuming that the above-mentioned condition is satisfied. Any of the methods can be adopted by changing the program.
【0306】また、上述した各実施例においては、各要
素プロセッサ30は、画素の補間に対応するフィルタ演
算だけを行っているが、例えば、各種フィルタ処理、色
の操作、所定の伝送方式のデータへの変換、ノイズ除
去、輪郭補強などの、画素数の変換と同時に実行したい
各種画像処理やTV(テレビジョン)信号処理に対応し
て、プログラム制御部のプログラムを変更したり追加す
ることにより、ハードウェアの構成を変更することな
く、これらの処理を行うことができる。また、プログラ
ム制御部のプログラムを変更することにより、画像の変
換比率を変更することができる。In each of the embodiments described above, each element processor 30 performs only a filter operation corresponding to pixel interpolation. For example, various filter processes, color operations, and data of a predetermined transmission method are performed. By changing or adding the program of the program control unit to various image processing and TV (television) signal processing that you want to execute simultaneously with the conversion of the number of pixels, such as conversion to noise, noise reduction, and contour enhancement, These processes can be performed without changing the hardware configuration. Further, by changing the program of the program control unit, the conversion ratio of the image can be changed.
【0307】また、上述した各実施例として示した各並
列プロセッサのメモリ28,28a,29(図16,図
25,図30等)の記憶容量は、原画像の画素と拡大・
縮小画像の画素の位相の数に比例し、比較的少なくて済
む。従って、メモリ28,29等を設けることが、並列
プロセッサのハードウェア規模に与える影響は非常に少
ない。The storage capacity of the memories 28, 28a, 29 (FIGS. 16, 25, 30, etc.) of each parallel processor shown in each of the above embodiments is equal to the size of the pixels of the original image.
The number is relatively small in proportion to the number of phases of the pixels of the reduced image. Therefore, the provision of the memories 28, 29 and the like has a very small effect on the hardware scale of the parallel processor.
【0308】第7実施例 以下、本発明の第7の実施例を説明する。図33は、本
発明の第7の実施例(画像データ処理装置7)の構成を
示す図である。図33に示すように、画像データ処理装
置7は、セレクタ回路(SEL)60およびメモリ回路
62から構成され、制御系の制御に従って、いわゆるメ
モリマッピング法により画像を非線形処理する。 Seventh Embodiment Hereinafter, a seventh embodiment of the present invention will be described. FIG. 33 is a diagram showing the configuration of the seventh embodiment (image data processing device 7) of the present invention. As shown in FIG. 33, the image data processing device 7 includes a selector circuit (SEL) 60 and a memory circuit 62, and performs non-linear processing of an image by a so-called memory mapping method under the control of a control system.
【0309】画像データ処理装置7において、制御系
(図示せず)は、色信号のコンポーネントに対して非線
形処理を行う場合には、入力される色信号のコンポーネ
ントを選択するようにセレクタ回路60を制御し、メモ
リ回路62に非線形データを記憶させる場合には、制御
系が出力するデータを選択するようにセレクタ回路60
を制御する。In the image data processing device 7, when performing a non-linear processing on the components of the color signal, the control system (not shown) controls the selector circuit 60 to select the component of the input color signal. When the control is performed and the non-linear data is stored in the memory circuit 62, the selector circuit 60 selects the data to be output by the control system.
Control.
【0310】セレクタ回路60は、制御系による制御に
従って、制御系から入力されるデータ、または、外部か
ら入力される色信号の各コンポーネント(R,G,B,
Y,I,Q等)を選択し、メモリ回路62のアドレス入
力部に対して出力する。The selector circuit 60 controls the components (R, G, B, and R) of the data input from the control system or the color signal input from the outside according to the control by the control system.
Y, I, Q, etc.) are selected and output to the address input section of the memory circuit 62.
【0311】メモリ回路62には、上述のように制御系
から出力され、色信号の各コンポーネントと出力データ
との間の非線形特性を規定する非線形データが、予め記
憶されており、メモリ回路62は、色信号の各コンポー
ネントの値に対応するアドレスに設定されている非線形
データを出力し、非線形処理を行う。As described above, the memory circuit 62 previously stores non-linear data output from the control system and defining non-linear characteristics between each component of the color signal and the output data. And outputs nonlinear data set at an address corresponding to the value of each component of the color signal, and performs nonlinear processing.
【0312】なお、画像データ処理装置7による非線形
処理の内容を変更する場合には、制御系が、メモリ回路
62に記憶されている非線形データを変更すればよい。
つまり、制御系は、入力される色信号のコンポーネント
の値に対応するメモリ回路62のアドレスに記憶するデ
ータの値を変更するだけで、非線形処理の内容を自由に
変更することができる。To change the content of the non-linear processing by the image data processing device 7, the control system may change the non-linear data stored in the memory circuit 62.
That is, the control system can freely change the content of the nonlinear processing only by changing the value of the data stored in the address of the memory circuit 62 corresponding to the value of the component of the input color signal.
【0313】第8実施例 以下、本発明の第8の実施例を説明する。第7の実施例
に示した画像データ処理装置7(図33)は、入力デー
タ(色信号のコンポーネント)の値と出力データの値と
をメモリ回路62を介して対応付けることにより非線形
処理を行うことができる。しかも、画像データ処理装置
7によれば、制御系がメモリ回路62に記憶させる非線
形データの内容を変更することのみにより、非線形処理
の内容を変更可能である。 Eighth Embodiment Hereinafter, an eighth embodiment of the present invention will be described. The image data processing device 7 (FIG. 33) shown in the seventh embodiment performs non-linear processing by associating the values of input data (components of color signals) with the values of output data via the memory circuit 62. Can be. Moreover, according to the image data processing device 7, the content of the nonlinear processing can be changed only by the control system changing the content of the nonlinear data stored in the memory circuit 62.
【0314】ここで、画像データ処理装置7において
も、メモリ回路62に記憶する非線形データの内容は、
画像データ処理装置7を使用する編集者自身が作成する
必要がある。この非線形データの作成を、例えば、GU
Iを応用した操作により行うことができると便利であ
る。しかしながら、GUI応用の処理内容の指定方法は
確立されていない。Here, also in the image data processing device 7, the contents of the nonlinear data stored in the memory circuit 62 are as follows:
The editor who uses the image data processing device 7 needs to create it. The creation of this non-linear data, for example,
It is convenient if it can be performed by an operation applying I. However, a method of designating the processing content of the GUI application has not been established.
【0315】また、画像データ処理装置7により処理し
た画像の確認は、例えば、一度、VTRテープ等に記録
した画像データを再生・表示することに行われるので、
非常に手間がかかる。本発明の第8の実施例は、このよ
うな問題点を解決するためになされたものであり、画像
データに対する非線形処理の内容をGUIを用いて指定
することができ、しかも、指定した非線形処理の結果と
して得られた画像をGUI画面上で即座に確認すること
ができるように構成されている。Further, the confirmation of the image processed by the image data processing device 7 is performed, for example, by reproducing and displaying the image data once recorded on a VTR tape or the like.
It is very time-consuming. The eighth embodiment of the present invention has been made in order to solve such a problem, and it is possible to specify the content of nonlinear processing on image data by using a GUI. Is configured so that the image obtained as a result of the above can be immediately confirmed on the GUI screen.
【0316】画像データ処理システム8の構成 図34は、本発明の第8の実施例(画像データ処理シス
テム8)の構成を示す図である。なお、図34において
は、画像データ処理システム8の構成部分の内、図33
に示した画像データ処理装置7の構成部分と同じものに
は同一の符号を付して示してある。図34に示すよう
に、画像データ処理システム8は、入力装置70、パー
ソナルコンピュータ72、画像ソース74、画像データ
処理装置7および画像モニタ76から構成される。 Structure of Image Data Processing System 8 FIG. 34 is a diagram showing the structure of the eighth embodiment (image data processing system 8) of the present invention. In FIG. 34, among the components of the image data processing system 8, FIG.
The same components as those of the image data processing device 7 shown in FIG. As shown in FIG. 34, the image data processing system 8 includes an input device 70, a personal computer 72, an image source 74, an image data processing device 7, and an image monitor 76.
【0317】画像データ処理システム8の構成部分 パーソナルコンピュータ72は、コンピュータ、ハード
ディスク装置(HDD)およびモニタ等を含み、パーソ
ナルコンピュータ72のCPUバスは、所定のインター
フェース基板を介して入力装置70および画像データ処
理装置7に接続されている。パーソナルコンピュータ7
2は、第7の実施例で述べた制御系と同様に、画像デー
タ処理装置7のセレクタ回路60の制御を行うととも
に、入力装置70から入力される非線形特性に基づいて
非線形データを生成し、生成した非線形データをメモリ
回路62に設定するとともに、モニタに非線形特性入力
用のGUI画像を表示して使用者に示す。The personal computer 72 of the image data processing system 8 includes a computer, a hard disk drive (HDD) and a monitor. The CPU bus of the personal computer 72 is connected to the input device 70 and the image data via a predetermined interface board. It is connected to the processing device 7. Personal computer 7
2 controls the selector circuit 60 of the image data processing device 7 and generates non-linear data based on the non-linear characteristics input from the input device 70, similarly to the control system described in the seventh embodiment. The generated non-linear data is set in the memory circuit 62, and a GUI image for inputting the non-linear characteristic is displayed on the monitor and displayed to the user.
【0318】入力装置70は、マウス、キーボード、タ
ブレット、トラックボールおよびアキュポイント等、パ
ーソナルコンピュータ72のモニタのGUI画面に対す
る画像データ処理システム8の使用者の操作に応じて、
画像データ処理システム8に入力される色信号のコンポ
ーネントと、出力データとの非線形特性を受け入れ、パ
ーソナルコンピュータ72に対して出力する。The input device 70 is operated by a user of the image data processing system 8 on a GUI screen of a monitor of the personal computer 72 such as a mouse, a keyboard, a tablet, a trackball, and an accu point.
The non-linear characteristics of the components of the color signal input to the image data processing system 8 and the output data are accepted and output to the personal computer 72.
【0319】画像ソース74は、例えば、ディジタルカ
メラあるいはディジタルVTR装置であって、セレクタ
回路60に対して色信号の各コンポーネントを供給す
る。画像データ処理装置7は、色信号の各コンポーネン
トを平行して処理する場合には、これらの色信号のコン
ポーネントそれぞれに対応して実際には複数、設けら
れ、第7の実施例においてと同様に、パーソナルコンピ
ュータ72により設定される非線形データを用いて、入
力される色信号のコンポーネントを非線形処理して画像
モニタ76に対して出力する。画像モニタ76は、画像
データ処理装置7から入力される画像データを表示す
る。The image source 74 is, for example, a digital camera or a digital VTR, and supplies each component of a color signal to the selector circuit 60. When processing each component of the color signal in parallel, the image data processing device 7 is actually provided with a plurality of image data processing devices 7 corresponding to the components of these color signals, respectively, as in the seventh embodiment. Using the non-linear data set by the personal computer 72, the components of the input color signal are non-linearly processed and output to the image monitor 76. The image monitor 76 displays image data input from the image data processing device 7.
【0320】なお、画像モニタ76に画像を表示する場
合、画像データをアナログ画像信号に変換して表示する
必要があるので、実際には、D/A変換回路が必要とな
り、また、画像ソース74としてアナログVTR装置を
用いる場合には、画像データ処理装置7にディジタル形
式の画像データを供給するために、A/D変換回路が必
要になるが、図34においては、それぞれ画像モニタ7
6および画像ソース74に含まれるものとして、D/A
変換回路およびA/D変換回路を省略してある。When an image is displayed on the image monitor 76, it is necessary to convert the image data into an analog image signal and display it. Therefore, a D / A conversion circuit is actually required. When an analog VTR device is used, an A / D conversion circuit is required to supply digital image data to the image data processing device 7, but in FIG.
6 and the image source 74 include D / A
The conversion circuit and the A / D conversion circuit are omitted.
【0321】GUI画面 図35(A)〜(D)は、パーソナルコンピュータ72
が、そのモニタに表示するGUI画像を示す図である。
なお実際には、GUI画面の各ウィンドウは、色信号の
種類(RGB,YIQ,YCrCbの別)、および、各
色信号のコンポーネントそれぞれに対応して複数、設け
られる。つまり、例えば、画像データ処理システム8
が、RGB信号の各コンポーネント、および、YIQ信
号の各コンポーネントに対して非線形処理を行う場合に
は、GUI画面には、これらのコンポーネントそれぞれ
に対応する6個のウィンドウが表示される。但し、説明
および図示の簡略化のために、図35(A)〜(D)に
は、1種類の色信号の1つのコンポーネント信号に対す
るGUI画像のウィンドウのみを示してある。 GUI Screens FIGS. 35A to 35D show a personal computer 72.
Is a view showing a GUI image displayed on the monitor.
Actually, a plurality of windows of the GUI screen are provided corresponding to the types of color signals (RGB, YIQ, and YCrCb) and the components of each color signal. That is, for example, the image data processing system 8
However, when nonlinear processing is performed on each component of the RGB signal and each component of the YIQ signal, six windows corresponding to each of these components are displayed on the GUI screen. However, for simplicity of description and illustration, FIGS. 35A to 35D show only the window of the GUI image corresponding to one component signal of one type of color signal.
【0322】図35(A)〜(D)に示すように、GU
I画面のウィンドウは、ウィンドウの上部の大きい部分
を占め、非線形特性を示す関数をグラフ形式で表示する
関数グラフ部分と、Add(追加),Move(移
動),Delete(削除)の各モード切り換え用のラ
ジオボタンを表示するモード切り換え部分とを含む。As shown in FIGS. 35A to 35D, the GU
The window of the I-screen occupies a large portion at the top of the window, and a function graph portion for displaying a function indicating a nonlinear characteristic in a graph format, and for switching between Add (add), Move (move), and Delete (delete) modes. And a mode switching portion for displaying a radio button of
【0323】関数グラフ部分の横軸は、入力される色信
号のコンポーネントの値を示し、縦軸は、出力データの
値を示す。つまり、横軸のコンポーネント信号の値に対
して垂線を引き、この垂線とグラフの曲線との交点を通
り、横軸に対して平行な直線を引いた場合、この平行線
とグラフの縦軸との交点が示す値が、入力されるコンポ
ーネントの値に対応する出力データの値を示す。The horizontal axis of the function graph portion indicates the component value of the input color signal, and the vertical axis indicates the value of the output data. In other words, a perpendicular is drawn to the component signal value on the horizontal axis, and a straight line that passes through the intersection of this perpendicular and the curve of the graph and is parallel to the horizontal axis is drawn. Indicate the value of output data corresponding to the value of the input component.
【0324】上述のように、モード切り換え部分には、
Add(追加),Move(移動),Delete(削
除)用のラジオボタンが表示され、使用者は、例えば、
これらのラジオボタンを入力装置70のマウスでクリッ
クすることにより、パーソナルコンピュータ72に対し
ていずれかのモードを指定する。なお、使用者がいずれ
のモードも選択しない場合にも、パーソナルコンピュー
タ72は、いずれかのモードのウィンドウをモニタに表
示する。[0324] As described above, the mode switching portion includes:
Radio buttons for Add (add), Move (move), and Delete (delete) are displayed.
By clicking these radio buttons with the mouse of the input device 70, one of the modes is designated for the personal computer 72. Note that even when the user does not select any mode, the personal computer 72 displays a window in any mode on the monitor.
【0325】これらのモードの内、Addモードは、図
35(A)に示すように、使用者が、関数グラフ部分の
内、入力装置70のマウスでクリックすることにより指
定した位置に、グラフの曲線が通る点(通過点)を追加
する操作を行う際に用いられる。Of these modes, the Add mode is, as shown in FIG. 35 (A), where the user clicks on the input device 70 with the mouse in the function graph to place the graph in the function graph. It is used when performing an operation of adding a point (passing point) through which a curve passes.
【0326】Moveモードは、図35(B)に示すよ
うに、使用者が、マウスでクリックすることにより指定
した位置に最も近い関数グラフの曲線上の点を、マウス
をドラッグすることにより指定する位置に移動させる操
作を行う際に用いられる。Deleteモードは、図3
5(C)に示すように、使用者が、Addモード等によ
り指定した通過点を削除する操作を行う際に用いられ
る。In the Move mode, as shown in FIG. 35B, the user designates the point on the curve of the function graph closest to the position designated by clicking with the mouse by dragging the mouse. Used when performing an operation of moving to a position. In the Delete mode, FIG.
As shown in FIG. 5 (C), this is used when the user performs an operation of deleting a passing point specified in the Add mode or the like.
【0327】画像データ処理システム8の動作 以下、画像データ処理システム8の動作を説明する。図
36は、図34に示した画像データ処理システム8の処
理を示すフローチャート図である。まず、パーソナルコ
ンピュータ72は、使用者の入力装置70に対する操作
に応じて、図35(A)〜(C)に示したモードのいず
れかのウィンドウをモニタに表示する。図35(A)〜
(C)の関数グラフ部分に表示される初期関数は、例え
ば、y=x(但し、xは画像データ処理装置7に入力さ
れるコンポーネントの値、yは画像データ処理装置7の
出力データの値)であり、この初期関数を示すグラフ
は、右上がりの直線となる。 Operation of Image Data Processing System 8 The operation of the image data processing system 8 will be described below. FIG. 36 is a flowchart showing the processing of the image data processing system 8 shown in FIG. First, the personal computer 72 displays a window in one of the modes shown in FIGS. 35A to 35C on a monitor in response to a user operation on the input device 70. FIG. 35 (A)-
The initial function displayed in the function graph portion of (C) is, for example, y = x (where x is the value of the component input to the image data processing device 7, and y is the value of the output data of the image data processing device 7) ), And the graph showing this initial function is a straight line rising to the right.
【0328】次に、図36に示すように、ステップS3
00において、使用者は、適宜、各色信号のコンポーネ
ント(例えば、Y,Cr,Cb,R,G,B)それぞれ
の非線形特性を指定するウィンドウに対して、入力装置
70のマウス等を用いて適宜、モード設定および通過点
の追加、移動および削除を行い、これらのコンポーネン
トそれぞれに対して独立に非線形特性(γ補正関数)の
設定を行いう。パーソナルコンピュータ72は、使用者
の操作に応じて、順次、各通過点を通る関数のグラフの
曲線(折れ線)をモニタに表示する。Next, as shown in FIG. 36, step S3
At 00, the user appropriately uses the mouse or the like of the input device 70 to appropriately specify the non-linear characteristic of each component (for example, Y, Cr, Cb, R, G, B) of each color signal. , Mode setting and addition, movement, and deletion of passing points, and setting of nonlinear characteristics (γ correction function) for each of these components independently. The personal computer 72 sequentially displays, on a monitor, a curve (polyline) of a graph of a function passing through each passing point according to a user operation.
【0329】使用者が、例えば、入力装置70のマウス
を用いてGUI画面中の実行ボタン(図示せず)をクリ
ックすることにより、パーソナルコンピュータ72に対
して、非線形特性の指定の終了を通知すると、ステップ
S302において、パーソナルコンピュータ72は、使
用者が指定したコンポーネントそれぞれの最終的な非線
形特性の折れ線関数を抽出する。When the user clicks an execution button (not shown) in the GUI screen using the mouse of the input device 70, the personal computer 72 is notified of the end of the designation of the nonlinear characteristic. In step S302, the personal computer 72 extracts a line function of the final nonlinear characteristic of each component specified by the user.
【0330】ステップS304において、パーソナルコ
ンピュータ72は、使用者の指定に応じて抽出した折れ
線関数に基づいて、画像データ処理装置7のメモリ回路
62に記憶するコンポーネントそれぞれの非線形データ
(メモリデータ)を計算する。ステップS306におい
て、パーソナルコンピュータ72は、計算した非線形デ
ータを、コンポーネントそれぞれを処理する画像データ
処理装置7のメモリ回路62に記憶する。[0330] In step S304, the personal computer 72 calculates the non-linear data (memory data) of each of the components stored in the memory circuit 62 of the image data processing device 7 based on the polygonal line function extracted according to the user's designation. I do. In step S306, the personal computer 72 stores the calculated nonlinear data in the memory circuit 62 of the image data processing device 7 that processes each component.
【0331】以上の各動作が終了すると、パーソナルコ
ンピュータ72は、各画像データ処理装置7のセレクタ
回路60を制御して、画像ソース74から入力される各
色信号のコンポーネントそれぞれを、これらのコンポー
ネントを処理する画像データ処理装置7それぞれに対し
て出力させる。When the above operations are completed, the personal computer 72 controls the selector circuit 60 of each image data processing device 7 to process each component of each color signal input from the image source 74 and process these components. Output to each of the image data processing devices 7 to be executed.
【0332】画像データ処理装置7それぞれは、入力さ
れたコンポーネントに対して、第7の実施例で述べたよ
うに非線形処理を行い、出力データを画像モニタ76に
対して出力する。画像モニタ76は、画像データ処理装
置7それぞれが出力した色信号のコンポーネントを、ア
ナログ形式の映像信号に変換し、表示して使用者に示
す。Each of the image data processing devices 7 performs nonlinear processing on the input component as described in the seventh embodiment, and outputs output data to the image monitor 76. The image monitor 76 converts the components of the color signals output by the respective image data processing devices 7 into video signals in an analog format, and displays and displays them to the user.
【0333】第9実施例 以下、本発明の第9の実施例を説明する。第8の実施例
として示した画像データ処理システム8によれば、非線
形処理の内容を、色信号のコンポーネント(Y,Cr,
Cb,R,G,B等)ごとにGUIを用いて任意に設定
可能であり、しかも、処理結果を、即座にモニタで確認
することができる。 Ninth Embodiment Hereinafter, a ninth embodiment of the present invention will be described. According to the image data processing system 8 shown as the eighth embodiment, the contents of the non-linear processing are converted into the components (Y, Cr,
Cb, R, G, B, etc.) can be arbitrarily set using the GUI, and the processing result can be immediately confirmed on the monitor.
【0334】しかしながら、画像データ処理システム8
(図34)は、色補正およびγ補正等の非線形処理専用
に構成されており、さらに、特殊効果の付与等の他の処
理を行おうとすると、さらに他の処理装置を画像データ
処理システム8に付加する必要がある。本発明の第9の
実施例は、上述の問題点を解決するために、DSPを用
いて、画像データに対する非線形処理を行うように構成
されている。However, the image data processing system 8
(FIG. 34) is configured exclusively for non-linear processing such as color correction and gamma correction. Further, if another processing such as imparting a special effect is to be performed, another processing apparatus is added to the image data processing system 8. It needs to be added. The ninth embodiment of the present invention is configured to perform non-linear processing on image data using a DSP in order to solve the above-described problem.
【0335】画像データ処理システム9の構成 図37は、本発明の第9の実施例(画像データ処理シス
テム9)の構成を示す図である。なお、図37に示す画
像データ処理システム9の各構成部分のうち、図34に
示した画像データ処理システム8の構成部分と同じもの
には、同一の符号を付して示してある。図37に示すよ
うに、画像データ処理システム9は、第8の実施例で述
べた画像データ処理システム8(図34)の画像データ
処理装置7を、DSP80に置換した構成を採る。 Structure of Image Data Processing System 9 FIG. 37 is a diagram showing the structure of the ninth embodiment (image data processing system 9) of the present invention. Note that among the components of the image data processing system 9 shown in FIG. 37, the same components as those of the image data processing system 8 shown in FIG. 34 are denoted by the same reference numerals. As shown in FIG. 37, the image data processing system 9 adopts a configuration in which the image data processing device 7 of the image data processing system 8 (FIG. 34) described in the eighth embodiment is replaced with a DSP 80.
【0336】DSP80 SIMD制御リニアアレイ型多並列型のDSP80は、
例えば、第2の実施例〜第6の実施例に示した並列プロ
セッサ2〜6(図13,図16,図25,図30,図3
2)であって、SIMD制御により入力される色信号の
コンポーネントを並列的に処理し、画像モニタ76に対
して出力する。 DSP80 SIMD control linear array type multi-parallel type DSP80
For example, the parallel processors 2 to 6 shown in the second to sixth embodiments (FIGS. 13, 16, 25, 30, and 3)
In 2), the components of the color signal input by the SIMD control are processed in parallel and output to the image monitor 76.
【0337】画像データ処理システム9の動作 以下、画像データ処理システム9の動作を説明する。図
38は、図37に示した画像データ処理システム9の処
理を示すフローチャート図である。図39は、図37に
示した画像データ処理システム9のパーソナルコンピュ
ータ72が抽出する折れ線関数を例示する図である。 Operation of Image Data Processing System 9 The operation of the image data processing system 9 will be described below. FIG. 38 is a flowchart showing the processing of the image data processing system 9 shown in FIG. FIG. 39 is a diagram illustrating a polygonal line function extracted by the personal computer 72 of the image data processing system 9 shown in FIG.
【0338】画像データ処理システム9において、ま
ず、パーソナルコンピュータ72は、画像データ処理シ
ステム8(図34)においてと同様に、使用者の入力装
置70に対する操作に応じて、図35(A)〜(C)に
示したモードのいずれかのウィンドウをモニタに表示す
る。[0338] In the image data processing system 9, first, the personal computer 72 responds to the user's operation on the input device 70 in the same manner as in the image data processing system 8 (Fig. 34). One of the windows in the mode shown in C) is displayed on the monitor.
【0339】次に、図36に示すように、ステップS3
10において、使用者は、適宜、各色信号のコンポーネ
ント(例えば、Y,Cr,Cb,R,G,B)それぞれ
の非線形特性を指定するウィンドウに対して、入力装置
70のマウス等を用いて適宜、モード設定および通過点
の追加、移動および削除を行い、これらのコンポーネン
トそれぞれに対して独立に非線形特性(γ補正関数)の
設定を行いう。パーソナルコンピュータ72は、画像デ
ータ処理システム8においてと同様に、使用者の操作に
応じて、順次、各通過点を通る関数のグラフの曲線(折
れ線)をモニタに表示する。Next, as shown in FIG. 36, step S3
In 10, the user appropriately uses a mouse or the like of the input device 70 to a window for designating the nonlinear characteristics of each component (for example, Y, Cr, Cb, R, G, B) of each color signal. , Mode setting and addition, movement, and deletion of passing points, and setting of nonlinear characteristics (γ correction function) for each of these components independently. As in the image data processing system 8, the personal computer 72 sequentially displays, on a monitor, a curve (polyline) of a graph of a function passing through each passing point according to a user operation.
【0340】使用者が、例えば、入力装置70のマウス
を用いてGUI画面中の実行ボタン(図示せず)をクリ
ックすることにより、パーソナルコンピュータ72に対
して、非線形特性の指定の終了を通知すると、ステップ
S312において、パーソナルコンピュータ72は、画
像データ処理システム8においてと同様に、例えば図3
9に示す最終的な非線形特性の折れ線関数を、コンポー
ネントそれぞれのウィンドウに表示する〔図35
(D)〕。When the user clicks an execution button (not shown) in the GUI screen using the mouse of the input device 70, the personal computer 72 is notified of the end of the designation of the nonlinear characteristic. In step S312, the personal computer 72 operates as shown in FIG.
9 is displayed in the window of each component [FIG. 35].
(D)].
【0341】ステップS314において、パーソナルコ
ンピュータ72は、リニアアレイ型多並列プロセッサ
(DSP80)が、抽出した折れ線関数が示す非線形処
理を実行するためのプログラムを生成する。ステップS
316において、パーソナルコンピュータ72は、生成
したプログラムを、DSP80にダウンロードする。In step S314, the personal computer 72 generates a program for the linear array type multi-parallel processor (DSP80) to execute the nonlinear processing indicated by the extracted broken line function. Step S
At 316, the personal computer 72 downloads the generated program to the DSP 80.
【0342】第2〜第6の実施例で述べた動作により、
DSP80は、入力されたコンポーネントに対して、第
2〜第7の実施例で述べたように非線形処理を行い、出
力データを画像モニタ76に対して出力する。画像モニ
タ76は、画像データ処理システム8においてと同様
に、DSP80が出力した色信号のコンポーネントを、
アナログ形式の映像信号に変換し、表示して使用者に示
す。By the operations described in the second to sixth embodiments,
The DSP 80 performs nonlinear processing on the input components as described in the second to seventh embodiments, and outputs output data to the image monitor 76. The image monitor 76 converts the components of the color signal output by the DSP 80, as in the image data processing system 8,
The video signal is converted into an analog video signal, displayed and shown to the user.
【0343】DSP80のプログラム例 以下、パーソナルコンピュータ72が、DSP80にダ
ウンロードするプログラムの例を説明する。図38のS
312およびS314の処理により、パーソナルコンピ
ュータ72は、非線形特性を、例えば、図39に示した
ように、N個の領域それぞれにおいて、下の各式により
定義される一次関数の集合(N折れ線関数)として抽出
する。従って、非線形処理は、これらN個の領域ごとに
線形演算を行うことにより実現可能である。 Example of Program of DSP 80 An example of a program downloaded by the personal computer 72 to the DSP 80 will be described below. S in FIG.
By the processes of 312 and S314, the personal computer 72 sets the non-linear characteristic to, for example, as shown in FIG. 39, in each of N regions, a set of linear functions defined by the following equations (N-line function) Extract as Therefore, the non-linear processing can be realized by performing a linear operation for each of these N regions.
【0344】[0344]
【数9】 y=a1 x+b1 〔0(最小値)<x≦30;x1 =30〕 y=a2 x+b2 〔30<x≦80;x2 =80〕 y=a3 x+b3 〔80<x≦120;x2 =120〕 ・ ・ y=aN x+bN 〔200<x≦255(最大値);x2 =255〕 …(9)Y = a 1 x + b 1 [0 (minimum value) <x ≦ 30; x 1 = 30] y = a 2 x + b 2 [30 <x ≦ 80; x 2 = 80] y = a 3 x + b 3 [80 <x ≦ 120; x 2 = 120] y = a N x + b N [200 <x ≦ 255 (maximum value); x 2 = 255] (9)
【0345】以下、図40を参照して、パーソナルコン
ピュータ72がDSP80にダウンロードするプログラ
ムの処理内容を説明する。図40は、非線形処理を、N
個の領域ごとに線形演算を行うことにより実現するDS
P80(図37)のプログラムを示すフローチャート図
である。Hereinafter, with reference to FIG. 40, the processing contents of the program downloaded by the personal computer 72 to the DSP 80 will be described. FIG. 40 illustrates the non-linear processing by N
DS realized by performing a linear operation for each area
FIG. 38 is a flowchart showing a program of P80 (FIG. 37).
【0346】まず、DSP80は、メモリ内に、式5に
示した各一次関数の係数を記憶する領域を確保する。ス
テップS320において、DSP80は、入力される色
信号のコンポーネントの値xが、領域の最初の境界値x
1 より大きいか否かを判断し、大きい場合にはS322
の処理に進み、大きくない場合にはS334の処理に進
む。First, the DSP 80 secures an area in the memory for storing the coefficient of each linear function shown in Expression 5. In step S320, the DSP 80 sets the component value x of the input color signal to the first boundary value x of the region.
It is determined whether it is greater than 1 or not.
If not, the process proceeds to S334.
【0347】ステップS322において、DSP80
は、変数Aに式5に示した係数a2 〔a(2)〕を代入
し、変数Bに係数b2 〔b(2)〕を代入する。ステッ
プS334において、DSP80は、変数Aに式5に示
した係数a1 〔a(1)〕を代入し、変数Bに係数b1
〔b(1)〕を代入する。[0347] In step S322, the DSP 80
Substitutes coefficient a 2 [a (2)] shown in equation 5 for variable A, and substitutes coefficient b 2 [b (2)] for variable B. In step S334, the DSP 80 substitutes the coefficient a 1 [a (1)] shown in Expression 5 for the variable A, and substitutes the coefficient b 1 for the variable B.
[B (1)] is substituted.
【0348】ステップS323において、DSP80
は、変数iに数値2を代入する。ステップS324にお
いて、DSP80は、変数iが、領域数N未満か否かを
判断し、i<Nの場合にはS326の処理に進み、i<
Nでない場合にはS332の処理に進む。ステップS3
26の処理において、DSP80は、コンポーネントの
値xが、式5の各式のxi 〔x(i)〕より大きいか否
かを判断し、x>xi の場合にはS328の処理に進
み、x>xi でない場合にはS330の処理に進む。[0348] In step S323, the DSP 80
Substitutes a numerical value 2 for a variable i. In step S324, the DSP 80 determines whether or not the variable i is smaller than the number N of areas. If i <N, the process proceeds to step S326, where i <
If it is not N, the process proceeds to S332. Step S3
In the process of 26, the DSP 80 determines whether or not the component value x is greater than x i [x (i)] of each expression of Expression 5, and if x> x i , proceeds to the process of S328. . If not, x> x i proceeds to a process of S330.
【0349】ステップS328において、DSP80
は、変数A,Bにそれぞれ式5に示した係数ai+1 ,b
i+1 を代入し、記憶し、S335の処理に進む。ステッ
プS330において、DSP80は、変数A,Bの値を
記憶し、S335の処理に進む。ステップS335にお
いて、DSP80は、変数iに数値1を加え、S330
の処理に進む。ステップS332において、DSP80
は、コンポーネントの値xと変数A,Bとを乗算し、さ
らに変数bを加算して出力データy(y=Ax+B)の
値を算出する。In the step S328, the DSP 80
Are the coefficients a i + 1 , b shown in Equation 5 for variables A and B, respectively.
i + 1 is substituted and stored, and the process proceeds to S335. In step S330, the DSP 80 stores the values of the variables A and B, and proceeds to the processing of S335. In step S335, the DSP 80 adds the numerical value 1 to the variable i, and in S330
Proceed to processing. In step S332, the DSP 80
Calculates the value of output data y (y = Ax + B) by multiplying the component value x by variables A and B and further adding variable b.
【0350】換言すると、DSP80は、上述したS3
26〜S332,S335の処理の代わりに、以下の処
理を行う。ステップS326の処理において、DSP8
0は、コンポーネントの値xが、式5の各式のxi 〔x
(2)〕より大きいか否かを判断し、x>x2 の場合に
はS328の処理に進み、x>x2 でない場合にはS3
30の処理に進む。[0350] In other words, the DSP 80 performs the above-described S3
The following processes are performed instead of the processes of 26 to S332 and S335. In the process of step S326, the DSP 8
0 means that the component value x is x i [x
(2)] to determine greater or not, proceeds to the processing of S328 in the case of x> x 2, if not x> x 2 in the S3
Proceed to step 30.
【0351】さらに、DSP80は、S326,S32
8,S330の処理を、コンポーネントの値x2 および
変数a3 ,b3 の値を変化させながら、コンポーネント
の値xN-1 および変数aN ,bN まで繰り返す。ステッ
プS332において、DSP80は、最後に、コンポー
ネントの値xと変数Aとを乗算し、さらに変数Bの値を
加算して出力データyとする。[0351] Further, the DSP 80 performs the processing in steps S326 and S32.
8, S330 process of, while changing the values of x 2 and the variable a 3, b 3 components, repeated until the value x N-1 and variables a N, b N of the component. In step S332, the DSP 80 finally multiplies the component value x by the variable A, and further adds the value of the variable B to obtain output data y.
【0352】上述した本発明の第8および第9の実施例
として示した画像データ処理システム8,9によれば、
従来、考慮されていなかったGUIによる入力方法で、
非線形処理の特性を示すデータを入力することができ
る。また、本発明の第9の実施例として示した画像デー
タ処理システム9によれば、画像データ処理装置7(図
34)の代わりにDSP80(並列プロセッサ2〜6)
を用いているので、色信号のコンポーネントに対して、
非線形処理の他に、特殊効果等の他の処理をソフトウェ
ア的に一括して行うことができる。また、本発明の第8
および第9の実施例として示した画像データ処理システ
ム8,9によれば、処理結果として得られた出力データ
を即座に確認でき、出力画像を確認しながら非線形特性
の最適化を行うことができる。According to the image data processing systems 8 and 9 shown as the eighth and ninth embodiments of the present invention,
Conventionally, the input method by GUI which was not considered,
Data indicating characteristics of the non-linear processing can be input. According to the image data processing system 9 shown as the ninth embodiment of the present invention, the DSP 80 (parallel processors 2 to 6) is used instead of the image data processing device 7 (FIG. 34).
Is used for the components of the color signal,
In addition to the non-linear processing, other processing such as special effects can be collectively performed by software. Also, the eighth aspect of the present invention.
According to the image data processing systems 8 and 9 shown as the ninth embodiment, output data obtained as a processing result can be immediately confirmed, and the nonlinear characteristics can be optimized while confirming the output image. .
【0353】第10実施例 クロマキー処理は、コンスーマ用あるいは放送局用とい
った用途を問わず、TV、カメラ、ビデオおよび画像編
集装置および特殊効果装置等の画像に対して特殊効果を
付加するシステムにおいて必須とされている。なお、例
えば、青色の壁の前に立っている人物の画像と、建物の
画像とをクロマキー合成して、人物が建物の前に立って
いる画像を作成した場合には、人物の画像が背景画像
(合成用画像)と呼ばれ、建物の画像は背景画像(ベー
ス画像)と呼ばれ、人物の外の青色の部分は背景色(キ
ーの色またはバックの色)と呼ばれる。つまり、クロマ
キー処理により、前景画像中の背景色に指定された色の
画素が、背景画像の画素に置換される。 Tenth Embodiment The chroma key processing is indispensable in a system for adding a special effect to an image such as a TV, a camera, a video, an image editing device, and a special effect device irrespective of an application for a consumer or a broadcasting station. It has been. For example, when an image of a person standing in front of a building is created by chroma-keying an image of a person standing in front of a blue wall and an image of a building to create an image in which a person is standing in front of a building, The image of the building is called a background image (base image), and the blue portion outside the person is called a background color (key color or background color). That is, the pixels of the color designated as the background color in the foreground image are replaced with the pixels of the background image by the chroma key processing.
【0354】図41は、アナログ処理を行うクロマキー
装置の構成例を示す図である。図42は、ディジタル処
理を行うクロマキー装置の構成例を示す図である。一般
的に、画像に対してアナログ的に、あるいは、ディジタ
ル的にクロマキー処理を行うクロマキー装置は、図41
および図42に示すように、多数の乗算器および加算器
等を接続した構成を採る。FIG. 41 is a diagram showing a configuration example of a chroma key device for performing analog processing. FIG. 42 is a diagram illustrating a configuration example of a chroma key device that performs digital processing. Generally, a chroma key device that performs chroma key processing on an image in an analog or digital manner is shown in FIG.
As shown in FIG. 42, a configuration in which a number of multipliers, adders and the like are connected is employed.
【0355】しかしながら、図41に示したアナログク
ロマキー装置によりクロマキー処理を行うと、処理後の
画像の品質が劣化してしまう。また、図42に示したデ
ィジタルクロマキー装置は回路規模が大きい上に、背景
画像として一定の色(例えば青色)しか指定できない。However, if the chroma key processing is performed by the analog chroma key device shown in FIG. 41, the quality of the processed image is degraded. The digital chroma key device shown in FIG. 42 has a large circuit scale and can specify only a certain color (for example, blue) as a background image.
【0356】本発明の第10の実施例として以下に説明
する画像データ処理システム10は、上述した一般的な
クロマキー装置の問題点を解決するためになされたもの
であり、処理後の画像の品質の劣化の防止、背景画像と
して任意の色の指定、および、GUIによるクロマキー
処理の内容の指定が可能なように構成されている。An image data processing system 10 described below as a tenth embodiment of the present invention has been made in order to solve the above-described problems of the general chroma key apparatus, and has been described in detail. Is configured to prevent deterioration of the image, specify an arbitrary color as the background image, and specify the content of the chroma key processing by the GUI.
【0357】画像データ処理システム10の構成 図43は、本発明の第10の実施例(画像データ処理シ
ステム10)の構成を示す図である。なお、図43に示
す画像データ処理システム10の各構成部分のうち、図
34,図37に示した画像データ処理システム8,9の
構成部分と同じものには、同一の符号を付して示してあ
る。図44は、図43に示したDSP80に入力または
出力されるデータを示す図である。 Structure of Image Data Processing System 10 FIG. 43 is a diagram showing the structure of the tenth embodiment (image data processing system 10) of the present invention. Note that among the components of the image data processing system 10 shown in FIG. 43, the same components as those of the image data processing systems 8 and 9 shown in FIGS. It is. FIG. 44 is a diagram showing data input or output to the DSP 80 shown in FIG.
【0358】図43に示すように、画像データ処理シス
テム10は、入力装置70、パーソナルコンピュータ7
2、画像モニタ76、DSP80、前景画像ソース78
1 および背景画像ソース782 から構成される。つま
り、画像データ処理システム9(図37)の画像ソース
74を、前景画像ソース781 および背景画像ソース7
82 で置換した構成を採り、図44に示すように、DS
P80には、入力データ1として、前景画像ソース78
1 からクロマキー処理の対象となる前景画像データが入
力され、入力データ2として、背景画像ソース782 か
ら同じく背景画像データが入力される。As shown in FIG. 43, the image data processing system 10 includes an input device 70, a personal computer 7
2. Image monitor 76, DSP 80, foreground image source 78
1 and a background image source 78 2 . That is, the image source 74 of the image data processing system 9 (FIG. 37) is changed to the foreground image source 78 1 and the background image source 7.
8 2 take the configuration substituted with, as shown in FIG. 44, DS
In P80, as input data 1, foreground image source 78
Foreground image data to be subjected to chroma key processing is input from 1, and background image data is similarly input from a background image source 78 2 as input data 2.
【0359】画像データ処理システム10の構成部分 以下、画像データ処理システム10の構成部分の画像デ
ータ処理システム8,9においてと異なる動作を説明す
る。 Components of the image data processing system 10 The following describes operations that are different from those of the image data processing systems 8 and 9 of the components of the image data processing system 10.
【0360】入力装置70 図45は、画像データ処理システム10(図43)のパ
ーソナルコンピュータ72がコンピュータ用のモニタ
(画像モニタ76でもよい)に表示するクロマキー処理
の背景色設定用のGUI画像を例示する図である。入力
装置70は、画像データ処理システム8,9(図34,
図37)等においてと同様に、キーボード、タブレッ
ト、トラックボールおよびアキュポイント等を含み、図
45に示すGUI画像に対する使用者の設定操作を受け
入れて、クロマキー処理の前景画像を背景画像に置き換
える画像部分を指定する背景初期樹データをパーソナル
コンュータ72に対して出力する。 Input device 70 FIG. 45 shows a GUI image for setting a background color of chroma key processing displayed on a computer monitor (or image monitor 76) by the personal computer 72 of the image data processing system 10 (FIG. 43). FIG. The input device 70 is connected to the image data processing systems 8 and 9 (FIG. 34,
As in the case of FIG. 37), an image portion including a keyboard, a tablet, a trackball, an accu point, and the like, accepting a user's setting operation on the GUI image shown in FIG. 45, and replacing the foreground image of the chroma key processing with the background image Is output to the personal computer 72.
【0361】前景画像ソース78 1 ,背景画像ソース7
8 2 前景画像ソース781 ,背景画像ソース782 は、画像
データ処理システム9の画像ソース74と同様に、ビデ
オカメラあるいはVTR装置等である。前景画像ソース
781 は、背景画像と、背景画像に重ね合わされる前景
画像データとをDSP80に対して出力する。背景画像
ソース782 は、前景画像と、前景画像に重ね合わされ
る背景画像データとをDSP80に対して出力する。The foreground image source 78 1 and the background image source 7
8 2 foreground image source 78 1, the background image source 78 2, like the image source 74 in the image data processing system 9, a video camera or a VTR device. The foreground image source 78 1 outputs a background image and foreground image data superimposed on the background image to the DSP 80. The background image source 78 2 outputs a foreground image and background image data superimposed on the foreground image to the DSP 80.
【0362】パーソナルコンピュータ72 パーソナルコンピュータ72は、例えば、図45に示し
た背景色の色空間(Cr−Cb空間)を示し、クロマキ
ー処理の背景色を設定するために用いられるGUI画像
を表示し、入力装置70を介して入力される背景色デー
タに基づいてDSP80を制御する。The personal computer 72 displays, for example, a GUI image used to set a background color for chroma key processing, which shows the background color space (Cr-Cb space) shown in FIG. The DSP 80 is controlled based on the background color data input via the input device 70.
【0363】背景色設定用GUI画像およびこれを用い
た背景色の指定 以下、図45に示した背景色設定用のGUI画像の内
容、および、パーソナルコンピュータ72による背景色
の設定処理を説明する。背景色設定用GUI画像の範囲
aは色(Cr−Cb)空間を示し、例えば、範囲aの横
(x)軸はクロマ信号Crを示し、縦(y)軸はクロマ
信号Cbを示し、x軸およびy軸の座標は、それぞれク
ロマ信号Cb,Crの強度(値)に対応する。さらに、
範囲aの四角形内部には、x軸およびy軸それぞれの座
標に対応する値のクロマ信号Cb,Crにより表現され
る色、つまり、背景色設定用GUI画像の範囲aには、
前景画像ソース781 から画像モニタ76に出力される
前景画像データに含まれる色(画像モニタ76に表示可
能な色)の全てがグラデーション表示される。A background color setting GUI image and its use
In the following, the contents of the background color setting GUI image shown in FIG. 45 and the background color setting processing by the personal computer 72 will be described. The range a of the background color setting GUI image indicates a color (Cr-Cb) space. For example, the horizontal (x) axis of the range a indicates the chroma signal Cr, the vertical (y) axis indicates the chroma signal Cb, and x The coordinates of the axis and the y-axis correspond to the intensity (value) of the chroma signals Cb and Cr, respectively. further,
Inside the rectangle of the range a, the colors represented by the chroma signals Cb and Cr having values corresponding to the respective coordinates of the x-axis and the y-axis, that is, the range a of the background color setting GUI image,
All the foreground image source 78 1 color included in the foreground image data is output to the image monitor 76 (colors that can be displayed on the image monitor 76) is displayed gradations.
【0364】例えば、使用者が、パーソナルコンピュー
タ72のコンピュータのモニタに表示された背景色設定
用GUI画像の範囲aに、入力装置70のマウスを用い
てカーソルを移動させ、クリックし、マウスの所定のボ
タンを押下したままカーソルを移動させ(ドラッグし)
ると、パーソナルコンピュータ72は、マウスに対する
所定の設定に応じて、図45に示すように、コンピュー
タのモニタの画面上に使用者の操作に応じて範囲a内に
最初にマウスのボタンを押下した位置からドラッグした
位置までに対応する矢印(drag)および楕円bを表
示する。For example, the user moves the cursor using the mouse of the input device 70 to the range a of the GUI image for setting the background color displayed on the monitor of the computer of the personal computer 72, and clicks the mouse. Move the cursor while holding down the button (drag)
Then, the personal computer 72 first pressed the mouse button within the range a in accordance with the user's operation on the screen of the computer monitor as shown in FIG. 45 according to the predetermined setting for the mouse. An arrow (drag) and an ellipse b corresponding to the position to the dragged position are displayed.
【0365】さらに、使用者がマウスのボタンを離す
と、パーソナルコンピュータ72は、最初にクリックし
た位置(x1 ,y1 )を中心とし、マウスのボタンを離
した位置(x2 ,y2 )を円周の一点とし、x軸および
y軸に平行な2軸を有する楕円b(図形)を確定し、確
定した楕円b(図形)の範囲内に含まれる全ての色をク
ロマキー処理の背景色(キー色)とする。When the user releases the mouse button, the personal computer 72 releases the mouse button (x 2 , y 2 ) centering on the first clicked position (x 1 , y 1 ). Is defined as a point on the circumference, an ellipse b (graphic) having two axes parallel to the x-axis and the y-axis is determined, and all colors included in the range of the determined ellipse b (graphic) are set as the background colors of the chroma key processing. (Key color).
【0366】あるいは、パーソナルコンピュータ72
は、マウスに対する他の設定に応じて、例えば、最初に
クリックした位置(x1 ,y1 )とマウスのボタンを離
した位置(x2 ,y2 )とを対角線とし、各辺がx軸ま
たはy軸に平行な長方形((図形;図示せず)を確定
し、確定した長方形(図形)の範囲内に含まれる全ての
色をクロマキー処理の背景色とする。Alternatively, the personal computer 72
According to other settings for the mouse, for example, the position (x 1 , y 1 ) where the mouse is clicked first and the position (x 2 , y 2 ) where the mouse button is released are set as diagonal lines, and each side is the x-axis. Alternatively, a rectangle ((graphic; not shown)) parallel to the y-axis is determined, and all colors included in the range of the determined rectangle (graphic) are set as background colors of the chroma key processing.
【0367】さらに、パーソナルコンピュータ72は、
使用者が、例えば、背景色設定用GUI画面の範囲cの
Makeボタンをマウスでクリックすると、パーソナル
コンピュータ72は、確定した図形の範囲内に含まれる
全ての色に対応するクロマ信号Cb,Crの値の範囲を
算出し、前景画像ソース781 から入力される前景画像
データの画素の内、クロマ信号Cb,Crの値が、算出
したクロマ信号Cb,Crの範囲内となる画素において
は、背景画像におきかえてために、該当する範囲内だけ
に、背景画像ソース782 から入力される背景画像デー
タを嵌め込むように重ね合わせる処理を行うソフトウェ
アを生成し、DSP80に設定する。Further, the personal computer 72 is
When the user clicks, for example, the Make button in the range c of the background color setting GUI screen with the mouse, the personal computer 72 outputs the chroma signals Cb and Cr corresponding to all the colors included in the determined figure range. The range of values is calculated, and among the pixels of the foreground image data input from the foreground image source 78 1 , the pixels whose values of the chroma signals Cb and Cr fall within the range of the calculated chroma signals Cb and Cr are set to the background. for replaced by a picture, only the extent appropriate, to generate a software for processing to superimpose to fit the background image data inputted from the background image source 78 2 is set to DSP 80.
【0368】DSP80用のプログラムの例 以下、図46をさらに参照して、パーソナルコンピュー
タ72が、使用者による背景色設定用GUI画面に対す
る操作に応じて生成するDSP80用のプログラムの処
理内容を、図45に示した楕円bの範囲を背景色とする
場合を例に説明する。図46は、画像データ処理システ
ム10(図43)のパーソナルコンピュータ72が生成
するDSP80用のクロマキー処理プログラムの処理を
例示する図である。 Example of Program for DSP 80 Hereinafter, with further reference to FIG. 46, the processing contents of the program for DSP 80 generated by the personal computer 72 in response to the operation on the background color setting GUI screen by the user will be described. An example in which the range of the ellipse b indicated by 45 is set as the background color will be described. FIG. 46 is a diagram exemplifying processing of a chroma key processing program for the DSP 80 generated by the personal computer 72 of the image data processing system 10 (FIG. 43).
【0369】パーソナルコンピュータ72は、図46に
示すように、前景画像データの各画素のクロマ信号C
b,Crに対応する色(Cr−Cb)空間内の座標
(x,y)が、楕円b(図45)の内側にあるか否かを
判断し、クロマ信号Cb,Crの色(Cr−Cb)空間
内の座標(x,y)が、楕円bの内側にある前景画像デ
ータの画素においては、対応する位置の背景画像データ
の画素に置換する処理を、DSP80に行わせるプログ
ラムを生成する。なお、ここで述べたプログラムの生成
は、例えば、テンプレートプログラム中のパラメータの
みを書き換える処理を含む。As shown in FIG. 46, the personal computer 72 outputs the chroma signal C of each pixel of the foreground image data.
It is determined whether the coordinates (x, y) in the color (Cr-Cb) space corresponding to b, Cr are inside the ellipse b (FIG. 45), and the color (Cr-Cb) of the chroma signals Cb, Cr is determined. Cb) For the pixels of the foreground image data whose coordinates (x, y) in the space are inside the ellipse b, generate a program that causes the DSP 80 to perform the process of replacing the pixels of the background image data at the corresponding positions. . Note that the generation of the program described here includes, for example, a process of rewriting only the parameters in the template program.
【0370】DSP80の処理内容 まず、DSP80の処理の内容を概略的に説明する。D
SP80の要素プロセッサ30(図32等)それぞれ
は、1水平走査期間に含まれる背景画像および前景画素
の画素データをそれぞれ1つずつ受け入れ、変数T1 ,
T2 に、前景画像の画素データのクロマ信号Cb,Cr
の色空間における座標(x,y)から、色空間における
楕円bの中心座標(x1 ,y1 )を減算した数値(x−
x1 ),(y−y1 )を代入する〔T1 =x−x1 ,T
2 =y−y1 〕。[0370] processing of the DSP80 First, explaining the contents of processing of the DSP80 schematically. D
SP80 element processor 30 (FIG. 32, etc.) respectively accepts pixel data of the background image and foreground pixels included in one horizontal scanning period one each, variable T 1,
To T 2, the chroma signal Cb of the pixel data of the foreground image, Cr
Numerical value (x−) obtained by subtracting the center coordinates (x 1 , y 1 ) of the ellipse b in the color space from the coordinates (x, y) in the color space
x 1 ) and (y−y 1 ) [T 1 = x−x 1 , T
2 = y-y 1 ].
【0371】次に、要素プロセッサ30は、上記処理に
より算出した変数T1 ,T2 の値を自乗し、自乗値をそ
れぞれ変数T1 ,T2 に代入する〔T1 =(x2 −
x1 )2,T2 =(y2 −y1 )2 〕。次に、変数T3
に、変数T1 および変数T2 の加算値を代入する(T3
=T1+T2 )。Next, the element processor 30 squares the values of the variables T 1 and T 2 calculated by the above processing, and substitutes the square values for the variables T 1 and T 2 respectively [T 1 = (x 2 −
x 1 ) 2 , T 2 = (y 2 −y 1 ) 2 ]. Next, the variable T 3
Is substituted for the added value of the variable T 1 and the variable T 2 (T 3
= T 1 + T 2 ).
【0372】次に、要素プロセッサ30は、変数T3 と
数値T4 とを比較し、変数T3 が、画齟齬とのデータに
依存しない定数T4 〔T4 =(x2 −x1 )2 ×(y2
−y1 )2 〕未満である場合には、画素データのクロマ
信号Cb,Crの座標が楕円bの内部にあると判断して
下記処理Bに進み、変数T3 が定数T4 以上である場合
には、画素データのクロマ信号Cb,Crの座標が楕円
bの外部にあると判断し、下記処理Aに進む。Next, the element processor 30 compares the variable T 3 with the numerical value T 4, and determines that the variable T 3 is a constant T 4 [T 4 = (x 2 −x 1 ) which does not depend on the data of the inconsistency. 2 × (y 2
−y 1 ) 2 ], it is determined that the coordinates of the chroma signals Cb and Cr of the pixel data are inside the ellipse b, and the process proceeds to the following process B, where the variable T 3 is equal to or larger than the constant T 4. In this case, it is determined that the coordinates of the chroma signals Cb and Cr of the pixel data are outside the ellipse b, and the process proceeds to the following process A.
【0373】処理Aにおいて、要素プロセッサ30は、
入力された背景画像の画素データを出力処理する。処理
Bにおいて、要素プロセッサ30は、入力された背景画
像の画素データの代わりに、前景画像の画素データを出
力処理する。In the process A, the element processor 30
Output processing is performed on the input pixel data of the background image. In the process B, the element processor 30 outputs pixel data of the foreground image instead of the input pixel data of the background image.
【0374】なお、DSP80が、算出した変数T3 の
値から数値〔(x2 −x1 )2 ×(y2 −y1 )2 〕×
0.8を減算して、0〜〔(x2 −x1 )2 ×(y2 −
y1)2 〕×0.2の範囲内に制限し、変数T3 に数値
5/〔(x2 −x1 )2 ×(y2 −y1 )2 〕を乗算し
て新たな変数T3 を算出し、変数T3 自体をクロマキー
データとして用い、要素プロセッサ30が、前景画像の
画素データおよび変数T3 の乗算値(前景画像の画素デ
ータ×T3 )と、背景画像の画素データおよび変数T3
を1から減算した値の乗算値とを加算した画素データを
出力処理するようにして、背景画像と前景画像の切り替
わりを滑らかにしてもよい。なお、これは、ソフトキー
と呼ばれる技術である。Note that the DSP 80 calculates a numerical value [(x 2 −x 1 ) 2 × (y 2 −y 1 ) 2 ] × from the calculated value of the variable T 3.
0.8 is subtracted from 0 to [(x 2 −x 1 ) 2 × (y 2 −
y 1 ) 2 ] × 0.2, and multiply the variable T 3 by a numerical value 5 / [(x 2 −x 1 ) 2 × (y 2 −y 1 ) 2 ] to obtain a new variable T 3 , the variable T 3 itself is used as the chroma key data, and the element processor 30 calculates the product of the pixel data of the foreground image and the variable T 3 (pixel data of the foreground image × T 3 ), the pixel data of the background image, Variable T 3
The pixel data obtained by adding the multiplication value of the value obtained by subtracting 1 from 1 may be output to smooth the switching between the background image and the foreground image. This is a technique called a soft key.
【0375】図47をさらに参照して、パーソナルコン
ピュータ72が生成したプログラムに基づくDSP80
の処理を具体的に説明する。図47は、画像データ処理
システム10(図43)のパーソナルコンピュータ72
が生成するDSP80用の要素プロセッサ30(図32
等)が実行するクロマキー処理プログラムの内容を例示
するフローチャート図である。With further reference to FIG. 47, the DSP 80 based on the program generated by the personal computer 72
Is specifically described. FIG. 47 shows a personal computer 72 of the image data processing system 10 (FIG. 43).
32 generates an element processor 30 for the DSP 80 (FIG. 32).
FIG. 7 is a flowchart illustrating an example of the contents of a chroma key processing program executed by the program of FIG.
【0376】ステップS320において、DSP80の
各要素プロセッサ30は、背景画像データのY−f,C
r−f,Cb−fの各データ、および、前景画像データ
のY−f,Cr−f,Cb−fの各データを入力SAM
部に入力する。In step S320, each element processor 30 of the DSP 80 determines whether the background image data Yf, C
rf and Cb-f, and foreground image data Yf, Cr-f and Cb-f are input to the SAM.
Enter in the section.
【0377】ステップS321において、各要素プロセ
ッサ30は、データメモリ部に領域1〜5を確保する。In step S321, each element processor 30 secures areas 1 to 5 in the data memory unit.
【0378】ステップS322において、各要素プロセ
ッサ30は、入力SAM部から前景画像のY−f,Cr
−f,Cb−fの各データを、データメモリ部の領域1
に転送する。[0378] In step S322, each element processor 30 sends Yf, Cr of the foreground image from the input SAM unit.
-F and Cb-f are stored in the data memory area 1
Transfer to
【0379】ステップS324において、各要素プロセ
ッサ30は、入力SAM部から背景画像のY−f,Cr
−f,Cb−fの各データを、データ領域2に転送す
る。[0379] In step S324, each element processor 30 sends the Yf, Cr of the background image from the input SAM unit.
-F and Cb-f are transferred to the data area 2.
【0380】ステップS325において、各要素プロセ
ッサ30のALUアレイ部は、データメモリの領域1の
前景画像のCr−fデータから、GUIにより入力され
た数値x1 を減算し、データメモリ部の領域3に記憶
(代入)する。[0380] In step S325, ALU array unit of the processor elements 30, the Cr-f data of the foreground image area of the data memory 1, by subtracting the numerical value x 1 which is input by the GUI, the area of the data memory unit 3 Is stored (substituted).
【0381】ステップS326において、各要素プロセ
ッサ30のALUアレイ部は、データメモリ部のCb−
fデータからGUIにより入力された数値y1 を減算
し、データメモリ部の領域4に記憶(代入)する。In step S326, the ALU array section of each element processor 30 stores the Cb-
subtracting the numerical value y 1 input by the GUI from the f data and stores (substituted) in the area 4 of the data memory unit.
【0382】ステップS327において、各要素プロセ
ッサ30のALUアレイ部は、データメモリ部の領域3
のデータを2乗し、データメモリ部の領域3に記憶(代
入)する。[0382] In step S327, the ALU array section of each element processor 30 stores the area 3 of the data memory section.
Is squared and stored (substituted) in the area 3 of the data memory unit.
【0383】ステップS328において、各要素プロセ
ッサ30のALUアレイ部は、データメモリ部の領域4
のデータを2乗し、データメモリ部の領域4に記憶(代
入)する。In step S328, the ALU array section of each element processor 30 stores data in area 4 of the data memory section.
Is squared and stored (substituted) in the area 4 of the data memory section.
【0384】ステップS329において、各要素プロセ
ッサ30のALUアレイ部は、データメモリ部の領域3
のデータと領域3のデータとを加算し、データメモリ部
の領域5に記憶(代入)する。[0384] In step S329, the ALU array section of each element processor 30 stores the area 3 of the data memory section.
And the data in the area 3 are added and stored (substituted) in the area 5 of the data memory unit.
【0385】ステップS330において、各要素プロセ
ッサ30のALUアレイ部は、データメモリ部の領域5
のデータと、定数T4 〔T4 =(x2 −x1 )2 ×(y
2 −y1 )2 〕とを比較し、データメモリ部の領域5の
データが定数T4 未満であればS331の処理に進み、
データメモリ部の領域5のデータが定数T4 以上であれ
ばS332の処理に進む。In step S330, the ALU array section of each element processor 30 stores the data in the area 5 of the data memory section.
And a constant T 4 [T 4 = (x 2 −x 1 ) 2 × (y
2- y 1 ) 2 ], and if the data in the area 5 of the data memory section is less than the constant T 4 , the process proceeds to S 331,
Data area 5 of the data memory unit proceeds to the processing of long constant T 4 or S332.
【0386】ステップS331において、各要素プロセ
ッサ30は、出力SAM部を介して、データメモリ部の
領域2のデータを出力する。At step S331, each element processor 30 outputs the data of the area 2 of the data memory unit via the output SAM unit.
【0387】ステップS332において、各要素プロセ
ッサ30は、出力SAM部を介して、データメモリ部の
領域1のデータを出力する。In step S332, each element processor 30 outputs the data in the area 1 of the data memory unit via the output SAM unit.
【0388】画像データ処理システム10の動作 以下、図48を参照して、図43に示した画像データ処
理システム10の動作を説明する。図48は、画像デー
タ処理システム10(図43)によるクロマキー処理を
示すフローチャート図である。 Operation of Image Data Processing System 10 The operation of the image data processing system 10 shown in FIG. 43 will be described below with reference to FIG. FIG. 48 is a flowchart showing the chroma key processing by the image data processing system 10 (FIG. 43).
【0389】図48に示すように、ステップS340に
おいて、パーソナルコンピュータ72は、背景色設定用
GUI画像(図45)をコンピュータのモニタに表示す
る。ステップS342において、使用者は、背景色設定
用GUI画像の表示に対して、入力装置70のマウス等
により、背景色としたい色の範囲を図形により指定す
る。As shown in FIG. 48, in step S340, the personal computer 72 displays the background color setting GUI image (FIG. 45) on the monitor of the computer. In step S342, the user designates the range of the color to be set as the background color by using the mouse of the input device 70 with respect to the display of the background color setting GUI image.
【0390】ステップS344において、使用者が入力
装置70のマウス等により、背景色設定用GUI画像の
Makeボタンを押下すると、パーソナルコンピュータ
72は、図形により指定された範囲に含まれる色の全て
を背景色とし、前景画像の背景色の部分に背景画像を嵌
め込むように重ね合わせるプログラム(図46,図4
7)を生成する。ステップS346において、パーソナ
ルコンピュータ72は、生成したプログラムをDSP8
0にダウンロードする。DSP80は、ダウンロードさ
れたプログラムを実行して、図46および図47に示し
た実時間画像処理を行い、クロマキー処理結果を画像モ
ニタ76に表示する。[0390] In step S344, when the user presses the Make button of the background color setting GUI image with the mouse or the like of the input device 70, the personal computer 72 displays all the colors included in the range specified by the graphic on the background. And a program for superimposing the background image so as to fit the background color portion of the foreground image (FIGS. 46 and 4).
7) is generated. In step S346, the personal computer 72 transmits the generated program to the DSP 8
Download to 0. The DSP 80 executes the downloaded program, performs the real-time image processing shown in FIGS. 46 and 47, and displays the chroma key processing result on the image monitor 76.
【0391】以上説明したように、本発明に係る画像デ
ータ処理システム10によれば、クロマキー処理を、汎
用性が高くソフトウェアプログラマブルな小さいSIM
D制御のリニアアレイ型多並列プロセッサで実現するこ
とができ、また、GUI操作により簡単にクロマキーの
背景色の設定が可能である。また、本発明に係る画像デ
ータ処理システム10は、クロマキー処理をソフトウェ
ア的に行うので、任意の背景色の設定が可能であり、し
かも、その変更が簡単である。As described above, according to the image data processing system 10 of the present invention, the chroma key processing is performed by a small, highly versatile and software programmable SIM.
It can be realized by a D-controlled linear array type multi-parallel processor, and the background color of the chroma key can be easily set by GUI operation. Further, the image data processing system 10 according to the present invention performs the chroma key processing by software, so that an arbitrary background color can be set, and the change is easy.
【0392】なお、上記第10の実施例においては、色
空間の楕円あるいは長方形の範囲を背景色と設定する場
合について示したが、他の図形、例えば、円および正方
形等の範囲内、あるいは、範囲外を背景色と設定しても
よい。また、第10の実施例においては、色空間をクロ
マ信号Cb,Crにより表現したが、他の信号、例えば
RGB信号で色空間を表現し、前景画像ソース781お
よび背景画像ソース782 から入力される画像データの
RGB信号をクロマキー処理するように画像データ処理
システム10を構成してもよい。また、第10の実施例
におけるクロマキー処理の背景色の設定方法は、SIM
D制御のリニアアレイ型多並列プロセッサに限らず、他
の形式のDSPに応用可能である。In the tenth embodiment, the case where the elliptical or rectangular range of the color space is set as the background color has been described. However, other figures, for example, within the range of a circle and a square, or The outside of the range may be set as the background color. In the tenth embodiment, the color space is represented by the chroma signals Cb and Cr. However, the color space is represented by another signal, for example, an RGB signal, and is input from the foreground image source 78 1 and the background image source 78 2. The image data processing system 10 may be configured to perform chroma key processing on the RGB signals of the image data to be processed. The method of setting the background color for chroma key processing in the tenth embodiment is described in SIM
The present invention can be applied not only to the D-controlled linear array type multi-parallel processor but also to other types of DSPs.
【0393】第11実施例 以下、本発明の第11の実施例を説明する。 Eleventh Embodiment Hereinafter, an eleventh embodiment of the present invention will be described.
【0394】輪郭強調処理 以下、図49および図50を参照して、輪郭強調処理を
説明する。図49は、第11の実施例として示す画像デ
ータ処理システム9(図37)による輪郭強調処理を示
す第1の図である。図50(A)〜(E)は、第11の
実施例として示す画像データ処理システム9(図37)
による輪郭強調処理を示す第2の図である。図49に示
すように、輪郭強調処理には、レベルデペンド(level d
epend)処理、フィルタリング処理、クリスピニング(cli
spining)処理、遅延処理(delay) および加算処理が含ま
れる。なお、実際には、これらの処理には、輝度信号Y
およびクロマ信号Cb,Crのいずれかの輪郭のための
変換処理〔図50(A)〕が前置される。[0394] edge enhancement processing below with reference to FIGS. 49 and 50, illustrating the edge enhancement process. FIG. 49 is a first diagram showing an outline emphasis process by the image data processing system 9 (FIG. 37) shown as the eleventh embodiment. FIGS. 50A to 50E show an image data processing system 9 (FIG. 37) shown as the eleventh embodiment.
FIG. 9 is a second diagram illustrating the outline emphasis processing by the first embodiment. As shown in FIG. 49, the level enhancement (level d
epend) processing, filtering processing, crispening (cli
spining) processing, delay processing, and addition processing. Actually, the luminance signal Y
And a conversion process [FIG. 50 (A)] for the contour of one of the chroma signals Cb and Cr.
【0395】レベルデペンド処理 輪郭強調処理において、図50(B)に示すレベルデペ
ンド処理は、第8の実施例において示した色補正(γ補
正)処理と同様の方法で、外部のVTR装置等の映像機
器から入力される画像データVINを非線形変換し、画
像データ内の物体の画像の輪郭を強調する成分を強調す
る。 Level Dependent Processing In the contour emphasizing processing, the level dependent processing shown in FIG. 50 (B) is performed in the same manner as the color correction (γ correction) processing shown in the eighth embodiment, and an external video equipment such as a VTR device. Of the image data VIN input from the image data is nonlinearly converted, and a component for enhancing the contour of the image of the object in the image data is emphasized.
【0396】フィルタリング処理 図50(C)に示すフィルタリング処理は、レベルデペ
ンド処理された画像データの高い周波数成分のみを通過
させるハイパスフィルタ(HPF;実際にはFIRフィ
ルタを用いる。第12実施例を参照)によるフィルタリ
ングを行い、画像データ内の物体の画像の輪郭を検出
し、検出した画像の輪郭を示す輪郭データを生成する。 Filtering Process In the filtering process shown in FIG. 50C, a high-pass filter (HPF; an FIR filter is actually used; see the twelfth embodiment) that passes only high frequency components of level-depended image data. , The contour of the image of the object in the image data is detected, and contour data indicating the contour of the detected image is generated.
【0397】クリスピニング処理 図50(D)に示すクリスピニング処理は、輪郭データ
を非線形変換して、元の画像データと合成した後の輪郭
の目立ちすぎを防止する。Crispening Process The crispening process shown in FIG. 50 (D) non-linearly transforms the contour data to prevent the contour after being synthesized with the original image data from becoming too conspicuous.
【0398】遅延処理 遅延処理は、上記各処理に要する時間だけ元の画像デー
タに時間遅延を与えて、クリスピング処理された輪郭デ
ータと元の画像データとのタイミングを合わせる。 Delay Processing In the delay processing, the original image data is given a time delay by the time required for each of the above processings, and the timing of the contour data subjected to the crisping processing is matched with the timing of the original image data.
【0399】加算処理 図50(E)に示す加算処理は、遅延した元の画像デー
タと、クリスピニング処理した輪郭データとを加算し
て、物体の画像の輪郭を強調した画像データを生成す
る。 Addition Processing The addition processing shown in FIG. 50 (E) adds the delayed original image data and the crispening processed outline data to generate image data in which the outline of the image of the object is emphasized.
【0400】本発明の第11の実施例は、例えば、GU
Iにより上記各処理の処理特性を簡単に設定して輪郭強
調処理を行うことができるように、図37に示した画像
データ処理システム9の動作を変更したものである。The eleventh embodiment of the present invention relates to, for example, GU
The operation of the image data processing system 9 shown in FIG. 37 is modified so that the outline enhancement processing can be performed by simply setting the processing characteristics of each of the above-described processings using I.
【0401】画像データ処理システム9(図37)の各
構成部分の動作 以下、第11の実施例として示す画像データ処理システ
ム9の各構成部分の動作を説明する。 Each part of the image data processing system 9 (FIG. 37)
The operation of each component of the image data processing system 9 shown as the eleventh embodiment will be described below.
【0402】DSP80 DSP80は、パーソナルコンピュータ72が作成した
プログラムを実行し、関数Sによる画像データVINの
変換処理および画像データSの生成、関数S’による画
像データSのレベルデペンド処理および画像データS’
の生成、周波数応答S”を示すフィルタによるフィルタ
リング処理および画像データS”の生成、関数S"'によ
る画像データS”のクリスピニング処理および画像デー
タS"'の生成、画像データVINの遅延処理、および、
遅延した画像データVINと画像データS"'との加算処
理を実行し、輪郭強調処理を行い、処理の結果として得
られた画像データを画像モニタ76に表示する。The DSP 80 executes the program created by the personal computer 72, converts the image data VIN with the function S, generates the image data S, performs the level-dependent processing of the image data S with the function S ′, and executes the image data S ′.
, Generation of image data S ", filtering of image data S" and generation of image data S "" by a function S "", delay processing of image data VIN, and,
An addition process of the delayed image data VIN and the image data S ″ ′ is performed, an outline enhancement process is performed, and the image data obtained as a result of the process is displayed on the image monitor 76.
【0403】パーソナルコンピュータ72 以下、図51〜52を参照して、パーソナルコンピュー
タ72の動作を説明する。[0403] Personal computer 72 Referring to Figure 51-52, the operation of the personal computer 72.
【0404】変換関数の設定 図51は、画像データ処理システム9(図37)による
輪郭強調処理において、輝度信号Yおよびクロマ信号C
b,Crを強調する関数を設定するために用いられるG
UI画像を示す図である。パーソナルコンピュータ72
は、入力装置70を介した使用者の操作に応じて、図5
1に示す関数設定用のGUI画像をモニタに表示する。 Setting of Conversion Function FIG. 51 shows that the luminance signal Y and the chrominance signal C are used in the outline emphasis processing by the image data processing system 9 (FIG. 37).
G used to set a function that emphasizes b and Cr
FIG. 3 is a diagram illustrating a UI image. Personal computer 72
5 according to the operation of the user through the input device 70.
The function setting GUI image shown in FIG. 1 is displayed on the monitor.
【0405】関数設定用のGUI画像内のウィンドウ内
のバーは、それぞれ輝度信号Yおよびクロマ信号Cb,
Crに乗算する係数a〜cに対応し、関数Sは、下式1
0で定義される。つまり、関数設定用GUIにより設定
される係数a〜cは、画像データの輝度信号Yおよびク
ロマ信号Cb,Crのいずれの輪郭を強調して輪郭強調
処理を行うかの度合いに対応する。The bars in the window in the function setting GUI image are the luminance signal Y and the chroma signal Cb, respectively.
The function S corresponds to the coefficients a to c by which Cr is multiplied.
Defined as 0. That is, the coefficients a to c set by the function setting GUI correspond to the degree of which one of the luminance signal Y and the chroma signals Cb and Cr of the image data is to be emphasized to perform the outline emphasis processing.
【0406】[0406]
【数10】 S = aY+bCb+cCr …(10)S = aY + bCb + cCr (10)
【0407】使用者は、関数設定用GUIの表示に応じ
て、入力装置70のマウス等でウィンドウ内の3つのバ
ーそれぞれをドラッグして、ウィンドウ内の係数a〜c
それぞれに対応するバーの長さを変更する。パーソナル
コンピュータ72は、変更後のウィンドウ内のバーの長
さに対応する係数a〜cを受け入れ、関数Sにより画像
ソース74を変換するDSP80のプログラムを作成
し、DSP80にダウンロードする。DSP80は、ダ
ウンロードされたプログラムを実行し、画像ソース74
から入力される画像データの輝度信号Yおよびクロマ信
号Cb,Crそれぞれを関数Sにより変換して画像デー
タSを生成し、輪郭強調処理の対象とする。[0407] In response to the display of the function setting GUI, the user drags each of the three bars in the window with the mouse of the input device 70 or the like, and sets the coefficients a to c in the window.
Change the length of the corresponding bar. The personal computer 72 receives the coefficients a to c corresponding to the length of the bar in the window after the change, creates a program of the DSP 80 for converting the image source 74 by the function S, and downloads the program to the DSP 80. The DSP 80 executes the downloaded program, and executes the image source 74
The image data S is generated by converting the luminance signal Y and the chroma signals Cb and Cr of the image data input from the image processing unit by using a function S, and is subjected to the contour emphasis processing.
【0408】レベルデペンド処理特性の設定 図52(A)〜(D)は、画像データ処理システム9に
よる輪郭強調処理において、レベルデペンド処理または
クリスピニング処理における非線形変換処理の特性を設
定するために用いられるGUI画面を示す図である。パ
ーソナルコンピュータ72は、入力装置70を介した使
用者の操作に応じて、図52(A)〜(C)に示すレベ
ルデペンド処理の特性の設定用のGUI画像をモニタに
表示する。 Setting of Level Dependent Processing Characteristics FIGS. 52A to 52D show a GUI used for setting the characteristics of the non-linear conversion processing in the level dependent processing or the crispening processing in the contour enhancement processing by the image data processing system 9. It is a figure showing a screen. The personal computer 72 displays a GUI image for setting the characteristics of the level dependent process shown in FIGS. 52A to 52C on the monitor in accordance with the operation of the user via the input device 70.
【0409】レベルデペンド処理は、上述のように非線
形変換処理の一種であって、パーソナルコンピュータ7
2は、レベルデペンド処理の変換特性を、図52(A)
〜(D)に示すように、横(x)軸を、画像データSの
画素データの値とし、縦(y)軸をレベルデペンド処理
された後の画像データS’の画素データの値としたグラ
フ形式で表現する。The level-dependent processing is a kind of non-linear conversion processing as described above.
2 shows the conversion characteristic of the level dependent process in FIG.
As shown in (D), a graph in which the horizontal (x) axis is the value of the pixel data of the image data S and the vertical (y) axis is the value of the pixel data of the image data S ′ after the level dependent process is performed. Express in a format.
【0410】使用者は、レベルデペンド特性設定用のG
UI画像の下部のウィンドウのAddボタン、Move
ボタンまたはDeleteボタンを入力装置70のマウ
ス等で押下することにより、図52(A)〜(C)それ
ぞれに示すAddモード、MoveモードまたはDel
eteモードのいずれかを常に選択し、レベルデペンド
処理の特性を示すグラフの曲線の通過点(ポイント)を
追加、移動または削除して、所望の特性を示すようにグ
ラフの曲線を変更する。[0410] The user sets G for setting the level dependent characteristic.
Add button in the bottom window of the UI image, Move
By pressing the button or the Delete button with the mouse or the like of the input device 70, an Add mode, a Move mode, or a Del mode shown in FIGS.
One of the ETE modes is always selected, and a passing point (point) of the curve indicating the characteristic of the level dependent processing is added, moved, or deleted, and the curve of the graph is changed to indicate the desired characteristic.
【0411】さらに、使用者が、入力装置70を用いて
パーソナルコンピュータ72にレベルデペンド処理の特
性設定の終了を指示すると、パーソナルコンピュータ7
2は、図52(D)に示す変更後のグラフの曲線を受け
入れ、受け入れた曲線に対応する関数S’を抽出する。Further, when the user instructs the personal computer 72 using the input device 70 to end the characteristic setting of the level dependent processing, the personal computer 7
2 receives the curve of the graph after the change shown in FIG. 52 (D) and extracts a function S ′ corresponding to the received curve.
【0412】フィルタリング特性の設定 図53(A)〜(C)は、画像データ処理システム9に
よる輪郭強調処理において、フィルタリング処理の特性
を設定するために用いられるGUI画面を示す図であ
る。上述のように、輪郭検出処理は、画像データS’を
フィルタリング処理することにより実現され、パーソナ
ルコンピュータ72は、フィルタリング処理の特性を、
図53(A)〜(C)に示すように、横(x)軸を周波
数とし、縦(y)軸を減衰量(利得量)とした周波数応
答のグラフ形式で表現する。なお、図53(A)〜
(C)に示したグラフにおいて、縦軸の上部は通過周波
数帯を示し、縦軸の下部は阻止周波数帯を示す。 Setting of Filtering Characteristics FIGS. 53 (A) to 53 (C) are diagrams showing GUI screens used for setting characteristics of the filtering process in the outline emphasizing process by the image data processing system 9. As described above, the contour detection process is realized by performing a filtering process on the image data S ′.
As shown in FIGS. 53 (A) to 53 (C), a frequency response is represented in a graph format in which the horizontal (x) axis is frequency and the vertical (y) axis is attenuation (gain). In addition, FIG.
In the graph shown in (C), the upper part of the vertical axis indicates the pass frequency band, and the lower part of the vertical axis indicates the stop frequency band.
【0413】使用者は、レベルデペンド特性の設定の際
と同様に、フィルタリング処理の特性設定用のGUI画
像の下部のウィンドウのAddボタン、Moveボタン
またはDeleteボタンを入力装置70のマウス等で
押下することにより、図53(A)〜(C)それぞれに
示すAddモード、MoveモードまたはDelete
モードのいずれかを常に選択し、フィルタリング処理の
特性を示すグラフの曲線の通過点を追加、移動または削
除して、所望の特性を示すようにグラフの曲線を変更す
る。The user presses the Add button, Move button, or Delete button in the lower window of the GUI image for setting the filtering characteristics with the mouse of the input device 70 in the same manner as when setting the level dependent characteristics. As a result, the Add mode, Move mode, or Delete mode shown in FIGS.
One of the modes is always selected, and the curve points of the graph showing the characteristics of the filtering process are added, moved or deleted to change the curve of the graph to show the desired characteristics.
【0414】さらに、使用者が、入力装置70を用いて
パーソナルコンピュータ72にレベルデペンド処理の特
性設定の終了を指示すると、パーソナルコンピュータ7
2は、変更後のグラフの曲線を受け入れ、受け入れた曲
線に対応する周波数応答S”を抽出する。Further, when the user instructs the personal computer 72 using the input device 70 to end the characteristic setting of the level dependent processing, the personal computer 7
2 accepts the curve of the graph after the change and extracts a frequency response S "corresponding to the accepted curve.
【0415】クリスピニング処理特性の設定 パーソナルコンピュータ72は、入力装置70を介した
使用者の操作に応じて、図52(A)〜(C)に示すク
リスピニング処理の特性の設定用のGUI画像をモニタ
に表示する。[0415] chestnut spinning processing characteristics for setting the personal computer 72, in response to user's operation via the input device 70, FIG. 52 (A) ~ GUI image for setting characteristics of chestnut spinning process shown in (C) Is displayed on the monitor.
【0416】クリスピニング処理は、上述したようにレ
ベルデペンド処理と同様な非線形変換処理の一種であっ
て、パーソナルコンピュータ72は、クリスピニング処
理の変換特性を、図52(A)〜(D)に示すように、
横(x)軸を、画像データS”の画素データの値とし、
縦(y)軸をクリスピニング処理された後の画像データ
S"'の画素データの値としたグラフ形式で表現する。The crispening process is a kind of non-linear conversion process similar to the level dependent process as described above, and the personal computer 72 shows the conversion characteristics of the crispening process in FIGS. 52 (A) to 52 (D). like,
The horizontal (x) axis is the pixel data value of the image data S ″,
The vertical (y) axis is represented in a graph format in which pixel data values of the image data S ″ ′ after the crispening process are set.
【0417】使用者は、レベルデペンド特性設定とほぼ
同じ内容のクリスピニング特性設定用のGUI画像の下
部のウィンドウのAddボタン、Moveボタンまたは
Deleteボタンを入力装置70のマウス等で押下す
ることにより、図52(A)〜(C)それぞれに示すA
ddモード、MoveモードまたはDeleteモード
のいずれかを常に選択し、クリスピニング処理の特性を
示すグラフの曲線の通過点を追加、移動または削除し
て、所望の特性を示すようにグラフの曲線を変更する。[0417] The user presses the Add button, Move button, or Delete button in the lower window of the GUI image for setting a crispening characteristic having almost the same contents as the level dependent characteristic setting by using a mouse or the like of the input device 70. A shown in each of 52 (A) to (C)
Always select one of the dd mode, Move mode and Delete mode, add, move or delete the passing points of the curve of the graph showing the characteristics of the crispening process, and change the curve of the graph to show the desired characteristics. I do.
【0418】さらに、使用者が、入力装置70を用いて
パーソナルコンピュータ72にクリスピニング処理の特
性設定の終了を指示すると、パーソナルコンピュータ7
2は、図52(D)に示す変更後のグラフの曲線を受け
入れ、受け入れた曲線に対応する関数S"'を抽出する。Further, when the user instructs the personal computer 72 using the input device 70 to end the setting of the characteristics of the crispening process, the personal computer 7
2 receives the curve of the graph after the change shown in FIG. 52 (D) and extracts a function S ″ ′ corresponding to the received curve.
【0419】DSP80用のプログラム作成 使用者が、図52(A)〜(D)および図53(A)〜
(C)に示した特性設定用のGUI画像に対する各処理
の特性の設定が終了すると、パーソナルコンピュータ7
2は、入力装置70を介した使用者の操作に応じて各処
理の特性を確定し、確定した特性で各処理を行うDSP
80用のプログラムまたはパラメータファイルを作成す
る。[0419] The user who creates the program for the DSP 80 can use the program shown in Figs. 52 (A) to 52 (D) and Figs.
When the setting of the characteristics of each process for the characteristic setting GUI image shown in FIG.
2 is a DSP that determines the characteristics of each process according to the operation of the user via the input device 70 and performs each process with the determined characteristics.
Create a program or parameter file for 80.
【0420】つまり、パーソナルコンピュータ72は、
図52(D)に示したレベルデペンド処理を示すグラフ
の曲線に対応する関数S’で画像データSを非線形変換
処理(レベルデペンド処理)し、図53(A)〜(C)
に示した変更後のグラフの曲線に対応する周波数応答
S”で画像データS’をフィルタリングし、図52
(D)に示したクリスピニング処理を示すグラフの曲線
に対応する関数S"'で画像データS”を非線形変換処理
(クリスピニング処理)し、さらに、遅延した元の画像
データVINと画像データS"'とを加算処理するDSP
80のプログラムを生成してDSP80にダウンロード
する。That is, the personal computer 72
The image data S is subjected to non-linear conversion processing (level-dependent processing) using a function S ′ corresponding to the curve of the graph indicating the level-dependent processing shown in FIG.
The image data S ′ is filtered with the frequency response S ″ corresponding to the curve of the graph after the change shown in FIG.
The image data S "is subjected to a non-linear conversion process (crispinning process) by a function S"'corresponding to the curve of the graph indicating the crispening process shown in (D), and further, the delayed original image data VIN and image data S DSP that adds "'
The program 80 is generated and downloaded to the DSP 80.
【0421】つまり、パーソナルコンピュータ72は、
図49に示した各処理の特性の設定に基づいて、これら
の処理を設定された特性で行うプログラムを生成し、D
SP80に設定する。但し、このプログラムにおいて
は、元の画像データの遅延処理は、加算処理の実行時ま
で元の画像データVINを保持しておくことにより実現
可能なので、特に遅延処理を独立したプログラムモジュ
ールとして作成する必要はない。That is, the personal computer 72
Based on the setting of the characteristics of each process shown in FIG. 49, a program for performing these processes with the set characteristics is generated, and D is generated.
Set to SP80. However, in this program, since the delay processing of the original image data can be realized by holding the original image data VIN until the execution of the addition processing, it is particularly necessary to create the delay processing as an independent program module. There is no.
【0422】DSP80のプログラムの内容 以下、パーソナルコンピュータ72が生成するDSP8
0のプログラムの処理内容を説明する。 The contents of the program of the DSP 80 are described below.
0 will be described.
【0423】変換関数Sの作成 まず、DSP80(SIMD制御のリニアアレイ型多並
列プロセッサ;図32に示した並列プロセッサ6等)の
各要素プロセッサ30は、データメモリ部23に、入力
SAM部22を介して入力される輝度信号Y、クロマ信
号Cb,Cr、変数S、および、ALUアレイ部24に
よる演算の途中結果のデータを記憶する領域(ワークエ
リア)を確保する。[0423] Creating a transformation function S First, DSP 80; the processor elements 30 of the (linear array type of SIMD control multi-parallel processor parallel processor 6 and the like shown in FIG. 32) is, in the data memory 23, the input SAM unit 22 An area (work area) for storing the luminance signal Y, the chroma signals Cb and Cr, the variable S, and the data of the intermediate result of the calculation by the ALU array unit 24 is secured.
【0424】次に、DSP80(並列プロセッサ6)の
各要素プロセッサ30のALUアレイ部24は、データ
メモリ部23に記憶されている輝度信号Yと係数aとを
乗算し、乗算結果を変数Sに代入する(S=aY)。さ
らに、ALUアレイ部24は、クロマ信号Cbと係数b
とを乗算し、乗算結果と変数Sとを加算して、変数Sに
代入する(S=aY+bCb)。さらに、ALUアレイ
部24は、クロマ信号Crと係数cとを乗算し、乗算結
果とを変数Sとを加算して、変数Sに代入する(S=a
Y+bCb+cCb)。Next, the ALU array unit 24 of each element processor 30 of the DSP 80 (parallel processor 6) multiplies the luminance signal Y stored in the data memory unit 23 by the coefficient a, and converts the multiplication result into a variable S. Substitution (S = aY). Further, the ALU array unit 24 includes the chroma signal Cb and the coefficient b.
, The result of the multiplication is added to the variable S, and the result is substituted for the variable S (S = aY + bCb). Further, the ALU array unit 24 multiplies the chroma signal Cr by the coefficient c, adds the multiplication result to a variable S, and substitutes the variable S for the variable S (S = a
Y + bCb + cCb).
【0425】レベルデペンド処理およびクリスピニング
処理 レベルデペンド処理とクリスピニング処理は原理的に同
じなので、ここでは、関数S’が、下の表1に示す通り
である場合のレベルデペンド処理を例として説明する。 Level Dependent Processing and Crispening
Since the processing level dependent processing and the crispening processing are the same in principle, the level dependent processing in the case where the function S ′ is as shown in Table 1 below will be described as an example.
【0426】[0426]
【表1】 [Table 1]
【0427】関数S’が表1の通りである場合、DSP
80(並列プロセッサ6)の要素プロセッサ30は、ま
ず、関数S’を領域1〜3それぞれの範囲ごとに1次関
数で近似する。次に、DSP80(並列プロセッサ6)
は、データメモリ部23内に係数を記憶する領域A,B
およびワークエリアを確保する。If the function S ′ is as shown in Table 1, the DSP
First, the element processor 30 of the 80 (parallel processor 6) approximates the function S ′ by a linear function for each of the regions 1 to 3. Next, the DSP 80 (parallel processor 6)
Are areas A and B for storing coefficients in the data memory unit 23.
And secure a work area.
【0428】次に、DSP80(並列プロセッサ6)の
各要素プロセッサ30のALUアレイ部24は、上記変
数Sの値が数値100より大きいか否かを判断し、数値
100より大きい場合には領域A,Bにそれぞれ係数a
3 ,b3 を記憶し、数値100以下の場合には領域A,
Bにそれぞれ係数a1 ,b1 を記憶する。Next, the ALU array unit 24 of each element processor 30 of the DSP 80 (parallel processor 6) determines whether or not the value of the variable S is larger than the numerical value 100. , B to the coefficient a
3 and b 3 are stored.
The coefficients a 1 and b 1 are stored in B, respectively.
【0429】次に、各要素プロセッサ30のALUアレ
イ部24は、画素データの値が数値150より大きいか
否かを判断し、数値150より大きい場合には領域A,
Bにそれぞれ係数a2 ,b2 を記憶し、数値150以下
の場合には領域A,Bに記憶されている係数の値をその
ままとする。Next, the ALU array unit 24 of each element processor 30 determines whether or not the value of the pixel data is larger than the numerical value 150.
The coefficients a 2 and b 2 are stored in B, respectively, and when the value is 150 or less, the values of the coefficients stored in the areas A and B are left as they are.
【0430】以上の処理により、各要素プロセッサ30
に入力された画素データが、表1のいずれの領域に属し
ているかに応じて領域A,Bに係数が記憶される。要素
プロセッサ30のALUアレイ部24は、さらに、領域
A,Bに記憶された係数の値と画素データの値xとに基
づいて、関数S’の演算処理を行う。By the above processing, each element processor 30
Are stored in the areas A and B according to which area in Table 1 the pixel data input to. The ALU array unit 24 of the element processor 30 further performs the operation of the function S ′ based on the values of the coefficients stored in the areas A and B and the value x of the pixel data.
【0431】フィルタリング係数の算出 パーソナルコンピュータ72は、フィルタリング特性
〔図53(A)〜(C)〕を示すパラメータをもとに、
FIRフィルタのフィルタ係数を算出する。 Calculation of Filtering Coefficient The personal computer 72 calculates the filtering coefficient based on the parameters indicating the filtering characteristics (FIGS. 53A to 53C).
Calculate the filter coefficient of the FIR filter.
【0432】水平方向のフィルタリング 水平方向のフィルタリングを16タップ構成のFIRフ
ィルタにより実現する場合、DSP80(並列プロセッ
サ6)の各要素プロセッサ30は、上記関数S’により
変換されたデータを、予め7タップ分、前方(図32に
おいては左方向)の要素プロセッサ30にずらして記憶
しておき、後方(図32においては右側)の要素プロセ
ッサ30から順に、パーソナルコンピュータ72が算出
したフィルタ係数を乗算して右側の要素プロセッサ30
に転送する処理を16回、繰り返す。 Horizontal Filtering When horizontal filtering is realized by a 16-tap FIR filter, each element processor 30 of the DSP 80 (parallel processor 6) converts the data converted by the function S ′ into 7 taps in advance. The values are shifted and stored in the front (left in FIG. 32) element processor 30, and are sequentially multiplied by the filter coefficient calculated by the personal computer 72 from the rear (right in FIG. 32) element processor 30. Right element processor 30
Is repeated 16 times.
【0433】垂直方向のフィルタリング 次に、垂直方向のフィルタリングを16タップ構成のF
IRフィルタにより実現する場合、まず、DSP80
(並列プロセッサ6)の各要素プロセッサ30は、上述
したように水平方向のフィルタリング処理を施したデー
タを、予めデータメモリ部23に記憶しておく。各要素
プロセッサ30のALUアレイ部24は、データメモリ
部23の画素データにアクセスする際には、アドレスを
ローテーションさせて用い、最新に入力されたラインの
画素データを、最も古く入力されたラインの画素データ
の次のアドレスに書き込み、下表2に示すように、プロ
グラム処理上、あたかも新しく入力されたラインの画素
データほど、一定のアドレスから順に、若い番号のアド
レスに記録されているかのように処理する。 Vertical Filtering Next, vertical filtering is performed by using a 16-tap F
In the case of realizing with an IR filter, first,
Each of the element processors 30 of the (parallel processor 6) stores the data subjected to the horizontal filtering process as described above in the data memory unit 23 in advance. When accessing the pixel data in the data memory unit 23, the ALU array unit 24 of each element processor 30 rotates the address and uses the pixel data of the latest input line to determine the pixel data of the oldest input line. Write to the next address of the pixel data, and as shown in Table 2 below, in the program processing, as if the pixel data of the newly input line is recorded from the fixed address in order from the fixed address, it is as if recorded at the lower numbered address. To process.
【0434】[0434]
【表2】 メモリ :実際に書き込まれる:nサイクル後のプログラム上の: アドレス:画素データのライン:ライン : :の番号 :n=16;n=17;n=18: ============================== 0- 15 : 1, 17ライン : 1ライン;2 ライン;3 ライン: 16- 31 : 2,18ライン : 2ライン;3 ライン;4 ライン: 32- 47 : 3ライン :3 ライン;4 ライン;5 ライン: 48- 63 : 4ライン :4 ライン;5 ライン;6 ライン: 64- 79 : 5ライン :5 ライン;6 ライン;7 ライン: 80- 95 : 6ライン :6 ライン;7 ライン;8 ライン: 96-111 : 7ライン :7 ライン;8 ライン;9 ライン: 112-127 : 8ライン :8 ライン;9 ライン;10ライン: 128-143 : 9ライン :9 ライン;10ライン;11ライン: 144-159 :10ライン :10ライン;11ライン;12ライン: 160-175 :11ライン :11ライン;12ライン;13ライン: 176-191 :12ライン :12ライン;13ライン;14ライン: 192-207 :13ライン :13ライン;14ライン;15ライン: 208-223 :14ライン :14ライン;15ライン;16ライン: 224-239 :15ライン :15ライン;16ライン;17ライン: 240-255 :16ライン :16ライン;17ライン;18ライン目: ↑ ↑ ↑ アドレスローテーション 0 -16 -32 …(2)[Table 2] Memory: Actually written: On the program after n cycles: Address: Pixel data line: Line: Number of number: n = 16; n = 17; n = 18: ====== ======================== 0-15: 1, 17 lines: 1 line; 2 lines; 3 lines: 16-31: 2, 18 lines : 2 lines; 3 lines; 4 lines: 32-47: 3 lines: 3 lines; 4 lines; 5 lines: 48-63: 4 lines: 4 lines; 5 lines; 6 lines: 64-79: 5 lines: 5 Line; 6 lines; 7 lines: 80-95: 6 lines: 6 lines; 7 lines; 8 lines: 96-111: 7 lines: 7 lines; 8 lines; 9 lines: 112-127: 8 lines: 8 lines; 9 lines; 10 lines: 128-143: 9 lines: 9 lines; 10 lines; 11 lines: 144-159: 10 lines: 10 lines; 11 lines; 12 lines : 160-175: 11 lines: 11 lines; 12 lines; 13 lines: 176-191: 12 lines: 12 lines; 13 lines; 14 lines: 192-207: 13 lines: 13 lines; 14 lines; 15 lines: 208 -223: 14 lines: 14 lines; 15 lines; 16 lines: 224-239: 15 lines: 15 lines; 16 lines; 17 lines: 240-255: 16 lines: 16 lines; 17 lines; 18th line: ↑ ↑ ↑ Address rotation 0 -16 -32… (2)
【0435】表2のようにアドレスをローテーションす
ることにより、常に、各要素プロセッサ30のデータメ
モリ部23のアドレス0,15は、プログラム上、FI
Rフィルタの16タップ中の最も端の画素データのアド
レスとして扱われ、アドレス16,32の画素データ
は、常に最短の画素データの隣の画素データとして扱わ
れる。By rotating the addresses as shown in Table 2, the addresses 0 and 15 of the data memory unit 23 of each element processor 30 are always set to FI
It is treated as the address of the end pixel data in the 16 taps of the R filter, and the pixel data at addresses 16 and 32 is always treated as the pixel data next to the shortest pixel data.
【0436】従って、要素プロセッサ30のALUアレ
イ部24は、常に、最も端のアドレス(アドレス0,1
5)の画素データから順に、フィルタ係数を乗算して加
算することにより、垂直方向のフィルタリング処理を行
うことができる。Therefore, the ALU array section 24 of the element processor 30 always stores the end address (address 0, 1).
The filtering process in the vertical direction can be performed by multiplying and adding the filter coefficients in order from 5) the pixel data.
【0437】なお、要素プロセッサ30のデータメモリ
部23のメモリ容量が足りず、16タップ分の画素デー
タの全てを記憶できない場合には、16タップ分の画素
データを8タップ分ずつに2分割し、同様に、アドレス
をローテーションすることにより、最新に入力されたラ
インの画素データを、最も古く入力されたラインの画素
データの次のアドレスに書き込み、下表3,表4に示す
ように、プログラム処理上、あたかも新しく入力された
ラインの画素データほど、一定のアドレスから順に、若
い番号のアドレスに記録されているかのように処理す
る。If the memory capacity of the data memory unit 23 of the element processor 30 is not enough to store all of the pixel data for 16 taps, the pixel data for 16 taps is divided into two for each of 8 taps. Similarly, by rotating the address, the pixel data of the most recently input line is written to the next address of the pixel data of the oldest input line, and the program is executed as shown in Tables 3 and 4 below. In processing, pixel data of a newly input line is processed as if they were recorded at lower addresses in order from a fixed address.
【0438】このように分割して記憶した2つの画素デ
ータのブロックの内の第1のブロックに対しては、16
タップ構成のFIRフィルタの9タップ目から16タッ
プ目の演算処理を行い、演算結果と最も古い画素データ
を、第2の画素データのブロックに転送する。同様に、
第2の画素データのブロックに対しては、16タップ構
成のFIRフィルタの1タップ目から8タップ目までの
演算処理を行い、演算結果と第1の画素データのブロッ
クに対する演算結果とを加算して最終的なフィルタリン
グ結果を得る。また、画素データがさらに多くのブロッ
クに分割される場合でも、全く同様にFIRフィルタの
演算処理を行うことができる。[0438] Of the two blocks of pixel data divided and stored in this manner, the first block is divided into 16 blocks.
The arithmetic processing of the ninth to sixteenth taps of the FIR filter having the tap configuration is performed, and the arithmetic result and the oldest pixel data are transferred to the second pixel data block. Similarly,
For the block of the second pixel data, the calculation processing from the first tap to the eighth tap of the 16-tap FIR filter is performed, and the calculation result and the calculation result for the first pixel data block are added. To obtain the final filtering result. Even when the pixel data is divided into more blocks, the calculation processing of the FIR filter can be performed in exactly the same manner.
【0439】[0439]
【表3】 第1のブロック メモリ :実際に書き込まれる:nサイクル後のプログラム上の: アドレス:画素データのライン:ライン : :の番号 :n=16;n=17;n=18: ============================== 0- 15 : 1,9 ライン :9 ライン;10ライン;11ライン: 16- 31 : 2,10 ライン :10ライン;11ライン;12ライン: 32- 47 : 3ライン :11ライン;12ライン;13ライン: 48- 63 : 4ライン :12ライン;13ライン;14ライン: 64- 79 : 5ライン :13ライン;14ライン;15ライン; 80- 95 : 6ライン :14ライン;15ライン;16ライン; 96-111 : 7ライン :15ライン;16ライン;17ライン; 112-127 : 8ライン :16ライン;17ライン;18ライン; ↑ ↑ ↑ アドレスローテーション 0 -16 -32 …(3)[Table 3] First block memory: Actually written: On the program after n cycles: Address: Line of pixel data: Line: Number of number: n = 16; n = 17; n = 18: == ============================ 0-15: 1,9 lines: 9 lines; 10 lines; 11 lines: 16-31: 2,10 lines: 10 lines; 11 lines; 12 lines: 32-47: 3 lines: 11 lines; 12 lines; 13 lines: 48-63: 4 lines: 12 lines; 13 lines; 14 lines: 64-79: 5 lines: 13 lines; 14 lines; 15 lines; 80-95: 6 lines: 14 lines; 15 lines; 16 lines; 96-111: 7 lines: 15 lines; 16 lines; 17 lines; 112-127: 8 lines : 16 lines; 17 lines; 18 lines; ↑ ↑ ↑ Address rotation 0 -16 -32… (3)
【0440】[0440]
【表4】 第2のブロック メモリ :実際に書き込まれる:nサイクル後のプログラム上の: アドレス:画素データのライン:ライン : :の番号 :n=16;n=17;n=18: ============================== 0- 15 : 1,17 ライン :1 ライン;2 ライン;3 ライン: 16- 31 : 2,18 ライン :2 ライン;3 ライン;4 ライン: 32- 47 : 3ライン :3 ライン;4 ライン;5 ライン: 48- 63 : 4ライン :4 ライン;5 ライン;6 ライン: 64- 79 : 5ライン :5 ライン;6 ライン;7 ライン; 80- 95 : 6ライン :6 ライン;7 ライン;8 ライン; 96-111 : 7ライン :7 ライン;8 ライン;9 ライン; 112-127 : 8ライン :8 ライン;9 ライン;10ライン; ↑ ↑ ↑ アドレスローテーション 0 -16 -32 …(4)[Table 4] Second block memory: Actually written: On the program after n cycles: Address: Line of pixel data: Line: Number of number: n = 16; n = 17; n = 18: == ============================ 0-15: 1,17 lines: 1 line; 2 lines; 3 lines: 16-31: 2,18 lines: 2 lines; 3 lines; 4 lines: 32-47: 3 lines: 3 lines; 4 lines; 5 lines: 48-63: 4 lines: 4 lines; 5 lines; 6 lines: 64-79: 5 lines: 5 lines; 6 lines; 7 lines; 80-95: 6 lines: 6 lines; 7 lines; 8 lines; 96-111: 7 lines: 7 lines; 8 lines; 9 lines; 112-127: 8 lines : 8 lines; 9 lines; 10 lines; ↑ ↑ ↑ Address rotation 0 -16 -32… (4)
【0441】第11実施例における画 像データ処理シス
テム9の動作 以下、図54を参照して、第11の実施例における画像
データ処理システム9(図37)の動作を説明する。図
54は、第11の実施例として示す画像データ処理シス
テム9による輪郭強調処理を示すフローチャートであ
る。[0441] images data processing cis in the eleventh embodiment
The operation of the image data processing system 9 (FIG. 37) in the eleventh embodiment will be described below with reference to FIG. FIG. 54 is a flowchart showing the outline emphasis processing by the image data processing system 9 shown as the eleventh embodiment.
【0442】図54に示すように、ステップS350に
おいて、使用者は、画像データ処理システム9のパーソ
ナルコンピュータ72がモニタに表示する特性設定用の
GUI画像〔図52(A)〜(D),図53(A)〜
(C)〕に対して操作を行い、関数S,S’,S"'の設
定およびフィルタリング特性の設定操作を行う。パーソ
ナルコンピュータ72は、使用者の設定に応じて、関数
S,S’,S"'およびフィルタリング特性を受け入れ
る。As shown in FIG. 54, in step S350, the user operates the personal computer 72 of the image data processing system 9 to display a characteristic setting GUI image [FIG. 52 (A) to (D), FIG. 53 (A) ~
(C)] to set the functions S, S ', S "' and set the filtering characteristics. The personal computer 72 sets the functions S, S ', Accept S "'and filtering characteristics.
【0443】ステップS352において、パーソナルコ
ンピュータ72は、関数S,S’,S"'の抽出処理、お
よび、フィルタリング特性を実現するフィルタ係数の生
成を行う。ステップS354において、パーソナルコン
ピュータ72は、抽出した関数S,S’,S"'で画像デ
ータを変換し、また、算出したフィルタ係数を用いて画
像データをフィルタリングするDSP80(リニアアレ
イ型多並列プロセッサ)のプログラムを生成する。ステ
ップS356において、パーソナルコンピュータ72
は、生成したプログラムをDSP80にダウンロードす
る。DSP80は、ダウンロードされたプログラムを実
行して、画像ソース74から入力される画像データVI
Nに対して輪郭強調処理を行い、画像モニタ76に表示
する。[0443] In step S352, the personal computer 72 performs extraction processing of the functions S, S ', S "' and generation of filter coefficients for realizing filtering characteristics. In step S354, the personal computer 72 performs the extraction. A program of the DSP 80 (linear array type multi-parallel processor) for converting the image data with the functions S, S ′, S ″ ′ and filtering the image data using the calculated filter coefficients is generated. In step S356, the personal computer 72
Downloads the generated program to the DSP 80. The DSP 80 executes the downloaded program, and executes the image data VI input from the image source 74.
The outline emphasis processing is performed on N, and the image is displayed on the image monitor 76.
【0444】なお、画像モニタ76に表示された輪郭強
調処理結果が不自然であった場合には、使用者は、満足
できる画像データが得られるまで、S350〜S356
の処理を繰り返し、最適な処理特性を探すことにより、
輪郭が自然に強調された画像データを生成することがで
きる。If the result of the contour emphasizing process displayed on the image monitor 76 is unnatural, the user may proceed to steps S350 to S356 until satisfactory image data is obtained.
By searching for the optimal processing characteristics,
Image data in which a contour is naturally enhanced can be generated.
【0445】以上説明したように、第11の実施例にお
ける画像データ処理システム9の動作によれば、画像デ
ータに対する輪郭強調処理をDSP80(SIMD制御
のリニアアレイ型多並列プロセッサ)を用いてソフトウ
ェア的に実現することができるので、輪郭強調処理装置
の装置規模を小さくすることができる。また、第11の
実施例における画像データ処理システム9の動作によれ
ば、GUIにより、輪郭強調処理におけるフィルタリン
グ処理の周波数応答、あるいは、非線形変換による輪郭
強調の度合い等の特性を容易に変更することができ、し
かも、処理結果を即座に目視することができる。As described above, according to the operation of the image data processing system 9 in the eleventh embodiment, the outline emphasis processing for the image data is performed by software using the DSP 80 (SIMD-controlled linear array type multi-parallel processor). Therefore, the device scale of the contour enhancement processing device can be reduced. Further, according to the operation of the image data processing system 9 in the eleventh embodiment, it is possible to easily change the frequency response of the filtering process in the contour emphasis process, or the characteristics such as the degree of the contour emphasis by the non-linear conversion, by the GUI. And the processing result can be immediately observed.
【0446】なお、第11の実施例における輪郭強調処
理の処理特性の設定方法は、SIMD制御のリニアアレ
イ型多並列プロセッサに限らず、他の形式のDSPに応
用可能である。The method for setting the processing characteristics of the edge enhancement processing in the eleventh embodiment is applicable not only to the SIMD-controlled linear array type multi-parallel processor but also to other types of DSPs.
【0447】第12実施例 以下、本発明の第12の実施例を説明する。本発明の第
12の実施例は、第11の実施例として示した画像デー
タ処理システム9(図37)の輪郭強調処理に含まれる
各処理の内、FIRフィルタによるフィルタリング処理
に特に着目し、独立させたものである。Twelfth Embodiment Hereinafter, a twelfth embodiment of the present invention will be described. The twelfth embodiment of the present invention focuses on the filtering process by the FIR filter among the processes included in the outline emphasizing process of the image data processing system 9 (FIG. 37) shown as the eleventh embodiment. It was made.
【0448】FIRフィルタによるフィルタリング処理 以下、図55および図56を参照して、FIRフィルタ
によるフィルタリング処理を説明する。図55は、第1
2の実施例として示す画像データ処理システム9(図3
7)を用いて行うFIRフィルタによる水平方向のフィ
ルタリング処理の内容を示す図である。[0448] Filtering processing by the FIR filter will be described below with reference to Figs. 55 and 56. FIG. 55 shows the first
The image data processing system 9 shown in FIG.
FIG. 7 is a diagram showing the content of horizontal filtering processing by an FIR filter performed using 7).
【0449】図56は、第12の実施例として示す画像
データ処理システム9(図37)を用いて行うFIRフ
ィルタによる水平方向および垂直方向のフィルタリング
処理の内容を示す図である。なお、図56に示したフィ
ルタリング処理は、実際には、水平方向のフィルタリン
グ処理と垂直方向のフィルタリング処理とを分離して行
うことが多い。FIG. 56 is a diagram showing the contents of horizontal and vertical filtering processing by an FIR filter performed using the image data processing system 9 (FIG. 37) shown as the twelfth embodiment. In practice, the filtering process shown in FIG. 56 is often performed by separating the filtering process in the horizontal direction and the filtering process in the vertical direction.
【0450】図55および図56に示すように、FIR
フィルタによるフィルタリング処理には、1画素分の遅
延処理D、1水平走査期間分の遅延処理L、フィルタ係
数と画素データとの乗算処理Mおよび乗算結果の加算処
理Sが含まれる。As shown in FIGS. 55 and 56, the FIR
The filtering process by the filter includes a delay process D for one pixel, a delay process L for a horizontal scanning period, a multiplication process M of a filter coefficient and pixel data, and an addition process S of a multiplication result.
【0451】画像データ処理システム9(図37)の各
構成部分の動作 以下、第12の実施例として示す画像データ処理システ
ム9の各構成部分の動作を説明する。 Each of the image data processing systems 9 (FIG. 37)
The operation of each component of the image data processing system 9 shown as the twelfth embodiment will be described below.
【0452】DSP80 DSP80は、パーソナルコンピュータ72が作成した
プログラムを実行し、図55および図56に示した内容
に対応するFIRフィルタによるフィルタリング処理を
行い、処理の結果として得られた画像データを画像モニ
タ76に表示する。The DSP 80 executes the program created by the personal computer 72, performs a filtering process using an FIR filter corresponding to the contents shown in FIGS. 55 and 56, and displays the image data obtained as a result of the process on an image monitor. 76.
【0453】パーソナルコンピュータ72 以下、図57および図58を参照して、パーソナルコン
ピュータ72の動作を説明する。[0453] Personal computer 72 or less, with reference to FIGS. 57 and 58, the operation of the personal computer 72.
【0454】フィルタリング特性の設定 図57(A)〜(C)は、画像データ処理システム9に
よるFIRフィルタによるフィルタリング処理におい
て、フィルタリング処理の特性を設定するために用いら
れるGUI画面を示す図である。なお、図57(A)〜
(C)は、第11の実施例の説明において示した図53
(A)〜(C)と同一である。 Setting of Filtering Characteristics FIGS. 57 (A) to 57 (C) are diagrams showing GUI screens used for setting the characteristics of the filtering process in the filtering process by the image data processing system 9 using the FIR filter. In addition, FIG.
(C) of FIG. 53 shown in the description of the eleventh embodiment.
(A) to (C).
【0455】パーソナルコンピュータ72は、FIRフ
ィルタによるフィルタリング処理の特性を、図57
(A)〜(C)に示すように、横(x)軸を周波数と
し、縦(y)軸を減衰量(利得量)とした周波数応答の
グラフ形式で表現する。なお、図57(A)〜(C)に
示したグラフにおいて、縦軸の上部は通過周波数帯を示
し、縦軸の下部は阻止周波数帯を示す。The personal computer 72 determines the characteristics of the filtering process using the FIR filter as shown in FIG.
As shown in (A) to (C), the horizontal (x) axis is represented by a frequency, and the vertical (y) axis is represented by a graph of a frequency response with an attenuation (gain). In the graphs shown in FIGS. 57 (A) to (C), the upper part of the vertical axis indicates the pass frequency band, and the lower part of the vertical axis indicates the stop frequency band.
【0456】使用者は、フィルタリング処理の特性設定
用のGUI画像の下部のウィンドウのAddボタン、M
oveボタンまたはDeleteボタンを入力装置70
のマウス等で押下することにより、図53(A)〜
(C)それぞれに示すAddモード、Moveモードま
たはDeleteモードのいずれかを常に選択し、フィ
ルタリング処理の特性を示すグラフの曲線の通過点を追
加、移動または削除して、所望の特性を示すようにグラ
フの曲線を変更する。The user clicks the Add button in the lower window of the GUI image for setting the characteristics of the filtering process,
ove button or Delete button to the input device 70
By pressing with the mouse of FIG.
(C) Always select any of the Add mode, Move mode, and Delete mode shown, and add, move, or delete the passing points of the curve of the graph indicating the characteristics of the filtering process so that the desired characteristics are indicated. Change the curve of the graph.
【0457】つまり、Addモードにおいては、パーソ
ナルコンピュータ72は、使用者が、入力装置70のマ
ウス等を用いてGUI画面のウィンドウ内の所望の点を
クリックすると、パーソナルコンピュータ72は、グラ
フの通過点を新たに設け、クリックした点までグラフの
曲線内の対応する点を移動させ、グラフの曲線の形を変
更して表示する。That is, in the Add mode, when the user clicks a desired point in the window of the GUI screen using the mouse or the like of the input device 70, the personal computer 72 displays the passing point of the graph. Is newly provided, the corresponding point in the curve of the graph is moved to the clicked point, and the shape of the curve of the graph is changed and displayed.
【0458】また、Moveモードにおいては、パーソ
ナルコンピュータ72は、使用者が、入力装置70のマ
ウス等を用いてGUI画面のウィンドウ内の所望の点を
クリックし、ドラッグすると、パーソナルコンピュータ
72は、クリックした点に最も近い既存の通過点を、使
用者のドラッグに応じて移動させ、グラフの曲線の形を
変更して表示する。In the Move mode, when the user clicks and drags a desired point in the window of the GUI screen with the mouse of the input device 70, the personal computer 72 The existing passing point closest to the point is moved according to the drag of the user, and the shape of the curve of the graph is changed and displayed.
【0459】また、Deleteモードにおいては、パ
ーソナルコンピュータ72は、使用者が、入力装置70
のマウス等を用いてGUI画面のウィンドウ内の所望の
点をクリックすると、パーソナルコンピュータ72は、
クリックした点に最も近い既存の通過点を削除し、削除
した通過点の両隣の通過点を直線で接続するようにグラ
フの曲線の形を変更して表示する。In the Delete mode, the personal computer 72 allows the user to operate the input device 70.
When the user clicks a desired point in the window of the GUI screen using the mouse or the like, the personal computer 72
The existing passing point closest to the clicked point is deleted, and the shape of the curve of the graph is changed and displayed so that the passing points on both sides of the deleted passing point are connected by a straight line.
【0460】FIRフィルタの設計 使用者が、図57(A)〜(C)に示した特性設定用の
GUI画像に対するフィルタリング処理の特性の設定が
終了すると、パーソナルコンピュータ72は、入力装置
70を介した使用者の操作に応じて特性を確定し、フィ
ルタリング特性を示すパラメータから算出したフィルタ
係数を用いて、フィルタ設計ツールにより、確定した特
性でフィルタリング処理を行うFIRフィルタを設計す
る。When the design user of the FIR filter completes the setting of the characteristics of the filtering process for the GUI images for setting the characteristics shown in FIGS. 57A to 57C, the personal computer 72 connects the input device 70. The characteristic is determined in accordance with the operation of the user, and an FIR filter that performs a filtering process with the determined characteristic is designed by a filter design tool using a filter coefficient calculated from a parameter indicating the filtering characteristic.
【0461】DSP80用のプログラム作成 パーソナルコンピュータ72は、設計したFIRフィル
タによりフィルタリング処理を各処理を行うDSP80
用のプログラムを作成する。つまり、パーソナルコンピ
ュータ72は、図53(A)〜(C)に示した変更後の
グラフの曲線に対応する周波数応答S”で画像データV
INをフィルタリングするDSP80のプログラムを生
成してDSP80にダウンロードする。 The program creation personal computer 72 for the DSP 80 performs the filtering process using the designed FIR filter.
Create a program for That is, the personal computer 72 generates the image data V with the frequency response S ″ corresponding to the curves of the graphs after the change shown in FIGS.
A program for the DSP 80 for filtering the IN is generated and downloaded to the DSP 80.
【0462】DSP80のプログラムの内容 以下、図58をさらに参照して、パーソナルコンピュー
タ72が生成するDSP80のプログラムの処理内容を
説明する。図58は、第12の実施例として示すFIR
フィルタによるフィルタリング処理を行う画像データ処
理システム9(図37)のDSP80のプログラムの処
理内容(S36,S37)を示す図である。 The contents of the program of the DSP 80 The processing contents of the program of the DSP 80 generated by the personal computer 72 will be described below with further reference to FIG. FIG. 58 shows an FIR shown as a twelfth embodiment.
FIG. 38 is a diagram illustrating processing contents (S36, S37) of a program of the DSP 80 of the image data processing system 9 (FIG. 37) that performs a filtering process using a filter.
【0463】フィルタリング係数の算出 パーソナルコンピュータ72は、フィルタリング特性
〔図57(A)〜(C)〕を示すパラメータをもとに、
FIRフィルタのフィルタ係数を算出する。 Calculation of Filtering Coefficient The personal computer 72 calculates the filtering coefficient based on the parameters indicating the filtering characteristics (FIGS. 57A to 57C).
Calculate the filter coefficient of the FIR filter.
【0464】水平方向のフィルタリング(S36) 水平方向のフィルタリングを16タップ構成のFIRフ
ィルタにより実現する場合、図58に示すように、水平
方向のフィルタリング処理(S36)のステップ360
(S360)において、DSP80(例えば並列プロセ
ッサ6;図32)の各要素プロセッサ30は、画像デー
タの画素データを、予め7タップ分、前方(図32にお
いては左方向)の要素プロセッサ30にずらして記憶す
る。 Horizontal Filtering (S36) When horizontal filtering is realized by a 16-tap FIR filter, as shown in FIG. 58, step 360 of horizontal filtering (S36) is performed.
In (S360), each of the element processors 30 of the DSP 80 (for example, the parallel processor 6; FIG. 32) shifts the pixel data of the image data by 7 taps in advance to the element processor 30 in the front (left direction in FIG. 32). Remember.
【0465】ステップS362において、DSP80の
各要素プロセッサ30は、パーソナルコンピュータ72
が算出したフィルタ係数と画素データとを乗算する。ス
テップS364において、DSP80の各要素プロセッ
サ30は、S362における乗算結果を、後方(図32
においては右隣)の要素プロセッサ30に転送する。な
お、DSP80は、S362およびS364における乗
算処理および乗算結果の転送処理を、16回、繰り返
す。In step S362, each element processor 30 of the DSP 80
Is multiplied by the calculated filter coefficient and pixel data. In step S364, each element processor 30 of the DSP 80 updates the multiplication result in S362 backward (FIG. 32).
Is transferred to the element processor 30 on the right. Note that the DSP 80 repeats the multiplication process and the transfer process of the multiplication result in S362 and S364 16 times.
【0466】垂直方向のフィルタリング 垂直方向のフィルタリングを16タップ構成のFIRフ
ィルタにより実現する場合、垂直方向のフィルタリング
処理(S37)において、DSP80(並列プロセッサ
6)の各要素プロセッサ30は、16ライン分の画像デ
ータS’の画素データを、予めデータメモリ部23に記
憶しておく。さらに、各要素プロセッサ30のALUア
レイ部24は、データメモリ部23の画素データにアク
セスする際には、アドレスをローテーションさせて用
い、最新に入力されたラインの画素データを、最も古く
入力されたラインの画素データのアドレスに書き込み、
下表5(第11の実施例に示した表2に同じ)に示すよ
うに、プログラム処理上、あたかも新しく入力されたラ
インの画素データほど、一定のアドレスから順に、若い
番号のアドレスに記録されているかのように処理する。When filtering in the vertical direction is realized by a 16-tap FIR filter, in the filtering process in the vertical direction (S37), each element processor 30 of the DSP 80 (parallel processor 6) performs processing for 16 lines. The pixel data of the image data S ′ is stored in the data memory unit 23 in advance. Further, when accessing the pixel data in the data memory unit 23, the ALU array unit 24 of each element processor 30 uses the address by rotating the address, and uses the pixel data of the latest input line as the oldest input line. Write to the pixel data address of the line,
As shown in Table 5 below (same as Table 2 shown in the eleventh embodiment), in the program processing, pixel data of a newly input line is recorded at a lower numbered address in order from a fixed address, as if the pixel data was newly input. Treat as if
【0467】[0467]
【表5】 メモリ :実際に書き込まれる:nサイクル後のプログラム上の: アドレス:画素データのライン:ライン : :の番号 :n=16;n=17;n=18: ============================== 0- 15 : 1, 17ライン : 1ライン;2 ライン;3 ライン: 16- 31 : 2,18ライン : 2ライン;3 ライン;4 ライン: 32- 47 : 3ライン :3 ライン;4 ライン;5 ライン: 48- 63 : 4ライン :4 ライン;5 ライン;6 ライン: 64- 79 : 5ライン :5 ライン;6 ライン;7 ライン: 80- 95 : 6ライン :6 ライン;7 ライン;8 ライン: 96-111 : 7ライン :7 ライン;8 ライン;9 ライン: 112-127 : 8ライン :8 ライン;9 ライン;10ライン: 128-143 : 9ライン :9 ライン;10ライン;11ライン: 144-159 :10ライン :10ライン;11ライン;12ライン: 160-175 :11ライン :11ライン;12ライン;13ライン: 176-191 :12ライン :12ライン;13ライン;14ライン: 192-207 :13ライン :13ライン;14ライン;15ライン: 208-223 :14ライン :14ライン;15ライン;16ライン: 224-239 :15ライン :15ライン;16ライン;17ライン: 240-255 :16ライン :16ライン;17ライン;18ライン目: ↑ ↑ ↑ アドレスローテーション 0 -16 -32 …(5)[Table 5] Memory: Actually written: On the program after n cycles: Address: Line of pixel data: Line: Number of numbers: n = 16; n = 17; n = 18: ====== ======================== 0-15: 1, 17 lines: 1 line; 2 lines; 3 lines: 16-31: 2, 18 lines : 2 lines; 3 lines; 4 lines: 32-47: 3 lines: 3 lines; 4 lines; 5 lines: 48-63: 4 lines: 4 lines; 5 lines; 6 lines: 64-79: 5 lines: 5 Line; 6 lines; 7 lines: 80-95: 6 lines: 6 lines; 7 lines; 8 lines: 96-111: 7 lines: 7 lines; 8 lines; 9 lines: 112-127: 8 lines: 8 lines; 9 lines; 10 lines: 128-143: 9 lines: 9 lines; 10 lines; 11 lines: 144-159: 10 lines: 10 lines; 11 lines; 12 lines : 160-175: 11 lines: 11 lines; 12 lines; 13 lines: 176-191: 12 lines: 12 lines; 13 lines; 14 lines: 192-207: 13 lines: 13 lines; 14 lines; 15 lines: 208 -223: 14 lines: 14 lines; 15 lines; 16 lines: 224-239: 15 lines: 15 lines; 16 lines; 17 lines: 240-255: 16 lines: 16 lines; 17 lines; 18th line: ↑ ↑ ↑ Address rotation 0 -16 -32… (5)
【0468】表5に示したようにアドレスをローテーシ
ョンすることにより、常に、各要素プロセッサ30のデ
ータメモリ部23の仮想アドレス0〜15は、プログラ
ム上、FIRフィルタの16タップ中の最も端の画素デ
ータのアドレスとして扱われ、仮想アドレス16〜32
の画素データは、常に最端の画素データの隣の画素デー
タとして扱われる。By rotating the addresses as shown in Table 5, the virtual addresses 0 to 15 of the data memory unit 23 of each element processor 30 are always set at the end of the 16 taps of the FIR filter on the program. Virtual addresses 16 to 32
Pixel data is always treated as pixel data next to the end pixel data.
【0469】従って、要素プロセッサ30のALUアレ
イ部24は、常に、仮想アドレス0,15の画素データ
から順に、フィルタ係数を乗算して加算することによ
り、垂直方向のフィルタリング処理を行うことができ
る。Therefore, the ALU array section 24 of the element processor 30 can always perform the filtering process in the vertical direction by multiplying and adding the filter coefficients in order from the pixel data at the virtual addresses 0 and 15.
【0470】なお、要素プロセッサ30のデータメモリ
部23のメモリ容量が足りず、16タップ分の画素デー
タの全てを記憶できない場合には、16タップ分の画素
データを8タップ分ずつに2分割し、同様に、アドレス
をローテーションすることにより、最新に入力されたラ
インの画素データを、最も古く入力されたラインの画素
データの次のアドレスに書き込み、下表6,表7(第1
1の実施例に示した表3,表4に同じ)に示すように、
プログラム処理上、あたかも新しく入力されたラインの
画素データほど、一定のアドレスから順に、若い番号の
アドレスに記録されているかのように処理する。If the memory capacity of the data memory unit 23 of the element processor 30 is not enough to store all of the pixel data for 16 taps, the pixel data for 16 taps is divided into two for each of 8 taps. Similarly, by rotating the address, the pixel data of the most recently input line is written to the next address of the pixel data of the oldest input line, and the following Tables 6 and 7 (1st
As shown in Tables 3 and 4 shown in Example 1),
In the program processing, pixel data of a newly input line is processed as if recorded at lower addresses in order from a fixed address.
【0471】このように分割して記憶した2つの画素デ
ータのブロックの内の第1のブロックに対しては、16
タップ構成のFIRフィルタの9タップ目から16タッ
プ目の演算処理を行い、演算結果と最も古い画素データ
を、第2の画素データのブロックに転送する。同様に、
第2の画素データのブロックに対しては、16タップ構
成のFIRフィルタの1タップ目から8タップ目までの
演算処理を行い、演算結果と第1の画素データのブロッ
クに対する演算結果とを加算して最終的なフィルタリン
グ結果を得る。また、画素データがさらに多くのブロッ
クに分割される場合でも、全く同様にFIRフィルタの
演算処理を行うことができる。[0471] Of the two blocks of pixel data divided and stored in this way, the first block has 16 pixels.
The arithmetic processing of the ninth to sixteenth taps of the FIR filter having the tap configuration is performed, and the arithmetic result and the oldest pixel data are transferred to the second pixel data block. Similarly,
For the block of the second pixel data, the calculation processing from the first tap to the eighth tap of the 16-tap FIR filter is performed, and the calculation result and the calculation result for the first pixel data block are added. To obtain the final filtering result. Even when the pixel data is divided into more blocks, the calculation processing of the FIR filter can be performed in exactly the same manner.
【0472】[0472]
【表6】 第1のブロック メモリ :実際に書き込まれる:nサイクル後のプログラム上の: アドレス:画素データのライン:ライン : :の番号 :n=16;n=17;n=18: ============================== 0- 15 : 1,9 ライン :9 ライン;10ライン;11ライン: 16- 31 : 2,10 ライン :10ライン;11ライン;12ライン: 32- 47 : 3ライン :11ライン;12ライン;13ライン: 48- 63 : 4ライン :12ライン;13ライン;14ライン: 64- 79 : 5ライン :13ライン;14ライン;15ライン; 80- 95 : 6ライン :14ライン;15ライン;16ライン; 96-111 : 7ライン :15ライン;16ライン;17ライン; 112-127 : 8ライン :16ライン;17ライン;18ライン; ↑ ↑ ↑ アドレスローテーション 0 -16 -32 …(6)[Table 6] First block memory: Actually written: On the program after n cycles: Address: Line of pixel data: Line: Number of number: n = 16; n = 17; n = 18: == ============================ 0-15: 1,9 lines: 9 lines; 10 lines; 11 lines: 16-31: 2,10 lines: 10 lines; 11 lines; 12 lines: 32-47: 3 lines: 11 lines; 12 lines; 13 lines: 48-63: 4 lines: 12 lines; 13 lines; 14 lines: 64-79: 5 lines: 13 lines; 14 lines; 15 lines; 80-95: 6 lines: 14 lines; 15 lines; 16 lines; 96-111: 7 lines: 15 lines; 16 lines; 17 lines; 112-127: 8 lines : 16 lines; 17 lines; 18 lines; ↑ ↑ ↑ Address rotation 0 -16 -32… (6)
【0473】[0473]
【表7】 第2のブロック メモリ :実際に書き込まれる:nサイクル後のプログラム上の: アドレス:画素データのライン:ライン : :の番号 :n=16;n=17;n=18: ============================== 0- 15 : 1,17 ライン :1 ライン;2 ライン;3 ライン: 16- 31 : 2,18 ライン :2 ライン;3 ライン;4 ライン: 32- 47 : 3ライン :3 ライン;4 ライン;5 ライン: 48- 63 : 4ライン :4 ライン;5 ライン;6 ライン: 64- 79 : 5ライン :5 ライン;6 ライン;7 ライン; 80- 95 : 6ライン :6 ライン;7 ライン;8 ライン; 96-111 : 7ライン :7 ライン;8 ライン;9 ライン; 112-127 : 8ライン :8 ライン;9 ライン;10ライン; ↑ ↑ ↑ アドレスローテーション 0 -16 -32 …(7)[Table 7] Second block memory: Actually written: On the program after n cycles: Address: Line of pixel data: Line: Number of: n = 16; n = 17; n = 18: == ============================ 0-15: 1,17 lines: 1 line; 2 lines; 3 lines: 16-31: 2,18 lines: 2 lines; 3 lines; 4 lines: 32-47: 3 lines: 3 lines; 4 lines; 5 lines: 48-63: 4 lines: 4 lines; 5 lines; 6 lines: 64-79: 5 lines: 5 lines; 6 lines; 7 lines; 80-95: 6 lines: 6 lines; 7 lines; 8 lines; 96-111: 7 lines: 7 lines; 8 lines; 9 lines; 112-127: 8 lines : 8 lines; 9 lines; 10 lines; ↑ ↑ ↑ Address rotation 0 -16 -32… (7)
【0474】フィルタ回路の記述 パーソナルコンピュータ72は、上述のように設計した
FIRフィルタの回路を実現するハードウェア記述言語
(HDL等)による記述を作成し、ファイル等に出力す
る。 Description of Filter Circuit The personal computer 72 creates a description in a hardware description language (HDL or the like) for realizing the circuit of the FIR filter designed as described above, and outputs it to a file or the like.
【0475】DSP80の処理 以下、図59および図60を参照して、DSP80の処
理を説明する。図59および図60は、第12の実施例
におけるDSP80の処理を示す第1および第2のフロ
ーチャート図である。[0475] processing DSP 80 below, with reference to FIGS. 59 and 60, illustrating the process of DSP 80. FIGS. 59 and 60 are first and second flowcharts showing the processing of the DSP 80 in the twelfth embodiment.
【0476】まず、DSP80は、下表8に示すよう
に、データメモリ部に、画像データを記憶する領域1〜
16と、演算処理に用いる領域17〜21とを確保す
る。なお、データメモリ部に確保された領域1〜16
は、ライン(要素プロセッサ30)ごとのアドレスロー
テーションにより、仮想領域1〜16として用いられ、
アドレスローテーションは、制御回路中のデータメモリ
部を制御する部分により実行される。また、領域17〜
21は、アドレスローテーションの対象とはならない。First, as shown in Table 8 below, the DSP 80 stores the image data in the areas 1 to 3 in the data memory section.
16 and areas 17 to 21 used for the arithmetic processing. In addition, the areas 1 to 16 secured in the data memory unit
Are used as virtual areas 1 to 16 by address rotation for each line (element processor 30),
The address rotation is performed by a part of the control circuit that controls the data memory unit. In addition, areas 17 to
21 is not subject to address rotation.
【0477】[0477]
【表8】 データメモリ部:ラインn :ラインn+1 :ラインn+2 :ラインn+3 :… 領域1 :仮想領域1:仮想領域2:仮想領域3:仮想領域4:… 領域2 :仮想領域2:仮想領域3:仮想領域4:仮想領域5:… 領域3 :仮想領域3:仮想領域4:仮想領域5:仮想領域6:… 領域4 :仮想領域4:仮想領域5:仮想領域6:仮想領域7:… 領域5 :仮想領域5:仮想領域6:仮想領域7:仮想領域8:… 領域6 :仮想領域6:仮想領域7:仮想領域8:仮想領域9:… 領域7 :仮想領域7:仮想領域8:仮想領域9:仮想領域10:… 領域8 :仮想領域8:仮想領域9:仮想領域10:仮想領域11:… 領域9 :仮想領域9:仮想領域10:仮想領域11:仮想領域12:… 領域10 :仮想領域10:仮想領域11:仮想領域12:仮想領域13:… 領域11 :仮想領域11:仮想領域12:仮想領域13:仮想領域14:… 領域12 :仮想領域12:仮想領域13:仮想領域14:仮想領域15:… 領域13 :仮想領域13:仮想領域14:仮想領域15:仮想領域16:… 領域14 :仮想領域14:仮想領域15:仮想領域16:仮想領域1:… 領域15 :仮想領域15:仮想領域16:仮想領域1:仮想領域2:… 領域16 :仮想領域16:仮想領域1:仮想領域2:仮想領域3:… 領域17 :仮想領域17:仮想領域17:仮想領域17:仮想領域17:… 領域18 :仮想領域18:仮想領域18:仮想領域18:仮想領域18:… 領域19 :仮想領域19:仮想領域19:仮想領域19:仮想領域19:… 領域20 :仮想領域20:仮想領域20:仮想領域20:仮想領域20:… 領域21 :仮想領域21:仮想領域21:仮想領域21:仮想領域21:… …(8)[Table 8] Data memory section: line n: line n + 1: line n + 2: line n + 3:... Area 1: virtual area 1: virtual area 2: virtual area 3: virtual area 4: ... area 2: Virtual area 2: Virtual area 3: Virtual area 4: Virtual area 5: ... Area 3: Virtual area 3: Virtual area 4: Virtual area 5: Virtual area 6: ... Area 4: Virtual area 4: Virtual area 5: Virtual area 6: virtual area 7: ... area 5: virtual area 5: virtual area 6: virtual area 7: virtual area 8: ... area 6: virtual area 6: virtual area 7: virtual area 8: virtual area 9: ... area 7: Virtual area 7: Virtual area 8: Virtual area 9: Virtual area 10: ... Area 8: Virtual area 8: Virtual area 9: Virtual area 10: Virtual area 11: ... Area 9: Virtual area 9: Virtual area 10: Virtual area 11: virtual area 12: ... area 10: virtual area 10: virtual area 11: virtual area 12: virtual area 13: ... area 11: virtual Area 11: virtual area 12: virtual area 13: virtual area 14: ... area 12: virtual area 12: virtual area 13: virtual area 14: virtual area 15: ... area 13: virtual area 13: virtual area 14: virtual area 15 : Virtual area 16: ... area 14: virtual area 14: virtual area 15: virtual area 16: virtual area 1 ... area 15: virtual area 15: virtual area 16: virtual area 1: virtual area 2: ... area 16: virtual Area 16: Virtual area 1: Virtual area 2: Virtual area 3: ... Area 17: Virtual area 17: Virtual area 17: Virtual area 17: Virtual area 17: ... Area 18: Virtual area 18: Virtual area 18: Virtual area 18 : Virtual area 18: ... area 19: virtual area 19: virtual area 19: virtual area 19: virtual area 19: ... area 20: virtual area 20: virtual area 20: virtual area 20: virtual area 20: ... area 21: virtual Area 21: Virtual area 21: Virtual area 21: Virtual area 21: ... (8)
【0478】つまり、各ラインに、最初に入力SAM部
からのデータを仮想領域1に代入することにより、ある
ラインで見たときには、データメモリ部の仮想領域1に
はも新しいデータ、仮想領域2には次に新しいデータ、
…、仮想領域16には最も古いデータが存在する。That is, by first substituting the data from the input SAM unit into the virtual area 1 for each line, when a certain line is viewed, new data and virtual area 2 are stored in the virtual area 1 of the data memory unit. Has the next new data,
.., The oldest data exists in the virtual area 16.
【0479】GUI操作により決定され、FIRフィル
タを実現する16タップのフィルタ係数は、パーソナル
コンピュータ上で算出され、以下、水平方向のフィルタ
係数をフィルタ係数h1,h2,…,h16と、垂直方
向のフィルタ係数をフィルタ係数v1,v2,…,v1
6と記す。The filter coefficients of 16 taps determined by the GUI operation and realizing the FIR filter are calculated on a personal computer. Hereinafter, the filter coefficients in the horizontal direction will be referred to as filter coefficients h1, h2,. Filter coefficients are defined as filter coefficients v1, v2,.
Write 6.
【0480】図59に示すように、ステップS365に
おいて、DSP80は、各要素プロセッサ30の入力S
AM部に、FIRフィルタ処理の対象となるデータを入
力する。[0480] As shown in Fig. 59, in step S365, the DSP 80 sets the input S
Data to be subjected to FIR filter processing is input to the AM unit.
【0481】ステップS366において、各要素プロセ
ッサ30の入力SAM部は、データメモリ部の領域17
にS365の処理において入力されたデータを転送す
る。[0481] In step S366, the input SAM section of each element processor 30 is stored in the area 17 of the data memory section.
Then, the data input in the process of S365 is transferred.
【0482】ステップS367において、各要素プロセ
ッサ30は、右隣の要素プロセッサ30のデータメモリ
部の領域17のデータを読み出し、データメモリ部の領
域17に記憶する。この処理により、データメモリ部の
領域17のデータが、要素プロセッサ30、1つ分、左
にシフトされる。要素プロセッサ30は、S367の処
理を7回、繰り返し、データメモリ部の領域17のデー
タを、要素プロセッサ30、7つ分、左に移動する。In step S367, each element processor 30 reads out the data in the area 17 of the data memory section of the element processor 30 on the right and stores it in the area 17 of the data memory section. As a result of this processing, the data in the area 17 of the data memory unit is shifted to the left by one element processor 30. The element processor 30 repeats the processing of S367 seven times, and moves the data in the area 17 of the data memory unit to the left by seven element processors 30.
【0483】ステップS368において、各要素プロセ
ッサ30のALUアレイ部は、データメモリ部の領域1
7のデータにFIRフィルタの水平方向のフィルタ係数
h1を乗算し、データメモリ部の領域19に記憶する。In step S368, the ALU array section of each element processor 30 stores the area 1 of the data memory section.
7 is multiplied by the horizontal filter coefficient h1 of the FIR filter and stored in the area 19 of the data memory section.
【0484】ステップS369において、各要素プロセ
ッサ30は、左隣の要素プロセッサ30のデータメモリ
部の領域17のデータを読み出し、データメモリ領域の
領域17に記憶する。S369の処理により、各要素プ
ロセッサ30のデータメモリ部の領域17のデータが、
要素プロセッサ30、1つ分、右にシフトされる。In step S369, each element processor 30 reads the data in the area 17 of the data memory section of the element processor 30 on the left and stores it in the area 17 of the data memory area. By the processing of S369, the data in the area 17 of the data memory unit of each element processor 30 is
The element processor 30 is shifted right by one.
【0485】ステップS370において、各要素プロセ
ッサ30のALUアレイ部は、データメモリ部の領域1
7のデータにFIRフィルタの水平方向のフィルタ係数
h2を乗算し、データメモリ部の領域18に記憶する。[0485] In step S370, the ALU array section of each element processor 30 stores the area 1 of the data memory section.
7 is multiplied by the horizontal filter coefficient h2 of the FIR filter and stored in the area 18 of the data memory unit.
【0486】ステップS371において、各要素プロセ
ッサ30のALUアレイ部は、データメモリ部の領域1
8のデータと、データメモリ部の領域19のデータとを
加算し、データメモリ部の領域19に記憶する。[0486] In step S371, the ALU array section of each element processor 30 stores the area 1 of the data memory section.
8 and the data in the area 19 of the data memory section are added and stored in the area 19 of the data memory section.
【0487】図60に示すように、ステップS372に
おいて、左隣の要素プロセッサ30のデータメモリ部の
領域17のデータを読み出し、データメモリ領域の領域
17に記憶する。S369の処理により、各要素プロセ
ッサ30のデータメモリ部の領域17のデータが、要素
プロセッサ30、1つ分、右にシフトされる。As shown in FIG. 60, in step S372, the data in the area 17 of the data memory section of the element processor 30 on the left is read and stored in the area 17 of the data memory area. By the processing of S369, the data in the area 17 of the data memory unit of each element processor 30 is shifted right by one element processor 30.
【0488】ステップS373において、各要素プロセ
ッサ30のALUアレイ部は、データメモリ部の領域1
のデータにFIRフィルタの水平方向のフィルタ係数v
1を乗算し、データメモリ部の領域20に記憶する。[0488] In step S373, the ALU array section of each element processor 30 stores the area 1 of the data memory section.
To the horizontal filter coefficient v of the FIR filter
The result is multiplied by 1 and stored in the area 20 of the data memory section.
【0489】ステップS374において、各要素プロセ
ッサ30のALUアレイ部は、データメモリ部の仮想領
域iのデータに垂直方向のフィルタ係数viを乗算し、
データメモリ部の領域21に記憶する。ステップS37
5において、各要素プロセッサ30のALUアレイ部
は、データメモリ部の領域20のデータと、データメモ
リ部の領域21のデータとを加算し、データメモリ部の
領域21に記憶する。なお、各要素プロセッサ30のA
LUアレイ部は、S374およびS375の処理を、仮
想領域iおよびフィルタ係数viを、それぞれ仮想領域
2から仮想領域16まで、および、フィルタ係数2から
フィルタ係数16まで変化させて15回繰り返す。[0489] In step S374, the ALU array unit of each element processor 30 multiplies the data of the virtual area i of the data memory unit by the filter coefficient vi in the vertical direction,
It is stored in the area 21 of the data memory unit. Step S37
In 5, the ALU array unit of each element processor 30 adds the data in the area 20 of the data memory unit and the data in the area 21 of the data memory unit and stores the result in the area 21 of the data memory unit. In addition, A of each element processor 30
The LU array unit repeats the processing of S374 and S375 15 times by changing the virtual area i and the filter coefficient vi from the virtual area 2 to the virtual area 16 and from the filter coefficient 2 to the filter coefficient 16, respectively.
【0490】ステップS376において、各要素プロセ
ッサ30は、データメモリ部の領域21のデータを出力
SAM部に転送する。[0490] In step S376, each element processor 30 transfers the data in the area 21 of the data memory unit to the output SAM unit.
【0491】ステップS378において、各要素プロセ
ッサ30は、出力SAM部より、データを出力する。In step S378, each element processor 30 outputs data from the output SAM unit.
【0492】第12実施例における画像データ処理シス
テム9の動作 以下、図61を参照して、第12の実施例における画像
データ処理システム9(図37)の動作を説明する。図
61は、第12の実施例として示す画像データ処理シス
テム9を用いたFIRフィルタによるフィルタリング処
理を示すフローチャートである。 The image data processing system in the twelfth embodiment
The operation of the image data processing system 9 (FIG. 37) in the twelfth embodiment will be described below with reference to FIG. FIG. 61 is a flowchart showing a filtering process by an FIR filter using the image data processing system 9 shown as the twelfth embodiment.
【0493】図61に示すように、ステップS380に
おいて、使用者は、画像データ処理システム9のパーソ
ナルコンピュータ72がモニタに表示する特性設定用の
GUI画像〔図56(A)〜(C)〕に対して操作を行
い、フィルタリング特性(周波数応答S”)の設定操作
を行う。パーソナルコンピュータ72は、使用者の設定
に応じて、フィルタリング特性を受け入れる。As shown in FIG. 61, in step S380, the user changes the characteristic setting GUI image (FIGS. 56A to 56C) displayed on the monitor by the personal computer 72 of the image data processing system 9. The personal computer 72 accepts the filtering characteristic according to the setting of the user by performing the operation for the filtering characteristic (frequency response S ″).
【0494】ステップS382において、パーソナルコ
ンピュータ72は、S380の処理において設定された
パラメータを抽出する。ステップS384において、パ
ーソナルコンピュータ72は、S382で抽出したパラ
メータからフィルタ係数を算出する。[0494] In step S382, the personal computer 72 extracts the parameters set in the processing in S380. In step S384, the personal computer 72 calculates a filter coefficient from the parameters extracted in S382.
【0495】ステップS386において、パーソナルコ
ンピュータ72は、図59および図60を参照して上述
した設計したFIRフィルタによるフィルタリング処理
を行うDSP80(リニアアレイ型多並列プログラム)
のプログラムを作成する。ステップS388において、
パーソナルコンピュータ72は、生成したプログラムを
DSP80にダウンロードする。DSP80は、ダウン
ロードされたプログラムを実行して、画像ソース74か
ら入力される画像データVINに対してFIRフィルタ
によるフィルタリング処理を行い、処理結果を画像モニ
タ76に表示する。ステップS390において、パーソ
ナルコンピュータ72は、設計したフィルタ回路のハー
ドウェア記述言語による記述を生成し、出力する。[0495] In step S386, the personal computer 72 executes the DSP 80 (linear array type multi-parallel program) for performing the filtering process using the FIR filter designed as described above with reference to Figs.
Create a program. In step S388,
The personal computer 72 downloads the generated program to the DSP 80. The DSP 80 executes the downloaded program, performs a filtering process using a FIR filter on the image data VIN input from the image source 74, and displays the processing result on the image monitor 76. In step S390, the personal computer 72 generates and outputs a description of the designed filter circuit in a hardware description language.
【0496】なお、画像モニタ76に表示されたフィル
タリング処理結果が満足できないものである場合には、
使用者は、満足できる画像データが得られるまで、S3
80〜S388の処理を繰り返すことにより、最適なフ
ィルタリング特性を求めることができる。[0496] If the filtering processing result displayed on the image monitor 76 is not satisfactory,
The user operates S3 until satisfactory image data is obtained.
By repeating the processing of 80 to S388, it is possible to obtain the optimum filtering characteristics.
【0497】以上説明したように、第12の実施例にお
ける画像データ処理システム9の動作によれば、画像デ
ータに対するフィルタリング処理をDSP80(SIM
D制御のリニアアレイ型多並列プロセッサ)を用いてソ
フトウェア的に実現することができるので、FIRフィ
ルタによるフィルタリング処理装置の装置規模を小さく
することができる。また、第12の実施例における画像
データ処理システム9を用いたフィルタリング処理によ
れば、GUIにより、周波数応答S”を任意に設定し、
容易に変更を加えてフィルタリング処理を行うことがで
き、しかも、処理結果を即座に目視することができる。
従って、第12の実施例における画像データ処理システ
ム9を用いたフィルタリング処理は、画像データに対し
て特殊効果を付与する処理を行う場合に非常に有用であ
る。As described above, according to the operation of the image data processing system 9 in the twelfth embodiment, the filtering process for the image data is performed by the DSP 80 (SIM
Since it can be realized by software using a D-controlled linear array type multi-parallel processor, the size of a filtering processing device using an FIR filter can be reduced. Further, according to the filtering processing using the image data processing system 9 in the twelfth embodiment, the frequency response S ″ is arbitrarily set by the GUI,
The filtering process can be easily performed by making a change, and the processing result can be immediately viewed.
Therefore, the filtering process using the image data processing system 9 in the twelfth embodiment is very useful when performing a process for giving a special effect to image data.
【0498】なお、第12の実施例におけるFIRフィ
ルタによるフィルタリング処理の処理特性の設定方法
は、例えば、音声、振動、温度あるいは湿度等の各種デ
ータのフィルタリング処理に応用可能である。また、第
12の実施例におけるFIRフィルタによるフィルタリ
ング処理の処理特性の設定方法は、例えば、FIRフィ
ルタによるフィルタリングのほか、例えば、FFTを応
用したフィルタリング処理等、他の方法によるフィルタ
リング処理に応用可能である。The method for setting the processing characteristics of the filtering processing by the FIR filter in the twelfth embodiment is applicable to, for example, filtering processing of various data such as voice, vibration, temperature, and humidity. Further, the setting method of the processing characteristics of the filtering processing by the FIR filter in the twelfth embodiment can be applied to the filtering processing by other methods such as the filtering processing using FFT, for example, in addition to the filtering by the FIR filter. is there.
【0499】また、第12の実施例におけるFIRフィ
ルタによるフィルタリング処理の処理特性の設定方法
は、SIMD制御のリニアアレイ多並列プロセッサによ
るフィルタリング処理の他に、他の形式のDSPによる
フィルタリング処理に応用可能である。The method of setting the processing characteristics of the filtering processing by the FIR filter in the twelfth embodiment can be applied to the filtering processing by other types of DSPs in addition to the filtering processing by the SIMD-controlled linear array multi-parallel processor. It is.
【0500】また、第12の実施例として示した画像デ
ータ処理システム9は、フィルタ回路の設計を行って、
設計したフィルタ回路のハードウェア記述言語による記
述を作成して出力するので、所望の特性を有するフィル
タ回路を直ちに実際に製造に移すことができる。従っ
て、第12の実施例として示した画像データ処理システ
ム9は、ASICあるいは専用LSIの設計および製造
において非常に有用である。Also, the image data processing system 9 shown as the twelfth embodiment designs a filter circuit,
Since the description in the hardware description language of the designed filter circuit is created and output, a filter circuit having desired characteristics can be immediately transferred to actual production. Therefore, the image data processing system 9 shown as the twelfth embodiment is very useful in the design and manufacture of an ASIC or a dedicated LSI.
【0501】第13実施例 粒状ノイズとは、古いフィルム映像等によく見られる粒
状のノイズをいう。古いフィルム映画等をテレビジョン
放映する場合には、この粒状ノイズを除去あるいは軽減
する必要があり、粒状ノイズ除去(軽減)処理は、画像
処理システムにおいて必須とされている。本発明の第1
3の実施例は、画像データ処理システム9,10(図3
7,43)を、粒状ノイズ除去処理に応用した変形例で
ある。 Thirteenth Embodiment Granular noise refers to granular noise often seen in old film images and the like. When broadcasting an old film movie or the like on a television, it is necessary to remove or reduce the granular noise, and the granular noise removal (reduction) processing is indispensable in the image processing system. First of the present invention
3 is an image data processing system 9 or 10 (FIG. 3).
7, 43) is applied to a granular noise removal process.
【0502】粒状ノイズ除去処理 以下、図62および図63を参照して、粒状ノイズ除去
処理を説明する。図62は、本発明の第13実施例にお
ける粒状ノイズ除去処理を示す第1の図である。図63
(A)〜(E)は、本発明の第13実施例における粒状
ノイズ除去処理を示す第2の図である。 Granular Noise Removal Processing The granular noise removal processing will be described below with reference to FIGS. 62 and 63. FIG. 62 is a first diagram illustrating the granular noise removal processing according to the thirteenth embodiment of the present invention. FIG.
(A)-(E) are the 2nd figures which show the granular noise removal processing in the 13th Example of the present invention.
【0503】図62に示すように、粒状ノイズ除去処理
は、第1の乗算処理、減算処理、遅延処理、アダマール
変換処理、ノイズ分離処理、逆アダマール変換処理およ
び第2の乗算処理を含む。As shown in FIG. 62, the granular noise removal processing includes first multiplication processing, subtraction processing, delay processing, Hadamard transformation processing, noise separation processing, inverse Hadamard transformation processing, and second multiplication processing.
【0504】減算処理 ノイズ除去処理において、図63(A),(E)に示す
減算処理は、粒状ノイズ除去処理は、第1の乗算処理に
より得られた係数k(0<k<1)が乗算された粒状ノ
イズを含む入力画像データVINから、逆アダマール変
換処理の結果として得られ、係数(1−k)が乗算され
た画像データ(ノイズ画像データP"')を減算して粒状
ノイズを除去(軽減)し、出力画像データとして出力す
る。In the noise removal processing, in the subtraction processing shown in FIGS. 63A and 63E, in the granular noise removal processing, the coefficient k (0 <k <1) obtained by the first multiplication processing is used. The image data (noise image data P ″ ′) obtained as a result of the inverse Hadamard transform process and multiplied by the coefficient (1−k) is subtracted from the input image data VIN including the multiplied granular noise to reduce the granular noise. It is removed (reduced) and output as output image data.
【0505】アダマール変換処理 図63(B)に示すアダマール変換処理は、1フレーム
分の時間遅延が与えられた出力画像データ(P)を、ア
ダマール行列(M)を用いて変換し、画像の動きを示す
動き成分(P’)を分離する。 Hadamard Transformation Processing The Hadamard transformation processing shown in FIG. 63 (B) converts output image data (P) given a time delay of one frame using a Hadamard matrix (M), Is separated.
【0506】ノイズ分離処理 図63(C)に示すノイズ分離処理は、アダマール変換
処理された動き成分(P’)の内、所定の閾値より面積
が大きいものを画像中の物体の動きと判断し、所定の閾
値より面積が小さいものを粒状ノイズと判定することに
より、動き成分からノイズ成分(P”)のみを分離す
る。 Noise Separation Processing In the noise separation processing shown in FIG. 63 (C), among the motion components (P ') subjected to the Hadamard transform processing, those having an area larger than a predetermined threshold value are determined as the motion of the object in the image. By determining a noise having a smaller area than a predetermined threshold as granular noise, only the noise component (P ″) is separated from the motion component.
【0507】逆アダマール変換処理 図63(D)に示す逆アダマール変換処理は、ノイズ分
離処理により分離されたノイズ成分(P”)を、アダマ
ール逆行列(M-1)を用いて変換し、ノイズ画像データ
(P"')を生成する。 Inverse Hadamard Transform Process In the inverse Hadamard transform process shown in FIG. 63 (D), the noise component (P ″) separated by the noise separation process is converted using the Hadamard inverse matrix (M −1 ) Generate image data (P ″ ′).
【0508】本発明の第13の実施例(画像データ処理
システム11;図64)は、これらの処理の内のノイズ
分離処理において、動き成分中のノイズ成分の判定に用
いられる閾値を、GUIにより任意の値に設定でき、ま
た、容易に設定を変更できるようにして、ノイズ分離処
理を行うことができ、しかも、ノイズ分離処理の結果を
即座に目視確認できるように構成されている。In the thirteenth embodiment of the present invention (image data processing system 11; FIG. 64), in the noise separation processing among these processings, the threshold used for the determination of the noise component in the motion component is determined by the GUI. The configuration is such that the value can be set to any value, the setting can be easily changed, the noise separation processing can be performed, and the result of the noise separation processing can be immediately visually checked.
【0509】画像データ処理システム11の構成 図64は、本発明の第13の実施例として示す画像デー
タ処理システム11の構成を示す図である。図65は、
図64に示したDSP80に対して入出力されるデータ
を示す図である。なお、図64および図65において
は、画像データ処理システム11の構成部分のうち、既
に図37および図43等に示した画像データ処理システ
ム9,10の構成部分と同一のものには、同一の符号を
付して示してある。 Configuration of Image Data Processing System 11 FIG. 64 is a diagram showing the configuration of the image data processing system 11 shown as the thirteenth embodiment of the present invention. FIG.
FIG. 65 is a diagram showing data input / output to / from the DSP 80 shown in FIG. 64. In FIGS. 64 and 65, among the components of the image data processing system 11, those identical to those of the image data processing systems 9 and 10 already shown in FIGS. The reference numerals are attached.
【0510】図64に示すように、画像データ処理シス
テム11は、入力装置70、パーソナルコンピュータ7
2、画像ソース74、画像モニタ76、DSP80およ
びフレームメモリ82から構成される。つまり、画像デ
ータ処理システム11は、画像データ処理システム9に
フレームメモリ82を付加し、図65に示すように、粒
状ノイズ除去処理の結果として得られた画像データVO
UTに1フレーム分の時間遅延を与え、DSP80に第
2の入力データとして入力するように構成されている。
画像データ処理システム11は、これらの構成部分によ
り、画像ソース74から入力される画像データVINの
粒状ノイズを除去(軽減)する粒状ノイズ除去処理を行
う。As shown in FIG. 64, the image data processing system 11 comprises an input device 70, a personal computer 7
2. It comprises an image source 74, an image monitor 76, a DSP 80 and a frame memory 82. That is, the image data processing system 11 adds the frame memory 82 to the image data processing system 9, and as shown in FIG. 65, the image data VO obtained as a result of the granular noise removal processing.
A time delay of one frame is given to the UT, and the UT is input to the DSP 80 as second input data.
The image data processing system 11 performs a granular noise removal process for removing (reducing) the granular noise of the image data VIN input from the image source 74 using these components.
【0511】画像データ処理システム11の構成部分 以下、画像データ処理システム11(図64)の各構成
部分の内、第12の実施例以前の各実施例においてと動
作等が異なるものを説明する。 Components of Image Data Processing System 11 Hereinafter, among the components of the image data processing system 11 (FIG. 64), those having different operations and the like from the respective embodiments before the twelfth embodiment will be described.
【0512】DSP80 DSP80は、パーソナルコンピュータ72が、分離ポ
イントの設定に応じて作成したプログラムを実行し、粒
状ノイズ除去処理を行う。[0512] The DSP 80 executes the program created by the personal computer 72 according to the setting of the separation point, and performs the granular noise removal processing.
【0513】パーソナルコンピュータ72 図66は、図64に示した画像データ処理システム11
のパーソナルコンピュータ72が、ノイズ成分の分離ポ
イントを設定するためにモニタに表示するGUI画像を
示す図である。なお、図66に示した分離ポイント設定
用のGUI画像中のグラフは、−60〜+60の範囲を
分離ポイントとする場合を例示している。[0513] Personal computer 72 Fig. 66, the image data processing system 11 shown in FIG. 64
FIG. 7 is a diagram showing a GUI image displayed on a monitor by the personal computer 72 for setting a separation point of a noise component. The graph in the separation point setting GUI image shown in FIG. 66 illustrates a case where the range from −60 to +60 is set as the separation point.
【0514】分離ポイント設定用GUI画像の表示およ
び設定 パーソナルコンピュータ72は、図66に示すように、
ノイズ分離処理〔図62,図63(C)〕において、ア
ダマール変換処理により得られた動き成分の内、どのよ
うな面積の範囲(分離ポイント)のものをノイズ成分と
して検出するかを、例えば、グラフ形式で示すGUI画
像をモニタに表示する。[0514] Display and GUI image of separation point setting
And setting personal computer 72, as shown in FIG.
In the noise separation process [FIGS. 62 and 63 (C)], for example, what area range (separation point) of the motion components obtained by the Hadamard transform process is detected as the noise component is determined, for example. A GUI image shown in a graph format is displayed on a monitor.
【0515】使用者は、モニタに表示されたGUI画面
の分離ポイント設定用の画像(図66)内に表示された
グラフの通過点(図66中の○印)を、例えば、第11
の実施例における関数Sの設定の場合と同様に、入力装
置70のマウス等のクリック操作およびドラッグ操作に
より移動させて、分離ポイントの設定操作を行う。な
お、この設定操作中において、GUI画面中のグラフの
曲線は、相似形のまま拡大または縮小される。[0515] The user can change the passing point (indicated by a circle in Fig. 66) of the graph displayed in the image for setting the separation point (Fig. 66) on the GUI screen displayed on the monitor to, for example, the eleventh point.
As in the case of setting the function S in the embodiment, the input device 70 is moved by a click operation and a drag operation of a mouse or the like to perform an operation of setting a separation point. During this setting operation, the curve of the graph on the GUI screen is enlarged or reduced while maintaining a similar shape.
【0516】DSP80用プログラムの作成 この使用者の設定操作に応じて、パーソナルコンピュー
タ72は、GUI画像中のグラフの曲線を変更して表示
する。さらに、使用者が範囲の設定を終了し、入力装置
70を介して範囲設定を終了するための所定の操作を行
うと、パーソナルコンピュータ72は、分離ポイントを
確定し、確定した分離ポイントに基づいて、粒状ノイズ
除去処理を実行するDSP80のプログラムを作成し、
DSP80にダウンロードする。 Creation of Program for DSP 80 In response to the user's setting operation, the personal computer 72 changes and displays the curve of the graph in the GUI image. Further, when the user completes the setting of the range and performs a predetermined operation for ending the setting of the range via the input device 70, the personal computer 72 determines the separation point, and based on the determined separation point, , Create a program for the DSP 80 that executes the granular noise removal processing,
Download to DSP80.
【0517】DSP80用プログラムの処理内容 以下、パーソナルコンピュータ72が作成するDSP8
0用のプログラムの処理内容を説明する。画像データ処
理システム11のDSP80(並列プロセッサ6;図3
2)は、例えば、入力される画像データVINを、横4
画素×縦2画素の画素ブロックに分割し、画素ブロック
それぞれをアダマール変換処理して、ノイズ成分を含む
動き成分を検出する。 The processing contents of the program for the DSP 80. Hereinafter, the DSP 8 created by the personal computer 72
The processing contents of the program for 0 will be described. The DSP 80 (parallel processor 6; FIG. 3) of the image data processing system 11
2) indicates that, for example, the input image data VIN is
The pixel block is divided into pixel blocks of 2 pixels by 2 pixels, and each pixel block is subjected to Hadamard transform processing to detect a motion component including a noise component.
【0518】このため、DSP80は、各要素プロセッ
サ30のデータメモリ部23に、画像データVINを記
憶する領域、アダマール変換処理に用いる8つのデータ
を記憶する領域、行列演算に用いる8つのデータを記憶
する領域、および、ノイズ成分の検出に用いる係数を記
憶する領域を確保する。[0518] Therefore, the DSP 80 stores, in the data memory unit 23 of each element processor 30, an area for storing image data VIN, an area for storing eight data used for Hadamard transform processing, and eight data used for matrix operation. And an area for storing a coefficient used for detecting a noise component.
【0519】アダマール変換処理 次に、DSP80は、最新に入力されたフレーム(現フ
レーム)と、1つ前に入力されたフレーム(前フレー
ム)との対応する画素データ間の差分を算出し、差分値
をアダマール変換処理〔図62,図63(B)〕する。
つまり、DSP80の各要素プロセッサ30は、アダマ
ール変換の対象となる横4画素×縦2画素構成の画素ブ
ロックに含まれる画素ブロックの差分値それぞれをP0
0〜P04,P10〜P14とし、これらの差分値を要
素とする8×1行列に対して、8×8アダマール行列を
用いて、下式11に示すアダマール変換処理を行い、ノ
イズ成分P”を含む動き成分P’を検出する。[0519] Hadamard transform Next, DSP 80 calculates the difference between corresponding pixel data of the frame input to the latest (current frame), frame input to the previous (the previous frame), the difference The values are subjected to Hadamard transform processing (FIGS. 62 and 63 (B)).
That is, each of the element processors 30 of the DSP 80 calculates the difference value of the pixel block included in the pixel block of the horizontal 4 pixels × vertical 2 pixels to be subjected to the Hadamard transform by P0.
0 to P04 and P10 to P14, a Hadamard transform process shown in the following equation 11 is performed on an 8 × 1 matrix having these difference values as elements using an 8 × 8 Hadamard matrix, and a noise component P ″ is obtained. A motion component P ′ including the motion component is detected.
【0520】[0520]
【数11】 P' =MP …(11) 但し、| |は行列を示し、 |P 00| |P ' 00| |P 01| |P ' 01| |P 02| |P ' 02| P=|P 03| |P ' 03| |P 10| P’=|P ' 10| |P 11| |P ' 11| |P 12| |P ' 12| |P 13| |P ' 13| | 1 1 1 1 1 1 1 1 | | 1 -1 1 -1 1 -1 1 -1 | | 1 1 -1 -1 1 1 -1 -1 | | 1 -1 -1 1 1 -1 -1 1 | M=| 1 1 1 1 -1 -1 -1 -1 | | 1 -1 1 -1 -1 1 -1 1 | | 1 1 -1 -1 -1 -1 1 1 | | 1 -1 -1 1 -1 1 1 -1 | である。P ′ = MP (11) where || denotes a matrix, and | P00 || P'00 || P01 || P'01 || P02 || P'02 | P = | P 03 | | P '03 | | P 10 | P '= | P '10 | | P 11 | | P '11 | | P 12 | | P '12 | | P 13 | | P '13 | | 1 1 1 1 1 1 1 1 │ │ 1 -1 1 -1 1 -1 1 -1 │ │ 1 1 -1 -1 1 1 -1 -1 │ │ 1 -1 -1 1 1 -1 -1 1 │ M = | 1 1 1 1 -1 -1 -1 -1 │ │ 1 -1 1 -1 -1 1 -1 1 │ │ 1 1 -1 -1 -1 -1 1 1 │ │ 1 -1 -1 1 -1 1 1 -1 |
【0521】ここで、式11における各要素に対する演
算は、下式12に示す数値A,BからA+B,A−Bを
算出する関数Fを用いて、数値X01〜X03,Y01
〜Y032を、下式13,14に示すように定義する。Here, the operation for each element in the expression 11 is performed by using the function F for calculating A + B, AB from the numerical values A, B shown in the following expression 12, using numerical values X01 to X03, Y01.
To Y032 are defined as shown in the following Expressions 13 and 14.
【0522】[0522]
【数12】 F(A,B → A+B,A−B) …(12)F (A, B → A + B, AB) (12)
【0523】[0523]
【数13】 F(P00,P01 → X00=P00+P01 , X01=P00-P01) F(P02,P03 → X02=P02+P03 , X03=P02-P03) …(13)F (P00, P01 → X00 = P00 + P01, X01 = P00-P01) F (P02, P03 → X02 = P02 + P03, X03 = P02-P03)… (13)
【0524】[0524]
【数14】 F(X00,X02 → Y00=P00+P01+P02+P03 , Y01=P00+P01-P02-P03) F(X01,X03 → Y02=P00-P01+P02-P03 , Y03=P00-P01-P02+P03) …(14)F (X00, X02 → Y00 = P00 + P01 + P02 + P03, Y01 = P00 + P01-P02-P03) (P01-P02 + P03)… (14)
【0525】また、行列Pの要素P00〜P03は上の
ライン(1ライン目)、要素P10〜P13は下のライ
ン(2ライン目)に分かれているが、下式15に示す数
値Y10〜Y13は、各要素プロセッサ30が、1ライ
ン目の演算処理において算出した値を、2ライン目の演
算処理まで保存しておくだけでよい。The elements P00 to P03 of the matrix P are divided into upper lines (first line), and the elements P10 to P13 are divided into lower lines (second line). Suffices to store the values calculated by the element processors 30 in the first line operation processing up to the second line operation processing.
【0526】[0526]
【数15】 Y10=P10+P11+P12+P13 Y11=P10+P11-P12-P13 Y12=P10-P11+P12-P13 Y13=P10-P11-P12+P13 …(15)## EQU15 ## Y10 = P10 + P11 + P12 + P13 Y11 = P10 + P11-P12-P13 Y12 = P10-P11 + P12-P13 Y13 = P10-P11-P12 + P13 (15)
【0527】さらに、各要素プロセッサ30は、下式1
6に示す演算処理を行うことにより、式11に示した8
×1行列P’(動き成分P’)を算出することができ
る。Further, each element processor 30 is expressed by the following equation:
By performing the arithmetic processing shown in FIG. 6, 8
A × 1 matrix P ′ (motion component P ′) can be calculated.
【0528】[0528]
【数16】 F(Y00,Y10 -> P'00=Y00+Y10 , P'10=Y00-Y10) F(Y02,Y12 -> P'01=Y02+Y12 , P'12=Y02-Y12) F(Y01,Y11 -> P'02=Y01+Y11 , P'11=Y01-Y11) F(Y03,Y13 -> P'03=Y03+Y10 , P'13=Y03-Y13) …(16)(16) F (Y00, Y10-> P'00 = Y00 + Y10, P'10 = Y00-Y10) F (Y02, Y12-> P'01 = Y02 + Y12, P'12 = Y02-Y12) F (Y01, Y11-> P'02 = Y01 + Y11, P'11 = Y01-Y11) F (Y03, Y13-> P'03 = Y03 + Y10, P'13 = Y03-Y13)… (16)
【0529】ノイズ成分検出処理 次に、DSP80の各要素プロセッサ30は、アダマー
ル変換処理により得られた行列P’(動き成分P’)の
要素P’00〜P’13の内、値が数値0に近いものを
ノイズ成分(P”)と判定し、ノイズ成分(P”)以外
の要素を除去する。 Noise Component Detection Processing Next, each element processor 30 of the DSP 80 sets the value of the element P'00 to P'13 of the matrix P '(motion component P') obtained by the Hadamard transformation processing to a numerical value 0. Is determined as a noise component (P ″), and elements other than the noise component (P ″) are removed.
【0530】DSP80の各要素プロセッサ30は、図
66に示したGUI画像に対して設定された分離ポイン
トから抽出したパラメータを用いて、例えば、下の表9
(図66)に示す関数P”を、第1〜第5の領域ごとに
一次関数で近似して用いて変換を行い、ノイズ成分P”
を検出する。つまり、DSP80の各要素プロセッサ3
0は、行列P’の要素の内、値が−60〜+60の範囲
外となるものを動き成分と判定して値を0とし、値が−
60〜+60の範囲内となるものをノイズ成分P”と判
定して残す。Each element processor 30 of the DSP 80 uses, for example, the parameters extracted from the separation points set for the GUI image shown in FIG.
The conversion is performed by approximating the function P ″ shown in FIG. 66 with a linear function for each of the first to fifth regions, and the noise component P ″ is obtained.
Is detected. That is, each element processor 3 of the DSP 80
In the case of 0, a component having a value outside the range of -60 to +60 among the elements of the matrix P 'is determined as a motion component, and the value is set to 0.
Those that fall within the range of 60 to +60 are determined to be noise components P ″ and are left.
【0531】[0531]
【表9】 [Table 9]
【0532】DSP80の各要素プロセッサ30のノイ
ズ成分検出処理を、さらに具体的に説明する。まず、D
SP80の各要素プロセッサ30は、データメモリ部2
3内に、係数A,Bを記憶する領域を確保する。[0532] The noise component detection processing of each element processor 30 of the DSP 80 will be described more specifically. First, D
Each element processor 30 of the SP 80 includes a data memory unit 2
An area for storing the coefficients A and B is secured in 3.
【0533】次に、各要素プロセッサ30は、行列P’
の各要素の値が−60より大きいか否かを判断し、大き
ければ係数A,Bに数値−1,−60をそれぞれ代入
し、小さければ、数値0,0をそれぞれ代入する。Next, each element processor 30 checks the matrix P '
It is determined whether or not the value of each element is larger than −60. If larger, the numerical values −1 and −60 are substituted for the coefficients A and B, respectively, and if smaller, the numerical values 0 and 0 are substituted.
【0534】次に、要素プロセッサ30は、行列P’の
各要素の値が−30より小さいか否かを判断し、大きけ
れば係数A,Bに数値1,0を代入し、小さければ係数
A,Bの値を変更しない。Next, the element processor 30 determines whether or not the value of each element of the matrix P ′ is smaller than −30. If the value is larger, the numerical values 1, 0 are substituted into the coefficients A and B. , B are not changed.
【0535】以上説明した係数A,Bの算出処理を繰り
返すことにより、各要素プロセッサ30は、行列P’の
各要素の値Xが表9に示した5つの領域の内のいずれに
属しているかに応じて係数A,Bの値を求めることがで
き、行列P’の各要素の値P’を、係数A,Bを用いた
次式17に代入することにより、ノイズ成分P”を検出
することができる。By repeating the calculation processing of the coefficients A and B described above, each element processor 30 determines which of the five regions shown in Table 9 the value X of each element of the matrix P ′ belongs to. The values of the coefficients A and B can be obtained according to the following equation. The noise component P ″ is detected by substituting the value P ′ of each element of the matrix P ′ into the following equation 17 using the coefficients A and B: be able to.
【0536】[0536]
【数17】 P” = AP’+B …(17) 但し、 |P" 00 | |P" 01 | |P" 02 | P”=|P" 03 | |P" 10 | |P" 11 | |P" 12 | |P" 13 | である。P ”= AP '+ B (17) where | P" 00 | | P "01 | | P" 02 | P "= | P" 03 | | P "10 | | P" 11 | | P "12 || P" 13 |.
【0537】逆アダマール変換処理 さらに、DSP80の各要素プロセッサ30は、行列
P”(P”00〜P”13)に対して、アダマール逆行
列M-1を用いて、下式18に示すように逆アダマール変
換を行って、粒状ノイズを示す8×1行列形式のノイズ
画像P"'を生成する。 Inverse Hadamard Transformation Further, each element processor 30 of the DSP 80 uses the Hadamard inverse matrix M −1 for the matrix P ″ (P ″ 00 to P ″ 13) as shown in the following equation (18). An inverse Hadamard transform is performed to generate an 8 × 1 matrix noise image P ″ ′ indicating granular noise.
【0538】[0538]
【数18】 P"'=M-1P …(18) 但し、 |P"' 00| |P"' 01| |P"' 02| P”=|P"' 03| |P"' 10| |P"' 11| |P"' 12| |P"' 13| | 1 1 1 1 1 1 1 1 | | 1 -1 1 -1 1 -1 1 -1 | 1 | 1 1 -1 -1 1 1 -1 -1 | M-1= − | 1 -1 -1 1 1 -1 -1 1 | 8 | 1 1 1 1 -1 -1 -1 -1 | | 1 -1 1 -1 -1 1 -1 1 | | 1 1 -1 -1 -1 -1 1 1 | | 1 -1 -1 1 -1 1 1 -1 | である。P "'= M -1 P (18) where | P"'00 | | P "'01 | | P"'02 | P "= | P"'03 || P "'10 || P "'11 || P"'12 || P "'13 || 1 1 1 1 1 1 1 1 || 1 -1 1 -1 1 -1 1 -1 | 1 | 1 1 -1- 1 1 1 -1 -1 │ M -1 = − │ 1 -1 -1 1 1 -1 -1 1 │ 8 │ 1 1 1 1 -1 -1 -1 -1 │ │ │ 1 -1 1 -1- 1 1 -1 1 │ │ 1 1 -1 -1 -1 -1 -11 1 │ │ 1 -1 -1 1 -1 1 1 -1 │.
【0539】なお、式18に示した行列演算も、式13
および式14に示した関数Fを用いることにより、少な
い演算量で実現可能である。Note that the matrix operation shown in Expression 18 is also performed by Expression 13
By using the function F shown in the equation (14), the operation can be realized with a small amount of calculation.
【0540】ノイズ成分除去処理 DSP80の各要素プロセッサ30は、以上説明したよ
うに生成したノイズ画像P"'を、入力画像データVIN
から減算して粒状ノイズを除去する。[0540] Each component processor 30 of the noise component removal processing DSP 80 converts the noise image P "" generated as described above into the input image data VIN.
To remove granular noise.
【0541】画像データ処理システム11の動作 以下、さらに図67および図68を参照して、第13の
実施例として示した画像データ処理システム11(図6
4)の動作を説明する。図67は、本発明の第13の実
施例として示した画像データ処理システム11の動作を
示す図である。図68は、本発明の第13の実施例とし
て示した画像データ処理システム11の動作を示すフロ
ーチャート図である。 Operation of Image Data Processing System 11 Referring now to FIGS. 67 and 68, image data processing system 11 (FIG.
The operation 4) will be described. FIG. 67 is a diagram showing the operation of the image data processing system 11 shown as the thirteenth embodiment of the present invention. FIG. 68 is a flowchart showing the operation of the image data processing system 11 shown as the thirteenth embodiment of the present invention.
【0542】図68に示すように、ステップS400に
おいて、パーソナルコンピュータ72は、モニタ装置に
図66に示した分離ポイント設定用のGUI画像を表示
し、使用者の入力装置70のマウス等の操作に応じて、
GUI画像内のグラフの曲線を順次、変更して表示す
る。さらに、使用者が、分離ポイントの入力を終了し、
GUI画像に対して所定の操作を行うと、パーソナルコ
ンピュータ72は、GUI画像内のグラフの曲線に対応
する分離ポイントを確定し、受け入れる。As shown in FIG. 68, in step S400, the personal computer 72 displays the GUI image for setting the separation point shown in FIG. 66 on the monitor device and allows the user to operate the input device 70 with the mouse or the like. Depending on,
The curves of the graph in the GUI image are sequentially changed and displayed. In addition, the user finishes inputting the separation point,
When a predetermined operation is performed on the GUI image, the personal computer 72 determines and accepts a separation point corresponding to a curve of a graph in the GUI image.
【0543】ステップS402において、パーソナルコ
ンピュータ72は、入力された分離ポイントから得られ
るパラメータに基づいて、表9に示した関数P”を抽出
する。ステップS404において、パーソナルコンピュ
ータ72は、図67に示すようにプログラム生成ツール
を起動し、S402の処理において得られた関数P”を
用いて、粒状ノイズ除去処理を行うDSP80用のソー
スプログラムを作成する。さらに、パーソナルコンピュ
ータ72は、図67に示すようにDSP80用のアセン
ブラを起動し、ソースプログラムをコンパイルしてオブ
ジェクトプログラムを作成する。[0543] In step S402, the personal computer 72 extracts a function P "shown in Table 9 based on the parameters obtained from the input separation points. In step S404, the personal computer 72 shows in FIG. The program generation tool is activated as described above, and a source program for the DSP 80 for performing the granular noise removal processing is created using the function P ″ obtained in the processing of S402. Further, the personal computer 72 activates an assembler for the DSP 80 as shown in FIG. 67 and compiles a source program to create an object program.
【0544】ステップS406において、パーソナルコ
ンピュータ72は、作成したオブジェクトプログラムを
DSP80に転送(ダウンロード)する。DSP80
は、ダウンロードされたオブジェクトプログラムを実行
し、画像ソース74から入力される画像データVINに
対して粒状ノイズ除去処理を行い、粒状ノイズ除去処理
として得られた出力画像データを画像モニタ76に表示
する。[0544] In step S406, the personal computer 72 transfers (downloads) the created object program to the DSP 80. DSP80
Executes the downloaded object program, performs the granular noise removal processing on the image data VIN input from the image source 74, and displays the output image data obtained as the granular noise removal processing on the image monitor 76.
【0545】以上説明したように、本発明の第13の実
施例として示した画像データ処理システム11によれ
ば、粒状ノイズ除去(減少)装置を、1つのSIMD制
御のリニアアレイ型多並列プロセッサで実現するので、
粒状ノイズ除去装置の装置規模を小さくすることができ
る。また、本発明の第13の実施例として示した画像デ
ータ処理システム11によれば、GUIにより任意の分
離ポイントを設定し、容易に設定した分離ポイントを変
更して粒状ノイズ除去処理を行うことができる。As described above, according to the image data processing system 11 shown as the thirteenth embodiment of the present invention, the granular noise elimination (reduction) device is realized by one SIMD-controlled linear array type multi-parallel processor. Will be realized,
The apparatus scale of the granular noise elimination apparatus can be reduced. Further, according to the image data processing system 11 shown as the thirteenth embodiment of the present invention, it is possible to set an arbitrary separation point by using the GUI, change the easily set separation point, and perform the granular noise removal processing. it can.
【0546】また、本発明の第13の実施例として示し
た画像データ処理システム11によれば、ソフトウェア
的な処理によりノイズ除去処理を行うことができるの
で、プログラムの変更により、最適な条件でノイズ成分
の検出が可能であり、粒状ノイズ除去処理後の画像の品
質が向上する。また、本発明の第13の実施例として示
した画像データ処理システム11によれば、ノイズ除去
処理の結果を画像モニタ76上で即座に確認することが
できる。Further, according to the image data processing system 11 shown as the thirteenth embodiment of the present invention, the noise removal processing can be performed by software processing. The component can be detected, and the quality of the image after the granular noise removal processing is improved. Further, according to the image data processing system 11 shown as the thirteenth embodiment of the present invention, the result of the noise removal processing can be immediately confirmed on the image monitor 76.
【0547】なお、パーソナルコンピュータ72の処理
を、図67に示すように、複数、例えば、複数(8つ)
の画像データVINそれぞれに対応する8個の分離ポイ
ント設定用のGUI画像を表示し、これらのGUI画像
に応じて入力される分離ポイントを受け入れ、複数の画
像データVINそれぞれに対して異なる分離ポイントを
用いた粒状ノイズ除去処理を行うように変更してもよ
い。As shown in FIG. 67, a plurality of, for example, a plurality (eight) processes
8 GUI images for setting a separation point corresponding to each of the image data VIN, receiving the separation points input according to these GUI images, and setting different separation points for each of the plurality of image data VIN. You may change so that the used granular noise removal processing may be performed.
【0548】また、第13の実施例として示した画像デ
ータ処理システム11における分離ポイント設定方法
は、SIMD制御のリニアアレイ多並列プロセッサ(D
SP80)以外の他の形式のDSPを用いた粒状ノイズ
除去処理にも応用することができる。また、第13の実
施例として示した画像データ処理システム11による粒
状ノイズ除去処理は、粒状ノイズの他、他の種類のノイ
ズの除去・軽減にも応用することができる。また、第1
3の実施例として示した画像データ処理システム11に
おける画素ブロックの分割方法、アダマール行列および
アダマール逆行列は例示であって、システムの構成ある
いはノイズ除去の方法に合わせて任意に変更可能であ
る。また、第13の実施例として示した画像データ処理
システム11に対しても、第12の実施例までの各実施
例に示した種々の変形が可能である。The separation point setting method in the image data processing system 11 shown as the thirteenth embodiment is based on the SIMD-controlled linear array multi-parallel processor (D
The present invention can also be applied to granular noise removal processing using a DSP of another format other than SP80). Further, the granular noise removal processing by the image data processing system 11 shown as the thirteenth embodiment can be applied to the removal and reduction of other types of noise in addition to the granular noise. Also, the first
The pixel block division method, the Hadamard matrix and the Hadamard inverse matrix in the image data processing system 11 shown as the third embodiment are examples, and can be arbitrarily changed according to the system configuration or the noise removal method. Further, the image data processing system 11 shown as the thirteenth embodiment can be variously modified as shown in each embodiment up to the twelfth embodiment.
【0549】第14実施例 以下、本発明の第14の実施例として、第9〜第13の
実施例として示した画像データ処理システム9〜11
(図37,図43,図64)による色補正処理(γ補
正)、クロマキー処理、FIRフィルタによるフィルタ
リング処理、画像輪郭強調処理および粒状ノイズ減少処
理〔以下、これらの処理を総称してエフェクト(effect)
処理とも記す〕を、画像データ(画面)の特定の領域に
対してのみ行う方法を説明する。 Fourteenth Embodiment Hereinafter, as a fourteenth embodiment of the present invention, the image data processing systems 9 to 11 shown as the ninth to thirteenth embodiments will be described.
(FIG. 37, FIG. 43, FIG. 64), color correction processing (γ correction), chroma key processing, filtering processing using an FIR filter, image edge enhancement processing, and granular noise reduction processing [hereinafter, these processings are collectively called “effect”. )
Will be described only for a specific area of image data (screen).
【0550】このように、画像データ(画面)の特定領
域に対してのみエフェクト処理を施すには、エフェクト
処理を施した画像データと、元の画像データを予め用意
し、設定した領域内でのみ、エフェクト処理を施した画
像データで元の画像データを置換する方法を採ればよ
い。以下、画像データ処理システム9〜11によるエフ
ェクト処理を施す領域の設定(エフェクト領域設定)お
よび画像データの置換方法を説明する。As described above, in order to perform the effect processing only on a specific area of the image data (screen), the image data subjected to the effect processing and the original image data are prepared in advance, and only within the set area. Alternatively, a method of replacing the original image data with the image data subjected to the effect processing may be adopted. Hereinafter, setting of an area to be subjected to effect processing by the image data processing systems 9 to 11 (effect area setting) and a method of replacing image data will be described.
【0551】画像データ処理システム9〜11のパーソ
ナルコンピュータ72の動作 以下、第14の実施例における画像データ処理システム
9〜11のパーソナルコンピュータ72の動作を説明す
る。The personal computer of the image data processing systems 9 to 11
Operation of Null Computer 72 Hereinafter, the operation of the personal computer 72 of the image data processing systems 9 to 11 in the fourteenth embodiment will be described.
【0552】GUI画像の表示 図69は、本発明の第14の実施例として示すエフェク
ト領域設定を行う際に、画像データ処理システム9〜1
1(図37,図43,図64)のパーソナルコンピュー
タ72がモニタに表示するエフェクト領域設定用のGU
I画像を示す図である。 Display of GUI Image FIG. 69 shows the image data processing systems 9-1 when the effect area setting shown as the fourteenth embodiment of the present invention is performed.
1 (FIG. 37, FIG. 43, FIG. 64) for the effect area setting GU displayed on the monitor by the personal computer 72.
It is a figure showing an I picture.
【0553】パーソナルコンピュータ72は、モニタに
図69に示すエフェクト領域設定用のGUI画像を表示
する。使用者は、例えば、図69に示すように、GUI
画像内で入力装置70のマウス等を用いてクリックおよ
びドラッグを行うことにより、画像データ(画面)内の
任意のエフェクト領域(図69の例1に示す長方形の領
域、あるいは、例2に示す円形の領域等)を設定する。The personal computer 72 displays the effect area setting GUI image shown in FIG. 69 on the monitor. For example, as shown in FIG.
By clicking and dragging in the image using the mouse or the like of the input device 70, an arbitrary effect area (a rectangular area shown in Example 1 in FIG. 69 or a circular area shown in Example 2) in the image data (screen) is displayed. Area, etc.).
【0554】長方形の領域設定 例えば、図69の例1に示すように、長方形の領域を設
定する場合、パーソナルコンピュータ72は、使用者が
最初に入力装置70のマウスでクリックした点〔座標
(X1,Y1)〕と、ドラッグした後、マウスを離した
点〔座標(X2,Y2)〕の2点を対角線とし、各辺が
画面の枠に対して平行または垂直となる長方形の領域を
エフェクト領域として設定し、2点の座標〔(X1,Y
1),(X2,Y2)〕をパラメータとして受け入れ
る。When setting a rectangular area, for example, as shown in Example 1 of FIG. 69, the personal computer 72 sets the point [coordinate (X1 , Y1)] and a point [coordinates (X2, Y2)] where the mouse is released after dragging is a diagonal line, and a rectangular area in which each side is parallel or perpendicular to the frame of the screen is an effect area. And the coordinates of two points [(X1, Y
1), (X2, Y2)] as parameters.
【0555】円形の領域設定 また、例えば、図69の例2に示すように、円形の領域
を設定する場合、パーソナルコンピュータ72は、使用
者が最初に入力装置70のマウスでクリックした点〔座
標(X1,Y1)〕を中心とし、ドラッグした後、マウ
スを離した点〔座標(X2,Y2)〕までをそれぞれX
方向およびy方向の半径とする円形の領域をエフェクト
領域として設定し、中心点の座標(X1,Y1)と、円
のX軸方向の半径XR(XR=X2−X1)、および、
円のY軸方向の半径YR(YR=Y2−Y1)から求め
られる数値(1/XR2 ,1/YR2 )をパラメータと
して受け入れる。When setting a circular area , for example, as shown in Example 2 of FIG. 69, the personal computer 72 sets the point [coordinates] at which the user first clicks with the mouse of the input device 70. (X1, Y1)], and after dragging, the point at which the mouse is released [coordinates (X2, Y2)] is X
A circular area having a radius in the direction and the y direction is set as an effect area, and coordinates (X1, Y1) of the center point, a radius XR of the circle in the X-axis direction (XR = X2-X1), and
Numerical values (1 / XR 2 , 1 / YR 2 ) obtained from the radius YR of the circle in the Y-axis direction (YR = Y2-Y1) are accepted as parameters.
【0556】DSP80用のプログラム作成 以上説明したエフェクト領域の設定後に、使用者が画像
データ処理システム9〜11により各種エフェクト処理
を行うと、パーソナルコンピュータ72は、エフェクト
領域内の画像データに対してのみ、エフェクト処理を施
した画像データで置換するDSP80用のプログラムを
作成する。 Creation of Program for DSP 80 After setting the effect area described above, when the user performs various effect processing with the image data processing systems 9 to 11, the personal computer 72 operates only for the image data in the effect area. , A program for the DSP 80 to be replaced with the image data subjected to the effect processing is created.
【0557】以下、パーソナルコンピュータ72が作成
するDSP80用のプログラムの内容を説明する。図7
0は、第14の実施例として示す画像データ処理システ
ム9〜11(図37,図43,図64)のパーソナルコ
ンピュータ72が生成するDSP80のプログラムの処
理を示す第1の図である。The contents of the program for the DSP 80 created by the personal computer 72 will be described below. FIG.
0 is a first diagram showing the processing of the program of the DSP 80 generated by the personal computer 72 of the image data processing systems 9 to 11 (FIGS. 37, 43, 64) shown as the fourteenth embodiment.
【0558】図70に示すように、ステップS410に
おいて、DSP80の各要素プロセッサ30は、ナンバ
リング(プログラム0;S420,S422)を行い、
例えば、垂直帰線期間の間とそれ以外の期間でプログラ
ムを切り替え可能とする。なお、ナンバリングとは、要
素プロセッサ30それぞれに対して、例えば左端の要素
プロセッサに番号1を与え、順に右側に行くにつれて昇
り番の番号を与えることをいう。As shown in FIG. 70, in step S410, each element processor 30 of the DSP 80 performs numbering (program 0; S420, S422).
For example, the program can be switched between the vertical flyback period and other periods. The numbering refers to, for example, assigning a number 1 to each of the element processors 30 to the leftmost element processor, and assigning an ascending number in order to the right.
【0559】つまり、ステップS420において、DS
P80(並列プロセッサ6;図37)の要素プロセッサ
30は、変数Yに数値0を代入する。ステップS422
において、当該要素プロセッサ30は、前方(左隣の)
要素プロセッサ30(PE)の変数Xに数値1を加算
し、当該要素プロセッサ30の変数Xに代入するという
操作を繰り返すことにより、変数Xに対してナンバリン
グを行う。That is, in step S420, DS
The element processor 30 of P80 (parallel processor 6; FIG. 37) substitutes a numerical value 0 for a variable Y. Step S422
, The element processor 30 is located at the front (on the left side)
Numbering is performed on the variable X by repeating the operation of adding the numerical value 1 to the variable X of the element processor 30 (PE) and assigning it to the variable X of the element processor 30.
【0560】なお、ナンバリングを実行する場合には、
最左端の要素プロセッサ30(PE)は、さらに左隣の
要素プロセッサ30(PE)を有さないので、変数Xの
値は必ず0になる(1=1+0)。従って、各要素プロ
セッサ30の変数Xの値は、一回目で下表に示す通りに
なる。When executing numbering,
Since the leftmost element processor 30 (PE) does not have the leftmost element processor 30 (PE), the value of the variable X always becomes 0 (1 = 1 + 0). Therefore, the value of the variable X of each element processor 30 is as shown in the table below for the first time.
【0561】[0561]
【表10】 PE | 0 | 1 | 2 | 3 | 4 | 5 |… X | 1 | 1 | 1 | 1 | 1 | 1 |… …(9)[Table 10] PE | 0 | 1 | 2 | 3 | 4 | 5 |… X | 1 | 1 | 1 | 1 | 1 | 1 | …… (9)
【0562】さらに、ナンバリングを繰り返すと、各要
素プロセッサ30の変数Xの値は、下表11に示す通り
となる。When the numbering is repeated, the value of the variable X of each element processor 30 is as shown in Table 11 below.
【0563】[0563]
【表11】 PE | 0 | 1 | 2 | 3 | 4 | 5 |… X | 1 | 2 | 2 | 2 | 2 | 2 |… …(10)[Table 11] PE | 0 | 1 | 2 | 3 | 4 | 5 | ... X | 1 | 2 | 2 | 2 | 2 | 2 | ... (10)
【0564】このようなナンバリングを繰り返すと、各
要素プロセッサ30の変数の値は、下表12に示す通り
となり、変数Xは、各要素プロセッサ30の水平走査方
向の位置を示す値となる。[0564] By repeating such numbering, the values of the variables of each element processor 30 are as shown in Table 12 below, and the variable X is a value indicating the position of each element processor 30 in the horizontal scanning direction.
【0565】[0565]
【表12】 PE | 0 | 1 | 2 | 3 | 4 | 5 |… X | 1 | 2 | 3 | 4 | 5 | 6 |… …(11)[Table 12] PE | 0 | 1 | 2 | 3 | 4 | 5 | ... X | 1 | 2 | 3 | 4 | 5 | 6 | ... (11)
【0566】ステップS412において、要素プロセッ
サ30は、垂直帰線期間内であるか否かを判断し、垂直
帰線期間内である場合には、S414の処理に進んでプ
ログラム1(S430,S432)を実行し、それ以外
の場合には、S414の処理に進んでプログラム2(S
440,S442)を実行する。[0566] In step S412, the element processor 30 determines whether or not it is during the vertical retrace interval. If it is within the vertical retrace interval, the process proceeds to step S414, and the program 1 (S430, S432) is executed. Is executed, otherwise, the process proceeds to S414 and the program 2 (S
440, S442).
【0567】プログラム1のステップS430におい
て、要素プロセッサ30は、変数Yに数値0を代入す
る。ステップS431において、要素プロセッサ30
は、画像データの画素の位置が、エフェクト領域内か否
かを判定し、判定結果に応じた値のデータを出力する。
プログラム2のステップS440において、要素プロセ
ッサ30は、変数Yに数値1を加える(Y=Y+1)。
ステップS431において、要素プロセッサ30は、画
像データの画素の位置が、エフェクト領域内か否かを判
定し、判定結果に応じた値のデータを出力する。In step S430 of program 1, the element processor 30 substitutes a numerical value 0 for a variable Y. In step S431, the element processor 30
Determines whether the pixel position of the image data is within the effect area, and outputs data having a value corresponding to the determination result.
In step S440 of the program 2, the element processor 30 adds a numerical value 1 to the variable Y (Y = Y + 1).
In step S431, the element processor 30 determines whether or not the pixel position of the image data is within the effect area, and outputs data having a value according to the determination result.
【0568】以下、図71および図72を参照して、プ
ログラム1,2のS432,S442におけるエフェク
ト領域内であるか否かの判定処理、および、判定結果に
応じたデータの出力処理の内容を説明する。Referring to FIGS. 71 and 72, the contents of the processing for determining whether or not the program is within the effect area in S432 and S442 of programs 1 and 2 and the processing for outputting data according to the determination result will be described. explain.
【0569】長方形のエフェクト領域を設定した場合
(例1) 図71は、図69の例1に示した長方形の領域を設定し
た場合のプログラム1,2(図70)のS432,S4
42におけるエフェクト領域内であるか否かの判定処
理、および、判定結果に応じたデータの出力処理を示す
フローチャート図である。When a rectangular effect area is set
(Example 1) FIG. 71 shows S432 and S4 of programs 1 and 2 (FIG. 70) when the rectangular area shown in example 1 of FIG. 69 is set.
FIG. 42 is a flowchart showing a process of determining whether or not the area is within the effect area in 42 and a process of outputting data according to the determination result.
【0570】上述のように、使用者が入力装置70のマ
ウス等を操作して、長方形のエフェクト領域を設定した
場合、パーソナルコンピュータ72は、図69の例1に
示した図形をGUIのウインドウ内に表示し、マウスで
最初にクリックした点の座標(X1,Y1)、および、
ドラッグしてマウスを離した点の座標(X2,Y2)を
パラメータとして受け入れ、DSP80の各要素プロセ
ッサ30に設定する。なお、以下、説明の簡略化のため
に、X1<X2,Y1<Y2の場合を例に説明する。[0570] As described above, when the user operates the mouse or the like of the input device 70 to set a rectangular effect area, the personal computer 72 displays the figure shown in Example 1 in FIG. And the coordinates (X1, Y1) of the point clicked first with the mouse, and
The coordinates (X2, Y2) of the point where the mouse is released by dragging are accepted as parameters, and are set in each element processor 30 of the DSP 80. Hereinafter, for simplification of the description, a case where X1 <X2, Y1 <Y2 will be described as an example.
【0571】DSP80(並列プロセッサ6;図37)
の各要素プロセッサ30は、変数Fに数値1を代入し、
図71に示すように、ステップS450において、変数
Xの値がパラメータX1より小さい場合には、S460
の処理に進み、それ以外の場合にはS452の処理に進
む。DSP80 (Parallel processor 6; FIG. 37)
Each of the element processors 30 assigns a numerical value 1 to a variable F,
As shown in FIG. 71, if the value of the variable X is smaller than the parameter X1 in step S450, S460
Otherwise, the process proceeds to S452.
【0572】ステップS452において、各要素プロセ
ッサ30は、変数Xの値がパラメータX2より大きい場
合には、S460の処理に進み、それ以外の場合にはS
454の処理に進む。[0572] In step S452, when the value of the variable X is larger than the parameter X2, each element processor 30 proceeds to the process of S460.
Proceed to 454.
【0573】ステップS454において、各要素プロセ
ッサ30は、変数Yの値がパラメータY1より小さい場
合には、変数Fに数値0を代入してS460の処理に進
み、それ以外の場合にはS456の処理に進む。In step S454, when the value of the variable Y is smaller than the parameter Y1, each element processor 30 substitutes a numerical value 0 for the variable F and proceeds to the processing of S460. Otherwise, the processing of S456 is performed. Proceed to.
【0574】ステップS456において、各要素プロセ
ッサ30は、変数Yの値がパラメータY2より大きい場
合には、変数Fに数値0を代入してS460の処理に進
み、それ以外の場合にはS458の処理に進む。In step S456, when the value of the variable Y is larger than the parameter Y2, each element processor 30 substitutes a numerical value 0 for the variable F and proceeds to the process of S460. Otherwise, the process of S458 is performed. Proceed to.
【0575】ステップS458において、要素プロセッ
サ30は、処理の対象としている画素データが、エフェ
クト領域の範囲内であると判定し、変数Fに数値0を代
入する。[0575] In step S458, the element processor 30 determines that the pixel data to be processed is within the range of the effect area, and substitutes a numerical value 0 for a variable F.
【0576】ステップS460において、要素プロセッ
サ30は、処理の対象としている画素データが、エフェ
クト領域の範囲外であると判定し、変数Fに数値0を代
入する。[0576] In step S460, the element processor 30 determines that the pixel data to be processed is outside the range of the effect area, and substitutes a numerical value 0 for a variable F.
【0577】ステップS462において、要素プロセッ
サ30は変数Fの値が1である場合には、S464の処
理に進んで、エフェクト処理した画像データを処理結果
として出力し、これ以外の場合には、S466の処理に
進んで、エフェクト処理を施していない画像データ(元
のデータ)を処理結果として出力する。In step S462, when the value of the variable F is 1, the element processor 30 proceeds to the processing in S464 and outputs the image data subjected to the effect processing as a processing result. In other cases, the element processor 30 executes S466. And outputs image data (original data) that has not been subjected to effect processing as a processing result.
【0578】円形のエフェクト領域を設定した場合(例
2) 図72は、図69の例2に示した円形の領域を設定した
場合のプログラム1,2(図70)のS432,S44
2におけるエフェクト領域内であるか否かの判定処理、
および、判定結果に応じたデータの出力処理を示すフロ
ーチャート図である。When a circular effect area is set (example
2) FIG. 72 shows S432 and S44 of programs 1 and 2 (FIG. 70) when the circular area shown in example 2 of FIG. 69 is set.
A determination process of whether or not it is within the effect area in 2;
FIG. 11 is a flowchart illustrating a data output process according to a determination result.
【0579】上述のように、使用者が入力装置70のマ
ウス等を操作して、円形のエフェクト領域を設定した場
合、パーソナルコンピュータ72は、図69の例2に示
した図形をGUIのウインドウ内に表示し、マウスで最
初にクリックした点の座標(X1,Y1)、および、X
軸方向およびY軸方向の半径XR,YRから算出した数
値(1/XR2 ,1/YR2 )をパラメータとして受け
入れ、DSP80の各要素プロセッサ30に設定する。As described above, when the user operates the mouse or the like of the input device 70 to set a circular effect area, the personal computer 72 displays the figure shown in Example 2 in FIG. 69 in the GUI window. And the coordinates (X1, Y1) of the point clicked first with the mouse, and X
Numerical values (1 / XR 2 , 1 / YR 2 ) calculated from the radii XR and YR in the axial direction and the Y-axis direction are accepted as parameters and set in each element processor 30 of the DSP 80.
【0580】図72に示すように、ステップS470に
おいて、各要素プロセッサ30は、変数Xから変数X1
を減算した値を変数X2に代入し(X2=X−X1)、
変数Yから変数Y1を減算した値を変数Y2に代入する
(Y2=Y−Y1)。As shown in FIG. 72, in step S470, each element processor 30
Is substituted into a variable X2 (X2 = X-X1),
The value obtained by subtracting the variable Y1 from the variable Y is substituted for the variable Y2 (Y2 = Y−Y1).
【0581】ステップS472において、各要素プロセ
ッサ30は、変数X2に、変数X22 をパラメータXR
の2乗値で除算した値を代入し(X2=X22 /X
R2 )、変数Y2に、変数Y22 をパラメータYRの2
乗値で除算した値を変数Y2に代入する(Y2=Y22
/YR2 )。[0581] In step S472, the processor elements 30, the variable X2, variable X2 2 parameters XR
(X2 = X2 2 / X)
R 2 ), the variable Y2 2 is replaced by the parameter YR 2
The value divided by the power value is substituted into a variable Y2 (Y2 = Y2 2
/ YR 2 ).
【0582】ステップS474において、各要素プロセ
ッサ30は、変数X2,Y2の加算値が数値1以上であ
る場合には、変数Fに数値0を代入してS478の処理
に進み、変数X2,Y2の加算値が数値1未満である場
合には、変数Fに数値1を代入してS462〜S466
(図71)の処理に進む。In step S474, when the added value of the variables X2 and Y2 is equal to or larger than the numerical value 1, the element processor 30 substitutes the numerical value 0 for the variable F, proceeds to the process of S478, and proceeds to the process of S478. If the added value is less than the numerical value 1, the numerical value 1 is substituted for the variable F, and S462 to S466
Proceed to the process in FIG.
【0583】なお、図70〜図72に示したプログラム
は、各エフェクト処理に共通である。従って、図70〜
図72に示したプログラムを、各エフェクト処理のプロ
グラムに追加することにより、使用者が設定したエフェ
クト領域内の画素データに対してのみ、各エフェクト処
理を施すことができる。The programs shown in FIGS. 70 to 72 are common to each effect processing. Therefore, FIG.
By adding the program shown in FIG. 72 to the program for each effect processing, each effect processing can be performed only on the pixel data in the effect area set by the user.
【0584】第14の実施例における画像データ処理シ
ステム9〜11の動作 以下、図73を参照して、第14の実施例における画像
データ処理システム9〜11の動作を説明する。図73
は、第14の実施例における画像データ処理システム9
〜11(図37,図43,図64)の動作を示すフロー
チャート図である。 The image data processing system in the fourteenth embodiment
The operation of the image data processing systems 9 to 11 in the fourteenth embodiment will be described below with reference to FIG. Figure 73
Is the image data processing system 9 in the fourteenth embodiment.
FIG. 67 is a flowchart showing an operation of FIG. 11 to FIG. 11 (FIGS. 37, 43, and 64).
【0585】図73に示すように、ステップS480に
おいて、パーソナルコンピュータ72は、図69に示し
たGUI画像をパーソナルコンピュータ72用のモニタ
に表示する。As shown in FIG. 73, in step S480, the personal computer 72 displays the GUI image shown in FIG. 69 on a monitor for the personal computer 72.
【0586】ステップS482において、パーソナルコ
ンピュータ72は、使用者の設定操作に応じて、図69
に示したウィンドウ内の図形の形を変更して表示する。
使用者が、設定を終了して所定の操作を行うと、パーソ
ナルコンピュータ72は、エフェクト領域を確定する。[0586] In step S482, the personal computer 72 responds to the user's setting operation to perform the operations shown in FIG.
Change the shape of the figure in the window shown in and display it.
When the user completes the setting and performs a predetermined operation, the personal computer 72 determines the effect area.
【0587】ステップS484において、パーソナルコ
ンピュータ72は、使用者の設定に応じて、エフェクト
領域を示すパラメータを抽出し、要素プロセッサ30
(並列プロセッサ6;図37)の各要素プロセッサ30
に設定する。[0587] In step S484, the personal computer 72 extracts a parameter indicating an effect area according to the setting of the user, and outputs the parameter to the element processor 30.
Each element processor 30 of (parallel processor 6; FIG. 37)
Set to.
【0588】ステップS486において、パーソナルコ
ンピュータ72は、エフェクト領域を示すパラメータを
記憶する。[0588] In step S486, the personal computer 72 stores a parameter indicating the effect area.
【0589】ステップS488において、パーソナルコ
ンピュータ72は、テンプレートプログラムにパラメー
タを包含させることにより、図70〜図72に示したエ
フェクト領域を設定するプログラムを作成する。In step S488, the personal computer 72 creates a program for setting the effect area shown in FIGS. 70 to 72 by including parameters in the template program.
【0590】ステップS490において、パーソナルコ
ンピュータ72は、図74に示したように選択された各
エフェクト処理プログラムとともに領域選択プログラム
をコンパイルし、ステップ492(S492)におい
て、オブジェクトプログラム(オブジェクトバイナリ)
を生成する。[0590] In step S490, the personal computer 72 compiles the area selection program together with the effect processing programs selected as shown in Fig. 74, and in step 492 (S492), the object program (object binary).
Generate
【0591】ステップS494において、パーソナルコ
ンピュータ72は、生成したオブジェクトプログラムを
DSP80の各要素プロセッサ30に転送(ダウンロー
ド)する。なお、テンプレートとしてオブジェクトプロ
グラムを用意しておき、その中のパラメータ部分のみを
置換して、全体のオブジェクト(オブジェクトバイナ
リ)を生成し、転送してもよい。[0591] In step S494, the personal computer 72 transfers (downloads) the generated object program to each element processor 30 of the DSP 80. Note that an object program may be prepared as a template, and only the parameter portion in the object program may be replaced to generate and transfer the entire object (object binary).
【0592】ステップS496において、DSP80の
各要素プロセッサ30は、転送されたプログラムを実行
し、設定されたエフェクト領域内の画像データに対して
のみ、各種エフェクト処理を行い、処理結果として出力
する。[0592] In step S496, each element processor 30 of the DSP 80 executes the transferred program, performs various effect processing only on image data in the set effect area, and outputs the result as a processing result.
【0593】以上説明したように、第14の実施例とし
て示した画像データ処理システム9〜11の動作によれ
ば、任意のエフェクト領域を設定して、設定した領域内
の画像データに対してのみ、各種エフェクト処理を施す
ことができる。また、領域を区切って色補正等の各種エ
フェクト処理を施すためには、従来、切換用ハードウェ
アが必要であったが、第14の実施例として示した画像
データ処理システム9〜11の動作によれば、切換用ハ
ードウェアなしにDSP80のプログラムの書換えのみ
で、任意の領域の画像データに対してのみ、色補正等の
エフェクト処理を施すことができる。As described above, according to the operation of the image data processing systems 9 to 11 shown in the fourteenth embodiment, an arbitrary effect area is set and only the image data in the set area is set. And various effect processing can be performed. Conventionally, switching hardware was required to perform various effect processing such as color correction while dividing an area. However, in the operation of the image data processing systems 9 to 11 shown as the fourteenth embodiment, the switching hardware was required. According to this, the effect processing such as color correction can be performed only on the image data in an arbitrary area only by rewriting the program of the DSP 80 without the switching hardware.
【0594】第15実施例 以下、本発明の第15の実施例として、第9〜第13の
実施例等として示した各種エフェクト処理、および、第
14の実施例として示したエフェクト領域指定を統合化
した画像データ処理システム12を説明する。Fifteenth Embodiment In the following, as a fifteenth embodiment of the present invention, various effect processes shown as the ninth to thirteenth embodiments and the effect area designation shown as the fourteenth embodiment are integrated. The image data processing system 12 will be described.
【0595】画像データ処理システム12の構成 図74は、本発明の第15の実施例として示す画像デー
タ処理システム12の構成を示す図である。なお、図7
4においては、画像データ処理システム12の各構成部
分の内、第14の実施例までに示した画像データ処理シ
ステム9〜11の構成部分と同じものには同一の符号を
付して示してある。 Structure of Image Data Processing System 12 FIG. 74 is a diagram showing the structure of the image data processing system 12 shown as the fifteenth embodiment of the present invention. FIG.
In FIG. 4, among the components of the image data processing system 12, the same components as those of the image data processing systems 9 to 11 shown in the fourteenth embodiment are denoted by the same reference numerals. .
【0596】図74に示すように、画像データ処理シス
テム12は、マウス700を有する入力装置70、ディ
スプレイ装置720を有するパーソナルコンピュータ7
2、入力画像セレクタ84、第1のフレームメモリ82
1 、DSP80(例えば、並列プロセッサ6;図3
2)、第2のフレームメモリ822 および出力モニタセ
レクタ86から構成される。As shown in FIG. 74, the image data processing system 12 includes an input device 70 having a mouse 700 and a personal computer 7 having a display device 720.
2, input image selector 84, first frame memory 82
1 , DSP 80 (for example, parallel processor 6; FIG. 3)
2), and a second frame memory 82 2, and an output monitor selector 86.
【0597】つまり、画像データ処理システム12は、
例えば、画像データ処理システム9(図37)に、フレ
ームメモリ821 ,822 、入力画像セレクタ84およ
び出力モニタセレクタ86を付加した構成を採り、さら
に、第14の実施形態までに明示されていなかった入力
装置70の入力手段の一例としてマウス700が、ま
た、パーソナルコンピュータ72のディスプレイ装置7
20が、明示的に示されている。That is, the image data processing system 12
For example, the image data processing system 9 (FIG. 37) has a configuration in which frame memories 82 1 and 82 2 , an input image selector 84 and an output monitor selector 86 are added, and is not explicitly described in the fourteenth embodiment. The mouse 700 is an example of the input means of the input device 70, and the display device 7 of the personal computer 72.
20 are explicitly shown.
【0598】入力部14は、パーソナルコンピュータ内
のハードディスク装置(HD)140の画像データを画
像信号として出力する装置、D1方式のVTR装置(D
1)142、NTSC画像信号源(NTSC)146、
RGB画像信号源(RGB)150、NTSC画像信号
源146およびRGB画像信号源150から入力される
アナログ画像信号をディジタル画像データに変換するア
ナログ/ディジタル(A/D)変換回路148,15
2、および、VGA装置154等の複数の各種ディジタ
ル画像データ源を含み、これらの構成部分それぞれが画
像データ処理システム12に対して画像データVINを
供給する。出力部16は、高解像度(HDモニタ)16
0およびD1方式のモニタ(D1モニタ)162等の複
数の各種画像表示装置を含み、これらの構成部分は、画
像データ処理システム12から供給される画像データV
OUTを表示する。[0598] The input unit 14 is a device for outputting image data of a hard disk device (HD) 140 in a personal computer as an image signal, or a D1 type VTR device (D
1) 142, NTSC image signal source (NTSC) 146,
Analog / digital (A / D) conversion circuits 148 and 15 for converting analog image signals input from RGB image signal source (RGB) 150, NTSC image signal source 146 and RGB image signal source 150 into digital image data.
2, and a plurality of various digital image data sources, such as a VGA device 154, each of which provides image data VIN to the image data processing system 12. The output unit 16 is a high-resolution (HD monitor) 16
It includes a plurality of various image display devices such as a 0 and D1 type monitor (D1 monitor) 162, and these components are composed of image data V supplied from the image data processing system 12.
Display OUT.
【0599】画像データ処理システム12は、入力部1
4の複数の画像データ源のいずれかから入力される画像
データVINに対して、指定されたエフェクト領域ごと
に第9〜第13の実施例に示したエフェクト処理等を行
い、画像データVOUTを生成して出力部16の複数の
画像表示装置の全部またはこれらのいずれかに表示す
る。The image data processing system 12 is
4 performs the effect processing and the like shown in the ninth to thirteenth embodiments on the image data VIN input from any of the plurality of image data sources for each specified effect area to generate image data VOUT. Then, the image is displayed on all or any of the plurality of image display devices of the output unit 16.
【0600】画像データ処理システム12の構成部分 以下、画像データ処理システム12の構成部分の内、画
像データ処理システム9〜11に含まれていなかったも
のを説明する。 Components of Image Data Processing System 12 Hereinafter, components of the image data processing system 12 which are not included in the image data processing systems 9 to 11 will be described.
【0601】入力画像セレクタ84 入力画像セレクタ84は、パーソナルコンピュータ72
の制御に従って、入力部14の複数の画像データ源(ハ
ードディスク装置140等)から入力される画像データ
VINのいずれかを選択し、フレームメモリ821 に対
して出力する。なお、入力画像セレクタ84は、入力画
像データVINとして複数の画像データが必要な場合に
は、入力部14の複数の画像データ源から複数の画像デ
ータを選択してフレームメモリ821 に対して出力す
る。 Input Image Selector 84 The input image selector 84 is a personal computer 72
Under the control of, select one of the image data VIN input from a plurality of image data sources of the input unit 14 (a hard disk drive 140, etc.) for output to the frame memory 82 1. The input image selector 84, when a plurality of image data as input image data VIN is required, select a plurality of image data from a plurality of image data sources of the input unit 14 outputs to the frame memories 82 1 I do.
【0602】フレームメモリ82 1 フレームメモリ821 は、例えば、インターレース/ノ
ンインターレース変換、垂直方向の画素数の変換、ある
いは、フレーム同期をとる等の目的に用いられ、入力画
像セレクタ84から入力される画像データに対して、目
的に応じた時間遅延を与えてDSP80(並列プロセッ
サ6;図32)に対して出力する。[0602] The frame memory 82 frame memory 82 1, for example, interlace / non-interlace conversion, the conversion of number of pixels in the vertical direction, or used for purposes such as synchronization frame, inputted from the input image selector 84 The image data is given a time delay according to the purpose and output to the DSP 80 (parallel processor 6; FIG. 32).
【0603】フレームメモリ82 2 フレームメモリ821 は、例えば、ノンインターレース
/インターレース変換、あるいは、フレームメモリ82
1 と同様の目的等に用いられ、DSP80による処理の
結果として得られた画像データに対して目的に応じた時
間遅延を与えて出力モニタセレクタ86に対して出力す
る。[0603] The frame memory 822 frame memory 821 is, for example, or non-interlaced / interlaced conversion, the frame memory 82
It is used for the same purpose as 1 and the like, and gives a time delay according to the purpose to the image data obtained as a result of the processing by the DSP 80 and outputs it to the output monitor selector 86.
【0604】出力モニタセレクタ86 出力モニタセレクタ86は、パーソナルコンピュータ7
2の制御に従って、フレームメモリ822 から入力され
る画像データVOUTを、出力部16の複数の画像表示
装置の全てまたは一部に対して出力する。 Output Monitor Selector 86 The output monitor selector 86
2 Follow the control, the image data VOUT inputted from the frame memory 822, and outputs to all or a portion of the plurality of image display device of the output unit 16.
【0605】ソフトウェア構成 図75は、本発明の第15の実施例として示す画像デー
タ処理システム12の処理の概要を示す図である。図7
6は、パーソナルコンピュータ72がディスプレイ装置
720に表示するエフェクト処理選択用のGUI画像を
示す図である。 Software Configuration FIG. 75 is a diagram showing an outline of the processing of the image data processing system 12 shown as the fifteenth embodiment of the present invention. FIG.
FIG. 6 is a view showing a GUI image for effect processing selection displayed on the display device 720 by the personal computer 72.
【0606】図75に示すように、ステップS500に
おいて、パーソナルコンピュータ72は、図76に示す
エフェクト処理選択用のGUI画像をモニタに表示し、
使用者による入力装置70のマウス700を用いたGU
I画像に対するエフェクト処理選択操作を受け入れる。As shown in FIG. 75, in step S500, the personal computer 72 displays a GUI image for effect processing selection shown in FIG. 76 on a monitor.
GU using the mouse 700 of the input device 70 by the user
An effect processing selection operation for an I image is accepted.
【0607】ステップS502において、パーソナルコ
ンピュータ72は、受け入れた使用者の選択操作に応じ
てS52,S54,S56,S60,S64〜S72の
処理に進む。In step S502, the personal computer 72 proceeds to the processing of S52, S54, S56, S60, and S64 to S72 according to the selection operation of the accepted user.
【0608】ステップS52において、パーソナルコン
ピュータ72は、入力部14から入力される画像データ
VINを素通しし、画像データVOUTとして出力する
DSP80のプログラムを作成する(Through) 。[0608] In step S52, the personal computer 72 passes the image data VIN input from the input unit 14 and creates a DSP 80 program to output the image data VOUT (Through).
【0609】ステップS520において、パーソナルコ
ンピュータ72は、予め用意されている素通し用プログ
ラムをDSP80に転送(ダウンロード)する。[0609] In step S520, the personal computer 72 transfers (downloads) the prepared communication program to the DSP 80.
【0610】ステップS522において、DSP80
は、パーソナルコンピュータ72からダウンロードされ
たプログラムを実行し、画像データVINを素通しして
出力する。[0610] In step S522, the DSP 80
Executes the program downloaded from the personal computer 72, and outputs the image data VIN without passing through it.
【0611】ステップS72において、パーソナルコン
ピュータ72は、第14の実施例として示したエフェク
ト領域選択処理を行う。[0611] In step S72, the personal computer 72 performs the effect area selecting process shown in the fourteenth embodiment.
【0612】ステップS720において、パーソナルコ
ンピュータ72は、ディスプレイ装置720に表示した
エフェクト領域指定用GUI画像(図69)に対して使
用者がマウス700等を用いて行うエフェクト領域指定
操作に応じて、エフェクト領域を選択する。[0612] In step S720, the personal computer 72 changes the effect on the effect area specifying GUI image (Fig. 69) displayed on the display device 720 according to the effect area specifying operation performed by the user using the mouse 700 or the like. Select an area.
【0613】ステップS722において、パーソナルコ
ンピュータ72は、エフェクト領域指定操作により選択
されたエフェクト領域のパラメータを抽出して記憶し、
領域選択処理に進む。[0613] In step S722, the personal computer 72 extracts and stores the parameters of the effect area selected by the effect area designating operation.
Proceed to region selection processing.
【0614】ステップS54において、パーソナルコン
ピュータ72は、処理A(図77を参照して後述)に進
み、第10の実施例として示したクロマキー処理を行
う。ステップS56において、パーソナルコンピュータ
72は、処理B(図80を参照して後述)に進み、第1
3の実施例として示したFIRフィルタによるフィルタ
リング処理を行う。[0614] In step S54, the personal computer 72 proceeds to process A (described later with reference to Fig. 77) and performs the chroma key process shown in the tenth embodiment. In step S56, the personal computer 72 proceeds to process B (described later with reference to FIG. 80), and performs the first
The filtering processing by the FIR filter shown as the third embodiment is performed.
【0615】ステップS60において、パーソナルコン
ピュータ72は、処理C(図82を参照して後述)に進
み、第9の実施形態として示した色補正(γ補正)処理
を行う。In step S60, the personal computer 72 proceeds to process C (described later with reference to FIG. 82) and performs the color correction (γ correction) process described in the ninth embodiment.
【0616】ステップS64において、パーソナルコン
ピュータ72は、処理Cに進み、使用者によるGUI画
像に対する画像データを設定に応じてフィルタリング処
理を行う(retouch) 。[0616] In step S64, the personal computer 72 proceeds to process C, and performs a filtering process on the image data for the GUI image by the user according to the setting (retouch).
【0617】ステップS66において、パーソナルコン
ピュータ72は、処理Cに進み、色数変換処理を行う(p
ostalization) 。[0617] In step S66, the personal computer 72 proceeds to process C to perform a color number conversion process (p
ostalization).
【0618】ステップS68において、パーソナルコン
ピュータ72は、処理Aに進み、画像データVINを、
第1〜第6の実施例に示したように拡大・縮小する連続
ズーム処理を行う。[0618] In step S68, the personal computer 72 proceeds to process A, and outputs the image data VIN.
As shown in the first to sixth embodiments, continuous zoom processing for enlarging / reducing is performed.
【0619】ステップS70において、パーソナルコン
ピュータ72は、処理Aに進み、画像データVINを操
作に応じて拡大・縮小するインタラクティブズーム(int
eractive zoom)処理を行う。[0619] In step S70, the personal computer 72 proceeds to process A, and performs interactive zoom (int) for enlarging or reducing the image data VIN in accordance with the operation.
eractive zoom) processing.
【0620】処理A 以下、図77〜図79を参照して、図76に示した処理
Aを説明する。図77は、図76に示したS54,S6
8,S70の処理において起動される処理Aを示すフロ
ーチャート図である。図78は、図77に示したS54
0の処理においてディスプレイ装置720(図74)に
表示される連続ズーム処理用のGUI画像を例示する図
である。図79は、図77に示したS540の処理にお
いてディスプレイ装置720(図74)に表示されるイ
ンタラクティブ処理用のGUI画像を例示する図であ
る。 Processing A The processing A shown in FIG. 76 will be described below with reference to FIGS. FIG. 77 shows S54 and S6 shown in FIG.
8 is a flowchart illustrating a process A started in the processes of S70. FIG. FIG. 78 is a flowchart showing the operation of S54 shown in FIG.
FIG. 75 is a diagram exemplifying a GUI image for continuous zoom processing displayed on the display device 720 (FIG. 74) in the process 0. FIG. 79 is a diagram exemplifying a GUI image for interactive processing displayed on the display device 720 (FIG. 74) in the processing of S540 shown in FIG.
【0621】図75に示したS54,S68,S70の
処理において処理Aが起動されると、図77に示すよう
に、ステップS540において、パーソナルコンピュー
タ72は、選択されたエフェクト処理に応じて、図45
に示したクロマキー処理の背景色選択用GUI画像、図
78に示す連続ズーム処理用のGUI画像、または、図
79に示すインタラクティブズーム処理用のGUI画像
をディスプレイ装置720に表示する。When the processing A is started in the processing of S54, S68 and S70 shown in FIG. 75, as shown in FIG. 77, in step S540, the personal computer 72 executes the processing according to the selected effect processing. 45
The GUI image for selecting the background color for the chroma key processing shown in FIG. 78, the GUI image for the continuous zoom processing shown in FIG. 78, or the GUI image for the interactive zoom processing shown in FIG. 79 is displayed on the display device 720.
【0622】ステップS542において、パーソナルコ
ンピュータ72は、使用者の設定操作を受け入れる。例
えば、連続ズーム処理を行う場合には、使用者は、図7
8に示す連続ズーム処理用のGUI画像に対して、水平
方向(horizontal)の倍率および垂直方向(vertical)の倍
率を設定する操作を行い、パーソナルコンピュータ72
は、設定された倍率を受け入れる。At step S542, personal computer 72 accepts the setting operation of the user. For example, when performing the continuous zoom process, the user needs to perform the process shown in FIG.
An operation of setting a horizontal magnification and a vertical magnification is performed on the GUI image for continuous zoom processing shown in FIG.
Accepts the set magnification.
【0623】また、例えば、インタラクティブズーム処
理を行う場合には、使用者は、図79に示すインタラク
ティブズーム処理用GUI内のボタン(set, reset, mai
ntain aspect ratio) の押下、GUI内のウィンドウに
対するa〜c方向へのマウス700を用いたドラッグ等
の操作により、水平方向(horizontal)の倍率および垂直
方向(vertical)の倍率を設定し、パーソナルコンピュー
タ72は、設定された倍率を受け入れる。For example, when performing the interactive zooming process, the user can use the buttons (set, reset, mai) in the interactive zooming GUI shown in FIG.
(horizontal) and vertical (vertical) magnifications by pressing the “ntain aspect ratio”, dragging the windows in the GUI in the a to c directions using the mouse 700, and the like. 72 accepts the set magnification.
【0624】ステップS544において、パーソナルコ
ンピュータ72は、使用者の設定に応じて、各種エフェ
クト処理の実現に必要なパラメータを抽出する。[0624] In step S544, the personal computer 72 extracts parameters necessary for realizing various effect processes according to the settings of the user.
【0625】ステップS546において、パーソナルコ
ンピュータ72は、S544の処理により抽出された各
種エフェクト処理用のパラメータを記憶する。[0625] In step S546, the personal computer 72 stores the parameters for various effect processes extracted in the process of S544.
【0626】ステップS548において、パーソナルコ
ンピュータ72は、各種処理用のテンプレートプログラ
ムおよびパラメータから、各種処理を実現するDSP8
0用のプログラムを作成する。[0626] In step S548, the personal computer 72 executes the DSP 8 for realizing various processes from the template programs and parameters for various processes.
Create a program for 0.
【0627】ステップS550において、パーソナルコ
ンピュータ72は、S548の処理において作成された
各エフェクト処理プログラムをコンパイルし、ステップ
S552において、オブジェクトプログラム(オブジェ
クトバイナリ)を生成する。[0627] In step S550, the personal computer 72 compiles each effect processing program created in the processing in S548, and generates an object program (object binary) in step S552.
【0628】ステップS554において、パーソナルコ
ンピュータ72は、生成したオブジェクトプログラムを
DSP80の各要素プロセッサ30に転送(ダウンロー
ド)する。[0628] In step S554, the personal computer 72 transfers (downloads) the generated object program to each element processor 30 of the DSP 80.
【0629】ステップS556において、DSP80の
各要素プロセッサ30は、転送されたプログラムを実行
し、各種エフェクト処理を行い、処理結果を出力する。In step S556, each element processor 30 of the DSP 80 executes the transferred program, performs various effect processing, and outputs a processing result.
【0630】処理B 以下、図80,図81(A),(B)を参照して、図7
6に示した処理Bを説明する。図80は、図76に示し
たS56の処理(FIRフィルタ)において起動される
処理Bを示すフローチャート図である。図81(A),
(B)は、図80に示したS560の処理においてディ
スプレイ装置720に表示されるGUI画像を例示する
図である。 Processing B Hereinafter, referring to FIGS. 80, 81 (A) and (B), FIG.
Process B shown in FIG. 6 will be described. FIG. 80 is a flowchart showing a process B started in the process of S56 (FIR filter) shown in FIG. FIG. 81 (A),
FIG. 80B is a diagram exemplifying a GUI image displayed on the display device 720 in the process of S560 shown in FIG. 80.
【0631】図76に示したS56の処理において処理
Bが起動されると、図80に示すように、ステップS5
60において、パーソナルコンピュータ72は、選択さ
れたエフェクト処理に応じて、図81(A),(B)に
示すFIRフィルタによるフィルタリング処理用のGU
I画像をディスプレイ装置720に表示する。When the processing B is started in the processing of S56 shown in FIG. 76, as shown in FIG.
At 60, the personal computer 72, in accordance with the selected effect processing, performs the GU for the filtering processing by the FIR filter shown in FIGS. 81 (A) and (B).
The I image is displayed on the display device 720.
【0632】ステップS562において、パーソナルコ
ンピュータ72は、第13の実施例に示したように、使
用者の設定操作を受け入れる。[0632] In step S562, the personal computer 72 accepts the setting operation of the user as described in the thirteenth embodiment.
【0633】ステップS564において、パーソナルコ
ンピュータ72は、使用者の設定に応じて、フィルタリ
ング処理の実現に必要なパラメータを抽出する。[0633] In step S564, the personal computer 72 extracts parameters necessary for realizing the filtering process in accordance with the settings of the user.
【0634】ステップS566において、パーソナルコ
ンピュータ72は、指定された通過域および素子域から
フィルタ係数を算出するフィルタ設計ツールを起動し、
S564の処理において抽出したパラメータに適合した
特性を有するFIRフィルタのフィルタ係数を得る。[0634] In step S566, the personal computer 72 activates a filter design tool for calculating a filter coefficient from the specified passband and element area, and
A filter coefficient of the FIR filter having characteristics suitable for the parameters extracted in the processing of S564 is obtained.
【0635】ステップS568において、パーソナルコ
ンピュータ72は、S564の処理において抽出したパ
ラメータに基づいて、S566の処理において設計した
FIRフィルタのフィルタ係数を量子化する。[0635] In step S568, the personal computer 72 quantizes the filter coefficients of the FIR filter designed in the processing of S566, based on the parameters extracted in the processing of S564.
【0636】ステップS570において、パーソナルコ
ンピュータ72は、S568の処理において算出したパ
ラメータを記憶する。[0636] In step S570, the personal computer 72 stores the parameters calculated in the processing in S568.
【0637】ステップS572において、パーソナルコ
ンピュータ72は、テンプレートプログラムにパラメー
タを包含させることにより、FIRフィルタによるフィ
ルタリング処理を実現するDSP80用のプログラムを
作成する。[0637] In step S572, the personal computer 72 creates a program for the DSP 80 that implements a filtering process using an FIR filter by including parameters in the template program.
【0638】ステップS574において、パーソナルコ
ンピュータ72は、S572の処理において作成された
プログラムをコンパイルし、ステップS576におい
て、オブジェクトプログラム(オブジェクトバイナリ)
を生成する。[0638] In step S574, the personal computer 72 compiles the program created in the process of S572, and in step S576, an object program (object binary)
Generate
【0639】ステップS580において、パーソナルコ
ンピュータ72は、生成したオブジェクトプログラムを
DSP80の各要素プロセッサ30に転送(ダウンロー
ド)する。[0639] In step S580, the personal computer 72 transfers (downloads) the generated object program to each element processor 30 of the DSP 80.
【0640】ステップS582において、DSP80の
各要素プロセッサ30は、転送されたプログラムを実行
してFIRフィルタによるフィルタリング処理を行い、
処理結果を出力する。[0640] In step S582, each element processor 30 of the DSP 80 executes the transferred program to perform a filtering process using an FIR filter.
Output the processing result.
【0641】処理C 以下、図82〜図85を参照して、図76に示した処理
Cを説明する。図82は、図76に示したS60,S6
4,S66の処理において起動される処理Cを示すフロ
ーチャート図である。図83(A),(B)は、図82
に示したS600の処理においてディスプレイ装置72
0に表示される色補正(γ補正)処理用のGUI画像を
例示する図である。 Process C Hereinafter, the process C shown in FIG. 76 will be described with reference to FIGS. FIG. 82 shows S60 and S6 shown in FIG.
FIG. 4 is a flowchart showing a process C activated in the processes of S66. FIGS. 83 (A) and (B) show FIG.
In the process of S600 shown in FIG.
FIG. 11 is a diagram illustrating a GUI image for color correction (γ correction) processing displayed at 0.
【0642】図84(A)〜(C)は、図82に示した
S600の処理においてディスプレイ装置720に表示
されるフィルタリング処理(retouch) 処理用のGUI画
像を例示する図である。図85は、図82に示したS6
00の処理においてディスプレイ装置720に表示され
る色数変換処理(postalization) 処理用のGUI画像を
例示する図である。FIGS. 84 (A) to 84 (C) are views showing examples of the GUI image for the filtering process (retouch) displayed on the display device 720 in the process of S600 shown in FIG. 82. FIG. 85 is a flowchart showing the operation of S6 shown in FIG.
FIG. 20 is a diagram illustrating a GUI image for color number conversion processing (postalization) processing displayed on the display device 720 in the processing of 00.
【0643】図75に示したS60,S64,S66の
処理において処理Cが起動されると、図78に示すよう
に、ステップS600において、パーソナルコンピュー
タ72は、選択されたエフェクト処理に応じて、図83
(A),(B)、図84(A)〜(C)および図85に
示す各種エフェクト処理用のGUI画像をディスプレイ
装置720に表示する。When the processing C is started in the processing of S60, S64, and S66 shown in FIG. 75, as shown in FIG. 78, in step S600, the personal computer 72 executes the processing according to the selected effect processing. 83
(A), (B), GUI images for various effect processes shown in FIGS. 84 (A) to (C) and FIG. 85 are displayed on the display device 720.
【0644】ステップS602において、パーソナルコ
ンピュータ72は、図83(A),(B)〜図85に示
したGUI画像に対する使用者の設定操作を受け入れ
る。In step S602, the personal computer 72 accepts the user's setting operation for the GUI images shown in FIGS. 83 (A) and (B) to FIG.
【0645】ステップS604において、パーソナルコ
ンピュータ72は、第14の実施例として示したエフェ
クト領域の設定があるか否かを判断する。パーソナルコ
ンピュータ72は、設定がない場合には、S606の処
理に進み、設定がある場合には、S606およびS62
0の処理に進む。[0645] In step S604, the personal computer 72 determines whether or not the effect area has been set as described in the fourteenth embodiment. When there is no setting, the personal computer 72 proceeds to the process of S606, and when there is a setting, the personal computer 72 proceeds to S606 and S62.
It proceeds to the process of 0.
【0646】ステップS620〜ステップS626にお
いて、パーソナルコンピュータ72は、第14の実施例
として示したS484〜S490の処理(図74)に対
応する処理を行い、エフェクト領域を設定する処理を行
うDSP80のプログラムを作成し、コンパイルする。In steps S620 to S626, the personal computer 72 performs the processing corresponding to the processing in S484 to S490 (FIG. 74) shown in the fourteenth embodiment, and executes the processing of the DSP 80 for setting the effect area. Create and compile.
【0647】ステップS606において、使用者の設定
に応じて、各種エフェクトの実現に必要なパラメータを
抽出する。[0647] In step S606, parameters necessary for realizing various effects are extracted according to the settings of the user.
【0648】ステップS610において、パーソナルコ
ンピュータ72は、S606の処理において抽出したパ
ラメータをテンプレートプログラムに包含させて、各エ
フェクト処理のプログラムを作成する。[0648] In step S610, the personal computer 72 creates a program for each effect process by including the parameters extracted in the process in S606 in the template program.
【0649】ステップS612において、パーソナルコ
ンピュータ72は、S610の処理において作成された
プログラムをコンパイルする。At step S612, the personal computer 72 compiles the program created at step S610.
【0650】ステップS630において、パーソナルコ
ンピュータ72は、必要に応じて、S626およびS6
12の処理においてコンパイルされたプログラムをリン
クして、これらを組み合わせたオブジェクトプログラム
を作成する。[0650] In step S630, the personal computer 72 executes S626 and S6 as necessary.
The programs compiled in the process 12 are linked, and an object program combining them is created.
【0651】ステップS632において、パーソナルコ
ンピュータ72は、S630の処理において生成したオ
ブジェクトプログラムをDSP80の各要素プロセッサ
30に転送(ダウンロード)する。[0651] In step S632, the personal computer 72 transfers (downloads) the object program generated in the process of S630 to each element processor 30 of the DSP 80.
【0652】ステップS634において、DSP80の
各要素プロセッサ30は、転送されたプログラムを実行
して各種エフェクト処理を行い、処理結果を出力する。[0652] In step S634, each element processor 30 of the DSP 80 executes the transferred program to perform various effect processing, and outputs a processing result.
【0653】エフェクト処理 以下、第14の実施例までに説明しなかったエフェクト
処理を説明する。 Effect Processing Hereinafter, effect processing not described in the fourteenth embodiment will be described.
【0654】フィルタ処理(reto uch) フィルタ処理において、パーソナルコンピュータ72
は、各種フィルタ処理のメニューを表すGUI画像〔図
84(A)〜(C)〕ウインドウをディスプレイ装置7
20に表示し、使用者によるマウス700を用いたGU
I画像内のボタンのクリックに応じて、DSP80(リ
ニアアレイ型ディジタルシグナルプロセッサ)用の各種
フィルタ処理プログラムを生成し、実行させる。In the filter processing (reto uch) filter processing, the personal computer 72
Displays a GUI image [FIG. 84 (A)-(C)] window showing a menu of various filter processes on the display device 7.
20 and the GU using the mouse 700 by the user
Various filter processing programs for the DSP 80 (linear array type digital signal processor) are generated and executed in response to a click of a button in the I image.
【0655】パーソナルコンピュータ72は、図84
(A)に示すGUI画像を表示し、使用者は、GUI画
像内のボタンをマウス700で押下し、フィルタリング
処理の種類を選択する。例えば、使用者が、図84
(A)のボタンの内、「3×3Custum」,「5×5Cust
um」を選択した場合には、パーソナルコンピュータ72
は、図84(B),(C)に示すGUI画像をさらにデ
ィスプレイ装置720に表示し、使用者は、入力装置7
0のキーボード等を用いてフィルタ係数を入力する。な
お、図84(B)のGUI画像内の「Divide」のウィン
ドウには除数が設定され(図86のぜす704の処理に
対応)、「Offset」ウィンドウをチェックすると、オフ
セット値を128とするために数値128が出力データ
に加算される。[0655] The personal computer 72 operates as shown in FIG.
The GUI image shown in (A) is displayed, and the user presses a button in the GUI image with the mouse 700 and selects a type of the filtering process. For example, if the user
Among the buttons in (A), “3 × 3 Custum”, “5 × 5 Custum”
um ”, the personal computer 72
Displays the GUI images shown in FIGS. 84 (B) and 84 (C) on the display device 720.
A filter coefficient is input using a keyboard of 0 or the like. A divisor is set in the “Divide” window in the GUI image of FIG. 84B (corresponding to the processing of 704 in FIG. 86), and when the “Offset” window is checked, the offset value is set to 128. Therefore, the numerical value 128 is added to the output data.
【0656】フィルタ処理の流れ 再び図82を参照する。パーソナルコンピュータ72
は、図84(A)に示すGUI画像をディスプレイ装置
720に表示する(S600)。 The flow of the filtering process is described again with reference to FIG. Personal computer 72
Displays the GUI image shown in FIG. 84 (A) on the display device 720 (S600).
【0657】フィルタリング方法として、「3×3 Cus
tom 」 ,「5×5 Custom 」以外が選択された場合に
は、パーソナルコンピュータ72は、予め用意されたフ
ィルタ係数をパラメータに設定し(図82のS606,
S608)、DSP80用のプログラムを発生し(図8
2のS612)、ダウンロードする(図82のS63
2)。As a filtering method, “3 × 3 Cus
If a value other than “tom” and “5 × 5 Custom” is selected, the personal computer 72 sets a filter coefficient prepared in advance as a parameter (S606 in FIG. 82).
In step S608, a program for the DSP 80 is generated (FIG. 8).
2 (S612), and download (S63 in FIG. 82).
2).
【0658】フィルタリング方法として、「3×3 Cus
tom 」が選択された場合には、パーソナルコンピュータ
72は、図84(B),(C)に示したGUI画像をデ
ィスプレイ装置720に表示する。また、「3×3 Cus
tom 」が選択された場合には、パーソナルコンピュータ
72は、図84(C)に示したGUi画像をディスプレ
イ装置720に表示する。As a filtering method, “3 × 3 Cus
When “tom” is selected, the personal computer 72 displays the GUI images shown in FIGS. 84 (B) and (C) on the display device 720. Also, “3 × 3 Cus
When “tom” is selected, the personal computer 72 displays the GUi image shown in FIG. 84C on the display device 720.
【0659】使用者が、ディスプレイ装置720のGU
I画像〔図84(B),(C)〕のSet ボタンをクリッ
クすると、パーソナルコンピュータ72は、以下のこと
を実行する。The user operates the GU of the display device 720.
When the Set button of the I image [FIGS. 84B and 84C] is clicked, the personal computer 72 executes the following.
【0660】パーソナルコンピュータ72は、ディスプ
レイ上に設定されたフィルタ係数をパラメータファイル
に記憶し(図82のS602,S608)、DSP80
のプログラムを生成し(図82のS610)、SIMD
制御のリニアアレイ型多並列プロセッサに転送する(図
82のS632)。The personal computer 72 stores the filter coefficients set on the display in the parameter file (S602 and S608 in FIG. 82), and the DSP 80
Is generated (S610 in FIG. 82), and the SIMD
The data is transferred to the controlling linear array type multi-parallel processor (S632 in FIG. 82).
【0661】DSP80用のプログラムの内容 以下、図86を参照して、フィルタ処理を行うDSP8
0用のプログラムの内容を説明する。図86は、第15
の実施例において、画像データ処理システム12のDS
P80が実行するフィルタ処理を示すフローチャート図
である。 The contents of the program for the DSP 80. Referring to FIG.
The contents of the program for 0 will be described. FIG. 86 shows the fifteenth
In the embodiment, the DS of the image data processing system 12
It is a flowchart figure which shows the filter process which P80 performs.
【0662】ステップS700において、DSP80
(並列プロセッサ6)の各要素プロセッサ30は、3ラ
イン分の画素データを、データメモリ部23に記憶す
る。この場合、下表13に示すように、各要素プロセッ
サ30は、データメモリ部23上の画素データを記憶す
るアドレスをローテーションさせて用い、最新のライン
のデータを、実際には最も古いラインの画素データの次
のアドレスに書き込むが、プログラムの側からは、あた
かも、常に同じアドレスを先頭として、最新の画素デー
タから順番に記憶されるように見えるようにする。この
ようにアドレスをローテーションして用いることによ
り、常に、データメモリ部23のアドレス0〜15の画
素データは、3タップ中の常に最初のタップに入力さ
れ、アドレス16〜32の画素データは、次のタップに
入力される。従って、要素プロセッサ30は、アドレス
0〜15の画素データから順に、フィルタ係数を乗算し
て、順次、乗算結果を加算することにより、フィルタリ
ング処理を行うことができる。In step S700, the DSP 80
Each element processor 30 of the (parallel processor 6) stores the pixel data of three lines in the data memory unit 23. In this case, as shown in Table 13 below, each element processor 30 rotates the address for storing the pixel data in the data memory unit 23, and uses the data of the latest line in the pixel of the oldest line in practice. The data is written to the next address, but from the program side, it is as if the same address is always at the head and the latest pixel data is stored in order. By rotating the addresses in this manner, the pixel data at addresses 0 to 15 of the data memory unit 23 is always input to the first tap among the three taps, and the pixel data at addresses 16 to 32 is stored in the next tap. Is input to the tap. Therefore, the element processor 30 can perform the filtering process by multiplying the filter coefficients in order from the pixel data of addresses 0 to 15 and sequentially adding the multiplication results.
【0663】[0663]
【表13】 メモリ 実際に書き込まれる プログラム側からnサイクル後に アドレス データ 見えるデータ n=3 n=4 n=5 0- 15 1ライン目 , 4ライン目 1ライン目 2ライン目 3ライン目 16- 31 2ライン目 , 5ライン目 2ライン目 3ライン目 4ライン目 32- 47 3ライン目 , : 3ライン目 4ライン目 5ライン目 ↑ ↑ ↑ アドレスローテーション 0 -16 -32 …(13)[Table 13] Memory Actually written Address data visible n cycles after the program side n = 3 n = 4 n = 5 0-15 1st line, 4th line 1st line 2nd line 3rd line 16-31 2nd line, 5th line 2nd line 3rd line 4th line 32-47 3rd line,: 3rd line 4th line 5th line ↑ ↑ ↑ Address rotation 0 -16 -32… (13)
【0664】ステップS702において、各要素プロセ
ッサ30のALUアレイ部24は、3×3タップそれぞ
れのフィルタ係数(表14;係数A〜I)を用いて、当
該要素プロセッサ30の1つ前方(左隣)の要素プロセ
ッサ30のデータメモリ部23のアドレス0〜15の画
素データに係数Aを乗算し、変数Xに代入する。In step S702, the ALU array section 24 of each element processor 30 uses the filter coefficients (Table 14; coefficients A to I) of each of the 3 × 3 taps to move forward one (left side) of the element processor 30. 2) multiplies the pixel data at addresses 0 to 15 in the data memory unit 23 of the element processor 30 by the coefficient A, and substitutes it for the variable X.
【0665】[0665]
【表14】 A B C D E F G H I …(14)[Table 14] ABCDEFGHI ... (14)
【0666】ALUアレイ部24は、当該要素プロセッ
サ30のデータメモリ部23のアドレス0〜15の画素
のデータに係数Bを乗算し、変数Xに加算する。ALU
アレイ部24は、当該要素プロセッサ30の1つ後方
(右隣)のデータメモリ部23のアドレス0〜15の画
素のデータに係数Cを乗算し、変数Xに加算する。AL
Uアレイ部24は、当該要素プロセッサ30の1つ前方
(左隣)のデータメモリ部23のアドレス16〜31の
画素データに係数Dを乗算して変数Xに加算する。AL
Uアレイ部24は、当該要素プロセッサ30のデータメ
モリ部23のアドレス16〜31の画素データに係数E
を乗算し、変数Xに加算する。ALUアレイ部24は、
当該要素プロセッサ30の後方(右隣)のデータメモリ
部23のアドレス16〜31の画素データに係数Fを乗
算し、変数Xに加算する。ALUアレイ部24は、当該
要素プロセッサ30の前方(左隣)のデータメモリ部2
3のアドレス32〜47の画素データに係数Gを乗算
し、変数Xに加算する。ALUアレイ部24は、当該要
素プロセッサ30のアドレス32〜47の画素データに
係数Hを乗算し、変数Xに加算する。ALUアレイ部2
4は、当該要素プロセッサ30の後方(右隣)のデータ
メモリ部23のアドレス32〜47の画素データに係数
Iを乗算し、変数Xに加算する。The ALU array unit 24 multiplies the data of the pixels at addresses 0 to 15 in the data memory unit 23 of the element processor 30 by the coefficient B, and adds the result to the variable X. ALU
The array unit 24 multiplies the data of the pixels at addresses 0 to 15 in the data memory unit 23 immediately behind (to the right of) the element processor 30 by a coefficient C, and adds the result to the variable X. AL
The U array unit 24 multiplies the pixel data at addresses 16 to 31 in the data memory unit 23 immediately before (to the left of) the element processor 30 by a coefficient D and adds the result to a variable X. AL
The U array unit 24 adds the coefficient E to the pixel data at addresses 16 to 31 in the data memory unit 23 of the element processor 30.
And add it to the variable X. The ALU array unit 24
The pixel data at addresses 16 to 31 in the data memory unit 23 behind (to the right of) the element processor 30 are multiplied by a coefficient F and added to a variable X. The ALU array unit 24 is located in front of (to the left of) the element processor 30 in the data memory unit 2.
The pixel data at addresses 32 to 47 of No. 3 is multiplied by a coefficient G and added to a variable X. The ALU array unit 24 multiplies pixel data at addresses 32 to 47 of the element processor 30 by a coefficient H and adds the result to a variable X. ALU array unit 2
4 multiplies the pixel data at addresses 32 to 47 in the data memory unit 23 behind (to the right of) the element processor 30 by the coefficient I and adds the result to the variable X.
【0667】ステップS704において、各要素プロセ
ッサ30のALUアレイ部24は、変数Xを、図84
(B)に示した「Divideウィンドウ」に設定された除数
で除算し、除算結果を変数Xに代入する。In step S704, the ALU array unit 24 of each element processor 30 stores the variable X in FIG.
Divide by the divisor set in the “Divide window” shown in (B), and substitute the result of the division into a variable X.
【0668】ステップS706において、各要素プロセ
ッサ30は、図84(B)に示した「Offsetウィンド
ウ」がチェックされているか否かを判断し、チェックさ
れでいる場合にはS708の処理に進み、チェックされ
ていない場合にはS710の処理に進む。[0668] In step S706, each element processor 30 determines whether or not the "Offset window" shown in FIG. 84B has been checked, and if it has been checked, proceeds to the processing in S708. If not, the process proceeds to S710.
【0669】ステップS708において、各要素プロセ
ッサ30は、変数Xに数値128を加算する。[0669] In step S708, each element processor 30 adds the numerical value 128 to the variable X.
【0670】ステップS710において、各要素プロセ
ッサ30は、変数Xの値を、フィルタリング処理の結果
として出力する。[0670] In step S710, each element processor 30 outputs the value of the variable X as a result of the filtering process.
【0671】ステップS712において、各要素プロセ
ッサ30は、データメモリ部23のアドレスを上述した
ようにローテーションさせる。[0671] In step S712, each element processor 30 rotates the address of the data memory unit 23 as described above.
【0672】色数変換処理(Post alization) 以下、色数変換処理を説明する。色数変換処理におい
て、パーソナルコンピュータ72は、図85に示した色
数変換処理用のGUI画像をディスプレイ装置720に
表示し、表示したGUI画像に対する使用者の操作に応
じて、色数変換処理を行うDSP80用のプログラムを
作成し、実行させる。なお、図85に示した色数変換処
理用のGUI画像において、使用者が、マウス700に
より「[<<]ボタン」をクリックすると、色数を減少する
度合いを大きくさせる設定がなされ、「[>>]ボタン」を
クリックすると、色数を減少させる度合いを小さくさせ
る設定がなされる。The number-of-colors conversion process ( Postalization) The following describes the number-of-colors conversion process. In the color number conversion processing, the personal computer 72 displays the GUI image for the color number conversion processing shown in FIG. 85 on the display device 720, and performs the color number conversion processing in accordance with the user's operation on the displayed GUI image. A program for the DSP 80 to be executed is created and executed. In the GUI image for color number conversion processing shown in FIG. 85, when the user clicks the “[<<] button” with the mouse 700, a setting is made to increase the degree of reduction in the number of colors. Clicking on the ">>] button" makes settings to reduce the degree to which the number of colors is reduced.
【0673】色数変換処理の流れ 再び図82を参照する。パーソナルコンピュータ72
は、図85に示した色数変換処理用のGUI画像をディ
スプレイ装置720に表示する(S600)。 Flow of Color Number Conversion Processing Referring again to FIG. Personal computer 72
Displays the GUI image for color number conversion processing shown in FIG. 85 on the display device 720 (S600).
【0674】使用者は、ディスプレイ装置720に表示
されたGUI画像に対して色数を設定し、パーソナルコ
ンピュータ72は、設定された色数を受け入れる(S6
02)。[0674] The user sets the number of colors for the GUI image displayed on the display device 720, and the personal computer 72 accepts the set number of colors (S6).
02).
【0675】さらに、使用者がGUI画面内の「Set ボ
タン」をマウス700でクリックすると、以下の処理が
実行される。[0675] Further, when the user clicks "Set button" in the GUI screen with mouse 700, the following processing is executed.
【0676】図87は、色数変換処理に用いられる階段
関数を例示する図である。パーソナルコンピュータ72
は、GUI画面に応じて設定された色数に基づいて、図
87に示す階段関数のパラメータをパラメータファイル
に記憶し、記憶したパラメータを用いてDSP80用の
プログラムを作成し、DSP80に転送する(S606
〜S632)。FIG. 87 is a diagram illustrating a step function used in the color number conversion processing. Personal computer 72
Stores the parameters of the step function shown in FIG. 87 in the parameter file based on the number of colors set according to the GUI screen, creates a program for the DSP 80 using the stored parameters, and transfers the program to the DSP 80 ( S606
To S632).
【0677】なお、色数の変換は、各画素の色データに
対して、図87に示した階段関数を用いた変換を行うこ
とにより実現され、色数の増減は、図87に示した階段
関数の段数を変更することにより行われる。また、例え
ば、階段関数は、下表15に示すように設定される。The conversion of the number of colors is realized by performing a conversion using the step function shown in FIG. 87 on the color data of each pixel. This is done by changing the number of function stages. Also, for example, the step function is set as shown in Table 15 below.
【0678】[0678]
【表15】 y = b(1) 0(最小値)<x<=30 (x(1)=30) y = b(2) 30<x<=80 (x(2)=80) y = b(3) 80<x<=120 (x(3)=120) ... y = b(N) 200<x<=255( 最大値) (x(N)=255) …(14)[Table 15] y = b (1) 0 (minimum value) <x <= 30 (x (1) = 30) y = b (2) 30 <x <= 80 (x (2) = 80) y = b (3) 80 <x <= 120 (x (3) = 120) ... y = b (N) 200 <x <= 255 (maximum value) (x (N) = 255)… (14)
【0679】DSP80用のプログラ ムの内容 以下、図88を参照して、色変換処理を行うDSP80
用のプログラムの内容を説明する。図88は、第15の
実施例において、画像データ処理システム12のDSP
80が実行する色変換処理を示すフローチャート図であ
る。[0679] the content of the program for the DSP80 below, with reference to FIG. 88, performs color conversion processing DSP80
The contents of the program for use will be explained. FIG. 88 shows the DSP of the image data processing system 12 in the fifteenth embodiment.
FIG. 7 is a flowchart illustrating a color conversion process performed by a color conversion processing;
【0680】DSP80(並列プロセッサ6)の各要素
プロセッサ30は、データメモリ部23内に、係数を記
憶するメモリ領域Bおよびワークエリアを確保し、変数
iに数値1を代入する。次に、図88に示すように、ス
テップS720において、例えば、階段関数が表15に
示した通りに設定される場合には、各要素プロセッサ3
0は、各画素の色データの値xが数値30〔x(1)〕
より大きいか否かを判断し、大きければ、ステップS7
22の処理に進んで変数Bに数値b(2)を代入し、大
きくなければ、ステップS734の処理に進んで変数B
に数値b(1)を代入し処理を終了する。Each element processor 30 of the DSP 80 (parallel processor 6) secures a memory area B for storing coefficients and a work area in the data memory unit 23, and assigns a numerical value 1 to a variable i. Next, as shown in FIG. 88, in step S720, for example, when the step function is set as shown in Table 15, each element processor 3
0 means that the value x of the color data of each pixel is a numerical value 30 [x (1)]
It is determined whether or not the value is greater than the value.
In step S734, the process proceeds to step S734, in which the process proceeds to step S734.
Is substituted for the numerical value b (1), and the process ends.
【0681】ステップS724において、各要素プロセ
ッサ30は、変数iが階段関数における階段数を示す数
値N未満であるか否かを判断し、N未満である場合には
S726の処理に進み、N未満でない場合にはS730
の処理に進む。In step S724, each element processor 30 determines whether or not the variable i is smaller than the numerical value N indicating the number of steps in the step function. If the variable i is smaller than N, the process proceeds to S726, where Otherwise, S730.
Proceed to processing.
【0682】ステップS726において、各要素プロセ
ッサ30は、色データの値xが80〔x(2)〕より大
きいか否かを判断し、大きければS728の処理に進ん
で変数Bにb(3)を代入し、大きくなければS730
の処理に進んで変数Bの値を保存する。ステップS73
0において、各要素プロセッサ30は、変数Bの値を出
力する。In step S726, each element processor 30 determines whether or not the value x of the color data is greater than 80 [x (2)]. If it is, the process proceeds to step S728, where b (3) is set in the variable B. And if not large, S730
And the value of the variable B is stored. Step S73
At 0, each element processor 30 outputs the value of variable B.
【0683】連続ズーム処理 以下、連続ズーム処理を説明する。連続ズーム処理にお
いて、パーソナルコンピュータ72は、図78に示した
連続ズーム処理用のGUI画像をディスプレイ装置72
0に表示し、使用者の操作に応じて倍率の設定を受け、
設定された倍率に基づいて、画像データを拡大・縮小す
るDSP80用のプログラムを作成し、DSP80に実
行させる。 Continuous zoom processing The continuous zoom processing will be described below. In the continuous zoom process, the personal computer 72 displays the GUI image for the continuous zoom process shown in FIG.
0, and receives the magnification setting according to the user's operation.
Based on the set magnification, a program for the DSP 80 for enlarging / reducing the image data is created, and the DSP 80 executes the program.
【0684】なお、図78に示した連続ズーム処理用の
GUI画像に対して、使用者は、マウス700でクリッ
ク等の操作により、あるいは、キーボードから直接入力
することにより倍率の設定を行う。また、倍率には水平
方向の倍率と垂直方向の倍率とがあるが、設定方法は同
一なので、水平方向の倍率を設定する場合を例に説明す
る。The user sets the magnification of the GUI image for continuous zoom processing shown in FIG. 78 by clicking the mouse 700 or by directly inputting it from the keyboard. The magnification includes a horizontal magnification and a vertical magnification. Since the setting method is the same, a case where the horizontal magnification is set will be described as an example.
【0685】水平方向の倍率として固定倍率を設定する
場合、使用者は、連続ズーム処理用のGUI画像に対し
て、Magのテキストフィールドに倍率を100分率で
キーボードから直接入力する。また、使用者が「 [Vari
able] ボタン」をクリックすると、連続可変ズームが実
行され、「 [Normal] ボタン」をクリックすると、倍率
が100%に戻される。In the case where a fixed magnification is set as the horizontal magnification, the user directly inputs the magnification in the Mag text field at a 100% rate from the keyboard to the GUI image for the continuous zoom processing. In addition, if the user says "[Vari
Click the "able" button to perform a continuously variable zoom, and click the "[Normal] button" to return the magnification to 100%.
【0686】連続ズーム処理の流れ 再び図82を参照する。使用者が、連続ズーム処理用の
GUI画像に対して固定倍率を設定した場合、パーソナ
ルコンピュータ72は、設定された倍率をパラメータフ
ァイルに記憶し、DSP80用のプログラムを発生し、
DSP80に転送する(S600〜S632)。[0686] Referring to Figure 82 of the continuous zoom processing flow again. When the user sets a fixed magnification for the GUI image for continuous zoom processing, the personal computer 72 stores the set magnification in a parameter file, generates a program for the DSP 80,
The data is transferred to the DSP 80 (S600 to S632).
【0687】但し、パーソナルコンピュータ72は、使
用者が連続ズーム処理用のGUI画像の「[Variable]
ボタン」をクリックした場合には、連続可変ズーム処理
を行うDSP80用のプログラムを作成および転送し、
使用者が「 [Normal] ボタン」をクリックした場合、パ
ラメータファイルに100%を記憶し、DSP80用の
プログラムを発生し、転送する。なお、連続ズーム処理
を行うDSP80のプログラムは、第1〜第6の実施例
に示した任意の倍率で画像データを拡大・縮小する場合
の補間フィルタリング処理と同じである。However, the personal computer 72 allows the user to input “[Variable]” of the GUI image for continuous zoom processing.
When the button is clicked, a program for the DSP 80 that performs the continuously variable zoom process is created and transferred,
When the user clicks the "[Normal] button", the parameter file is stored at 100%, a program for the DSP 80 is generated and transferred. The program of the DSP 80 for performing the continuous zoom process is the same as the interpolation filtering process for enlarging or reducing image data at an arbitrary magnification shown in the first to sixth embodiments.
【0688】インタラクティブズーム処理 以下、インタラクティブズーム処理を説明する。パーソ
ナルコンピュータ72は、図79に示したように、拡大
・縮小の倍率を対話形式で(インタラクティブに)設定
するためのインタラクティブズーム処理用のGUI画像
をディスプレイ装置720に表示し、図79にa〜cで
示す方向にマウス700をドラッグする使用者の設定操
作に応じて、画像を拡大・縮小するDSP80用のプロ
グラムを作成し、DSP80に実行させる。[0688] Interactive zoom processing will be described below. As shown in FIG. 79, the personal computer 72 displays a GUI image for interactive zoom processing for interactively (interactively) setting the enlargement / reduction magnification on the display device 720, and FIG. In response to the user's setting operation of dragging the mouse 700 in the direction indicated by c, a program for the DSP 80 for enlarging / reducing an image is created and executed by the DSP 80.
【0689】使用者が、インタラクティブズーム処理用
のGUI画像内の画像表示用ウィンドウの下辺をaの方
向にマウス700でイメージの下辺をマウスでドラッグ
すると、パーソナルコンピュータ72は、垂直方向の倍
率の設定を受けて、ウィンドウの表示を垂直方向に拡大
・縮小する。When the user drags the lower side of the image display window in the GUI image for interactive zoom processing in the direction of a with the mouse 700 and the lower side of the image with the mouse, the personal computer 72 sets the magnification in the vertical direction. In response to this, the display of the window is enlarged / reduced in the vertical direction.
【0690】使用者が、マウス700で画像表示用ウィ
ンドウの側辺をbの方向にマウスでドラッグすると、パ
ーソナルコンピュータ72は、水平方向の倍率の設定を
受けて、ウィンドウの表示を水平方向に拡大・縮小す
る。使用者が、マウス700で画像表示用ウィンドウの
角をcの方向にマウスでドラッグすると、パーソナルコ
ンピュータ72は、垂直方向および水平方向の倍率の設
定を受けて、ウィンドウの表示を垂直方向および水平方
向に拡大・縮小する。When the user drags the side of the image display window with the mouse 700 in the direction b, the personal computer 72 receives the setting of the horizontal magnification and enlarges the display of the window in the horizontal direction. ·to shrink. When the user drags the corner of the image display window with the mouse 700 in the direction of c with the mouse, the personal computer 72 receives the settings of the vertical and horizontal magnifications and changes the window display in the vertical and horizontal directions. Scale.
【0691】使用者が「Maintail Aspect Retio ボタ
ン」がチェックした場合には、パーソナルコンピュータ
72は、垂直方向および水平方向の比率を保ってウィン
ドウの表示を拡大・縮小する。If the user checks the “Maintail Aspect Retio button”, the personal computer 72 enlarges / reduces the window display while maintaining the ratio in the vertical and horizontal directions.
【0692】インタラクティブズーム処理の流れ 再び図82を参照する。パーソナルコンピュータ72
は、図79に示したインタラクティブズーム処理用のG
UI画像をディスプレイ装置720に表示する。使用者
が「[Set] ボタン」をクリックすると、以下の処理が実
行される。 Flow of Interactive Zoom Processing Referring again to FIG. Personal computer 72
Is G for the interactive zoom processing shown in FIG.
The UI image is displayed on the display device 720. When the user clicks the "[Set] button", the following processing is executed.
【0693】パーソナルコンピュータ72は、インタラ
クティブズーム処理用GUI画像に対して設定された、
垂直方向および水平方向の倍率に基づいて、パラメータ
を抽出し、パラメータファイルに記憶する。さらに、パ
ーソナルコンピュータ72は、インタラクティブズーム
処理を行うDSP80用のプログラムを作成し、DSP
80に転送する(S600〜S632)。The personal computer 72 sets the interactive zoom processing GUI image.
Parameters are extracted based on the vertical and horizontal magnifications and stored in a parameter file. Further, the personal computer 72 creates a program for the DSP 80 for performing the interactive zoom process, and
80 (S600 to S632).
【0694】但し、使用者がインタラクティブズーム処
理用GUI画像の「[Reset] ボタン」をクリックする
と、パーソナルコンピュータ72は、垂直方向および水
平方向の倍率を100%に設定し、パラメータを生成す
る。さらに、パーソナルコンピュータ72は、垂直方向
および水平方向の倍率を100%とするインタラクティ
ブズーム処理を行うDSP80用のプログラムを作成
し、DSP80に転送する。なお、インタラクティブズ
ーム処理を行うDSP80のプログラムは、第1〜第6
の実施例に示した任意の倍率で画像データを拡大・縮小
する場合の補間フィルタリング処理と同じである。However, when the user clicks the “[Reset] button” of the GUI image for interactive zoom processing, the personal computer 72 sets the magnification in the vertical and horizontal directions to 100% and generates parameters. Further, the personal computer 72 creates a program for the DSP 80 that performs the interactive zoom processing with the magnification in the vertical direction and the horizontal direction being 100%, and transfers the program to the DSP 80. The program of the DSP 80 for performing the interactive zoom processing includes first to sixth programs.
This is the same as the interpolation filtering processing in the case where the image data is enlarged / reduced at an arbitrary magnification shown in the embodiment.
【0695】図76には図示しなかったが、画像データ
処理システム12は、さらに以下の機能を有する。Although not shown in FIG. 76, the image data processing system 12 further has the following functions.
【0696】入出力画像選択 図89は、第15の実施例として示した画像データ処理
システム12の入出力画像選択用のGUI画像を示す図
である。パーソナルコンピュータ72は、図89に示す
ように、複数のウィンドウ内に入力部14のハードディ
スク装置140〜VGA装置154からそれぞれ入力さ
れる画像を表示する入出力選択用GUIを表示する。[0696] O image selection view 89 is a diagram showing a GUI image for input and output image selection of the image data processing system 12 shown as a fifteenth embodiment. As shown in FIG. 89, the personal computer 72 displays an input / output selection GUI for displaying images input from the hard disk device 140 to the VGA device 154 of the input unit 14 in a plurality of windows.
【0697】ユーザーは、入出力選択用GUI画像内の
所望の画像が表示されているウィンドウをマウス700
でクリックして選択すると、パーソナルコンピュータ7
2は、入力画像セレクタ84を制御し、入力部14から
入力される複数の画像データの内、クリックされている
画像に対応する画像データを選択させ、フレームメモリ
821 に対して出力させる。The user can use the mouse 700 to move the window in which the desired image in the input / output selection GUI image is displayed.
Click to select the personal computer 7
2 controls the input image selector 84, among a plurality of image data input from the input unit 14, to select the image data corresponding to the image is clicked, to output to the frame memory 82 1.
【0698】但し、画像データ処理システム12がHD
モニタ160に画像データVOUTを表示するように設
定されている場合に、使用者が、入出力選択用GUI画
像内の「Main Video Source ボタン」をクリックする
と、クリックのたびに、パーソナルコンピュータ72
は、入力画像セレクタ84を制御して、ハードディスク
装置140、VTR装置142、NTSC画像信号源1
46(A/D変換回路148)、および、RGB画像信
号源150(A/D変換回路152)という順番で切り
換えて、画像データVINの供給元を選択する。However, if the image data processing system 12 is HD
When the user clicks the “Main Video Source button” in the input / output selection GUI image when the image data VOUT is set to be displayed on the monitor 160, the personal computer 72
Controls the input image selector 84 so that the hard disk device 140, the VTR device 142, the NTSC image signal source 1
46 (A / D conversion circuit 148) and the RGB image signal source 150 (A / D conversion circuit 152) are switched in this order to select the supply source of the image data VIN.
【0699】また、画像データ処理システム12がD1
モニタ162に画像データVOUTを表示するように設
定されている場合に、使用者が、入出力選択用GUI画
像内の「Main Video Source ボタン」をクリックする
と、クリックのたびに、パーソナルコンピュータ72
は、入力画像セレクタ84を制御して、VTR装置14
2、NTSC画像信号源146(A/D変換回路14
8)、RGB画像信号源150(A/D変換回路15
2)およびVGA装置154という順番で切り換えて、
画像データVINの供給元を選択する。[0699] Also, if the image data processing system 12 has D1
When the user clicks the “Main Video Source button” in the input / output selection GUI image when the image data VOUT is set to be displayed on the monitor 162, the personal computer 72
Controls the input image selector 84 so that the VTR device 14
2. NTSC image signal source 146 (A / D conversion circuit 14
8), RGB image signal source 150 (A / D conversion circuit 15
Switching in the order of 2) and VGA device 154,
The source of the image data VIN is selected.
【0700】また、使用者が、入出力選択用GUI画像
内の「Back Video Source ボタン」をクリックすると、
クリックのたびに、パーソナルコンピュータ72は、入
力画像セレクタ84を制御して、VTR装置142、N
TSC画像信号源146(A/D変換回路148)、R
GB画像信号源150(A/D変換回路152)および
VGA装置154という順番で切り換えて、画像データ
VINの供給元を選択すとともに、VGA装置154か
ら入力される画像データの表示の後には、これら4つの
供給元から入力される画像データを、ディスプレイ装置
720の画面を4分割して表示する。[0700] When the user clicks the "Back Video Source button" in the input / output selection GUI image,
Each time the user clicks, the personal computer 72 controls the input image selector 84 so that the VTR devices 142 and N
TSC image signal source 146 (A / D conversion circuit 148), R
By switching in the order of the GB image signal source 150 (A / D conversion circuit 152) and the VGA device 154, the supply source of the image data VIN is selected, and after the display of the image data input from the VGA device 154, The image data input from the four sources is displayed by dividing the screen of the display device 720 into four parts.
【0701】出力モニタの選択 使用者が、入出力選択用GUI画像内の「Definition」
のラジオボタンの項目の内、項目「HD」を選択する
と、パーソナルコンピュータ72は、出力モニタセレク
タ86を制御して、画像データVOUTをHDモニタ1
60に表示させる。また、使用者が項目「SD」を選択
すると、パーソナルコンピュータ72は、出力モニタセ
レクタ86を制御して、画像データVOUTをD1モニ
タ162に表示させる。The user of the output monitor selects “Definition” in the input / output selection GUI image.
When the item “HD” is selected from the items of the radio button, the personal computer 72 controls the output monitor selector 86 to transfer the image data VOUT to the HD monitor 1.
60 is displayed. When the user selects the item “SD”, the personal computer 72 controls the output monitor selector 86 to display the image data VOUT on the D1 monitor 162.
【0702】出力モードの選択 使用者が、入出力選択用GUI画像内の「Mode」のラジ
オボタン中の項目「30P」を選択すると、パーソナル
コンピュータ72は、1秒間に30フレームプログレッ
シブの形式で画像データVOUTを生成して出力する。
また、使用者が、入出力選択用GUI画像内の「Mode」
のラジオボタン中の項目「60I」を選択すると、パー
ソナルコンピュータ72は、1秒間に60フィールドイ
ンターレースの形式で画像データVOUTを生成して出
力する。When the user selects the item “30P” in the “Mode” radio button in the input / output selection GUI image, the personal computer 72 displays the image in a progressive format of 30 frames per second. It generates and outputs data VOUT.
In addition, the user selects “Mode” in the input / output selection GUI image.
Is selected, the personal computer 72 generates and outputs image data VOUT in a 60-field interlaced format per second.
【0703】出力時メイン画像の位置設定 図90は、メイン画像の位置設定用のGUI画像を示す
図である。パーソナルコンピュータ72は、図90に示
すGUI画像位置設定用のGUI画像をディスプレイ装
置720に表示する。使用者が、GUI画像位置設定用
のGUI画像内の任意の位置をクリックすると、パーソ
ナルコンピュータ72は、クリックした位置を画面中の
メイン画像の左上の位置に設定する。[0707] Position setting of main image at output FIG. 90 is a diagram showing a GUI image for setting the position of the main image. The personal computer 72 displays a GUI image for setting a GUI image position shown in FIG. When the user clicks an arbitrary position in the GUI image for setting the GUI image position, the personal computer 72 sets the clicked position to the upper left position of the main image on the screen.
【0704】[0704]
【発明の効果】以上説明したように、本発明によれば、
例えば、SIMD制御のリニアアレイ型多並列プロセッ
サを用いてソフトウェア的に輪郭強調処理を行うことが
できる。As described above, according to the present invention,
For example, contour enhancement processing can be performed by software using a SIMD-controlled linear array type multi-parallel processor.
【0705】また、本発明によれば、画像データ中の物
体の画像の輪郭を検出する際のフィルタリング処理の特
性、および、輪郭強調の度合いを調整するための非線形
変換処理の特性等を、例えば、GUIにより簡単に設定
して輪郭強調処理を行うことができ、しかも、処理の結
果を即座に確認することができる。According to the present invention, the characteristics of the filtering process for detecting the contour of the image of the object in the image data, the characteristics of the non-linear conversion process for adjusting the degree of contour emphasis, and the like are described below. , The GUI can be easily set and the outline emphasis processing can be performed, and the result of the processing can be immediately confirmed.
【0706】また、本発明によれば輪郭強調処理後の画
像データに生じる粒状ノイズを軽減することができる。Further, according to the present invention, it is possible to reduce the granular noise generated in the image data after the contour enhancement processing.
【図1】原画像の一例を示す図である。FIG. 1 is a diagram illustrating an example of an original image.
【図2】原画像を拡大した画像の一例を示す図である。FIG. 2 is a diagram showing an example of an image obtained by enlarging an original image.
【図3】原画像の画素と、拡大した画像の画素の位置関
係の一例を示す図である。FIG. 3 is a diagram illustrating an example of a positional relationship between pixels of an original image and pixels of an enlarged image.
【図4】原画像の解像度を高くした画像の一例を示す図
である。FIG. 4 is a diagram illustrating an example of an image in which the resolution of an original image is increased.
【図5】原画像を縮小した画像の一例を示す図である。FIG. 5 is a diagram illustrating an example of an image obtained by reducing an original image.
【図6】原画像の画素と、縮小した画像の画素の位置関
係の一例を示す図である。FIG. 6 is a diagram illustrating an example of a positional relationship between pixels of an original image and pixels of a reduced image.
【図7】原画像の解像度を低くした画像の一例を示す図
である。FIG. 7 is a diagram illustrating an example of an image in which the resolution of an original image is reduced.
【図8】原画像の画素と、補間により生成される画素の
位置関係の一例を示す図である。FIG. 8 is a diagram illustrating an example of a positional relationship between pixels of an original image and pixels generated by interpolation.
【図9】補間関係の例を示す図である。FIG. 9 is a diagram illustrating an example of an interpolation relationship.
【図10】ハードウェア的にフィルタ演算を行う装置の
一構成例を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration example of a device that performs a filter operation in hardware.
【図11】図10の装置において行われるフィルタ演算
の各サイクルにおける各部の信号の一例を示す図であ
る。11 is a diagram illustrating an example of a signal of each unit in each cycle of a filter operation performed in the device in FIG. 10;
【図12】フィルタ選択信号とフィルタ係数セットの対
応関係の一例を示す図である。FIG. 12 is a diagram illustrating an example of a correspondence relationship between a filter selection signal and a filter coefficient set.
【図13】ソフトウェア的にフィルタ演算を行う装置の
一構成例を示すブロック図である。FIG. 13 is a block diagram illustrating a configuration example of a device that performs a filter operation by software.
【図14】図13の装置において、画像の拡大を行う場
合における入力データの供給のパターンの一例を示す図
である。14 is a diagram illustrating an example of a supply pattern of input data when an image is enlarged in the apparatus of FIG. 13;
【図15】処理に必要なデータを有する要素プロセッサ
との位置関係の例を示す図である。FIG. 15 is a diagram illustrating an example of a positional relationship with an element processor having data necessary for processing.
【図16】本発明の画像処理装置の第2の実施例の構成
を示すブロック図である。FIG. 16 is a block diagram illustrating a configuration of a second embodiment of the image processing apparatus according to the present invention.
【図17】要素プロセッサの構成例を示すブロック図で
ある。FIG. 17 is a block diagram illustrating a configuration example of an element processor.
【図18】要素プロセッサの詳細な構成例を示す回路図
である。FIG. 18 is a circuit diagram illustrating a detailed configuration example of an element processor.
【図19】図16の画像処理装置の動作を説明するフロ
ーチャートである。FIG. 19 is a flowchart illustrating an operation of the image processing apparatus in FIG. 16;
【図20】図16の画像処理装置の各部に記憶されるデ
ータの一例を示す図である。20 is a diagram illustrating an example of data stored in each unit of the image processing apparatus in FIG.
【図21】処理に必要なデータを有する要素プロセッサ
との位置関係の例を示す図である。FIG. 21 is a diagram illustrating an example of a positional relationship with an element processor having data necessary for processing.
【図22】図21の位置関係を縮退させた位置関係の例
を示す図である。FIG. 22 is a diagram illustrating an example of a positional relationship in which the positional relationship of FIG. 21 is degenerated.
【図23】図16の画像処理装置におけるフィルタ演算
の処理を説明するフローチャートである。FIG. 23 is a flowchart illustrating a filter calculation process in the image processing apparatus in FIG. 16;
【図24】図16の画像処理装置におけるフィルタ演算
の処理を説明するフローチャートである。FIG. 24 is a flowchart illustrating a filter calculation process in the image processing apparatus of FIG. 16;
【図25】本発明の画像処理装置の第3の実施例の構成
を示すブロック図である。FIG. 25 is a block diagram showing the configuration of a third embodiment of the image processing apparatus of the present invention.
【図26】データメモリ部に記憶されているフィルタ選
択番号の一例を示す図である。FIG. 26 is a diagram showing an example of a filter selection number stored in a data memory unit.
【図27】フィルタ係数セットを供給するときの図25
の画像処理装置の動作について説明するフローチャート
である。FIG. 27 when supplying a filter coefficient set;
5 is a flowchart for explaining the operation of the image processing apparatus of FIG.
【図28】第4の実施例において、各要素プロセッサが
フィルタ係数セットを演算するときの動作について説明
するフローチャートである。FIG. 28 is a flowchart illustrating an operation when each element processor calculates a filter coefficient set in the fourth embodiment.
【図29】第4の実施例において、各要素プロセッサが
フィルタ係数セットを演算するときの動作について説明
するフローチャートである。FIG. 29 is a flowchart illustrating an operation when each element processor calculates a filter coefficient set in the fourth embodiment.
【図30】本発明の画像処理装置の第5の実施例の構成
を示すブロック図である。FIG. 30 is a block diagram showing a configuration of a fifth embodiment of the image processing apparatus of the present invention.
【図31】各要素プロセッサがフィルタ選択番号を演算
するときの図30の画像処理装置の動作について説明す
るフローチャートである。FIG. 31 is a flowchart illustrating an operation of the image processing apparatus of FIG. 30 when each element processor calculates a filter selection number.
【図32】本発明の画像処理装置の第6の実施例の構成
を示すブロック図である。FIG. 32 is a block diagram showing a configuration of a sixth embodiment of the image processing apparatus of the present invention.
【図33】本発明の第7の実施例の構成を示す図であ
る。FIG. 33 is a diagram showing a configuration of a seventh exemplary embodiment of the present invention.
【図34】本発明の第8の実施例の構成を示す図であ
る。FIG. 34 is a diagram showing a configuration of an eighth example of the present invention.
【図35】(A)〜(D)は、パーソナルコンピュータ
(図34)が、そのモニタに表示するGUI画像を示す
図である。35 (A) to (D) are views showing GUI images displayed on a monitor by the personal computer (FIG. 34).
【図36】図34に示した画像データ処理システムの処
理を示すフローチャート図である。FIG. 36 is a flowchart showing a process of the image data processing system shown in FIG. 34;
【図37】本発明の第9の実施例の構成を示す図であ
る。FIG. 37 is a diagram showing a configuration of a ninth embodiment of the present invention.
【図38】図37に示した画像データ処理システムの処
理を示すフローチャート図である。FIG. 38 is a flowchart showing a process of the image data processing system shown in FIG. 37;
【図39】図37に示した画像データ処理システムのパ
ーソナルコンピュータが抽出する折れ線関数を例示する
図である。FIG. 39 is a diagram illustrating a polygonal line function extracted by a personal computer of the image data processing system shown in FIG. 37;
【図40】非線形処理を、N個の領域ごとに線形演算を
行うことにより実現するDSP(図37)のプログラム
を示すフローチャート図である。40 is a flowchart showing a program of the DSP (FIG. 37) for realizing the non-linear processing by performing a linear operation for each of N regions.
【図41】アナログ処理を行うクロマキー装置の構成例
を示す図である。FIG. 41 is a diagram illustrating a configuration example of a chroma key device that performs analog processing.
【図42】ディジタル処理を行うクロマキー装置の構成
例を示す図である。FIG. 42 is a diagram illustrating a configuration example of a chroma key device that performs digital processing.
【図43】本発明の第10の実施例の構成を示す図であ
る。FIG. 43 is a diagram showing a configuration of a tenth embodiment of the present invention.
【図44】図43に示したDSPに入力または出力され
るデータを示す図である。FIG. 44 is a diagram showing data input or output to the DSP shown in FIG. 43.
【図45】画像データ処理システム(図43)のパーソ
ナルコンピュータがモニタに表示するクロマキー処理の
背景色設定用のGUI画像を例示する図である。FIG. 45 is a diagram exemplifying a GUI image for setting a background color of chroma key processing displayed on a monitor by a personal computer of the image data processing system (FIG. 43).
【図46】画像データ処理システム(図43)のパーソ
ナルコンピュータが生成するDSP用のクロマキー処理
プログラムの処理を例示する図である。46 is a diagram exemplifying processing of a chroma key processing program for a DSP generated by a personal computer of the image data processing system (FIG. 43).
【図47】画像データ処理システム(図43)のパーソ
ナルコンピュータが生成するDSP用の要素プロセッサ
(図32等)が実行するクロマキー処理プログラムの内
容を例示するフローチャート図である。47 is a flowchart illustrating the contents of a chroma key processing program executed by a DSP element processor (FIG. 32 and the like) generated by the personal computer of the image data processing system (FIG. 43).
【図48】画像データ処理システム(図43)によるク
ロマキー処理を示すフローチャート図である。FIG. 48 is a flowchart showing a chroma key process by the image data processing system (FIG. 43).
【図49】第11の実施例として示す画像データ処理シ
ステム(図37)による輪郭強調処理を示す第1の図で
ある。FIG. 49 is a first diagram showing an outline emphasis process by the image data processing system (FIG. 37) shown as the eleventh embodiment.
【図50】第11の実施例として示す画像データ処理シ
ステム(図37)による輪郭強調処理を示す第2の図で
ある。FIG. 50 is a second diagram showing the outline emphasis processing by the image data processing system (FIG. 37) shown as the eleventh embodiment.
【図51】画像データ処理システム(図37)による輪
郭強調処理において、輝度信号Yおよびクロマ信号C
b,Crを強調する関数を設定するために用いられるG
UI画像を示す図である。FIG. 51 shows a luminance signal Y and a chroma signal C in an outline emphasis process by the image data processing system (FIG. 37).
G used to set a function that emphasizes b and Cr
FIG. 3 is a diagram illustrating a UI image.
【図52】(A)〜(D)は、画像データ処理システム
(図37)による輪郭強調処理において、レベルデペン
ド処理またはクリスピニング処理における非線形変換処
理の特性を設定するために用いられるGUI画面を示す
図である。FIGS. 52 (A) to 52 (D) show GUI screens used for setting characteristics of a non-linear conversion process in a level-dependent process or a crispening process in an outline emphasis process by the image data processing system (FIG. 37). FIG.
【図53】(A)〜(C)は、画像データ処理システム
(図37)による輪郭強調処理において、フィルタリン
グ処理の特性を設定するために用いられるGUI画面を
示す図である。FIGS. 53A to 53C are diagrams showing GUI screens used for setting characteristics of a filtering process in the contour emphasizing process by the image data processing system (FIG. 37).
【図54】第11の実施例として示す画像データ処理シ
ステム(図37)による輪郭強調処理を示すフローチャ
ートである。FIG. 54 is a flowchart showing an outline emphasis process by the image data processing system (FIG. 37) shown as the eleventh embodiment.
【図55】第12の実施例として示す画像データ処理シ
ステム(図37)を用いて行うFIRフィルタによる水
平方向のフィルタリング処理の内容を示す図である。FIG. 55 is a diagram illustrating the content of horizontal filtering processing by an FIR filter performed using the image data processing system (FIG. 37) illustrated as the twelfth embodiment;
【図56】第12の実施例として示す画像データ処理シ
ステム(図37)を用いて行うFIRフィルタによる水
平方向および垂直方向のフィルタリング処理の内容を示
す図である。FIG. 56 is a diagram showing the contents of horizontal and vertical filtering processing by an FIR filter performed using the image data processing system (FIG. 37) shown as the twelfth embodiment.
【図57】(A)〜(C)は、画像データ処理システム
(図37)によるFIRフィルタによるフィルタリング
処理において、フィルタリング処理の特性を設定するた
めに用いられるGUI画面を示す図である。FIGS. 57A to 57C are diagrams showing GUI screens used for setting characteristics of the filtering process in the filtering process by the FIR filter by the image data processing system (FIG. 37).
【図58】第12の実施例として示すFIRフィルタに
よるフィルタリング処理を行う画像データ処理システム
(図37)のDSPのプログラムの処理内容(S36,
S37)を示す図である。FIG. 58 shows the processing contents (S36,
It is a figure which shows S37).
【図59】第12の実施例におけるDSPの処理を示す
第1のフローチャート図である。FIG. 59 is a first flowchart showing the processing of the DSP in the twelfth embodiment.
【図60】第12の実施例におけるDSPの処理を示す
第2のフローチャート図である。FIG. 60 is a second flowchart showing the processing of the DSP in the twelfth embodiment.
【図61】第12の実施例として示す画像データ処理シ
ステムを用いたFIRフィルタによるフィルタリング処
理を示すフローチャートである。FIG. 61 is a flowchart showing a filtering process by an FIR filter using the image data processing system shown as the twelfth embodiment.
【図62】本発明の第13実施例における粒状ノイズ除
去処理を示す第1の図である。FIG. 62 is a first diagram illustrating the granular noise removal processing according to the thirteenth embodiment of the present invention;
【図63】(A)〜(E)は、本発明の第13実施例に
おける粒状ノイズ除去処理を示す第2の図である。FIGS. 63 (A) to (E) are second diagrams showing the granular noise removal processing in the thirteenth embodiment of the present invention.
【図64】本発明の第13の実施例として示す画像デー
タ処理システムの構成を示す図である。FIG. 64 is a diagram showing a configuration of an image data processing system shown as a thirteenth embodiment of the present invention.
【図65】図64に示したDSPに対して入出力される
データを示す図である。FIG. 65 is a diagram showing data input / output to / from the DSP shown in FIG. 64;
【図66】図64に示した画像データ処理システムのパ
ーソナルコンピュータが、ノイズ成分の分離ポイントを
設定するためにモニタに表示するGUI画像を示す図で
ある。FIG. 66 is a diagram showing a GUI image displayed on a monitor by the personal computer of the image data processing system shown in FIG. 64 in order to set a noise component separation point.
【図67】本発明の第13の実施例として示した画像デ
ータ処理システムの動作を示す図である。FIG. 67 is a diagram illustrating an operation of the image data processing system illustrated as the thirteenth embodiment of the present invention.
【図68】本発明の第13の実施例として示した画像デ
ータ処理システムの動作を示すフローチャート図であ
る。FIG. 68 is a flowchart showing an operation of the image data processing system shown as the thirteenth embodiment of the present invention;
【図69】本発明の第14の実施例として示すエフェク
ト領域設定を行う際に、画像データ処理システム(図3
7,図43,図64)のパーソナルコンピュータがモニ
タに表示するエフェクト領域設定用のGUI画像を示す
図である。FIG. 69 is a diagram illustrating an image data processing system (FIG. 3) for setting an effect area shown as a fourteenth embodiment of the present invention.
64 is a diagram showing a GUI image for setting an effect area displayed on the monitor by the personal computer of FIG. 7, FIG. 43, and FIG. 64).
【図70】第14の実施例として示す画像データ処理シ
ステム(図37,図43,図64)のパーソナルコンピ
ュータが生成するDSPのプログラムの処理を示す第1
の図である。FIG. 70 is a first diagram illustrating processing of a DSP program generated by a personal computer of the image data processing system (FIGS. 37, 43, and 64) illustrated as the fourteenth embodiment;
FIG.
【図71】図69の例1に示した長方形の領域を設定し
た場合のプログラム1,2(図70)のS432,S4
42におけるエフェクト領域内であるか否かの判定処
理、および、判定結果に応じたデータの出力処理を示す
フローチャート図である。71 shows S432 and S4 of programs 1 and 2 (FIG. 70) when the rectangular area shown in example 1 of FIG. 69 is set;
FIG. 42 is a flowchart showing a process of determining whether or not the area is within the effect area in 42 and a process of outputting data according to the determination result.
【図72】図69の例2に示した円形の領域を設定した
場合のプログラム1,2(図70)のS432,S44
2におけるエフェクト領域内であるか否かの判定処理、
および、判定結果に応じたデータの出力処理を示すフロ
ーチャート図である。72 shows S432 and S44 of programs 1 and 2 (FIG. 70) when the circular area shown in example 2 of FIG. 69 is set;
A determination process of whether or not it is within the effect area in 2;
FIG. 11 is a flowchart illustrating a data output process according to a determination result.
【図73】第14の実施例における画像データ処理シス
テム(図37,図43,図64)の動作を示すフローチ
ャート図である。FIG. 73 is a flowchart showing an operation of the image data processing system (FIGS. 37, 43, and 64) in the fourteenth embodiment.
【図74】本発明の第15の実施例として示す画像デー
タ処理システムの構成を示す図である。FIG. 74 is a diagram showing a configuration of an image data processing system shown as a fifteenth embodiment of the present invention.
【図75】本発明の第15の実施例として示す画像デー
タ処理システムの処理の概要を示す図である。FIG. 75 is a diagram showing an outline of processing of an image data processing system shown as a fifteenth embodiment of the present invention;
【図76】パーソナルコンピュータがディスプレイ装置
に表示するエフェクト処理選択用のGUI画像を示す図
である。FIG. 76 is a diagram showing a GUI image for effect processing selection displayed on the display device by the personal computer.
【図77】図76に示したS54,S68,S70の処
理において起動される処理Aを示すフローチャート図で
ある。FIG. 77 is a flowchart showing a process A started in the processes of S54, S68, and S70 shown in FIG. 76;
【図78】図77に示したS540の処理においてディ
スプレイ装置(図74)に表示される連続ズーム処理用
のGUI画像を例示する図である。FIG. 78 is a diagram exemplifying a GUI image for continuous zoom processing displayed on the display device (FIG. 74) in the processing of S540 shown in FIG. 77;
【図79】図77に示したS540の処理においてディ
スプレイ装置(図74)に表示されるインタラクティブ
処理用のGUI画像を例示する図である。FIG. 79 is a diagram exemplifying a GUI image for interactive processing displayed on the display device (FIG. 74) in the processing of S540 shown in FIG. 77;
【図80】図76に示したS56の処理(FIRフィル
タ)において起動される処理Bを示すフローチャート図
である。FIG. 80 is a flowchart showing a process B started in the process (FIR filter) of S56 shown in FIG. 76;
【図81】(A),(B)は、図80に示したS560
の処理においてディスプレイ装置(図74)に表示され
るGUI画像を例示する図である。FIGS. 81 (A) and (B) show S560 shown in FIG. 80;
FIG. 75 is a diagram illustrating a GUI image displayed on the display device (FIG. 74) in the processing of FIG.
【図82】図76に示したS60,S64,S66の処
理において起動される処理Cを示すフローチャート図で
ある。FIG. 82 is a flowchart showing a process C activated in the processes of S60, S64, and S66 shown in FIG. 76;
【図83】(A),(B)は、図82に示したS600
の処理においてディスプレイ装置(図74)に表示され
る色補正(γ補正)処理用のGUI画像を例示する図で
ある。83 (A) and (B) show S600 shown in FIG. 82.
FIG. 75 is a diagram illustrating a GUI image for color correction (γ correction) processing displayed on the display device (FIG. 74) in the processing of FIG. 74.
【図84】(A)〜(C)は、図82に示したS600
の処理においてディスプレイ装置(図74)に表示され
るフィルタリング処理(LAP retouch) 処理用のGUI画
像を例示する図である。84 (A) to (C) show S600 shown in FIG. 82.
FIG. 75 is a diagram exemplifying a GUI image for filtering processing (LAP retouch) processing displayed on the display device (FIG. 74) in the processing of FIG.
【図85】図82に示したS600の処理においてディ
スプレイ装置(図74)に表示される色数変換処理(pos
talization) 処理用のGUI画像を例示する図である。85 is a process for converting the number of colors (pos) displayed on the display device (FIG. 74) in the process of S600 shown in FIG. 82;
FIG. 11 is a diagram illustrating a GUI image for processing.
【図86】第15の実施例において、画像データ処理シ
ステム(図74)のDSPが実行するフィルタ処理を示
すフローチャート図である。FIG. 86 is a flowchart showing a filter process executed by the DSP of the image data processing system (FIG. 74) in the fifteenth embodiment;
【図87】色数変換処理に用いられる階段関数を例示す
る図である。FIG. 87 is a diagram illustrating a step function used in the color number conversion process.
【図88】第15の実施例において、画像データ処理シ
ステム(図74)のDSPが実行する色変換処理を示す
フローチャート図である。FIG. 88 is a flowchart showing a color conversion process executed by the DSP of the image data processing system (FIG. 74) in the fifteenth embodiment.
【図89】第15の実施例として示した画像データ処理
システム(図74)の入出力画像選択用のGUI画像を
示す図である。FIG. 89 is a diagram showing a GUI image for input / output image selection of the image data processing system (FIG. 74) shown as the fifteenth embodiment.
【図90】メイン画像の位置設定用のGUI画像を示す
図である。FIG. 90 is a diagram showing a GUI image for setting the position of the main image.
1…演算装置、2〜6…並列プロセッサ、21…入力ポ
インタ、22…入力SAM部、23…データメモリ部、
24…ALUアレイ部、25…出力SAM部、26…出
力ポインタ、27,27a,27b,27c,27d…
プログラム制御部、28,28a,29…メモリ、30
…要素プロセッサ、7…画像データ処理装置、60…セ
レクタ回路、62…メモリ回路、8〜12…画像データ
処理システム、70…入力装置、72…パーソナルコン
ピュータ、74…画像ソース、76…画像モニタ、78
1 …前景画像ソース、782 …背景画像ソース、80…
DSP、82,821 ,822 …フレームメモリ、84
…入力画像セレクタ、86…出力モニタセレクタ、14
…入力部、140…ハードディスク装置、142…VT
R装置、146…NTSC画像信号源、148,152
…A/D変換回路、154…VGA装置、16…出力
部、160…HDモニタ、162…D1モニタ。DESCRIPTION OF SYMBOLS 1 ... Operation device, 2-6 ... Parallel processor, 21 ... Input pointer, 22 ... Input SAM part, 23 ... Data memory part,
24 ALU array unit, 25 Output SAM unit, 26 Output pointer, 27, 27a, 27b, 27c, 27d ...
Program control unit, 28, 28a, 29 ... memory, 30
... Element processor, 7 ... Image data processing device, 60 ... Selector circuit, 62 ... Memory circuit, 8-12 ... Image data processing system, 70 ... Input device, 72 ... Personal computer, 74 ... Image source, 76 ... Image monitor, 78
1 ... foreground image source, 78 2 ... background image source, 80 ...
DSP, 82, 82 1 , 82 2 ... Frame memory, 84
... input image selector, 86 ... output monitor selector, 14
... input unit, 140 ... hard disk drive, 142 ... VT
R device, 146... NTSC image signal source, 148, 152
.. A / D conversion circuit, 154 VGA device, 16 output unit, 160 HD monitor, 162 D1 monitor.
Claims (11)
郭強調処理の特性を示す特性画像を表示する特性画像表
示手段と、 表示した前記特性画像に対する操作に応じて、前記輪郭
強調処理の特性を受け入れる特性受け入れ手段と、 受け入れた前記輪郭強調処理の特性に応じて、前記輪郭
強調処理の特性を示す特性画像を変更する特性画像変更
手段と、 受け入れた前記輪郭強調処理の特性に基づいて、入力さ
れた前記画像データに対して前記輪郭強調処理を行う輪
郭強調処理手段とを有する画像処理装置。1. A characteristic image display means for displaying a characteristic image indicating characteristics of an outline emphasis process on image data input from the outside, and accepting characteristics of the outline emphasis process in response to an operation on the displayed characteristic image. Characteristic receiving means, characteristic image changing means for changing a characteristic image indicating the characteristic of the contour enhancement processing according to the received characteristic of the contour enhancement processing, and input based on the received characteristic of the contour enhancement processing. And a contour emphasis processing means for performing the contour emphasis processing on the image data.
れる前記画像データに対する第1の非線形変換処理の特
性、第2の非線形処理の特性およびフィルタリングの特
性を示す特性画像それぞれを表示し、 前記特性受け入れ手段は、表示した前記特性画像に対す
る操作に応じて、前記第1の非線形変換処理の特性、前
記第2の非線形処理の特性および前記フィルタリングの
特性それぞれを受け入れ、 前記特性画像変更手段は、受け入れた前記第1の非線形
変換処理の特性、前記第2の非線形処理の特性および前
記フィルタリングの特性に応じて、前記第1の非線形変
換処理の特性、第2の非線形処理の特性およびフィルタ
リングの特性を示す特性画像それぞれを変更し、 前記輪郭強調処理手段は、 受け入れた前記第1の非線形変換処理の特性に基づい
て、前記画像データに対して第1の非線形変換処理を施
す第1の非線形処理手段と、 受け入れた前記フィルタリングの特性に基づいて、前記
第1の非線形変換処理を施した前記画像データをフィル
タリング処理して前記画像データ内の画像の輪郭を検出
し、検出した輪郭を示す輪郭データを生成する輪郭検出
手段と、 受け入れた前記第2の非線形変換処理の特性に基づい
て、生成した前記輪郭データに対して第2の非線形処理
を施す第2の非線形処理手段と、 外部から入力された前記画像データに対して、前記第1
の非線形処理、前記輪郭データの生成および前記第2の
非線形処理に対応する時間遅延を与える時間遅延手段
と、 前記第2の非線形処理を施した前記画像データと、遅延
した前記画像データとを加算する加算手段とを有する請
求項1に記載の画像処理装置。2. The characteristic image display means displays a characteristic image showing a characteristic of a first nonlinear conversion process, a characteristic of a second nonlinear process, and a characteristic of filtering of the image data input from the outside, The characteristic receiving means receives the characteristic of the first non-linear conversion processing, the characteristic of the second non-linear processing, and the characteristic of the filtering in response to an operation on the displayed characteristic image. Receiving the characteristics of the first nonlinear conversion process, the characteristics of the second nonlinear process, and the filtering characteristics according to the received characteristics of the first nonlinear conversion process, the characteristics of the second nonlinear process, and the filtering characteristics. Changing each of the characteristic images indicating the characteristics; First non-linear processing means for performing a first non-linear conversion process on the image data based on the characteristics; and the image data having been subjected to the first non-linear conversion process based on the received filtering characteristics. Contour detecting means for detecting the contour of the image in the image data by performing filtering processing, and generating contour data indicating the detected contour; and generating the contour data based on the received characteristics of the second nonlinear conversion processing. A second non-linear processing means for performing a second non-linear process on the contour data;
A time delay means for giving a time delay corresponding to the nonlinear processing, the generation of the contour data, and the second nonlinear processing; and adding the image data subjected to the second nonlinear processing and the delayed image data The image processing apparatus according to claim 1, further comprising an adding unit that performs the addition.
る画像表示手段をさらに有する請求項1に記載の画像処
理装置。3. The image processing apparatus according to claim 1, further comprising image display means for displaying the image data subjected to the edge enhancement processing.
いて、前記輪郭強調処理手段が実行するプログラムを作
成するプログラム作成手段をさらに有し、 前記輪郭強調処理手段は、作成した前記プログラムを実
行して、入力された前記画像データに対して前記輪郭強
調処理を行う請求項1に記載の画像処理装置。4. A program creating means for creating a program to be executed by the contour emphasis processing means based on the received characteristics of the contour emphasis processing, wherein the contour emphasis processing means executes the created program. The image processing apparatus according to claim 1, wherein the edge enhancement processing is performed on the input image data.
多並列プロセッサであることを特徴とする請求項4に記
載の画像処理装置。5. An image processing apparatus according to claim 4, wherein said outline emphasis processing means is a SIMD multi-parallel processor.
郭強調処理の特性を示す特性画像を表示し、 表示した前記特性画像に対する操作に応じて、前記輪郭
強調処理の特性を受け入れ、 受け入れた前記輪郭強調処理の特性に応じて、前記輪郭
強調処理の特性を示す特性画像を変更し、 受け入れた前記輪郭強調処理の特性に基づいて、入力さ
れた前記画像データに対して前記輪郭強調処理を行う画
像処理方法。6. A characteristic image indicating characteristics of an outline enhancement process on image data input from the outside, and accepting the characteristics of the outline enhancement process in accordance with an operation on the displayed characteristic image, and receiving the accepted outline. An image in which the characteristic image indicating the characteristic of the outline enhancement processing is changed according to the characteristic of the outline enhancement processing, and the outline enhancement processing is performed on the input image data based on the received characteristic of the outline enhancement processing. Processing method.
る第1の非線形変換処理の特性、第2の非線形処理の特
性およびフィルタリングの特性を示す特性画像それぞれ
を表示し、 表示した前記特性画像に対する操作に応じて、前記第1
の非線形変換処理の特性、前記第2の非線形処理の特性
および前記フィルタリングの特性それぞれを受け入れ、 受け入れた前記第1の非線形変換処理の特性、前記第2
の非線形処理の特性および前記フィルタリングの特性に
応じて、前記第1の非線形変換処理の特性、第2の非線
形処理の特性およびフィルタリングの特性を示す特性画
像それぞれを変更し、 受け入れた前記第1の非線形変換処理の特性に基づい
て、前記画像データに対して第1の非線形変換処理を施
し、 受け入れた前記フィルタリングの特性に基づいて、前記
第1の非線形変換処理を施した前記画像データをフィル
タリング処理して前記画像データ内の画像の輪郭を検出
し、検出した輪郭を示す輪郭データを生成し、 受け入れた前記第2の非線形変換処理の特性に基づい
て、生成した前記輪郭データに対して第2の非線形処理
を施し、 外部から入力された前記画像データに対して、前記第1
の非線形処理、前記輪郭データの生成および前記第2の
非線形処理に対応する時間遅延を与え、 前記第2の非線形処理を施した前記画像データと、遅延
した前記画像データとを加算する請求項6に記載の画像
処理方法。7. A characteristic image showing a characteristic of a first non-linear conversion process, a characteristic of a second non-linear process, and a characteristic of filtering of the image data input from the outside, and an operation on the displayed characteristic image According to the first
Receiving the characteristics of the first non-linear conversion processing, the characteristics of the second non-linear processing, and the characteristics of the filtering.
The characteristic image indicating the characteristic of the first non-linear conversion processing, the characteristic of the second non-linear processing, and the characteristic of the filtering is changed in accordance with the characteristic of the non-linear processing and the characteristic of the filtering. Performing a first non-linear conversion process on the image data based on characteristics of the non-linear conversion process, and performing a filtering process on the image data subjected to the first non-linear conversion process based on the received characteristics of the filtering; Detecting the outline of the image in the image data, generating outline data indicating the detected outline, and performing second processing on the generated outline data based on the received characteristic of the second nonlinear conversion process. The first non-linear processing is performed on the image data input from the outside.
7. A time delay corresponding to the nonlinear processing, the generation of the contour data, and the second nonlinear processing is provided, and the image data subjected to the second nonlinear processing is added to the delayed image data. The image processing method according to 1.
る請求項6に記載の画像処理方法。8. The image processing method according to claim 6, wherein the image data subjected to the edge enhancement processing is displayed.
いて、前記輪郭強調処理のプログラムを作成し、 作成した前記プログラムを実行して、入力された前記画
像データに対して前記輪郭強調処理を行う請求項6に記
載の画像処理方法。9. A contour emphasis processing program is created based on the received characteristics of the contour emphasis processing, and the created program is executed to execute the contour emphasis processing on the input image data. The image processing method according to claim 6, which is performed.
づいてパラメータファイルを作成し、このパラメータフ
ァイルを参照する前記輪郭強調処理のプログラムを実行
して、入力された前記画像データに対して輪郭強調処理
を行う請求項6に記載の画像処理方法。10. A parameter file is created on the basis of the received characteristics of the outline emphasis processing, and a program for the outline emphasis processing which refers to the parameter file is executed to perform outline emphasis on the input image data. The image processing method according to claim 6, wherein the processing is performed.
輪郭強調処理プログラムを実行することを特徴とする請
求項9に記載の画像処理方法。11. The image processing method according to claim 9, wherein a multi-parallel processor in a SIMD format executes the contour enhancement processing program.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9081293A JPH10275227A (en) | 1997-03-31 | 1997-03-31 | Image processor and method therefor |
PCT/JP1997/004841 WO1998029832A1 (en) | 1996-12-25 | 1997-12-25 | Image processor, data processor, and their methods |
US09/125,636 US6493467B1 (en) | 1959-12-12 | 1997-12-25 | Image processor, data processor, and their methods |
CA002246536A CA2246536C (en) | 1996-12-25 | 1997-12-25 | Image processor, data processor, and their methods |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9081293A JPH10275227A (en) | 1997-03-31 | 1997-03-31 | Image processor and method therefor |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH10275227A true JPH10275227A (en) | 1998-10-13 |
Family
ID=13742345
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP9081293A Pending JPH10275227A (en) | 1959-12-12 | 1997-03-31 | Image processor and method therefor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH10275227A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006115445A (en) * | 2004-09-17 | 2006-04-27 | Nikon Corp | Image processing device, image processing program, electronic camera, and image processing method |
JP2011199712A (en) * | 2010-03-23 | 2011-10-06 | Seiko Epson Corp | Video processor and video display device |
-
1997
- 1997-03-31 JP JP9081293A patent/JPH10275227A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006115445A (en) * | 2004-09-17 | 2006-04-27 | Nikon Corp | Image processing device, image processing program, electronic camera, and image processing method |
JP2011199712A (en) * | 2010-03-23 | 2011-10-06 | Seiko Epson Corp | Video processor and video display device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO1998029832A1 (en) | Image processor, data processor, and their methods | |
US6144365A (en) | System and method for performing blending using an over sampling buffer | |
JP3154155B2 (en) | Electronic graphic system | |
JP4940050B2 (en) | Image processing method, program, and recording medium for correcting distortion aberration for image data | |
JP2002538638A (en) | Non-linear and linear methods of scaling up or down image resolution | |
JPH1055437A (en) | Method for generating pixel value of image at destination of expansion | |
JPH1011009A (en) | Processor for video signal and display device using the same | |
JPH1021387A (en) | Image processor and processing method | |
JP4274238B2 (en) | Image processing apparatus, image processing method, and computer program | |
JP4022935B2 (en) | Image processing apparatus and processing method | |
CN107256534B (en) | GQIR quantum image reduction and amplification method based on bilinear interpolation | |
JPH10294885A (en) | Unit and method for image processing | |
JPH10285611A (en) | Image data processor and method therefor | |
JPH10275227A (en) | Image processor and method therefor | |
JPH10243259A (en) | Device and method for processing image | |
JPH10285430A (en) | Data processor and method therefor | |
JP3596194B2 (en) | Image processing apparatus and method | |
CA2246536C (en) | Image processor, data processor, and their methods | |
JPS5827146A (en) | Interpolator for scanning line in photoengraving system for video image | |
JPH11242753A (en) | Method and device for three-dimensional plotting | |
KR100463552B1 (en) | Cubic convolution interpolation apparatus and method | |
JPH10124656A (en) | Image processor and method therefor | |
JP3089489B2 (en) | Image data processing device | |
JP2728904B2 (en) | Image processing device | |
JP2007013640A (en) | Image processor |