JP2001313944A - Image processor, image input device, system, image processing method and storage medium - Google Patents
Image processor, image input device, system, image processing method and storage mediumInfo
- Publication number
- JP2001313944A JP2001313944A JP2000131628A JP2000131628A JP2001313944A JP 2001313944 A JP2001313944 A JP 2001313944A JP 2000131628 A JP2000131628 A JP 2000131628A JP 2000131628 A JP2000131628 A JP 2000131628A JP 2001313944 A JP2001313944 A JP 2001313944A
- Authority
- JP
- Japan
- Prior art keywords
- image
- region
- interest
- image processing
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression Of Band Width Or Redundancy In Fax (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION
【0001】[0001]
【発明の属する技術分野】本発明は、外部の画像処理装
置に画像及び/又はその画像に関する情報を入力する画
像入力装置、画像に対して圧縮符号化を行う画像処理装
置、それらにより構成されるシステム、及び画像処理方
法並びに記憶媒体に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image input apparatus for inputting an image and / or information relating to the image to an external image processing apparatus, an image processing apparatus for compressing and encoding an image, and an image processing apparatus comprising the same. The present invention relates to a system, an image processing method, and a storage medium.
【0002】[0002]
【従来の技術】従来から、銀塩フィルムに代わり被検眼
像をCCD等の撮像素子を用いて撮像して記録手段に記
録する眼科撮影装置が知られている。また撮影の際に用
いられる撮像手段の進歩は目覚しく、解像力の非常に高
い撮像手段が次々に製品化されている。2. Description of the Related Art Conventionally, there has been known an ophthalmologic photographing apparatus which takes an image of an eye to be inspected using an image pickup device such as a CCD instead of a silver halide film and records the image in a recording means. In addition, imaging means used for photographing have been remarkably advanced, and imaging means having extremely high resolving power have been commercialized one after another.
【0003】また近年、眼科撮影装置に対するさまざま
な要求に対応するために電子画像として取り込んだ被検
眼像を専用に処理する眼科用画像処理装置が知られてい
る。In recent years, there has been known an ophthalmological image processing apparatus for exclusively processing an eye image captured as an electronic image in order to meet various demands for an ophthalmologic photographing apparatus.
【発明が解決しようとする課題】しかしながら撮像手段
の空間方向の解像力や濃度方向の解像力が向上すること
は高画質な画像は得られるが、一方データ量を膨大にす
ることを意味し、診断時の表示速度の低下、及び診断後
の管理、運用に悪影響を与える。However, an improvement in the resolution in the spatial direction and the resolution in the density direction of the image pickup means can provide a high-quality image, but on the other hand, means a large amount of data, and is not suitable for diagnosis. Display speed and adversely affect management and operation after diagnosis.
【0004】膨大化するデータ量の悪影響を排除するた
めに画像の圧縮処理を用いる方法が考えられる。しかし
圧縮処理も限度を超えると、画質の著しい劣化を招き、
医師の注目すべき病変部の画質にまで劣化が及ぶと正確
な診断に支障をきたす恐れがある。[0004] In order to eliminate the adverse effect of the enormous amount of data, a method using image compression processing is conceivable. However, if the compression processing exceeds the limit, the image quality will significantly deteriorate,
Degradation of the image quality of a lesion that should be noted by a doctor may hinder accurate diagnosis.
【0005】また眼科撮影装置、特に眼底撮影装置にお
いては、画像の周辺にアパーチャーと呼ばれる実際に眼
底画像が撮像されていない領域(以下、アパーチャーマ
スク部)があることが知られている。In an ophthalmologic photographing apparatus, particularly in a fundus photographing apparatus, it is known that there is an area called an aperture where an actual fundus image is not captured (hereinafter, an aperture mask section).
【0006】さらにこのアパーチャーマスク部は、眼科
撮影装置の機種、撮影倍率、等の条件に応じて大きさ、
形などが変化する事が知られている。Further, the size of the aperture mask section depends on conditions such as the model of the ophthalmologic photographing apparatus, photographing magnification, and the like.
It is known that the shape changes.
【0007】一方、このようなアパーチャーマスク部
は、被検眼の画像情報が存在しない領域であり、アパー
チャーマスク部を高画質で取り込むことは、データ量を
削減する観点から非常に無駄な領域であると言える。On the other hand, such an aperture mask portion is a region where image information of the eye to be examined does not exist, and capturing the aperture mask portion with high image quality is a very useless region from the viewpoint of reducing the amount of data. It can be said.
【0008】眼科撮影装置、特に眼底撮影装置において
は、集団検診等の予防医学の分野にも多く用いられ検診
の目的によっては画像中の特に重要な部位があらかじめ
固定されている場合もある。[0008] An ophthalmologic photographing apparatus, particularly a fundus photographing apparatus, is often used in the field of preventive medicine such as mass screening, and particularly important parts in an image may be fixed in advance depending on the purpose of the screening.
【0009】また集団検診等ですでに注目すべき部位が
固定されている場合には、注目すべき範囲以外まで高画
質を保つことは同様に非効率的であり、特に一度に大量
の画像を読影する集団検診においては画像の表示スピー
ドを低下させる。[0009] When a region to be noted is already fixed in a mass examination or the like, it is similarly inefficient to maintain high image quality outside the range to be noted. In a group examination for image interpretation, the display speed of an image is reduced.
【0010】眼科撮影装置は、眼科分野の病気に限らず
内科等の他分野の病気に対しても用いられ、医師の注目
すべき病変部分は数多く存在する。また医療機器全般に
対して病変部の経過観察を可能とする要求が非常に多い
ことが知られている。The ophthalmologic photographing apparatus is used not only for diseases in the field of ophthalmology but also for diseases in other fields such as internal medicine, and there are many diseased parts which must be noticed by doctors. It is also known that there is a great demand for medical devices in general to be able to follow up on a lesion.
【0011】またさまざな疾患に応じて医師の注目すべ
き部位は大きく異なり、一枚一枚の画像に対して注目す
べき部位を画像上で指定することは非常に煩雑な作業で
あるよって本発明は以上の問題点に対して鑑みられたも
のであり、注目すべき範囲内(領域内)の画像のみを他
の範囲内よりも高画質に復号化されるように圧縮符号化
することを目的とする。[0011] In addition, the part to be noticed by the doctor is greatly different depending on various diseases, and it is very complicated work to specify the part to be noticed for each image on the image. SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and has been made to compress and encode only an image in a remarkable range (in an area) so as to be decoded with higher image quality than in other ranges. Aim.
【0012】[0012]
【課題を解決するための手段】本発明の目的を達成する
ために、例えば本発明の画像処理装置は以下の構成を備
える。すなわち、画像に対して圧縮符号化を行う画像処
理装置であって、前記画像を入力する入力手段と、前記
入力手段より入力された前記画像中に関心領域を設定す
る設定手段と、前記関心領域とその他の領域とで圧縮率
を変えて圧縮符号化を行い、符号列を生成する符号列生
成手段と、前記符号列を記憶する記憶手段と、前記記憶
手段に記憶された符号列に基づいて前記画像を復元する
復号手段とを備える。In order to achieve the object of the present invention, for example, an image processing apparatus of the present invention has the following arrangement. That is, an image processing apparatus that performs compression encoding on an image, comprising: input means for inputting the image; setting means for setting a region of interest in the image input from the input means; And performing compression encoding by changing the compression ratio between the other areas, a code string generating means for generating a code string, a storage means for storing the code string, and a code string stored in the storage means. Decoding means for restoring the image.
【0013】本発明の目的を達成するために、例えば本
発明の画像入力装置は以下の構成を備える。すなわち、
外部の画像処理装置に画像及び/又はその画像に関する
情報を入力する画像入力装置であって、撮像により前記
画像を生成する撮像手段と、前記撮像手段を制御する撮
像制御手段と、前記撮像の際の条件を前記画像に関する
情報として検出する検出手段と、前記画像及び/又はそ
の画像に関する情報を外部の画像処理装置に入力する制
御を行う入力制御手段とを備えることを特徴とする画像
入力装置。In order to achieve the object of the present invention, for example, an image input device of the present invention has the following arrangement. That is,
An image input apparatus for inputting an image and / or information related to the image to an external image processing apparatus, wherein the imaging unit generates the image by imaging, an imaging control unit that controls the imaging unit, An image input device comprising: a detection unit that detects the condition (1) as information on the image; and an input control unit that controls input of the image and / or information on the image to an external image processing device.
【0014】[0014]
【発明の実施の形態】以下、添付図面に従って、本発明
を好適な実施形態に従って詳細に説明する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail according to preferred embodiments with reference to the accompanying drawings.
【0015】[第1の実施形態]図1は本実施形態にお
ける画像処理装置のブロック図を示したものである。[First Embodiment] FIG. 1 is a block diagram of an image processing apparatus according to the present embodiment.
【0016】1は画像入出力部で、外部の眼科撮影装置
で撮像された被検眼画像(眼底画像)を受けると共に、
画像表示制御部4を介して画像表示部5に出力すべき画
像を出力するインターフェースとして機能する。An image input / output unit 1 receives an eye image (fundus image) taken by an external ophthalmologic photographing apparatus,
It functions as an interface that outputs an image to be output to the image display unit 5 via the image display control unit 4.
【0017】2は画像処理部で、画像入出力部1に入力
された画像に対して圧縮、伸張処理を施す。Reference numeral 2 denotes an image processing unit which performs compression and expansion processing on the image input to the image input / output unit 1.
【0018】3は画像記録部で、画像処理部2において
処理された画像を記録する。Reference numeral 3 denotes an image recording unit which records the image processed by the image processing unit 2.
【0019】4は画像表示制御部で、後述する画像の合
成表示等の制御を行う。Reference numeral 4 denotes an image display control unit, which controls the display of a composite image, which will be described later.
【0020】5は画像表示部で、表示制御部4が出力し
た画像を表示する。An image display unit 5 displays an image output from the display control unit 4.
【0021】6は関心領域設定部で、眼科撮影装置(画
像処理装置に対する画像入力装置)から画像入出力部1
を介して入力された画像に対して、医師が注目すべき部
位(関心領域)を指定する。Reference numeral 6 denotes a region of interest setting unit.
The doctor designates a site (region of interest) to be noted with respect to the image input via the.
【0022】7は関心領域記憶部で、関心領域(パター
ン)を記憶する。Reference numeral 7 denotes a region of interest storage unit for storing a region of interest (pattern).
【0023】8は操作入力部で、キーボードやマウス等
の操作入力を受ける。An operation input unit 8 receives an operation input from a keyboard, a mouse or the like.
【0024】本実施形態における画像処理装置は以上の
各部により構成されている。The image processing apparatus according to the present embodiment is constituted by the above-described respective units.
【0025】画像処理装置が、眼科撮影装置で撮像され
た被検眼画像に対して関心領域を設定する処理のフロー
チャートを図2に示す。以下、図1,図2,及び被検眼
画像を示す図3を用いて同処理を説明する。FIG. 2 shows a flowchart of a process in which the image processing apparatus sets a region of interest with respect to the image of the subject's eye captured by the ophthalmologic photographing apparatus. Hereinafter, the same process will be described with reference to FIGS. 1 and 2 and FIG.
【0026】図2に示したフローチャートは、ステップ
S103〜S106に示す関心領域を操作者が任意に設
定する第一の関心領域設定ステップと、ステップS10
7に示す、予め関心領域記憶部7に登録された関心領域
パターンから設定する第二の関心領域設定ステップと、
ステップS102に示す第一、第二、どちらの設定ステ
ップを用いるかを選択する選択ステップと、ステップS
108〜S110に示す圧縮処理実行ステップから構成
される。The flowchart shown in FIG. 2 includes a first region of interest setting step in which the operator arbitrarily sets the region of interest shown in steps S103 to S106, and step S10.
7, a second region of interest setting step of setting from a region of interest pattern registered in advance in the region of interest storage unit 7,
A selection step of selecting which of the first, second, and setting steps to use in step S102;
It comprises the compression processing execution steps 108 to S110.
【0027】眼底カメラ等の眼科撮影装置で撮影された
被検眼画像が画像入出力部1に入力されると、入力され
た被検眼画像を画像表示制御部4を介して画像表示部5
に出力する(ステップS101)。図3(a)に眼科撮
影装置から入力され、画像表示部5に出力された被検眼
画像を示す。When an image of the eye to be inspected taken by an ophthalmologic photographing apparatus such as a fundus camera is input to the image input / output unit 1, the input image of the eye to be inspected is transmitted to an image display unit 5 via an image display control unit 4.
(Step S101). FIG. 3A shows an eye image to be inspected input from the ophthalmologic photographing apparatus and output to the image display unit 5.
【0028】次に、関心領域を任意に選択するか否かの
判定を操作者に問う(ステップS102)。この操作者
がYesとする指示を操作入力部8を介して入力する
と、処理はステップS103以降の任意に関心領域を設
定するステップへと移行する。関心領域の設定操作は、
操作者がマウス等のポインティングデバイスを操作する
ことで、このポインティングデバイスにより指定される
座標情報が操作入力部7、関心領域設定部6を介して画
像表示制御部4に伝えられる。そしてこの関心領域の枠
は画像表示部5に表示されている被検眼画像上に随時合
成表示していく(ステップS104)。例えば関心領域
を長方形で設定する場合、画像を扱うアプリケーション
では公知である、マウスをクリックした状態で長方形の
左上から右下にマウスを移動し、クリックを終了した時
点で決定する方法を用いれば良く、ステップS105に
おいてクリックの終了を検出し(ポインティングデバイ
ス検出)、終了するまで(関心領域の設定が終わるま
で)ステップS103、S104を繰り返す。以上の操
作で設定された関心領域を図3(b)に点線の領域で示
す。Next, the operator is asked to determine whether to arbitrarily select a region of interest (step S102). When the operator inputs an instruction of Yes through the operation input unit 8, the process proceeds to steps S103 and subsequent steps for arbitrarily setting a region of interest. The setting operation of the region of interest
When the operator operates a pointing device such as a mouse, coordinate information specified by the pointing device is transmitted to the image display control unit 4 via the operation input unit 7 and the region of interest setting unit 6. Then, the frame of the region of interest is synthesized and displayed as needed on the image of the eye to be inspected displayed on the image display unit 5 (step S104). For example, when setting the region of interest as a rectangle, a method known in applications that handle images, a method in which the mouse is moved from the upper left to the lower right of the rectangle with the mouse clicked, and the method is determined when the click is completed, may be used. In step S105, the end of the click is detected (pointing device detection), and steps S103 and S104 are repeated until the click is completed (until the setting of the region of interest is completed). The region of interest set by the above operation is shown by a dotted line region in FIG.
【0029】一方、ステップS102において、任意設
定を行わないと判定した場合は、関心領域設定部6は、
関心領域記憶部7に予め登録された関心領域パターンを
読み込む。(ステップS107)本実施形態では予め登
録された関心領域パターンとして、眼底画像上のアパー
チャーマスク部を除く略眼底画像有効領域を示したパタ
ーンを用いており、眼底画像と関心領域パターンとの合
成表示された画像を図3(c)に示す。On the other hand, if it is determined in step S102 that the optional setting is not performed, the region-of-interest setting unit 6
A region of interest pattern registered in the region of interest storage unit 7 in advance is read. (Step S107) In the present embodiment, a pattern indicating a substantially fundus image effective area excluding the aperture mask portion on the fundus image is used as a pre-registered region of interest pattern, and a composite display of the fundus image and the region of interest pattern is used. The resulting image is shown in FIG.
【0030】以上2通りのいずれかの方法で関心領域を
決定すると、画像処理部2に対して関心領域が設定され
(ステップS108)、画像全体の画質(圧縮率)に相
当するパラメータと、関心領域と非関心領域との画質の
差を示すパラメータが画像処理部2に対して設定される
(ステップS109)。尚この二つのパラメータはあら
かじめ登録されたものを必要に応じて変更しながら使用
する構成や、毎回操作者が設定する構成が考えられる。
そして画像処理部2において圧縮処理を開始する(ステ
ップS110)。画像処理部2における処理の詳細につ
いては後述する。When the region of interest is determined by any of the above two methods, the region of interest is set in the image processing unit 2 (step S108), and the parameter corresponding to the image quality (compression ratio) of the entire image and the region of interest are set. A parameter indicating a difference in image quality between the region and the non-interest region is set in the image processing unit 2 (step S109). Note that a configuration in which these two parameters are used while changing those registered in advance as necessary, or a configuration in which the operator sets each time can be considered.
Then, compression processing is started in the image processing unit 2 (step S110). Details of the processing in the image processing unit 2 will be described later.
【0031】なお、図2に示したフローチャートでは、
ステップS107で予め登録されたパターンを無条件に
採用したが、登録されたパターンを用いるか否かを決定
するステップを用いてもよいし、複数のパターンを登録
しておいて、いずれのパターンを用いるかを決定するよ
うにしてもよい。また、ステップS102の関心領域を
任意に設定するか否かのステップをフローチャートの最
初に配置したが、任意に設定する頻度が少ない場合は、
最初に予め登録された関心領域パターンを表示し、その
表示された関心領域パターンを用いない場合に限り、ス
テップS103以降の関心領域の任意の設定を行うステ
ップに移行しても良い。In the flowchart shown in FIG.
Although the pre-registered pattern is unconditionally adopted in step S107, a step of determining whether to use the registered pattern may be used, or a plurality of patterns may be registered and any of the patterns may be registered. It may be determined whether to use. Also, the step of determining whether or not the region of interest is arbitrarily set in step S102 is arranged at the beginning of the flowchart.
First, a previously registered region of interest pattern is displayed, and only when the displayed region of interest pattern is not used, the process may proceed to step S103 and subsequent steps for arbitrary setting of the region of interest.
【0032】次に画像処理部2の構成の一例を図4を用
いて説明する。Next, an example of the configuration of the image processing section 2 will be described with reference to FIG.
【0033】図4の点線内は、画像処理部2内部の構成
を示し、画像入出力部1に入力された画像データを圧縮
符号化する際の経路を示している。2Aは離散ウェーブ
レット変換部、2Bは量子化部、2Cはエントロピ符号
化部、2Dは符号出力部、2Eは領域指定部である。The inside of the dotted line in FIG. 4 shows the configuration inside the image processing unit 2 and shows the path when the image data input to the image input / output unit 1 is compression-coded. 2A is a discrete wavelet transform unit, 2B is a quantization unit, 2C is an entropy encoding unit, 2D is a code output unit, and 2E is an area designation unit.
【0034】まず、画像入出力部1に被検眼画像データ
がラスタースキャン順に入力され、離散ウェーブレット
変換部2Aに入力される。以降の説明では便宜上、被検
眼画像信号は蛍光撮影等で用いられるモノクロ(単色)
の多値画像としているが、通常のカラー画像でもよく、
その場合RGB各色成分を上記単色成分として圧縮すれ
ばよい。First, eye image data to be examined is input to the image input / output unit 1 in the raster scan order, and is input to the discrete wavelet transform unit 2A. In the following description, for the sake of convenience, the image signal of the eye to be inspected is monochrome (monochromatic) used in fluorescence imaging and the like.
Is a multi-valued image, but may be a normal color image,
In this case, the RGB color components may be compressed as the single color components.
【0035】離散ウェーブレット変換部2Aは、入力し
た画像に対して2次元の離散ウェーブレット変換処理を
行い、変換係数を計算して出力する。図5(a)は離散
ウェーブレット変換部2Aの基本構成を表したものであ
り、入力された画像はメモリ101に記憶され、処理部
102により順次読み出されて離散ウェーブレット変換
処理が行われ、変換係数はメモリ101に書きこまれ
る。なお本実施形態においては、処理部101における
処理の構成は同図(b)に示すものとする。The discrete wavelet transform unit 2A performs a two-dimensional discrete wavelet transform process on the input image, and calculates and outputs a transform coefficient. FIG. 5A shows a basic configuration of the discrete wavelet transform unit 2A. The input image is stored in the memory 101, and is sequentially read out by the processing unit 102 to perform a discrete wavelet transform process. The coefficients are written into the memory 101. In this embodiment, the configuration of the processing in the processing unit 101 is as shown in FIG.
【0036】同図において、入力された画像は遅延素子
103およびダウンサンプラ104a,104bの組み
合わせにより、偶数アドレスおよび奇数アドレスの信号
に分離され、2つのフィルタpおよびuによりフィルタ
処理が施される。同図sおよびdは、各々1次元の画像
に対して1レベルの分解を行った際のローパス係数およ
びハイパス係数を表しており、画像データ列x(n)に
対する離散ウェーブレット変換は、次式により計算され
るものとする。In FIG. 3, an input image is separated into signals of even addresses and odd addresses by a combination of a delay element 103 and downsamplers 104a and 104b, and is subjected to filter processing by two filters p and u. FIGS. S and d show low-pass coefficients and high-pass coefficients when one-level decomposition is performed on a one-dimensional image, respectively. The discrete wavelet transform for the image data sequence x (n) is represented by the following equation. Shall be calculated.
【0037】 d(n)=x(2*n+1)+floor((x(2*n)+x(2*n+2))/2) (式1) s(n)=x(2*n) +floor((d(n-1)+d(n))/4) (式2) また、上式においてfloor(X)はXを超えない最大の整
数値を示し、nはアドレス番号を示す。D (n) = x (2 * n + 1) + floor ((x (2 * n) + x (2 * n + 2)) / 2) (Equation 1) s (n) = x ( 2 * n) + floor ((d (n-1) + d (n)) / 4) (Equation 2) In the above equation, floor (X) indicates the maximum integer value not exceeding X, and n is Indicates the address number.
【0038】以上の処理により、被検眼画像に対する1
次元の離散ウェーブレット変換処理が行われる。2次元
の離散ウェーブレット変換は、1次元の変換を画像の水
平・垂直方向に対して順次行うものであり、その詳細は
公知であるのでここでは説明を省略する。図5(c)は
2次元の変換処理により得られる2レベルの変換係数群
の構成例であり、画像は異なる周波数帯域の係数列HH
1,HL1,LH1,…,LLに分解される。なお、以
降の説明ではこれらの係数列をサブバンドと呼ぶ。各サ
ブバンドの係数は後続の量子化部2Bに出力される。By the above processing, 1
A dimensional discrete wavelet transform process is performed. In the two-dimensional discrete wavelet transform, one-dimensional transform is sequentially performed in the horizontal and vertical directions of an image, and details thereof are publicly known, and thus description thereof is omitted here. FIG. 5C shows a configuration example of a two-level transform coefficient group obtained by a two-dimensional transform process, in which an image is a coefficient sequence HH of a different frequency band.
, HL1, LH1,..., LL. In the following description, these coefficient sequences are called subbands. The coefficients of each subband are output to the subsequent quantization unit 2B.
【0039】領域指定部2Eは符号化対象となる画像内
で、周囲部分と比較して高画質で復号化されるべき領域
(ROI:region of interesting)を決定する。領域
指定部2Eは、図2のステップS108において操作者
が設定した関心領域の座標情報を受けて、上述の離散ウ
ェーブレット変換の際に、どの変換係数が指定された関
心領域に属しているかを示すマスク情報を生成する。The region designating section 2E determines a region (ROI: region of interesting) to be decoded with higher image quality than the surrounding portion in the image to be encoded. The region specifying unit 2E receives the coordinate information of the region of interest set by the operator in step S108 of FIG. 2 and indicates which transform coefficient belongs to the specified region of interest during the discrete wavelet transform described above. Generate mask information.
【0040】図6(a)は、マスク情報を生成する際の
一例を示したものであり、同図左側の図で示すように、
図2のステップS107で予め登録された関心パターン
によって関心領域が指定された場合に(もしくは同図の
ステップS103〜106において、操作者により関心
領域が指定された場合に)、領域指定部2Eはこの指定
された関心領域を含む画像を離散ウェーブレット変換し
た際、この指定された関心領域が各サブバンドに占める
部分を計算し、求める。またマスク情報の示す領域は、
指定された関心領域の境界上の画像を復元する際に必要
な、周囲の変換係数を含む範囲となっている。FIG. 6A shows an example when generating mask information. As shown in the left side of FIG.
When the region of interest is designated by the interest pattern registered in advance in step S107 of FIG. 2 (or in the case where the region of interest is designated by the operator in steps S103 to S106 of FIG. 2), the region designation unit 2E When the discrete wavelet transform is performed on the image including the designated region of interest, the portion occupied by the designated region of interest in each subband is calculated and obtained. The area indicated by the mask information is
This is a range including surrounding transform coefficients necessary for restoring an image on the boundary of the designated region of interest.
【0041】このように領域指定部2Eによって計算さ
れたマスク情報の例を図6(a)の右側に示す。この例
においては、同図左側の画像に対し2レベルの離散ウェ
ーブレット変換を施した際のマスク情報が同図のように
計算される。図中において点線の部分が指定された関心
領域であり、この領域内のマスク情報のビットは1、そ
れ以外のマスク情報のビットは0となっている。これら
マスク情報全体は2次元離散ウェーブレット変換による
変換係数の構成と同じであるため、マスク情報内のビッ
トを検査することで、対応する位置の変換係数が指定さ
れた関心領域内に属しているかどうかを識別することが
できる。このように生成されたマスク情報は量子化部2
Bに出力される。FIG. 6A shows an example of the mask information calculated by the area designating section 2E on the right side of FIG. In this example, mask information when a two-level discrete wavelet transform is performed on the image on the left side of the figure is calculated as shown in the figure. In the figure, the dotted line is the designated region of interest, and the bits of the mask information in this region are 1 and the bits of the other mask information are 0. Since the entire mask information is the same as the configuration of the transform coefficient by the two-dimensional discrete wavelet transform, by examining the bits in the mask information, it is determined whether the transform coefficient at the corresponding position belongs to the specified region of interest. Can be identified. The mask information generated in this way is
B.
【0042】さらに、領域指定部2Eは、指定された関
心領域に対する画質を決定するパラメータを受け取る。
図2のステップS109で指定した関心領域と非関心領
域との画質の差を示すパラメータがこれに相当する。領
域指定部2Eはこのパラメータから、指定された関心領
域における係数に対するビットシフト量Bを計算し、マ
スク情報と共に量子化部2Bに出力する。Further, the area specifying section 2E receives a parameter for determining the image quality of the specified area of interest.
The parameter indicating the image quality difference between the region of interest and the non-region of interest specified in step S109 of FIG. 2 corresponds to this. The region designating unit 2E calculates the bit shift amount B for the coefficient in the designated region of interest from this parameter, and outputs it to the quantizing unit 2B together with the mask information.
【0043】量子化部2Bは、領域指定部2Eから入力
した変換係数を所定の量子化ステップにより量子化し、
その量子化値に対するインデックス(量子化インデック
ス)を出力する。ここで、量子化は次式により行われ
る。The quantization unit 2B quantizes the transform coefficient input from the area designating unit 2E by a predetermined quantization step.
An index (quantization index) for the quantized value is output. Here, the quantization is performed by the following equation.
【0044】 q=sign(c)floor(abs(c)/Δ) (式3) sign(c)= 1 ;c>=0 (式4) sign(c)=−1 ;c< 0 (式5) ここで、cは量子化対象となる変換係数である。また、
本実施形態においてはΔの値として1を含むものとす
る。Δ=1の場合実際に量子化は行われない。また、図
2のステップS109で指定した画像全体の画質に相当
するパラメータが上式のΔに相当する。次に量子化部2
Bは、領域指定部2Eから入力したマスク情報およびビ
ットシフト量Bに基づき、次式により量子化インデック
スを変更する(なおa^bはaのb乗を表す)。Q = sign (c) floor (abs (c) / Δ) (Equation 3) sign (c) = 1; c> = 0 (Equation 4) sign (c) = − 1; c <0 (Equation 4) 5) Here, c is a transform coefficient to be quantized. Also,
In the present embodiment, it is assumed that the value of Δ includes 1. When Δ = 1, no quantization is actually performed. A parameter corresponding to the image quality of the entire image designated in step S109 in FIG. 2 corresponds to Δ in the above equation. Next, the quantization unit 2
B changes the quantization index by the following equation based on the mask information and the bit shift amount B input from the area specifying unit 2E (a ^ b represents a raised to the power b).
【0045】 q’=q*2^B ;m=1 (式6) q’=q ;m=0 (式7) ここで、mは各々の量子化インデックスの位置における
マスク情報の値である。以上の処理により、領域指定部
2Eにおいて図2のステップS108より指定された関
心領域に属する量子化インデックスのみがBビット上方
にシフトアップされる。Q ′ = q * 2 ^ B; m = 1 (Equation 6) q ′ = q; m = 0 (Equation 7) Here, m is a value of mask information at each quantization index position. . With the above processing, only the quantization index belonging to the region of interest specified in step S108 of FIG. 2 is shifted up by B bits in the region specifying unit 2E.
【0046】図6(b)および(c)はこのシフトアッ
プによる量子化インデックスの変化を示したものであ
る。同図(b)において、3つのサブバンド(サブバン
ド1,サブバンド2,サブバンド3)に各々3個の量子
化インデックスが存在しており、網がけされた量子化イ
ンデックスにおけるマスク情報の値が1でビットシフト
Bが2の場合、ビットシフト後の各量子化インデックス
は同図(c)のようになる。このように変更された量子
化インデックスは後続のエントロピ符号化部2Cに出力
される。FIGS. 6B and 6C show the change of the quantization index due to the shift up. In FIG. 3B, three quantization indices exist in each of three sub-bands (sub-band 1, sub-band 2, and sub-band 3), and the value of the mask information in the networked quantization index Is 1 and the bit shift B is 2, the quantization indexes after the bit shift are as shown in FIG. The quantization index changed in this way is output to the entropy encoding unit 2C that follows.
【0047】エントロピ符号化部2Cは入力した量子化
インデックスをビットプレーンに分解し、ビットプレー
ンを単位に2値算術符号化を行ってビットストリームを
出力する。図7はエントロピ符号化部2Cの動作を説明
する図であり、同図においては4x4の大きさを持つサ
ブバンド内の領域(以下、サブバンド領域と称する)に
おいて非0の量子化インデックスが3個存在しており、
それぞれ+13,+6,+3の値を持っている。エント
ロピ符号化部2Cはこのサブバンド領域を走査して量子
化インデックスの中で最大値Mを求め、次式により最大
の量子化インデックスを表現するために必要なビット数
Sを計算する。The entropy coding unit 2C decomposes the input quantization index into bit planes, performs binary arithmetic coding on a bit plane basis, and outputs a bit stream. FIG. 7 is a diagram for explaining the operation of the entropy encoding unit 2C. In FIG. 7, a non-zero quantization index is 3 in a region within a subband having a size of 4 × 4 (hereinafter referred to as a subband region). Exist,
Each has a value of +13, +6, +3. The entropy coding unit 2C scans this sub-band area to find the maximum value M among the quantization indexes, and calculates the number of bits S necessary to represent the maximum quantization index by the following equation.
【0048】 S=ceil(log2(abs(M))) (式8) ここでceil(x)はx以上の整数の中で最も小さい整数値
を表す。図7においては、最大の値は13であるので
(式8)よりSは4であり、同図(a)に示した16個
の量子化インデックスは同図(b)に示すように4つの
ビットプレーンを単位として処理が行われる。最初にエ
ントロピ符号化部2Cは最上位ビットプレーン(同図M
SBで表す)の各ビットを2値算術符号化し、ビットス
トリームとして出力する。次にビットプレーンを1レベ
ル下げ、以下同様に対象ビットプレーンが最下位ビット
プレーン(同図LSBで表す)に至るまで、ビットプレ
ーン内の各ビットを2値算術符号化し、符号出力部2D
に出力する。この時、各量子化インデックスの2値算術
符号化は、ビットプレーン走査において最初の非0のビ
ットが検出されると、そのすぐ後にこのビットに対して
行われる。そしてエントロピ符号化部2Cは上述の各ビ
ットプレーンに対するビットストリームと共に、後述す
るヘッダを生成し、それらを含む符号化列を出力する。S = ceil (log2 (abs (M))) (Equation 8) Here, ceil (x) represents the smallest integer value among integers equal to or larger than x. In FIG. 7, since the maximum value is 13, S is 4 from (Equation 8), and the 16 quantization indices shown in FIG. Processing is performed in units of bit planes. First, the entropy encoding unit 2C outputs the most significant bit plane (M in FIG.
(Indicated by SB) are binary arithmetically encoded and output as a bit stream. Next, the bit plane is lowered by one level, and similarly, each bit in the bit plane is subjected to binary arithmetic coding until the target bit plane reaches the least significant bit plane (represented by LSB in the figure), and the code output unit 2D
Output to At this time, the binary arithmetic coding of each quantization index is performed on this bit immediately after the first non-zero bit is detected in the bit plane scan. Then, the entropy encoding unit 2C generates a header to be described later together with the bit stream for each bit plane described above, and outputs a coded sequence including the header.
【0049】図8は、上述の通りエントロピ符号化部2
Cにおいて生成され、出力される符号列の構成を表した
概略図である。同図(a)は符号列の全体の構成を示し
たものであり、MHはメインヘッダ、THはタイルヘッ
ダ、BSはビットストリームである。なお、同図では個
数Sのビットプレーンに対するビットストリームとタイ
ルヘッダを含む符号列を示す。FIG. 8 shows the entropy encoder 2 as described above.
FIG. 4 is a schematic diagram illustrating a configuration of a code string generated and output in C. FIG. 1A shows the entire structure of a code string, where MH is a main header, TH is a tile header, and BS is a bit stream. FIG. 3 shows a bit stream for the number S of bit planes and a code string including a tile header.
【0050】メインヘッダMHは同図(b)に示すよう
に、符号化対象となる画像のサイズ(水平および垂直方
向の画素数)、画像を複数の矩形領域であるタイルに分
割した際のサイズ、各色成分数を表すコンポーネント
数、各成分の大きさ、ビット精度を表すコンポーネント
情報から構成されている。なお、本実施形態では画像は
タイルに分割されていないので、タイルサイズと画像サ
イズは同じ値を取る。As shown in FIG. 3B, the main header MH has the size of the image to be encoded (the number of pixels in the horizontal and vertical directions) and the size when the image is divided into a plurality of rectangular tiles. , The number of components representing the number of each color component, the size of each component, and component information representing the bit precision. In the present embodiment, since the image is not divided into tiles, the tile size and the image size take the same value.
【0051】次にタイルヘッダTHの構成を図8(c)
に示す。タイルヘッダTHにはタイルのビットストリー
ム長とヘッダ長を含めたタイル長、及び当該タイルに対
する符号化パラメータ、および指定された関心領域を示
すマスク情報とこの領域に属する係数に対するビットシ
フト数Bから構成される。符号化パラメータには離散ウ
ェーブレット変換のレベル、フィルタの種別等が含まれ
ている。本実施形態におけるビットストリームの構成を
同図(d)に示す。同図において、ビットストリームは
各サブバンド毎にまとめられ解像度の小さいサブバンド
を先頭として順次解像度が高くなる順番に配置されてい
る。さらに、各サブバンド内は上位ビットプレーンから
下位ビットプレーンに向かい、ビットプレーンを単位と
して符号が配列されている。Next, the structure of the tile header TH is shown in FIG.
Shown in The tile header TH includes a tile length including a bit stream length and a header length of the tile, an encoding parameter for the tile, mask information indicating a designated region of interest, and a bit shift number B for a coefficient belonging to the region. Is done. The encoding parameters include the level of the discrete wavelet transform, the type of filter, and the like. The configuration of the bit stream in the present embodiment is shown in FIG. In the figure, bit streams are grouped for each sub-band, and are arranged in order of increasing resolution starting from the sub-band having the smaller resolution. Further, in each subband, codes are arranged in units of bit planes from the upper bit plane to the lower bit plane.
【0052】本実施形態において、前述した様に符号化
対象となる画像全体の圧縮率は量子化ステップΔを変更
することにより制御することが可能である。In the present embodiment, as described above, the compression ratio of the entire image to be encoded can be controlled by changing the quantization step Δ.
【0053】また、エントロピ符号化部2Cにおいて符
号化するビットプレーンの下位ビットプレーンは、必要
な圧縮率に応じて制限(廃棄)することも可能である。
この場合には、全てのビットプレーンは符号化されず上
位ビットプレーンから所望の圧縮率に応じた数のビット
プレーンまでが符号化され、最終的な符号列に含まれ
る。図2のステップS109で指定した関心領域と非関
心領域の画質の差を示すパラメータは、廃棄する下位ビ
ットプレーンの数を示すものであり、非関心領域の画質
を大きく落としたい場合は、(式6)におけるビットシ
フト値Bの値を大きくし、Bに応じた分、下位ビットプ
レーンを廃棄するようにすれば、関心領域の画質は劣化
させずに非関心領域の画質を落とすことが可能となる。
以上の方法で符号化された画像が符号出力部2Dから出
力され、画像記録部3に記録される。The lower bit planes of the bit planes to be encoded in the entropy encoding unit 2C can be restricted (discarded) in accordance with the required compression ratio.
In this case, all the bit planes are not coded, and the bits from the upper bit plane to the bit planes corresponding to the desired compression ratio are coded and included in the final code string. The parameter indicating the difference between the image quality of the region of interest and the image quality of the non-interest region specified in step S109 in FIG. 2 indicates the number of lower bit planes to be discarded. If the value of the bit shift value B in 6) is increased and the lower bit planes are discarded in accordance with B, the image quality of the non-interest area can be reduced without deteriorating the image quality of the area of interest. Become.
The image encoded by the above method is output from the code output unit 2D and recorded in the image recording unit 3.
【0054】次に以上述べた符号化の処理で生成された
符号列を逆に復号化する方法について説明する。図9の
点線内は、画像処理部2の内部の構成を示している。2
D’は符号入力部、2C’はエントロピ復号化部、2
B’は逆量子化部、2A’は逆離散ウェーブレット変換
部、2E’は領域抽出部である。Next, a method of reversely decoding the code string generated by the above-described coding processing will be described. 9 indicates the internal configuration of the image processing unit 2. 2
D 'is a code input section, 2C' is an entropy decoding section, 2
B ′ is an inverse quantization unit, 2A ′ is an inverse discrete wavelet transform unit, and 2E ′ is an area extraction unit.
【0055】符号入力部2D’は画像記録部3に記録さ
れた符号列を入力し、入力した符号列に含まれる各ヘッ
ダを解析して後続の処理に必要なパラメータを抽出し、
必要な場合は処理の流れを制御し、あるいは後続の各部
に対して該当するパラメータを送出するものである。ま
た、符号列に含まれるビットストリームはエントロピ復
号化部2C’に出力される。The code input unit 2D 'inputs the code sequence recorded in the image recording unit 3, analyzes each header included in the input code sequence, and extracts parameters necessary for the subsequent processing.
If necessary, it controls the flow of processing or sends out corresponding parameters to each subsequent part. The bit stream included in the code string is output to the entropy decoding unit 2C '.
【0056】エントロピ復号化部2C’はビットストリ
ームをビットプレーン単位で復号化し、出力する。この
時の復号化手順は、図7に示した手順とは反対の経路を
たどり、図7(b)に示すビットプレーンのMSBから
順にビットプレーン単位で復号化が開始され、図7
(a)の形に復元された量子化インデックスは逆量子化
器2B’に出力される。The entropy decoding unit 2C 'decodes the bit stream in bit plane units and outputs the result. The decoding procedure at this time follows a path opposite to the procedure shown in FIG. 7, and decoding is started in bit plane units in order from the MSB of the bit plane shown in FIG.
The quantization index restored in the form of (a) is output to the inverse quantizer 2B '.
【0057】逆量子化器2B’は入力した量子化インデ
ックスから、次式に基づいて離散ウェーブレット変換係
数を復元する。The inverse quantizer 2B 'restores discrete wavelet transform coefficients from the input quantization index based on the following equation.
【0058】 c’=Δ*q/2^U ;q≠0 (式9) c’=0 ;q=0 (式10) U=B ;m=1 (式11) U=0 ;m=0 (式12) ここで、qは量子化インデックス、Δは量子化ステップ
であり、Δは符号化時に用いられたものと同じ値であ
る。また、Bはタイルヘッダから読み出されたビットシ
フト数、mは量子化インデックスの位置におけるマスク
情報の値である。c’は復元された変換係数であり、符
号化時ではsまたはdで表される係数に復元したもので
ある。変換係数c’は後続の逆離散ウェーブレット変換
部2A’に出力される。領域抽出部2E’は、上記の数
値から量子化インデックスの位置に対応するマスク情報
の値mを抽出し、1の値を取るマスク情報の位置に基づ
いて、画像上に埋め込まれた関心領域の位置座標を関心
領域設定部6へ出力する。C ′ = Δ * q / 2 ^ U; q ≠ 0 (Equation 9) c ′ = 0; q = 0 (Equation 10) U = B; m = 1 (Equation 11) U = 0; m = 0 (Equation 12) Here, q is a quantization index, Δ is a quantization step, and Δ is the same value used at the time of encoding. B is the number of bit shifts read from the tile header, and m is the value of the mask information at the position of the quantization index. c ′ is a restored transform coefficient, which is restored to a coefficient represented by s or d at the time of encoding. The transform coefficient c 'is output to the subsequent inverse discrete wavelet transform unit 2A'. The region extracting unit 2E ′ extracts the value m of the mask information corresponding to the position of the quantization index from the above numerical value, and, based on the position of the mask information that takes a value of 1, extracts the region of interest embedded in the image. The position coordinates are output to the region of interest setting unit 6.
【0059】図10は逆離散ウェーブレット変換部2
A’の構成および処理のブロック図を示したものであ
る。同図(a)において、入力された変換係数はメモリ
201に記憶される。処理部202は1次元の逆離散ウ
ェーブレット変換を行い、メモリ201から順次変換係
数を読み出して処理を行うことで、2次元の逆離散ウェ
ーブレット変換を実行する。2次元の逆離散ウェーブレ
ット変換は、順変換と逆の手順により実行されるが、詳
細は公知であるので説明を省略する。また同図(b)は
処理部202の処理ブロックを示したものであり、入力
された変換係数はuおよびpの2つのフィルタ処理を施
され、アップサンプラ203a、203bによりそれぞ
れアップサンプリングされた後に、重ね合わされて画像
x’が出力される。これらの処理は次式により行われ
る。FIG. 10 shows an inverse discrete wavelet transform unit 2
FIG. 3 shows a block diagram of the configuration and processing of A ′. In FIG. 9A, the input transform coefficients are stored in the memory 201. The processing unit 202 performs a two-dimensional inverse discrete wavelet transform by performing a one-dimensional inverse discrete wavelet transform, sequentially reading out transform coefficients from the memory 201 and performing processing. The two-dimensional inverse discrete wavelet transform is performed in a procedure reverse to that of the forward transform. FIG. 2B shows a processing block of the processing unit 202. The input conversion coefficient is subjected to two filter processings of u and p, and is upsampled by the upsamplers 203a and 203b, respectively. , And an image x ′ is output. These processes are performed by the following equations.
【0060】 x'(2*n)=s'(n)-floor((d'(n-1)+d'(n))/4) (式13) x'(2*n+1)=d'(n)+floor((x'(2*n)+x'(2*n+2))/2) (式14) ここで、(式1)、(式2)、(式12)、(式13)
による順方向および逆方向の離散ウェーブレット変換は
完全再構成条件を満たしているため、本実施形態におい
て量子化ステップΔが1であり、ビットプレーン復号化
において全てのビットプレーンが復号されていれば、復
元された画像信号x’は原画像の信号xと一致し、符号
化復号化における可逆変換(可逆圧縮)を意味する。X ′ (2 * n) = s ′ (n) −floor ((d ′ (n−1) + d ′ (n)) / 4) (Equation 13) x ′ (2 * n + 1) = d '(n) + floor ((x' (2 * n) + x '(2 * n + 2)) / 2) (Equation 14) Here, (Equation 1), (Equation 2), (Equation 14) 12), (Equation 13)
Since the forward and backward discrete wavelet transforms satisfy the perfect reconstruction condition, if the quantization step Δ is 1 in this embodiment and all the bit planes are decoded in the bit plane decoding, The restored image signal x ′ matches the signal x of the original image, and means lossless conversion (lossless compression) in encoding and decoding.
【0061】以上の処理により画像が復元されて画像入
出力部1に出力すれば、この画像は被検眼画像として、
画像表示制御部4を介して画像表示部5に出力(表示)
することが可能となる。When the image is restored by the above processing and output to the image input / output unit 1, this image is
Output (display) to the image display unit 5 via the image display control unit 4
It is possible to do.
【0062】また上述した本実施形態では、エントロピ
復号化部2C’において復号する下位ビットプレーンを
制限(無視)することで、処理する符号列のデータ量を
減少させ、結果的に圧縮率を制限することが可能であ
る。In the above-described embodiment, the data amount of the code string to be processed is reduced by limiting (ignoring) the lower bit plane to be decoded in the entropy decoding unit 2C ′, and as a result, the compression ratio is limited. It is possible to
【0063】以上の構成を備える画像処理装置及び画像
処理方法は、設定した関心領域を非関心領域よりも高画
質で圧縮、伸長処理することが可能となる。又、関心領
域を予め記憶させておくことで、毎回関心領域の設定を
操作者が行うことがなくなる。また全体の圧縮率に相当
するパラメータであるΔを調整することで関心領域内を
可逆圧縮することも可能となる。According to the image processing apparatus and the image processing method having the above configuration, it is possible to compress and decompress the set region of interest with higher image quality than the non-region of interest. Further, by storing the region of interest in advance, the operator does not have to set the region of interest every time. By adjusting Δ, which is a parameter corresponding to the overall compression ratio, it is possible to reversibly compress the region of interest.
【0064】[第2の実施形態]本実施形態において
は、関心領域を決定する方法について、図2に示した方
法とは別の方法を示す。つまり本実施形態における関心
領域を決定する方法は、予め登録された関心領域パター
ンを読み込んだ後に、更に関心領域の位置及び/又はサ
イズを微調整することができる。[Second Embodiment] In this embodiment, a method for determining a region of interest is different from the method shown in FIG. That is, the method of determining the region of interest in the present embodiment can further fine-tune the position and / or size of the region of interest after reading the region of interest pattern registered in advance.
【0065】本実施形態における関心領域を決定する方
法のフローチャートを図11に示す。図11は図2に対
してステップS201,S202、S203を追加した
フローチャートである。FIG. 11 shows a flowchart of a method for determining a region of interest in this embodiment. FIG. 11 is a flowchart in which steps S201, S202, and S203 are added to FIG.
【0066】図2に示したフローチャートと同様に、画
像入出力部1に入力された被検眼画像は、画像表示部5
に表示される(ステップS101)。関心領域を任意に
設定するか否かの問いに対してNoを選択すると(ステ
ップS102)、関心領域記憶部7から、あらかじめ登
録された関心領域パターンを読み込み(ステップS20
1)、画像表示部5に表示されている被検眼画像と合成
表示する(ステップS202)。ここではあらかじめ登
録された関心領域パターンとして例えば図12(a)に
示す関心領域パターンを用いる。なお、同図において点
線で囲まれた領域が関心領域である。As in the flowchart shown in FIG. 2, the eye image input to the image input / output unit 1 is
Is displayed (step S101). When No is selected in response to the question as to whether or not the region of interest is arbitrarily set (step S102), a previously registered region of interest pattern is read from the region of interest storage unit 7 (step S20).
1) The image is combined with the image of the subject's eye displayed on the image display unit 5 (step S202). Here, for example, a region of interest pattern shown in FIG. 12A is used as the region of interest pattern registered in advance. Note that the region surrounded by the dotted line in FIG.
【0067】次に操作者に微調整の必要の有無を問う
(ステップS203)。ここで例えば操作者が、表示さ
れた関心領域パターンよりもさらに上側にも注目したい
為、Yesを選択すると、図12(a)のパターンを表
示したままステップS103以降の任意関心領域の設定
ステップへ、処理を移行する。前述した様に操作者はマ
ウス等のポインティングデバイスを用いて関心領域を例
えば上側に拡張し、決定する(関心領域のサイズの変
更)。決定した関心領域を図12(b)に示す。同様に
して関心領域の位置に関しても微調整することができ
る。Next, the operator is asked whether fine adjustment is necessary (step S203). Here, for example, since the operator wants to pay more attention also to the upper side than the displayed region of interest pattern, if Yes is selected, the process proceeds to step S103 and subsequent steps for setting an arbitrary region of interest with the pattern of FIG. Then, the processing shifts. As described above, the operator expands the region of interest using, for example, a pointing device such as a mouse and determines the region of interest (changing the size of the region of interest). FIG. 12B shows the determined region of interest. Similarly, the position of the region of interest can be finely adjusted.
【0068】以降、図2に示したフローチャートと同様
な処理方法で、図12(b)に示した関心領域内の画像
が他の領域よりも高画質となるように圧縮処理し、保存
する。Thereafter, compression processing is performed by a processing method similar to that of the flowchart shown in FIG. 2 so that the image in the region of interest shown in FIG.
【0069】以上の関心領域を決定する方法より、予め
登録された関心領域パターンを読み込んだ後に、更に関
心領域の位置及び/又はサイズの微調整ができることを
示した。According to the above method of determining the region of interest, it has been shown that the position and / or size of the region of interest can be finely adjusted after reading the region of interest pattern registered in advance.
【0070】[第3の実施形態]本実施形態において
は、関心領域を設定する方法について、図2,11に示
した方法とは別の方法を示す。つまり本実施形態におけ
る関心領域を決定する方法は、第1の実施形態における
同方法に対して更に、予め登録された関心領域パターン
を複数選択可能とし、また左右非対称の関心領域パター
ンに対して左右反転を行うステップを追加した方法を示
す。[Third Embodiment] In this embodiment, a method of setting a region of interest is different from the method shown in FIGS. In other words, the method of determining a region of interest in the present embodiment further allows the user to select a plurality of pre-registered region of interest patterns in addition to the method of the first embodiment. The method of adding the step of performing inversion is shown.
【0071】本実施形態における関心領域を決定する方
法のフローチャートを図13に示す。FIG. 13 is a flowchart of a method for determining a region of interest according to the present embodiment.
【0072】図2に示したフローチャートと同様に、画
像入出力部1に入力された被検眼画像は、画像表示部5
に表示される(ステップS101)。関心領域を任意に
設定するか否かの問いに対してNoを選択すると(ステ
ップS102)、関心領域記憶部7から第1の実施形態
と同様に予め登録した関心領域パターン(眼底画像有効
領域パターン)を読み込み(ステップS107)、画像
表示部5に表示されている被検眼画像と合成表示する
(ステップS301)。As in the flowchart shown in FIG. 2, the eye image input to the image input / output unit 1 is
Is displayed (step S101). When No is selected in response to the question as to whether or not the region of interest is arbitrarily set (step S102), a region of interest pattern (fundus image effective region pattern) registered in advance from the region of interest storage unit 7 as in the first embodiment. ) Is read (step S107), and is synthesized and displayed with the subject's eye image displayed on the image display unit 5 (step S301).
【0073】本実施形態では予め登録された関心領域パ
ターンが2つある為、他の関心領域パターンを選択する
か否かを問う(ステップS302)。操作者がYesの
指示を入力すると、関心領域記憶部7から第2の関心領
域パターンを読み込む(ステップS303)。In this embodiment, since there are two pre-registered region-of-interest patterns, it is asked whether or not to select another region-of-interest pattern (step S302). When the operator inputs an instruction of Yes, the second area of interest pattern is read from the area of interest storage unit 7 (step S303).
【0074】ここで例えば図14(a)に示した左眼の
黄斑部1401、又は図14(b)の様に右眼の乳頭部
1402に注目する際に有効なパターンを示す。ただし
ここでは操作者が左眼の乳頭部に注目したい場合を想定
する。つまり、個々では第1の関心領域パターンは図1
4(a)に、第2の関心領域パターンは図14(b)に
示したパターンとなる。Here, for example, a pattern effective when focusing on the macula 1401 of the left eye shown in FIG. 14A or the papilla 1402 of the right eye as shown in FIG. 14B is shown. However, it is assumed here that the operator wants to pay attention to the nipple of the left eye. That is, the first region of interest pattern is individually shown in FIG.
In FIG. 4A, the second region-of-interest pattern is the pattern shown in FIG.
【0075】読み込んだ第2の関心領域パターンが画像
表示部5に表示され(ステップS304)、表示された
第2の関心領域パターンに対して、左右反転するか否か
を問う(ステップS305)。操作者がYesの指示を
入力すると、ステップS303で読み込んだ第2の関心
領域パターンを左右反転し(ステップS306)、眼底
画像と合成表示する(ステップS307)。ステップS
307において合成表示された画像を図14(c)に示
す。The read second region-of-interest pattern is displayed on the image display unit 5 (step S304), and it is asked whether the displayed second region-of-interest pattern is to be horizontally inverted (step S305). When the operator inputs an instruction of Yes, the second region-of-interest pattern read in step S303 is reversed left and right (step S306), and displayed in combination with the fundus image (step S307). Step S
FIG. 14C shows the image synthesized and displayed in 307.
【0076】次にステップS308で決定を選択し、決
定する場合には図2に示したフローチャートと同様に処
理をステップS108に移行する。また図13に示した
ようにステップS308で決定しない場合は、予め登録
された関心領域パターンには最適なものが無いとみなし
てステップS103に処理を移行する。Next, at step S308, a decision is selected, and when the decision is made, the process proceeds to step S108 as in the flow chart shown in FIG. If the determination is not made in step S308 as shown in FIG. 13, it is determined that there is no optimal region of interest pattern registered in advance, and the process proceeds to step S103.
【0077】以降、図2に示したフローチャートと同様
な処理方法で圧縮処理し、保存する。Thereafter, compression processing is performed by the same processing method as that of the flowchart shown in FIG.
【0078】以上の関心領域を決定する方法により、第
1の実施形態における同方法に対して更に、予め登録さ
れた関心領域パターンを複数選択可能とし、また左右非
対称の関心領域パターンに対して左右反転が可能である
ことを示した。According to the above-described method of determining a region of interest, a plurality of region-of-interest patterns registered in advance can be selected from the same method in the first embodiment. It has been shown that inversion is possible.
【0079】[第4の実施形態]本実施形態における関
心領域を決定する方法として、過去に設定した関心領域
に基づき新たに関心領域を設定する方法を示す。[Fourth Embodiment] As a method of determining a region of interest in this embodiment, a method of setting a new region of interest based on a region of interest set in the past will be described.
【0080】図15(a)は、外部の眼科撮影装置によ
って過去に撮影された被検眼画像を示す。又、過去の関
心領域を登録する処理について、この処理のフローチャ
ートを示した図16を用いて以下説明する。FIG. 15A shows an eye image of a subject which has been photographed in the past by an external ophthalmologic photographing apparatus. The process of registering a past region of interest will be described below with reference to FIG. 16 showing a flowchart of this process.
【0081】過去に撮影した被検眼画像は、光磁気ディ
スク等の記憶媒体としての画像記録部3から不図示の検
索部を用いてピックアップしても良いし、他のデータベ
ースサーバ等から不図示の通信部を介して読み込んでも
良い(ステップS401)。次に画像処理部2は読み込
んだ被検眼画像に対して、図9に示した各部によって前
述した復号化処理を行い(ステップS402)、復号化
処理を行った被検眼画像を画像入出力部1へ出力する。
同時に領域抽出部2E’が抽出した関心領域の座標情報
を関心領域設定部6が受け、画像表示制御部4へ出力す
る。画像表示制御部4は、画像入出力部1から出力され
た伸張された画像と、抽出した関心領域パターンを合成
し(ステップS403,S404)、画像表示部5に出
力し、図15(a)の画像(被検眼画像)が表示される。
図中の★印は過去に注目した病変部を示す。An eye image taken in the past may be picked up from an image recording unit 3 as a storage medium such as a magneto-optical disk using a search unit (not shown), or may be picked up from another database server or the like. The information may be read via the communication unit (step S401). Next, the image processing unit 2 performs the above-described decoding process on the read eye image by the units shown in FIG. 9 (step S402), and outputs the decoded eye image to the image input / output unit 1 Output to
At the same time, the region of interest setting unit 6 receives the coordinate information of the region of interest extracted by the region extraction unit 2E ', and outputs the coordinate information to the image display control unit 4. The image display control unit 4 combines the expanded image output from the image input / output unit 1 with the extracted region of interest pattern (steps S403 and S404), and outputs the synthesized image to the image display unit 5, and FIG. (Image of the eye to be examined) is displayed.
In the figure, a star indicates a lesion that has been noted in the past.
【0082】次に、操作者にステップS403において
抽出した関心領域パターンを登録するか否かを問い(ス
テップS405)、登録する場合は関心領域記憶部7に
抽出した関心領域パターンを登録する(ステップS40
6)。以上で登録操作が完了する。Next, the operator is asked whether to register the region-of-interest pattern extracted in step S403 (step S405), and if so, the extracted region-of-interest pattern is registered in the region-of-interest storage unit 7 (step S405). S40
6). This completes the registration operation.
【0083】また本実施形態では、過去に撮影した被検
眼画像から関心領域を抽出し、登録する例を示したが、
任意に関心領域を設定するステップで使用頻度が高いパ
ターンを登録可能にすることも可能である。In the present embodiment, an example has been described in which a region of interest is extracted and registered from an image of a subject's eye taken in the past.
In the step of arbitrarily setting a region of interest, a pattern that is frequently used can be registered.
【0084】次に今回、外部の眼科撮影装置により撮影
した被検眼画像が、画像入出力部1に入力された例を示
す。図15(b)が今回撮影した被検眼画像を示し、以
後の後述する処理のフローチャートを図17に示す。図
17に示したフローチャートは、第2の実施形態で用い
た図11に示したフローチャートに対して、ステップS
201を削除してステップS501を追加したフローチ
ャートである。Next, an example will be described in which the image of the subject's eye photographed by an external ophthalmologic photographing apparatus is input to the image input / output unit 1 this time. FIG. 15 (b) shows the image of the subject's eye taken this time, and FIG. 17 shows a flowchart of the processing described later. The flowchart shown in FIG. 17 is different from the flowchart shown in FIG. 11 used in the second embodiment in step S
It is the flowchart which deleted step 201 and added step S501.
【0085】ステップS101において画像表示部5に
表示された被検眼画像(図15(b))を確認した操作
者は、過去の被検眼画像に基づき登録した関心領域パタ
ーンがあらかじめ存在するため、任意に関心領域の設定
は行わないと選択する(ステップS102)。次に前述
したステップS406で登録した関心領域パターンを読
み出し(ステップS501)、画像表示部5に表示され
ている被検眼画像に合成表示する(ステップS20
2)。合成表示された画像を図15(c)に示す。The operator who has checked the eye image (FIG. 15 (b)) displayed on the image display unit 5 in step S101 has an optional region of interest registered based on the past eye image. Is selected not to set a region of interest (step S102). Next, the region-of-interest pattern registered in step S406 described above is read (step S501), and is synthesized and displayed on the image of the subject's eye displayed on the image display unit 5 (step S20).
2). FIG. 15C shows the composited image.
【0086】図15(c)の画像を確認した操作者は、
今回撮影した被検眼画像において★印の病変部が広が
り、過去に設定した関心領域からはみ出ていることを認
識し、微調整を行うと選択する(ステップS203)。
操作者は前述した関心領域を任意に設定するステップS
103以降のステップに従って、関心領域のサイズの微
調整を行い、図15(d)に示す関心領域パターンのサ
イズに変更する。The operator who has confirmed the image shown in FIG.
Recognizing that the lesion indicated by the ★ mark has spread in the image of the subject's eye taken this time and protrudes from the region of interest set in the past, it is selected to perform fine adjustment (step S203).
Step S arbitrarily sets the region of interest by the operator.
Fine adjustment of the size of the region of interest is performed according to the steps from step 103 onward, and the size is changed to the size of the region of interest pattern shown in FIG.
【0087】以降、図2に示したフローチャートと同様
な処理方法で、新たに設定された関心領域内が他の領域
よりも高画質となるように圧縮処理を実行する。Thereafter, a compression process is executed by a processing method similar to that of the flowchart shown in FIG. 2 so that the newly set region of interest has higher image quality than the other regions.
【0088】以上の関心領域の決定方法により、過去に
設定した関心領域に基づき関心領域の設定が可能である
ことを示した。It has been shown that the region of interest can be set based on the region of interest set in the past by the above method of determining the region of interest.
【0089】[第5の実施形態]本実施形態では上述の
実施形態において用いた外部の眼科撮影装置の構成を示
すと共に、上述の画像処理方法及び動作則を備える画像
処理装置との具体的な構成を示す。[Fifth Embodiment] In this embodiment, the configuration of the external ophthalmologic photographing apparatus used in the above-described embodiment will be described, and a specific description will be given of an image processing apparatus having the above-described image processing method and operation rules. The configuration is shown.
【0090】図18は本実施形態の画像処理装置と外部
の眼科撮影装置との構成を示すブロック図である。なお
点線部Aで囲まれた範囲内は眼科撮影装置に含まれ、点
線部Bで囲まれた範囲内は画像処理装置に含まれる。FIG. 18 is a block diagram showing the configuration of the image processing apparatus of this embodiment and an external ophthalmologic photographing apparatus. The area surrounded by the dotted line A is included in the ophthalmologic photographing apparatus, and the area surrounded by the dotted line B is included in the image processing apparatus.
【0091】観察用光源1801から被検眼Eに対向す
る対物レンズ1802に至る光路上には、コンデンサー
レンズ1803、撮影用ストロボ光源1804、リング
スリット1805、ミラー1806、リレーレンズ18
07、孔あきミラー1808が順次に配列されている。
孔あきミラー1808の背後の光路上には、フォーカス
レンズ1809、撮影レンズ1810、ハーフミラー1
811、切換えミラー1812、視野絞り1813、接
眼レンズ1814が配列されている。ハーフミラー18
11の反射側の光路には、バックライトと液晶ドットマ
トリックスからなる固視目標提示部1815が配置さ
れ、切換えミラー1812が光路上の点線位置にあると
きの切換えミラー1812の反射方向には、アパーチャ
ーマスク1816、フィールドレンズ1817、結像レ
ンズ1818、撮像部1819が順次に配置されてい
る。On the optical path from the observation light source 1801 to the objective lens 1802 facing the eye E, a condenser lens 1803, a photographing strobe light source 1804, a ring slit 1805, a mirror 1806, a relay lens 18
07 and a perforated mirror 1808 are sequentially arranged.
On the optical path behind the perforated mirror 1808, a focus lens 1809, a photographing lens 1810, a half mirror 1
811, a switching mirror 1812, a field stop 1813, and an eyepiece 1814 are arranged. Half mirror 18
A fixation target presenting unit 1815 composed of a backlight and a liquid crystal dot matrix is disposed in the optical path on the reflection side of the light source 11, and an aperture is provided in the reflection direction of the switching mirror 1812 when the switching mirror 1812 is at a dotted line position on the optical path. A mask 1816, a field lens 1817, an imaging lens 1818, and an imaging unit 1819 are sequentially arranged.
【0092】撮像部1819の出力は、A/D変換部1
820、A/D変換の結果を保存するメモリ1821、
メモリ1821の内容をアナログ表示するためのD/A
変換部1822、モニタ1823に接続されている。A
/D変換部1820、メモリ1821、A/D変換部1
822は、それぞれのタイミング及び動作の制御を行う
映像信号制御部1824に接続されており、またメモリ
1821の画像データは、画像処理部1825を介して
光磁気ディスク等の記録部1826に接続されている。
また画像処理部1825はCPU1827に接続されて
おり、CPU1827には他にも、メモリ1821、映
像信号制御部1824、ストロボ光源1804の制御を
行うストロボ制御部1828、撮影スイッチ1829、
またROM又は不揮発性メモリを想定した関心領域記憶
部1830、関心領域と非関心領域の画質を決定するパ
ラメータを入力又は登録可能な圧縮率設定部1831に
それぞれ接続されている。The output of the imaging unit 1819 is output from the A / D conversion unit 1
820, a memory 1821 for storing the result of the A / D conversion,
D / A for analog display of contents of memory 1821
The converter 1822 and the monitor 1823 are connected. A
/ D converter 1820, memory 1821, A / D converter 1
Reference numeral 822 is connected to a video signal control unit 1824 for controlling each timing and operation, and image data of the memory 1821 is connected to a recording unit 1826 such as a magneto-optical disk via an image processing unit 1825. I have.
The image processing unit 1825 is connected to the CPU 1827. In addition, the CPU 1827 includes a memory 1821, a video signal control unit 1824, a strobe control unit 1828 that controls a strobe light source 1804, a shooting switch 1829,
Further, it is connected to a region-of-interest storage unit 1830 assuming a ROM or a non-volatile memory, and a compression ratio setting unit 1831 capable of inputting or registering parameters for determining the image quality of the region of interest and the non-region of interest.
【0093】次に被検眼眼底Erの観察操作について説
明する。Next, the operation of observing the fundus Er of the eye to be examined will be described.
【0094】観察用光源1801を出射した光束は、コ
ンデンサーレンズ1803、リングスリット1805を
通り、ミラー1806で反射し、リレーレンズ1807
を通って、孔あきミラー1808の周辺で反射し、対物
レンズ1802、被検眼Eの瞳Epを通り、被検眼眼底
Erを照明する。このように照明された眼底像は、瞳E
p、対物レンズ1802、孔あきミラー1808の孔
部、フォーカスレンズ1809、撮影レンズ1810、
ハーフミラー1811を透過し、視野絞り1813、接
眼レンズ1814に導かれる。操作者はこの観察用の光
路を用いて被検眼Eの位置合せを行う。またこの時被検
眼は、固視目標定時部1815が提示する指標を見るこ
とにより固視状態にある。A light beam emitted from the observation light source 1801 passes through a condenser lens 1803 and a ring slit 1805, is reflected by a mirror 1806, and is relayed by a relay lens 1807.
Through the objective lens 1802 and the pupil Ep of the eye E to illuminate the fundus Er of the eye. The fundus image illuminated in this way is the pupil E
p, objective lens 1802, hole of perforated mirror 1808, focus lens 1809, photographing lens 1810,
The light passes through the half mirror 1811 and is guided to the field stop 1813 and the eyepiece 1814. The operator performs positioning of the subject's eye E using the optical path for observation. At this time, the subject's eye is in a fixation state by looking at the index presented by the fixation target punctual unit 1815.
【0095】次に眼底Erの撮影操作について説明す
る。Next, the photographing operation of the fundus Er will be described.
【0096】被検眼Eの位置合せが完了した時点で撮影
スイッチ1829を押すと、CPU1827がそれを検
出し、不図示の駆動部を用いて光路の切換えミラー18
12を図18中の点線部まで跳ね上げ、映像信号制御部
1824に処理の開始準備を指令する。次に切換えミラ
ー1812の跳ね上げが完了するのを待ってから、スト
ロボ制御部1828に発光の開始を指令する。ストロボ
制御部1828は、ストロボ光源1804に発光トリガ
を与えることにより、不図示のメインコンデンサーに蓄
えられたエネルギーがストロボ光源1804に供給され
て、眼底Erの撮影のための光束(撮影光束)の発光が
開始される。When the photographing switch 1829 is depressed when the positioning of the eye E is completed, the CPU 1827 detects the depression and uses the driving unit (not shown) to switch the optical path switching mirror 18.
12 is flipped up to the dotted line portion in FIG. 18 to instruct the video signal control unit 1824 to start preparation for processing. Then, after waiting for the switching mirror 1812 to complete the flip-up, the flash controller 1828 is instructed to start emitting light. The strobe control unit 1828 supplies a strobe light source 1804 with a light emission trigger, so that the energy stored in the main condenser (not shown) is supplied to the strobe light source 1804 to emit a light beam (imaging light beam) for photographing the fundus Er. Is started.
【0097】発光された撮影光束は、ストロボ光源18
04,リングスリット1805から観察用光源1801
を出射した光束と同様の光路を通って、被検眼Eの眼底
Erを照明し、その反射光は光路内に跳ね上げられた光
路切換えミラー1812で反射し、アパーチャーマスク
1816、フィールドレンズ1817、結像レンズ11
818を介して撮像部1819に眼底像(被検眼眼底画
像)を結像する。撮像部1819から得られた映像信号
(被検眼眼底画像信号)はA/D変換部1820でディ
ジタル化されると同時に、メモリ1821へ書き込まれ
ていく。The emitted photographing light beam is supplied to the strobe light source 18.
04, the observation light source 1801 from the ring slit 1805
Illuminates the fundus Er of the subject's eye E through the same optical path as the light flux emitted from the light source, the reflected light is reflected by the optical path switching mirror 1812 jumped up into the optical path, and the aperture mask 1816, the field lens 1817, Image lens 11
A fundus image (fundus fundus image to be inspected) is formed on the imaging unit 1819 via 818. The video signal (fundus eye fundus image signal) obtained from the imaging unit 1819 is digitized by the A / D conversion unit 1820 and is also written to the memory 1821.
【0098】A/D変換とメモリ1821への書き込み
が完了すると、必要に応じてCPU1827が映像信号
制御部1824に対してD/A変換の指示を発行し、映
像信号制御部1824から指示を受けたD/A変換部1
822は、メモリ1821に書き込まれた眼底画像のデ
ータを順次読み出しながら、モニタ1823に撮影した
画像(被検眼眼底画像)を表示する。図19は、モニタ
1823に出力された被検眼眼底像を示しており、斜線
部が実際に撮像されたアパーチャーマスク1816を示
す。When the A / D conversion and the writing to the memory 1821 are completed, the CPU 1827 issues a D / A conversion instruction to the video signal control unit 1824 as necessary, and receives the instruction from the video signal control unit 1824. D / A converter 1
The display unit 822 displays the captured image (fundus fundus image) on the monitor 1823 while sequentially reading the fundus image data written in the memory 1821. FIG. 19 shows the fundus image of the eye to be inspected output to the monitor 1823, and the hatched portion shows the aperture mask 1816 actually imaged.
【0099】次にCPU1827は、関心領域記憶部1
830に記憶された関心領域パターンを読み込む。CP
U1827は、関心領域パターン情報を読み込むと同時
に、圧縮率設定部1831に入力又は既に登録された全
体の画質(圧縮率)に相当するパラメータと、関心領域
と非関心領域との画質の差を示すパラメータの入力を受
けて記憶する。Next, the CPU 1827 operates the region-of-interest storage unit 1
The region of interest pattern stored in 830 is read. CP
U1827 reads the region-of-interest pattern information and, at the same time, indicates a parameter corresponding to the overall image quality (compression ratio) input or already registered in the compression ratio setting unit 1831 and the difference between the image quality of the region of interest and the image quality of the non-region of interest. Receives and stores parameters.
【0100】なお、画像処理部1825の構成は図4、
9に示した画像処理部2の構成と同じであり、画像処理
部1825の内部の各部における処理及びその形態も同
じである。又、この画像処理部1825はCPU182
7により制御されており、データ等(関心領域の位置情
報等)の受け渡しもCPU1827により行われてい
る。又、画像処理部1825において符号化されたデー
タは記録部1826に記録される。The structure of the image processing unit 1825 is shown in FIG.
The configuration of the image processing unit 1825 is the same as that of the image processing unit 2 shown in FIG. The image processing unit 1825 is a CPU 182
The transfer of data and the like (position information of the region of interest and the like) is also performed by the CPU 1827. The data encoded by the image processing unit 1825 is recorded in the recording unit 1826.
【0101】以上の処理により画像が復元され、復元さ
れた画像を画像入出力部1に出力すれば、被検眼画像デ
ータをモニタ1823に出力することが可能となる。The image is restored by the above processing, and if the restored image is output to the image input / output unit 1, the eye image data can be output to the monitor 1823.
【0102】以上の説明により外部の眼科撮影装置の構
成を示すと共に、第1の実施形態における画像処理装置
の具体的な構成を示した。よって上述の画像処理装置は
第1の実施形態における画像処理装置の動作則を有する
と共に、第2乃至4の実施形態における画像処理方法を
実行することができるのは明白である。よって本実施形
態における画像処理装置が実行する処理のフローチャー
トは第1乃至4の実施形態で示した処理のフローチャー
トであることも又、上述のことから明白である。The above description has shown the configuration of the external ophthalmologic photographing apparatus and the specific configuration of the image processing apparatus according to the first embodiment. Therefore, it is apparent that the above-described image processing apparatus has the operating rules of the image processing apparatus according to the first embodiment and can execute the image processing methods according to the second to fourth embodiments. Therefore, the flowchart of the processing executed by the image processing apparatus according to the present embodiment is the flowchart of the processing described in the first to fourth embodiments, and it is clear from the above description.
【0103】また本実施形態では、関心領域記憶部30
が記憶した関心領域パターンは、被検眼画像中の略眼底
画像有効範囲を示すパターンであったが、医師の診断目
的に応じて異なるパターンでも良く、また複数のパター
ンを有して選択的に用いても良い。In this embodiment, the region of interest storage unit 30
The region-of-interest pattern memorized was a pattern indicating a substantially fundus image effective range in the eye image to be examined, but may be a different pattern depending on the diagnosis purpose of the doctor, or may have a plurality of patterns and be selectively used. May be.
【0104】[第6の実施形態]図20は、本実施形態
における眼科撮影装置と画像処理装置の構成を示すブロ
ック図であり、図18と比べて、結像レンズ1818を
削除し、複数のレンズ群からなるズームレンズ203
2、ズームレンズ2032の移動量を検出することによ
り撮影倍率を検出する撮影倍率検出部2033、また図
20中で光学系を含んだ可動部である点線部Bの位置を
検出することで、被検眼Eが左眼か右眼かを識別する左
右眼検出部2034が追加されている。なお点線部Aで
囲まれた範囲内は眼科撮影装置に含まれ、点線部Bで囲
まれた範囲内は画像処理装置に含まれる。[Sixth Embodiment] FIG. 20 is a block diagram showing the configuration of an ophthalmologic photographing apparatus and an image processing apparatus according to the present embodiment. Zoom lens 203 composed of lens groups
2. The imaging magnification detection unit 2033 that detects the imaging magnification by detecting the amount of movement of the zoom lens 2032, and detects the position of the dotted line B that is a movable unit including an optical system in FIG. A left and right eye detection unit 2034 for identifying whether the optometry E is the left eye or the right eye is added. The area surrounded by the dotted line A is included in the ophthalmologic photographing apparatus, and the area surrounded by the dotted line B is included in the image processing apparatus.
【0105】被検眼Eは第5の実施形態で示した操作と
同様な方法で撮影され、モニタ1823に表示される。
表示された被検眼画像を図21に示す。ただし図21
(a),(b),(c)はズームレンズ2032に対す
る移動操作によって異なる撮影倍率で撮影された画像を
示す。The subject's eye E is photographed by the same method as the operation shown in the fifth embodiment, and is displayed on the monitor 1823.
FIG. 21 shows the displayed eye image to be examined. However, FIG.
(A), (b), and (c) show images photographed at different photographing magnifications by a moving operation on the zoom lens 2032.
【0106】ズームレンズ2032に対する移動操作が
行われると、ズームレンズ2032の移動を検出した撮
影倍率検出部2033は、検出した移動量から撮影倍率
を算出し、算出された撮影倍率をCPU1827に伝え
る。CPU1827は符号化処理を開始する前に関心領
域記憶部1830から読み込んだ関心領域パターンに、
撮影倍率検出部2033が検出した撮影倍率を掛け合わ
せて関心領域パターンを作成する。図22は、図21
(a),(b),(c)それぞれに撮影倍率に応じた演
算後の関心領域パターン(同図点線内のパターン)を重
ねた図を示し、特にアパーチャーマスク部が存在しない
図22(c)においては画像全体を関心領域にしてい
る。この場合の演算は、関心領域記憶部1830から読
み込んだ関心領域パターンに、撮影倍率検出部2033
が検出した撮影倍率を掛け合わせる。その結果が所定の
画像サイズを超えた場合には、適宜、関心領域の形を変
化させて所定の画像サイズ以内に抑えていけば良い。な
お、以上の処理を行う際のフローチャートは、図2では
ステップS107、図11ではステップS201、図1
3ではステップS107,S303,図17ではステッ
プS501、における処理に更に撮像倍率を掛け合わせ
て新たな関心領域パターンを作成する処理を追加したフ
ローチャートである。When a moving operation is performed on the zoom lens 2032, the photographing magnification detecting unit 2033 that has detected the movement of the zoom lens 2032 calculates the photographing magnification from the detected amount of movement, and notifies the CPU 1827 of the calculated photographing magnification. The CPU 1827 adds a region-of-interest pattern read from the region-of-interest storage unit 1830 before starting the encoding process,
A region of interest pattern is created by multiplying by the photographing magnification detected by the photographing magnification detecting unit 2033. FIG.
(A), (b), and (c) each show a diagram in which a region-of-interest pattern (a pattern within the dotted line in the figure) after calculation according to the photographing magnification is superimposed, and in particular, FIG. In ()), the entire image is set as the region of interest. In this case, the calculation is performed by adding the photographing magnification detecting unit 2033 to the ROI pattern read from the ROI storage unit 1830.
Is multiplied by the detected magnification. If the result exceeds the predetermined image size, the shape of the region of interest may be changed as appropriate to keep it within the predetermined image size. It should be noted that a flowchart for performing the above processing is shown in step S107 in FIG. 2, step S201 in FIG.
3 is a flowchart in which the processing in steps S107 and S303 and in FIG. 17 the processing in step S501 are further multiplied by the imaging magnification to create a new region of interest pattern.
【0107】図23に示す被検眼画像も第5の実施形態
と同様な操作で撮影され、モニター1823に表示され
た画像を示しているが、図23(a)は左眼像を示し、
図23(b)は右眼像を示す。また図24(a)は関心
領域記憶部1830が記憶する関心領域パターンの一つ
を同図点線内の領域に重ねた例を示し、乳頭部のみを特
に高画質で保存する関心領域パターンを示す。The image of the eye to be inspected shown in FIG. 23 is also captured by the same operation as in the fifth embodiment, and shows the image displayed on the monitor 1823. FIG. 23 (a) shows the image of the left eye.
FIG. 23B shows a right eye image. FIG. 24A shows an example in which one of the region of interest patterns stored in the region of interest storage unit 1830 is superimposed on a region within a dotted line in the figure, and shows a region of interest pattern in which only the nipple is stored with particularly high image quality. .
【0108】第5の実施形態で示した撮影操作が終了
し、被検眼画像がメモリ1821に取り込まれると、C
PU1827は関心領域記憶部1830から関心領域パ
ターンを読み込むと同時に、左右眼検出部2034から
左眼か右眼かの情報(左右眼情報)を読み込む。例えば
関心領域記憶部2030に図24(a)に示す左眼用の
関心領域パターンのみが記憶され、左右眼検出部203
4から読み込んだ左右眼情報が右眼を示した場合には、
読み込んだ関心領域パターンを左右対称に反転させる画
像処理を施せば、図24(b)に示す右眼用の関心領域
パターンが完成する。When the photographing operation described in the fifth embodiment is completed and the image of the subject's eye is fetched into the memory 1821, C
The PU 1827 reads the region-of-interest pattern from the region-of-interest storage unit 1830 and, at the same time, reads left-right or right-eye information (left-right eye information) from the left-right eye detection unit 2034. For example, only the left-eye region-of-interest pattern shown in FIG.
If the left and right eye information read from 4 indicates the right eye,
By performing image processing for inverting the read region-of-interest pattern symmetrically, the region-of-interest pattern for the right eye shown in FIG. 24B is completed.
【0109】図25は、第5の実施形態で示した操作と
同様にして撮影され、モニタ1823に表示された画像
を示しているが、図25(a)に示した画像を見た操作
者が、不図示の操作部を用いて固視目標提示部1815
を移動し、乳頭部1501が中心になるように(図25
(b)に示した画像になるように)撮影した様子を示
す。FIG. 25 shows an image taken in the same manner as in the operation of the fifth embodiment and displayed on the monitor 1823. The operator who sees the image shown in FIG. However, a fixation target presentation unit 1815 using an operation unit (not shown)
Is moved so that the nipple 1501 becomes the center (FIG. 25).
3 shows a state of shooting (so that the image shown in (b) is obtained).
【0110】また、第5の実施形態で示した撮影操作が
終了し、被検眼画像がメモリ1821に取り込まれる
と、CPU1827は関心領域記憶部1830から関心
領域パターンを読み込むと同時に、固視目標制御部20
35から、撮影した時の固視目標位置を読み込む。例え
ば関心領域記憶部1830に図26(a)に示す通常固
視目標位置の関心領域パターンのみを記憶させておけ
ば、固視目標制御部2035からの固視位置の情報に応
じて通常固視目標(位置)からの移動量を画像上の移動
量に換算して、換算された移動量に基づいて読み込んだ
関心領域パターンを移動させれば図26(b)に示す乳
頭部1601中心用の関心領域パターンが完成する。When the photographing operation shown in the fifth embodiment is completed and the image of the eye to be inspected is stored in the memory 1821, the CPU 1827 reads the region of interest pattern from the region of interest storage unit 1830 and simultaneously performs the fixation target control. Part 20
From 35, the fixation target position at the time of shooting is read. For example, if only the ROI pattern of the normal fixation target position shown in FIG. 26A is stored in the ROI storage unit 1830, the normal fixation is performed according to the fixation position information from the fixation target control unit 2035. The amount of movement from the target (position) is converted into the amount of movement on the image, and if the region of interest pattern read based on the converted amount of movement is moved, the center of the nipple 1601 shown in FIG. The region of interest pattern is completed.
【0111】また本実施形態では、撮影倍率、左右眼、
固視目標位置のパラメータがそれぞれ個別に操作された
例を示したが、複数のパラメータが同時に操作された場
合においてもそれぞれの処理を組み合わせることで容易
に対応が可能である。In this embodiment, the photographing magnification, the left and right eyes,
The example in which the parameters of the fixation target position are individually operated has been described. However, even when a plurality of parameters are simultaneously operated, it is possible to easily cope with them by combining the respective processes.
【0112】なお、本実施形態における画像処理装置及
び眼科撮影装置により、眼科撮影装置で撮影された被検
眼画像に対して左眼、右眼の判別が可能であると共に、
撮影倍率に応じた被検眼画像を生成することができるこ
とを示した。また、固視目標位置の情報に基づいて関心
領域パターンを移動させることができることを示した。The image processing apparatus and the ophthalmologic photographing apparatus according to the present embodiment enable the left eye and the right eye to be distinguished from the subject's eye image photographed by the ophthalmologic photographing apparatus.
It has been shown that an eye image to be inspected can be generated according to the photographing magnification. In addition, it was shown that the region of interest pattern can be moved based on the information of the fixation target position.
【0113】[第7の実施形態]図27は本実施形態に
おける各装置の構成を示すブロック図であり、眼科撮影
装置2700と、内部に画像入力用のハードウエア及び
画像処理用アプリケーションを構成した画像処理装置2
701とが接続された例を示す。画像処理装置2701
の内部の構成としては例えば図18に示す点線部Aで囲
まれた部分が画像処理装置2701に内蔵され、点線部
A以外が眼科撮影装置2700に内蔵され、点線部Aと
CPU1827との通信用に不図示の通信部を備える。[Seventh Embodiment] FIG. 27 is a block diagram showing the configuration of each apparatus in this embodiment. The ophthalmologic photographing apparatus 2700 includes image input hardware and an image processing application therein. Image processing device 2
701 shows an example where it is connected. Image processing device 2701
As an internal configuration, for example, a portion surrounded by a dotted line portion A shown in FIG. 18 is built in the image processing device 2701, the portion other than the dotted line portion A is built in the ophthalmologic photographing device 2700, and a portion for communication between the dotted line portion A and the CPU 1827. Is provided with a communication unit (not shown).
【0114】従って画像処理装置2701は、さまざま
な機種の眼科撮影装置と接続可能となり、眼科撮影装置
と直接接続する場合にのみ限らずPCに準備されたネッ
トワークアダプタや、光磁気ディスク等の可搬型の記録
媒体からも被検眼画像が入力可能な構成が容易に達成で
きる。Therefore, the image processing apparatus 2701 can be connected to various types of ophthalmologic photographing apparatuses. The image processing apparatus 2701 can be connected not only directly to the ophthalmologic photographing apparatus but also to a network adapter prepared in a PC or a portable type such as a magneto-optical disk. A configuration in which the image of the eye to be inspected can be input from the recording medium described above can be easily achieved.
【0115】以上の様に選択した最適な関心領域パター
ンを第5の実施形態と同様に、画像処理装置2701の
処理によって、関心領域の内外で異なる圧縮率で被検眼
画像を処理することが可能となる。As described in the fifth embodiment, the optimum eye region pattern selected as described above can be processed by the image processing device 2701 to process the eye image at different compression ratios inside and outside the eye region. Becomes
【0116】以上の構成においても第6の実施形態で説
明した撮影倍率、左右眼、固視目標位置のパラメータを
図示しない通信部を介して画像処理装置2701に転送
すれば、第6の実施形態と同様な効果が得られる。In the above configuration, if the parameters of the photographing magnification, the left and right eyes, and the fixation target position described in the sixth embodiment are transferred to the image processing device 2701 via the communication unit (not shown), the sixth embodiment is performed. The same effect can be obtained.
【0117】同様に眼科撮影装置以外の記録媒体等から
被検眼画像を入力する場合は、例えば画像ファイルのヘ
ッダー等に眼科撮影装置の機種情報、撮影倍率、左右
眼、固視目標位置のパラメータを書き込んでおくことに
より同様な処理を行うことができる。Similarly, when an eye image to be examined is input from a recording medium other than the ophthalmologic photographing apparatus, for example, the model information of the ophthalmologic photographing apparatus, the photographing magnification, the left and right eyes, and the fixation target position are set in the header of the image file. The same processing can be performed by writing.
【0118】[他の実施形態]上述の各実施形態は眼科
撮影装置へ本発明を適用そて説明したが、他の部位を撮
影する装置に本発明を適用することも可能であることは
明白である。[Other Embodiments] In the above embodiments, the present invention is applied to an ophthalmologic photographing apparatus. However, it is apparent that the present invention can be applied to an apparatus for photographing other parts. It is.
【0119】また、上述の実施形態の目的は、上述した
実施形態の機能を実現するソフトウェアのプログラムコ
ードを記録した記憶媒体(または記録媒体)を、システ
ムあるいは装置に供給し、そのシステムあるいは装置の
コンピュータ(またはCPUやMPU)が記憶媒体に格
納されたプログラムコードを読み出し実行することによ
っても、達成されることは言うまでもない。この場合、
記憶媒体から読み出されたプログラムコード自体が前述
した実施形態の機能を実現することになり、そのプログ
ラムコードを記憶した記憶媒体は上述の実施形態を構成
することになる。また、コンピュータが読み出したプロ
グラムコードを実行することにより、前述した実施形態
の機能が実現されるだけでなく、そのプログラムコード
の指示に基づき、コンピュータ上で稼働しているオペレ
ーティングシステム(OS)などが実際の処理の一部ま
たは全部を行い、その処理によって前述した実施形態の
機能が実現される場合も含まれることは言うまでもな
い。The object of the above-described embodiment is to supply a storage medium (or a recording medium) in which a program code of software for realizing the functions of the above-described embodiment is recorded to a system or an apparatus, and to provide the system or the apparatus. It is needless to say that the present invention is also achieved when a computer (or CPU or MPU) reads out and executes the program code stored in the storage medium. in this case,
The program code itself read from the storage medium implements the functions of the above-described embodiment, and the storage medium storing the program code constitutes the above-described embodiment. When the computer executes the readout program codes, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instructions of the program codes. It goes without saying that a case where some or all of the actual processing is performed and the functions of the above-described embodiments are realized by the processing is also included.
【0120】さらに、記憶媒体から読み出されたプログ
ラムコードが、コンピュータに挿入された機能拡張カー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書込まれた後、そのプログラムコードの指示
に基づき、その機能拡張カードや機能拡張ユニットに備
わるCPUなどが実際の処理の一部または全部を行い、
その処理によって前述した実施形態の機能が実現される
場合も含まれることは言うまでもない。Further, after the program code read from the storage medium is written into the memory provided in the function expansion card inserted into the computer or the function expansion unit connected to the computer, the program code is read based on the instruction of the program code. , The CPU provided in the function expansion card or the function expansion unit performs part or all of the actual processing,
It goes without saying that a case where the function of the above-described embodiment is realized by the processing is also included.
【0121】上述の実施形態を上記記憶媒体に適用する
場合、その記憶媒体には、先に説明した(図2又は、1
1又は、13又は、図16及び17に示したフローチャ
ート、その他上述の各実施形態において説明したフロー
チャート)に対応するプログラムコードが格納されるこ
とになる。When the above-described embodiment is applied to the above-mentioned storage medium, the storage medium described above (FIG.
1 or 13 or the flowcharts shown in FIGS. 16 and 17 and other flowcharts described in the above-described embodiments.
【0122】[0122]
【発明の効果】以上説明した様に、本発明によれば、被
検眼の画像を符号化する際に、注目すべき範囲内(領域
内)の画像のみを他の範囲内よりも高画質に復号化され
るように符号化する効果がある。As described above, according to the present invention, when coding an image of an eye to be inspected, only an image within a remarkable range (within a region) has higher image quality than other ranges. There is an effect of encoding so as to be decoded.
【図1】本発明の第1の実施形態における画像処理装置
のブロック図を示したものである。FIG. 1 is a block diagram illustrating an image processing apparatus according to a first embodiment of the present invention.
【図2】眼科撮影装置で撮像された被検眼画像に対して
関心領域を設定する処理のフローチャートFIG. 2 is a flowchart of a process for setting a region of interest in an eye image to be inspected captured by an ophthalmologic photographing apparatus;
【図3】(a)は眼科撮影装置から入力され、画像表示
部5に出力された被検眼画像を示す図で、(b)は設定
された関心領域を示す図で、(c)は眼底画像と関心領
域パターンとの合成表示された画像を示す図である。3A is a diagram illustrating an eye image to be inspected input from the ophthalmologic photographing apparatus and output to the image display unit 5, FIG. 3B is a diagram illustrating a set region of interest, and FIG. FIG. 7 is a diagram illustrating an image in which an image and a region of interest pattern are combined and displayed.
【図4】画像処理部2の構成の一例を示す図である。FIG. 4 is a diagram illustrating an example of a configuration of an image processing unit 2.
【図5】(a)は離散ウェーブレット変換部2Aの基本
構成を表した図で、(b)は処理部101における処理
の構成を示す図で、(c)は2次元の変換処理により得
られる2レベルの変換係数群の構成例を示す図である。5A is a diagram illustrating a basic configuration of a discrete wavelet transform unit 2A, FIG. 5B is a diagram illustrating a process configuration in a processing unit 101, and FIG. 5C is obtained by a two-dimensional transform process; FIG. 3 is a diagram illustrating a configuration example of a two-level conversion coefficient group.
【図6】(a)はマスク情報を生成する際の一例を示し
た図で、(b)はシフトアップ前の量子化インデックス
を示した図で、(c)はシフトアップ後の量子化インデ
ックスを示した図である。6A is a diagram illustrating an example when mask information is generated, FIG. 6B is a diagram illustrating a quantization index before upshift, and FIG. 6C is a diagram illustrating a quantization index after upshift. FIG.
【図7】(a)は16個の量子化インデックスを示す図
で、(b)は4つのビットプレーンを示す図である。FIG. 7A is a diagram showing 16 quantization indices, and FIG. 7B is a diagram showing four bit planes.
【図8】(a)は符号列の全体の構成を示した図で、
(b)はメインヘッダMHを示す図で、(c)はタイル
ヘッダTHを示す図で、(d)はビットストリームの構
成を示す図である。FIG. 8A is a diagram showing an entire configuration of a code string.
(B) is a diagram illustrating a main header MH, (c) is a diagram illustrating a tile header TH, and (d) is a diagram illustrating a configuration of a bit stream.
【図9】画像処理部2の内部の構成を示す図である。FIG. 9 is a diagram showing an internal configuration of an image processing unit 2.
【図10】(a)は逆離散ウェーブレット変換部2A’
の構成および処理のブロック図を示したもので、(b)
は処理部202における処理の構成を示すのブロック図
である。FIG. 10A shows an inverse discrete wavelet transform unit 2A ′;
FIG. 3 shows a block diagram of the configuration and processing of FIG.
FIG. 4 is a block diagram illustrating a configuration of a process in a processing unit.
【図11】本発明の第2の実施形態における関心領域を
決定する方法のフローチャートFIG. 11 is a flowchart of a method for determining a region of interest according to the second embodiment of the present invention;
【図12】(a)は微調整前の関心領域パターンを示す
図で、(b)は微調整後の関心領域パターンを示す図で
ある。12A is a diagram illustrating a region of interest pattern before fine adjustment, and FIG. 12B is a diagram illustrating a region of interest pattern after fine adjustment.
【図13】第3の実施形態における関心領域を決定する
方法のフローチャートFIG. 13 is a flowchart of a method for determining a region of interest according to the third embodiment;
【図14】左右反転の例を説明するための関心領域パタ
ーンを示す図である。FIG. 14 is a diagram showing a region-of-interest pattern for explaining an example of left-right inversion.
【図15】(a)は外部の眼科撮影装置によって過去に
撮影された被検眼画像を示す図で、(b)は今回撮影し
た被検眼画像を示す図で、(c)は合成表示された画像
を示す図で、(d)は変更する関心パターンのサイズを
示す図ある。15A is a diagram showing a subject's eye image captured in the past by an external ophthalmologic photographing apparatus, FIG. 15B is a diagram showing a subject's eye image captured this time, and FIG. It is a figure which shows an image, and (d) is a figure which shows the size of the pattern of interest to change.
【図16】過去の関心領域を登録する処理の処理のフロ
ーチャートである。FIG. 16 is a flowchart of a process of registering a past region of interest.
【図17】過去に登録された関心領域パターンを設定す
る処理のフローチャートである。FIG. 17 is a flowchart of a process for setting a region of interest pattern registered in the past.
【図18】本発明の第5の実施形態の画像処理装置と外
部の眼科撮影装置との構成を示すブロック図である。FIG. 18 is a block diagram illustrating a configuration of an image processing apparatus and an external ophthalmologic photographing apparatus according to a fifth embodiment of the present invention.
【図19】モニタ1823に出力された被検眼眼底像を
示す図である。FIG. 19 is a diagram showing a fundus image of a subject's eye output to a monitor 1823.
【図20】第6の実施形態における眼科撮影装置と画像
処理装置の構成を示すブロック図である。FIG. 20 is a block diagram illustrating a configuration of an ophthalmologic photographing apparatus and an image processing apparatus according to a sixth embodiment.
【図21】(a)はモニター1823に表示された被検
眼画像を示す図で、(b)はモニター1823に表示さ
れた被検眼画像を示す図で、(c)はモニター1823
に表示された被検眼画像を示す図である。21A is a diagram showing an eye image displayed on the monitor 1823, FIG. 21B is a diagram showing an eye image displayed on the monitor 1823, and FIG.
FIG. 5 is a diagram showing an eye image to be inspected displayed in FIG.
【図22】(a)は図21(a)に撮影倍率に応じた演
算後の関心領域パターン(同図点線内のパターン)を重
ねた図で、(b)は図21(b)に撮影倍率に応じた演
算後の関心領域パターン(同図点線内のパターン)を重
ねた図で、(c)は図21(c)に撮影倍率に応じた演
算後の関心領域パターン(同図点線内のパターン)を重
ねた図である。22A is a diagram in which a region of interest pattern (a pattern within a dotted line in FIG. 21) after calculation according to the photographing magnification is superimposed on FIG. 21A, and FIG. FIG. 21C is a diagram in which the region-of-interest patterns after calculation according to the magnification (patterns in the dotted line in the figure) are superimposed, and FIG. FIG.
【図23】(a)は左眼像を示す図で、(b)は右眼像
を示す図である。23A is a diagram showing a left eye image, and FIG. 23B is a diagram showing a right eye image.
【図24】(a)は関心領域記憶部1830が記憶する
関心領域パターンの一つを同図点線内の領域に重ねた例
を示す図で、(b)は左眼用の関心領域パターンを示す
図である。24A is a diagram showing an example in which one of the region of interest patterns stored in the region of interest storage unit 1830 is superimposed on a region within a dotted line in FIG. 24, and FIG. FIG.
【図25】(a)は乳頭部1501が移動する前のモニ
タ1823に表示された画像を示す図で、(b)は乳頭
部1501が移動した後のモニタ1823に表示された
画像を示す図である。25A is a diagram illustrating an image displayed on the monitor 1823 before the nipple 1501 moves, and FIG. 25B is a diagram illustrating an image displayed on the monitor 1823 after the nipple 1501 moves. It is.
【図26】(a)は通常固視目標位置の関心領域パター
ンを示す図で、(b)は乳頭部1601中心用の関心領
域パターンを示す図である。26A is a diagram showing a region of interest pattern at a normal fixation target position, and FIG. 26B is a diagram showing a region of interest pattern for the center of a nipple 1601. FIG.
【図27】第7の実施形態における各装置の構成を示す
ブロック図である。FIG. 27 is a block diagram illustrating a configuration of each device according to a seventh embodiment.
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) 9A001 Fターム(参考) 5B057 AA07 BA24 CA08 CB08 CG03 5C054 AA01 FC12 FE09 FE19 HA12 5C059 KK08 MA24 PP28 RC28 SS23 TA53 TC47 UA02 UA05 UA31 5C078 AA04 BA12 BA32 BA53 CA02 DA01 DA02 5J064 AA01 BA16 BB01 BC01 BC02 BD03 9A001 BB02 BB03 EE02 EE05 FF05 GG03 HH27 HH28 HH31 JJ71 KK25 LL09 ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 7 Identification code FI Theme coat ゛ (Reference) 9A001 F-term (Reference) 5B057 AA07 BA24 CA08 CB08 CG03 5C054 AA01 FC12 FE09 FE19 HA12 5C059 KK08 MA24 PP28 RC28 SS23 TA53 TC47 UA02 UA05 UA31 5C078 AA04 BA12 BA32 BA53 CA02 DA01 DA02 5J064 AA01 BA16 BB01 BC01 BC02 BD03 9A001 BB02 BB03 EE02 EE05 FF05 GG03 HH27 HH28 HH31 JJ71 KK25 LL09
Claims (27)
装置であって、 前記画像を入力する入力手段と、 前記入力手段より入力された前記画像中に関心領域を設
定する設定手段と、 前記関心領域とその他の領域とで圧縮率を変えて圧縮符
号化を行い、符号列を生成する符号列生成手段と、 前記符号列を記憶する記憶手段と、 前記記憶手段に記憶された符号列に基づいて前記画像を
復元する復号手段とを備えることを特徴とする画像処理
装置。1. An image processing apparatus for performing compression encoding on an image, comprising: input means for inputting the image; setting means for setting a region of interest in the image input from the input means; A code sequence generating unit that performs compression encoding by changing a compression ratio between the region of interest and the other region to generate a code sequence, a storage unit that stores the code sequence, and a code sequence stored in the storage unit A decoding unit for restoring the image based on the image processing.
徴とする請求項1に記載の画像処理装置。2. The image processing apparatus according to claim 1, wherein the image includes an image of the eye to be inspected.
を用いることを特徴とする請求項1に記載の画像処理装
置。3. The image processing apparatus according to claim 1, wherein a wavelet transform is used for the compression encoding.
特徴とする請求項1又は3に記載の画像処理装置。4. The image processing apparatus according to claim 1, wherein the compression encoding is lossless compression.
憶媒体、もしくは前記画像を格納するデータベースサー
バから、前記画像を入力することを特徴とする請求項1
又は2に記載の画像処理装置。5. The image processing apparatus according to claim 1, wherein the input unit inputs the image from a storage medium storing the image or a database server storing the image.
Or the image processing apparatus according to 2.
ることで、この画像が左右どちらの被検眼の画像である
かを特定する情報を生成する左右眼識別手段を更に有す
ることを特徴とする請求項1又は2に記載の画像処理装
置。6. The apparatus according to claim 1, further comprising a left and right eye discriminating unit for detecting information on a position of the apparatus for generating the image to generate information for specifying whether the image is an image of the left or right eye to be inspected. The image processing device according to claim 1.
れた条件が入力されることを特徴とする請求項6に記載
の画像処理装置。7. The image processing apparatus according to claim 6, wherein the input unit further receives a condition under which the image is generated.
の機種情報、前記画像の撮影倍率、固視目標位置のうち
少なくとも一つが含まれていることを特徴とする請求項
7に記載の画像処理装置。8. The apparatus according to claim 7, wherein the condition includes at least one of model information of a device that has generated the image, a photographing magnification of the image, and a fixation target position. Image processing device.
のサイズの領域を前記関心領域として設定することを特
徴とする請求項1又は2に記載の画像処理装置。9. The image processing apparatus according to claim 1, wherein the setting unit sets an area of an arbitrary size in the image as the region of interest.
予め記憶されている関心領域画像記憶手段を更に備え、
前記設定手段は、前記関心領域画像記憶手段から一つ又
は複数の前記関心領域の画像を選択して、前記関心領域
に設定することを特徴とする請求項1又は2に記載の画
像処理装置。10. The image processing apparatus further includes a region of interest image storage unit in which one or more images of the region of interest are stored in advance.
The image processing apparatus according to claim 1, wherein the setting unit selects one or a plurality of images of the region of interest from the region of interest image storage unit and sets the image of the region of interest.
た前記画像に対して左右反転を行う、左右反転手段を更
に有することを特徴とする請求項10に記載に画像処理
装置。11. The image processing apparatus according to claim 10, further comprising left / right inversion means for performing left / right inversion on the image selected from the region of interest image storage means.
憶手段から選択した関心領域の画像に対して、この画像
に関する情報を再設定することを特徴とする請求項10
又は11に記載の画像処理装置。12. The apparatus according to claim 10, wherein the setting unit resets information on the image of the region of interest selected from the region of interest image storage unit.
Or the image processing apparatus according to 11.
サイズであることを特徴とする請求項12に記載の画像
処理装置。13. The information on the region of interest includes a position,
13. The image processing apparatus according to claim 12, wherein the size is a size.
含まれる画像を他の領域の画像に対して高い圧縮率で圧
縮符号化することを特徴とする請求項1乃至4のいずれ
か1項に記載の画像処理装置。14. The image processing apparatus according to claim 1, wherein said code sequence generating means compresses and encodes an image included in the region of interest with an image of another region at a high compression ratio. An image processing apparatus according to claim 1.
ーブレット変換による変換係数に対して、前記関心領域
の位置情報に基づいて、どの変換係数が関心領域に属し
ているかを示すマスク情報を生成することを特徴とする
請求項1に記載の画像処理装置。15. The coding generation means generates mask information indicating which transform coefficient belongs to the region of interest, based on the position information of the region of interest, for the transform coefficient obtained by the discrete wavelet transform. The image processing apparatus according to claim 1, wherein:
と同じ構成をとることを特徴とする請求項15に記載の
画像処理装置。16. The image processing apparatus according to claim 15, wherein the entire mask information has the same configuration as the transform coefficient.
心領域の境界上の画像を復元する際に必要な、周囲の変
換係数を含む範囲であることを特徴とする請求項15又
は16に記載の画像処理装置。17. The area according to claim 15, wherein the area indicated by the mask information is a range including surrounding transform coefficients necessary for restoring an image on a boundary of the region of interest. Image processing device.
画質に相当する情報と、関心領域と非関心領域との画質
の差を示す情報とを用いてこの画像の圧縮符号化を行う
ことを特徴とする請求項1に記載の画像処理装置。18. The method according to claim 18, wherein the code sequence generating means performs compression encoding of the image using information corresponding to the image quality of the entire image and information indicating a difference in image quality between a region of interest and a non-interest region. The image processing apparatus according to claim 1, wherein:
と非関心領域との画質の差を示す情報を用いて関心領域
における変換係数のビットシフト量を計算すると共に、
前記関心領域に属する量子化インデックスのみを前記ビ
ットシフト量分だけビットシフトすることを特徴とする
請求項18に記載の画像処理装置。19. The code sequence generating means calculates a bit shift amount of a transform coefficient in a region of interest using information indicating a difference in image quality between the region of interest and a non-region of interest,
19. The image processing apparatus according to claim 18, wherein only the quantization index belonging to the region of interest is bit-shifted by the bit shift amount.
量子化ステップに相当することを特徴とする請求項18
に記載の画像処理装置。20. The information on the image quality of the entire image,
19. The method according to claim 18, which corresponds to a quantization step.
An image processing apparatus according to claim 1.
その画像に関する情報を入力する画像入力装置であっ
て、 撮像により前記画像を生成する撮像手段と、 前記撮像手段を制御する撮像制御手段と、 前記撮像の際の条件を前記画像に関する情報として検出
する検出手段と、 前記画像及び/又はその画像に関する情報を外部の画像
処理装置に入力する制御を行う入力制御手段とを備える
ことを特徴とする画像入力装置。21. An image input device for inputting an image and / or information related to the image to an external image processing device, comprising: an imaging unit that generates the image by imaging; an imaging control unit that controls the imaging unit; A detection unit configured to detect a condition at the time of imaging as information regarding the image; and an input control unit configured to control input of the image and / or information related to the image to an external image processing apparatus. Image input device.
特徴とする請求項21に記載の画像入力装置。22. The image input device according to claim 21, wherein the image includes an image of an eye to be inspected.
量を検出すると共に、この移動量から前記撮像手段の撮
像倍率を算出する撮像倍率検出手段を更に備えることを
特徴とする請求項21に記載の画像入力装置。23. The apparatus according to claim 21, wherein said detection means further comprises an imaging magnification detection means for detecting an amount of movement of said imaging means and calculating an imaging magnification of said imaging means from said movement amount. The image input device according to the above.
固視位置検出手段を更に備えることを特徴とする請求項
21に記載の画像入力装置。24. The image input apparatus according to claim 21, wherein said detection means further comprises a fixation position detection means for detecting a fixation position.
像に関する情報を入力する画像入力装置と、この画像に
対して圧縮符号化を行う画像処理装置とで構成されるシ
ステムであって、 前記画像入力装置は、 撮像により前記画像を生成する撮像手段と、 前記撮像手段を制御する撮像制御手段と、 前記撮像の際の条件を前記画像に関する情報として検出
する検出手段と、 前記画像及び/又はその画像に関する情報を前記画像処
理装置に入力する制御を行う入力制御手段とを備え、 前記画像処理装置は、 前記画像を入力する入力手段と、 前記入力手段より入力された前記画像中に関心領域を設
定する設定手段と、 前記関心領域とその他の領域とで圧縮率を変えて圧縮符
号化を行い、符号列を生成する符号列生成手段と、 前記符号列を記憶する記憶手段と、 前記記憶手段に記憶された符号列に基づいて前記画像を
復元する復号手段とを備えることを特徴とするシステ
ム。25. A system comprising: an image input device that inputs an image and / or information related to the image to the image processing device; and an image processing device that performs compression encoding on the image. An image capturing unit configured to generate the image by capturing an image; an image capturing control unit configured to control the image capturing unit; a detection unit configured to detect a condition at the time of the image capturing as information related to the image; Input control means for performing control for inputting information about an image to the image processing apparatus, wherein the image processing apparatus includes: an input means for inputting the image; and a region of interest in the image input from the input means. Setting means for setting, code string generating means for performing compression encoding by changing a compression ratio between the region of interest and the other area to generate a code string, and storing the code string. System characterized in that it comprises storage means, a decoding means for restoring the image based on the code sequence stored in the storage means.
理方法であって、 前記画像を所定の入力手段に入力する入力工程と、 前記所定の入力手段より入力された前記画像中に関心領
域を設定する設定工程と、 前記関心領域とその他の領域とで圧縮率を変えて圧縮符
号化を行い、符号列を生成する符号列生成工程と、 前記符号列を所定の記憶手段に記憶する記憶工程と、 前記所定の記憶手段に記憶された符号列に基づいて前記
画像を復元する復号工程とを備えることを特徴とする画
像処理方法。26. An image processing method for performing compression encoding on an image, comprising: an input step of inputting the image to predetermined input means; and a region of interest in the image input from the predetermined input means. A code string generating step of performing a compression encoding by changing a compression ratio between the region of interest and the other area to generate a code string; and storing the code string in a predetermined storage unit. And a decoding step of restoring the image based on the code string stored in the predetermined storage unit.
理装置として機能するプログラムコードを記憶する記憶
媒体であって、 前記画像を所定の入力手段に入力する入力工程のプログ
ラムコードと、 前記所定の入力手段より入力された前記画像中に関心領
域を設定する設定工程のプログラムコードと、 前記関心領域とその他の領域とで圧縮率を変えて圧縮符
号化を行い、符号列を生成する符号列生成工程のプログ
ラムコードと、 前記符号列を記憶する記憶工程のプログラムコードと、 前記記憶手段に記憶された符号列に基づいて前記画像を
復元する復号工程のプログラムコードとを備えることを
特徴とする記憶媒体。27. A storage medium for storing a program code that functions as an image processing device that performs compression encoding on an image, wherein: a program code of an input step of inputting the image to a predetermined input unit; A program code of a setting step of setting a region of interest in the image input from the input means, and a code sequence for performing compression encoding by changing a compression ratio between the region of interest and other regions to generate a code sequence A program code for a generation step, a program code for a storage step for storing the code string, and a program code for a decoding step for restoring the image based on the code string stored in the storage means. Storage medium.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000131628A JP2001313944A (en) | 2000-04-28 | 2000-04-28 | Image processor, image input device, system, image processing method and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000131628A JP2001313944A (en) | 2000-04-28 | 2000-04-28 | Image processor, image input device, system, image processing method and storage medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2001313944A true JP2001313944A (en) | 2001-11-09 |
Family
ID=18640493
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000131628A Withdrawn JP2001313944A (en) | 2000-04-28 | 2000-04-28 | Image processor, image input device, system, image processing method and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2001313944A (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003174645A (en) * | 2001-11-30 | 2003-06-20 | Inst For Information Industry | Method for transforming video image by wavelet transform processing |
JP2005221983A (en) * | 2004-02-09 | 2005-08-18 | Sanyo Electric Co Ltd | Image encoding device and image decoding device, and device and method for image display capable of using the same devices |
JP2006166413A (en) * | 2004-12-02 | 2006-06-22 | Mitsubishi Electric Research Laboratories Inc | Scalable image transcoding method |
JP2007173940A (en) * | 2005-12-19 | 2007-07-05 | Fuji Xerox Co Ltd | Image processing apparatus and image processing system |
JP2007312399A (en) * | 2007-05-31 | 2007-11-29 | Sanyo Electric Co Ltd | Image encoding device and image decoding device, and image display device and method utilizing the same |
JP2009246642A (en) * | 2008-03-31 | 2009-10-22 | Kddi Corp | Video transmission device, video display and video transmission system |
KR100943562B1 (en) | 2002-12-31 | 2010-02-22 | 엘지전자 주식회사 | Digital effect implementing method |
US7720295B2 (en) | 2004-06-29 | 2010-05-18 | Sanyo Electric Co., Ltd. | Method and apparatus for coding images with different image qualities for each region thereof, and method and apparatus capable of decoding the images by adjusting the image quality |
US7796835B2 (en) | 2004-11-18 | 2010-09-14 | Ziosoft, Inc. | Computer readable medium for image processing and image processing method |
US8005309B2 (en) | 2004-02-09 | 2011-08-23 | Sanyo Electric Co., Ltd. | Image coding apparatus, image decoding apparatus, image display apparatus and image processing apparatus |
US8150173B2 (en) | 2004-10-29 | 2012-04-03 | Sanyo Electric Co., Ltd. | Image coding method and apparatus, and image decoding method and apparatus |
JP2016047485A (en) * | 2016-01-14 | 2016-04-07 | 国立大学法人東北大学 | Ophthalmological analysis device and ophthalmological imaging apparatus |
-
2000
- 2000-04-28 JP JP2000131628A patent/JP2001313944A/en not_active Withdrawn
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003174645A (en) * | 2001-11-30 | 2003-06-20 | Inst For Information Industry | Method for transforming video image by wavelet transform processing |
KR100943562B1 (en) | 2002-12-31 | 2010-02-22 | 엘지전자 주식회사 | Digital effect implementing method |
JP2005221983A (en) * | 2004-02-09 | 2005-08-18 | Sanyo Electric Co Ltd | Image encoding device and image decoding device, and device and method for image display capable of using the same devices |
US8326058B2 (en) | 2004-02-09 | 2012-12-04 | Sanyo Electric Co., Ltd. | Image coding apparatus, image decoding apparatus, image display apparatus and image processing apparatus |
US8005309B2 (en) | 2004-02-09 | 2011-08-23 | Sanyo Electric Co., Ltd. | Image coding apparatus, image decoding apparatus, image display apparatus and image processing apparatus |
JP4514464B2 (en) * | 2004-02-09 | 2010-07-28 | 三洋電機株式会社 | Image encoding apparatus and image decoding apparatus, and image display apparatus and method using them |
US7720295B2 (en) | 2004-06-29 | 2010-05-18 | Sanyo Electric Co., Ltd. | Method and apparatus for coding images with different image qualities for each region thereof, and method and apparatus capable of decoding the images by adjusting the image quality |
US8150173B2 (en) | 2004-10-29 | 2012-04-03 | Sanyo Electric Co., Ltd. | Image coding method and apparatus, and image decoding method and apparatus |
US8208738B2 (en) | 2004-10-29 | 2012-06-26 | Sanyo Electric Co., Ltd. | Image coding method and apparatus, and image decoding method and apparatus |
US7796835B2 (en) | 2004-11-18 | 2010-09-14 | Ziosoft, Inc. | Computer readable medium for image processing and image processing method |
JP4606987B2 (en) * | 2004-12-02 | 2011-01-05 | ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド | Scalable image transcoding method |
JP2006166413A (en) * | 2004-12-02 | 2006-06-22 | Mitsubishi Electric Research Laboratories Inc | Scalable image transcoding method |
JP2007173940A (en) * | 2005-12-19 | 2007-07-05 | Fuji Xerox Co Ltd | Image processing apparatus and image processing system |
JP2007312399A (en) * | 2007-05-31 | 2007-11-29 | Sanyo Electric Co Ltd | Image encoding device and image decoding device, and image display device and method utilizing the same |
JP2009246642A (en) * | 2008-03-31 | 2009-10-22 | Kddi Corp | Video transmission device, video display and video transmission system |
JP2016047485A (en) * | 2016-01-14 | 2016-04-07 | 国立大学法人東北大学 | Ophthalmological analysis device and ophthalmological imaging apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210235089A1 (en) | Image processing device, image processing method, and program | |
CN1294535C (en) | Diagnostic image capture | |
JP4511821B2 (en) | Method, program and apparatus for determining important region in image | |
US11109916B2 (en) | Personalized hand-eye coordinated digital stereo microscopic systems and methods | |
JP5428886B2 (en) | Information processing apparatus, information processing method, and program thereof | |
JP4932588B2 (en) | Image processing apparatus and image processing program | |
JP5963009B2 (en) | Digital specimen preparation apparatus, digital specimen preparation method, and digital specimen preparation server | |
US11190744B2 (en) | Image processing device, image processing method, and program for determining a cost function for mode selection | |
US9710598B2 (en) | Information processor, image data optimization method and program | |
JP2001313944A (en) | Image processor, image input device, system, image processing method and storage medium | |
EP3557868A1 (en) | Image processing device, image processing method, and program | |
JP4164211B2 (en) | Image processing apparatus and method | |
JP2009111851A (en) | Image decompression apparatus, image decompression program, and image decompression method | |
JP2001275979A (en) | Instrument and method for imaging ocular image, setting device, recording medium | |
JP4653041B2 (en) | System and method for synthesizing image blocks and creating a seamless enlarged image of a microscope slide | |
US20240070810A1 (en) | Image processing apparatus, operation method of image processing apparatus, and endoscope system | |
JP7179837B2 (en) | Endoscope device, endoscope image display method, and operation method of endoscope device | |
JP2023178162A (en) | Microscope system and data processing method | |
JPH10274741A (en) | Specimen remote observation system | |
JP6658191B2 (en) | Encoding device, encoding method, and program | |
JP4095323B2 (en) | Image processing apparatus, image processing method, and image processing program | |
WO2001027678A1 (en) | Microscope and method for compressing and storing of digital images | |
WO2023233922A1 (en) | Microscope system and data processing method | |
JPH08340534A (en) | Video signal processor | |
JPH10285587A (en) | Multi-window image display system and remote inspection system using the system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20070703 |